2016
2016 Redaktion Wed, 20.03.2019 - 01:04Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?
Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?Do, 22.12.2016 - 05:22 — Redaktion
Mikroorganismen sind überall -um uns herum und natürlich auch auf und in unserem Körper. In den letzten Jahren ist das Interesse an diesen Mitbewohnern und deren Einfluss auf unseren Metabolismus und unsere Gesundheit enorm gestiegen. Bis vor kurzem ging man davon aus, dass im Organismus zehnmal, ja sogar hundertmal mehr Mikroorganismen als Humanzellen vorliegen- einer kaum hinterfragten Schätzung aus den 1970er Jahren. Der Biologe Ron Milo (Begründer der "BioNumbers database" und Professor am Weizman-Institut, Rehovot) und sein Team haben nun eine kritische Analyse und Quantifizierung der unterschiedlichen Zelltypen ausgeführt: demnach enthält unser Körper etwa 30 Billionen menschliche Zellen, wobei rund 90 % davon hämatopoietische (blutbildende) Zellen sind, die Zahl der Bakterien liegt bei circa 39 Billionen, etwa gleichauf mit der Zahl der Humanzellen. Der folgende Artikel ist eine stark gekürzte, aus dem Englischen übersetzte Version der vor Kurzem in PLoSBiol (open access, cc-by) veröffentlichten Untersuchung von R. Sender, S. Fuchs und R. Milo [1].
Wie viele Zellen enthält der menschliche Körper?
Außer Angaben von Größenordnungen - diese allerdings ohne deren Quelle oder Abweichungsbreite zu nennen - sind hierzu nur sehr wenige detaillierte Abschätzungen erfolgt. Ähnliches gilt für die weltweit kolportierte Feststellung, dass 100 bis 1000 Billionen (1014 bis 1015) Bakterien, d.i. 10- bis 100-mal mehr Bakterien als Humanzellen, unseren Körper besiedeln - es sind dies Zahlen, die ihren Ursprung in einer groben Schätzung aus dem Jahr 1972 haben und offensichtlich nicht mehr hinterfragt wurden.
Vor Kurzem ist eine Untersuchung des Teams von Ron Milo (Weizman Institute of Sciences, Rehovot) in den Fachjournalen Science und PLoSBiol erschienen, die auf eine verlässlichere Abschätzung der humanen und mikrobiellen Zellzahlen in einzelnen Organen abzielt [1, 2]. Diese Schätzungen (die inklusive Unsicherheitsbereichen angegeben werden) basieren auf der kritischen Analyse einer umfassenden Sammlung von älteren bis neuesten Literaturangaben zur Anzahl von Zellen und Größe von Organen. Da der Großteil dieser Angaben an Gruppen von Männern erhoben wurde, geht die Untersuchung von einem "Standard"-Mann aus, der als 20 - 30 Jahre alt, 70 Kilo schwer und 1,70 groß definiert ist.
Unser Mikrobiom
Mikroben gibt es überall im menschlichen Körper, hauptsächlich sitzen sie auf den äußeren und inneren Oberflächen: u.a. im Gastrointestinaltrakt, auf der Haut, im Speichel, auf der Mundschleimhaut und der Bindehaut. Bakterien sind dabei die dominierenden Mikroorganismen, ihre Zahl übersteigt die der Archäa und Eukaryoten (Pilze) um 2 - 3 Größenordnungen, die letzteren spielen bei der Abschätzung der Gesamtzahl unserer Mitbewohner also kaum eine Rolle, sind also vernachlässigbar.
Quantitativ betrachtet sitzt die überwiegende Mehrheit der Bakterien im Verdauungstrakt und hier vor allem im Dickdarm. Jeder Milliliter Dickdarminhalt enthält rund 90 Milliarden Mikroorganismen. Im angrenzenden, unteren Teil des Dünndarms ("Ileum") gibt es nur etwa 100 Millionen Mikroben/ml, im davor liegenden oberen Teil des Dünndarms (Jejunum), im Duodenum und ebenso im (sauren) Magen ist deren Konzentration auf 1000 - 10 000/ml gesunken. Bei einem inneren Volumen des Dickdarms von etwa 400 ml (auf den "Standard"-Mann bezogen) enthält dieser Abschnitt bis zu 38 Billionen Bakterien (Standardfehler 25 %). Alle anderen Abschnitte des Verdauungstraktes und auch der übrigen Organe tragen insgesamt höchstens 1 Billion Mikroben zur Gesamtzahl bei. Im Mundbereich sitzen zwar sehr viele Bakterien im Zahnbelag und im Speichel - in Anbetracht der kleinen Volumina dieser Kompartimente ist der Beitrag zur Gesamtzahl Mikroben aber vernachlässigbar. Abbildung 1 zeigt typische Konzentrationen von Bakterien im Verdauungstrakt uns auf unserer Haut.
Abbildung 1. Konzentration von Bakterien in Organen des menschlichen Körpers. Im Colon wurde die Bakterienzahl in verdünnten Stuhlproben bestimmt, u.a. durch Flureszenzmikroskopie. (Basierend auf den Daten von Tabelle 1 in [1] wurde die Abbildung von der Redaktion erstellt.)
Das Volumen des Dickdarminhalts bestimmt also die Zahl an Bakterien in unserem Körper. Dieses für den "Standard"-Mann mittels MRI (Magnetresonanz) bestimmte Volumen von rund 0,4 l (Standardabweichung 17 %) erhöht sich nach Mahlzeiten um ca. 10 % und ist nach jedem Stuhlgang um etwa ein Viertel bis ein Drittel reduziert.
Wie tragen Bakterien zu unserem Gesamtgewicht bei? Hier braucht wieder nur der Dickdarminhalt berücksichtigt werden, der rund 0,2 kg Bakterien (Trockengewicht 50 - 100g) oder 0,3 % des Körpergewichtes eines 70 kg Mannes entspricht. Damit unterscheiden sich diese Daten wesentlich von früheren Schätzungen, die davon ausgingen, dass der Mensch 1 - 3 kg Bakterien beherbergt.
Zur Zahl unserer Körperzellen…
Die meisten Literaturangaben gehen davon aus, dass es zwischen einer Billion (1012) und 100 Billionen (1014) Körperzellen gibt. Diese Zahlen resultieren aus groben Überschlagsrechnungen, indem man das Körpergewicht durch das Gewicht einer Zelle teilt. Dabei werden für Zellen Volumina von 1 000 bis 10 000 µm3 und der Einfachheit halber eine Dichte ähnlich wie Wasser angenommen -eine durchschnittliche Zelle würde dann 10-12 bis 10-11 kg schwer sein.
Eine differenzierterer Ansatz geht nicht von derartigen durchschnittlichen Zellen aus sondern zählt die unterschiedlichen Zellen ihrem Typ entsprechend - beispielsweise Erythrocyten im Blut oder z.B Muskelzellen oder Fettzellen direkt in ihren Organen (mittels histologischer Bestimmungen). Eine kürzlich erfolgte Studie hat 56 Kategorien von Zelltypen unterschieden und deren Zahl im Körper bestimmt [3]. Ron Milo und sein Team haben diese Daten kritisch revidiert und erheben für den Standard-Mann nun eine Gesamtzahl an Körperzellen von 30 Billionen (3.1013). 13 der 56 Kategorien machen 98 % der gesamten Humanzellen aus (Abbildung 2):
Abbildung 2. Anteil der unterschiedlichen Zelltypen an der Gesamtzahl humaner Körperzellen. Nur Zelltypen, die > 0,4 % zur Gesamtzahl (rund 30 Billionen)beitragen, sind dargestellt. Die Fläche der Vielecke ist proportional zur Zellzahl (Voronoi tree map; Visualization performed using the online tool at http://bionic-vis.biologie.unigreifswald.de/.)
Die roten Blutkörperchen (Erythrocyten) sind die dominierende Zellenart. Bei einem Blutvolumen von 4,9 Liter und einer mittleren RBC-Zahl von 5 Milliarden Zellen im Milliliter kommt man zu einer Gesamtzahl von 2,5 x 1013 (25 Billionen). Nahezu 90 % aller Zellen besitzen keinen Zellkern: es sind dies Erythrocyten (84 %) und Platelets (4,9 %); nur 10 % aller Zellen haben einen Zellkern.
Die differenzierteren Analysen kommen zu wichtigen neuen Ergebnissen: so wird das früher akzeptierte 10 : 1 Verhältnis von Gliazellen zu Neuronen durch eine neue Studie widerlegt: mit jeweils 8,5 x 1010 ist die Anzahl der Glia-Zellen und Neuronen etwa gleich hoch. Abschätzungen der Endothel-Zellen, welche die gesamte Länge des Gefäßsystems als Basis nehmen, ergaben eine auf ein Viertel reduzierte Zellzahl (600 Milliarden). Besonders drastisch reduzierte sich die Zahl der Fibroblasten der Haut - von 1,85 Billionen auf 26 Milliarden - als deren Dichte über die gesamte Dicke der Dermis bestimmt wurde.
…und wie sie zur Gesamtmasse beitragen
Es besteht eine offensichtliche Diskrepanz zwischen den Beiträgen zur gesamten Zellmasse und zur Zahl der Zellen. Abbildung 3.
Abbildung 3. Anzahl und Massen unterschiedlicher Zelltypen im Körper eines 70 kg schweren Mannes. Oben: Zahl der Zellen (in Billionen); Unten: Beiträge zur Masse (in kg; die extrazelluläre Masse von rund 24 kg ist nicht miteinbezogen). Rechts: Zum Vergleich Bakterien, die im Menschen nur 0,2 kg der gesamten Masse ausmachen.
Erythrocyten, mit 84 % die zahlreichsten Zellen, sind die kleinsten Zellen (Volumen: etwa 100 µm3) und tragen insgesamt 3 kg zur Gesamtmasse bei. Im Gegensatz dazu setzen sich 75 % der gesamten Zellmasse aus den großen (>10 000 µm3) Muskel- und Fettzellen zusammen, die aber nur einen kleinen Anteil von 0,2 % an der Gesamtzahl ausmachen.
Bakterien - entsprechend ihrem sehr kleinen Volumen - tragen nur 0,2 kg zur Gesamtmasse bei, sind zahlenmäßig jedoch vergleichbar mit der Gesamtzahl an Körperzellen.
Fazit
Dass das Verhältnis von Bakterien zu Körperzellen nun nahe 1:1 liegt, verringert nicht die biologische Bedeutsamkeit unserer Mitbewohner. Die aktuelle Studie führt uns aber die Grenzen unseres derzeitigen Verstehens vor Augen und zeigt uns die Wichtigkeit eines quantitativen Verständnisses.
Zahlen sollten auf den jeweils besten verfügbaren Daten basieren, um einen quantitativen biologischen Diskurs ernsthaft zu führen, um spezifische biologische Fragen zu beantworten. Die Kenntnis von Zellzahlen konnte beispielweise in einer rezenten Studie Unterschiede in der Tumoranfälligkeit verschiedener Organe verständlich machen [4]. Derartige quantitative Betrachtungen finden ihre Anwendung auch auf dynamische Prozesse in der Entwicklung und auf die Akkumulation von Mutationen.
Von Überschlagsrechnungen zu quantitativem Denken: Welches Problem scheint geeigneter zu sein, um von einer quantitativen Perspektive aus betrachtet zu werden, als die Frage woraus unsere Körper bestehen, der Delphische Imperativ "Erkenne Dich selbst".
[1] Sender R, Fuchs S, Milo R (2016) Revised Estimates for the Number of Human and Bacteria Cells in the Body. PLoS Biol 14-8: e1002533.doi:10.1371/journal.pbio.1002533. Open access. cc-by
[2] Sender R, Fuchs S, Milo R (2016) Are We Really Vastly Outnumbered? Revisiting the Ratio of Bacterial to Host Cells in Humans. Cell 164: 337-340 http://dx.doi.org/10.1016/j.cell.2016.01.013
[3] Bianconi E, Piovesan A, Facchin F, Beraudi A, Casadei R, Frabetti F, et al. An estimation of the number of cells in the human body. Ann Hum Biol 2013; 40:463–71. doi:10.3109/03014460.2013.807878 PMID: 23829164
[4] Tomasetti C, Vogelstein B. Variation in cancer risk among tissues can be explained by the number of stem cell divisions. Science 2015; 347:78–80. doi: 10.1126/science.1260825 PMID: 25554788
Weiterführende Links
Ron Milo: A sixth sense for understanding our cells. TEDxWeizmannInstitute . Video 15:01 min. Veröffentlicht am 20.08.2014 BioNumbers database: http://bionumbers.hms.harvard.edu/ Ron Milo, Associate Professor am Department of Plant and Environmental Sciences at the Weizmann Institute of Science hat diese Datenbank . He created the BioNumbers database when he was a Systems Biology Fellow at Harvard Medical School
Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie
Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen BiologieDo, 29.12.2016 - 05:08 — Redaktion
In der vergangenen Woche waren aufsehenerregende Befunde zur Frage, wie viele und welche Zellen der menschliche Körper enthält, im ScienceBlog erschienen. Außer diesen Daten hat der Biologe Ron Milo (Professor am Weizman-Institut, Rehovot) zusammen mit dem Biophysiker Rob Phillips (Professor am Caltech, Pasadena) eine Datenbank "BioNumbers" [1] für biologische Daten geschaffen, die quantitativ und in allen Details schnellstens aufgerufen werden können. Mit dem vor kurzem online und im Printformat erschienenen "Cell Biology by the Numbers" [2] ist den Autoren ein Meilenstein auf dem Weg zu einer quantitativen Biologie gelungen.
Biologie als Lehre von den lebenden Systemen ist lange ohne quantitative Beschreibungen - d.i. ohne eine Basis an konkreten Zahlen und Formeln - ausgekommen. Charles Darwin, beispielsweise hat in seinem Buch „Über die Entstehung der Arten“ keine einzige mathematische Formel verwendet. Allerdings meinte er später: "nach Jahren habe ich es zutiefst bedauert nicht zumindest ein bisschen von den grundlegenden Prinzipien der Mathematik zu verstehen. Menschen, die darin begabt sind, haben einen zusätzlichen Sinn."[3].
Ganz im Gegensatz zu den Disziplinen Physik und Chemie, auf deren Gesetzen ja auch die Biologieaufbaut, hat in dieser quantitatives Denken bislang eine weniger bedeutende Rolle gespielt. Bedingt durch die ungeheure Komplexität lebender Systeme, werden Phänomene auch heute meistens bloß qualitativ beschrieben ohne auf ein "wie viel" oder "wie schnell" einzugehen, werden experimentelle Ergebnisse in Form punktueller Aufnahmen des zellulären Geschehens dargestellt. Handbücher in der Physik oder Chemie ermöglichen Schlüsseldaten/Kenngrößen sehr rasch aufzufinden. Dergleichen hat bis jetzt in der Biologie gefehlt. Es ist ein überaus frustrierender, langwieriger Prozess einigermaßen verlässliche Schlüsseldaten auch zu ganz trivialen Fragen aus der exponentiell wachsenden Fülle an Fachliteratur und online-Informationen zu extrahieren. Quantitative Eigenschaften biologischer Systeme hängen ja vom Organismus/Zelltyp, seinem Zustand und den experimentellen Methoden ab. Was man findet sind Daten, die aus unterschiedlichen Quellen stammen, unter unterschiedlichen experimentellen Bedingungen gewonnen wurden, nicht standardisiert sind und deren Streuung unbekannt ist.
Die Notwendigkeit Schlüsselzahlen und Standardgrößen zusammenzustellen, die das Leben von Zellen beschreiben, ist offensichtlich. Dies haben Ron Milo (Prof. am Weizmann Institute of Sciences, Rehovot) und Rob Phillips (Professor of Biophysics and Biology at California Institute of Technology - Caltech - Pasadena) mit der Schaffung einer Datenbank "BioNumbers" [1] und vor kurzem mit einem online frei zugänglichen Handbuch "Cell Biology in Numbers" [ 2] getan.
"BioNumbers" - eine Datenbank nützlicher biologischer Zahlen
Bereits 2007 haben Ron Milo und Rob Phillips begonnen eine Website [1] zu entwickeln, die als Portal für die enorme Fülle von Messdaten an biologischen Systemen dient und zwar auf der molekularen und zellulären Ebene. Das Ziel dieser Seite ist es jede gängige biologische Zahl "in einer Minute" aufzufinden und dies zusammen mit Angabe der Quelle, der Bestimmungsmethode und anderen relevanten Informationen. Zahlen, die man nicht so leicht findet, etwa zu Fragen wie: welches Volumen haben die unterschiedlichsten Zelltypen, wie lange dauern die Generationszeiten von Organismen, wie hoch sind die Konzentrationen von Ionen und Metaboliten in Zellen oder wie viele Ribosomen sind in verschiedenen Zelltypen. Die Angaben sind mit Kennzahlen - BioNumbers Identification Number (BNID) - versehen, die auf der Website oder von Google aus aufgerufen werden können und alle Details aufzeigen.
Dazu gibt es auch Daten-Kollektionen zu speziellen Fragestellungen wie z.B. zur Photosynthese oder über "erstaunliche BioNumbers" .
Ein Beispiel, wie Daten zusammengefasst werden, findet sich unter der Rubrik "Key Bionumbers" (Schema). Schema 1. Eine Zusammenstellung fundamentaler Zahlen für den Zellbiologen. Der Klick auf eine Zahl zeigt deren Quelle und eine ausführliche Beschreibung (häufig in Tabellenform) "BioNumbers" wird koordiniert und entwickelt im Milo lab am Weizmann Institute http://bionumbers.hms.harvard.edu/KeyNumbers.aspx
"Cell Biology by the Numbers"
Das knapp 400 Seiten starke Buch [2] führt den Leser in grandioser Weise zu einem "Zählen in der Biologie". In insgesamt 6 Kapiteln lädt es ein, grundlegende Daten lebender Zellen quantitativ zu erkunden. Die Kapitel befassen sich mit der Größe und Geometrie von Zellen, mit Konzentrationen, mit Energien und Kräften, mit Geschwindigkeiten, mit Information und Fehlerbreite. Jedes Kapitel enthält eine Reihe von Skizzen ("Vignetten"), jeweils eingeleitet durch eine Fragestellung. Die Antwort erfolgt in Form leicht verständlicher, kurzer Geschichten, die alle relevanten Parameter/Zahlen und erklärende Illustrationen enthalten. Fragen im Kapitel "Größe von Zellen" sind beispielsweise:
Wie groß sind Viren? Wie groß ist E.coli und welche Masse hat es? Wie groß ist eine knospende Hefezelle? Wie groß ist eine menschliche Zelle?
Dass menschliche Zellen sehr unterschiedliche Größe haben können, ist in der folgenden Tabelle dargestellt.
Tabelle. Charakteristische Volumina menschlicher Zellen. Für Zellen wie Neuronen oder Fettzellen werden Größenunterschiede von bis zu mehr als dem Zehnfachen beobachtet. Andere Zellen - z.B. rote Blutkörperchen - haben nur geringe Größenunterschiede. 1μm: 1/1000 mm; ein Volumen 1μm3 wiegt - auf Wasser bezogen - 1picogram (1/Milliardstel mg). BNID: BioNumbers Identification Number, werden auf der Website "BioNumbers" oder von Google aus aufgerufen und bieten Referenzen und Kommentare. (Quelle: http://book.bionumbers.org/ p. 44; adaptiert)
Ein ganz wesentlicher Aspekt dieser Skizzen ist aber, dass zu einzelnen Fragestellungen Berechnungen ausgeführt werden. Es sind Überschlagsrechnungen. Mit deren Hilfe kann der Leser nachvollziehen, wie einige der Schlüsseldaten zustandekommen und selbst ähnliche Abschätzungen für seine eigenen Zwecke anwenden. Als Beispiel ist hier die Abschätzung angeführt: Wie lange braucht ein Proteinmolekül, um von einem Ende der Zelle zum anderen zu gelangen (Abbildung).
Abbildung. Welche Zeit braucht ein Protein um eine Zelle durch Diffusion zu durchqueren? Die Überschlagsrechnung nimmt ein relativ kleines Protein (MW: 30 000 D) an, sein Diffusionskoeffizient D (in μm2/s) gilt für das proteinreiche Zellplasma, der Faktor 6 im Nenner der Gleichung berücksichtigt Diffusion in alle 3 Dimensionen. Die Distanz R hängt von der Zellgröße ab. Erstaunliches Ergebnis:Diffusion entlang eines 1 cm langen Axons einer Nervenzelle würde 20 Tage in Anspruch nehmen. (Quelle: http://book.bionumbers.org/ p. 362).
Fazit
Von der Fülle an Informationen, welche die Datenbank "BioNumbers" und das vor kurzem online und im Printformat erschienene "Cell Biology by the Numbers" bieten, konnte hier natürlich nur ein winziger Ausschnitt gebracht werden. Das Buch ist leicht zu lesen, ganz nach Belieben absatzweise, kapitelweise. Es bringt sowohl dem Wissenschafter dringend benötigte Daten als auch dem interessierten Laien Einblicke in die Parameter, die das Leben von Zellen steuern. Es verführt ihn zum Schmökern und macht ihm völlig neue Zusammenhänge klar, lässt ihn vielleicht sogar selbst Abschätzungen über biologische Prozesse ausführen.
Zweifellos ist den Autoren Ron Milo und Rob Phillips mit ihrem Buch ein Meilenstein auf dem Weg zu einer quantitativen Biologie geglückt.
[1] BioNumbers database Milo et al. Nucl. Acids Res. (2010) 38 (suppl 1): D750-D753. http://bionumbers.hms.harvard.edu/
[2] Ron Milo, Rob Phillips, Cell Biology by Numbers . Draft: online free accessible http://book.bionumbers.org/ Printed: Garland Science, Taylor & Francis Group (December 07, 2015) [3] The autobiography of Charles Darwin by Charles Darwin. http://www.gutenberg.org/files/2010/2010-h/2010-h.htm
homepage Ron Milo: http://www.weizmann.ac.il/plants/Milo/
homepage Rob Phillips: http://www.rpgroup.caltech.edu/people/phillips.html
Weiterführende Links
- Ron Milo: A sixth sense for understanding our cells. TEDxWeizmannInstitute . Video 15:01 min. Veröffentlicht am 20.08.2014.
- Rob Phillips: "A Vision for Quantitative Biology" given at the iBioMagazine in August 2010. Video 15:15 min.
Vorlesungszyklus von Ron Milo
Cell Biology by the Numbers, 2014
6 Vorlesungen, die im Wesentlichen die Kapitel des gleichnamigen Buchs zum Inhalt haben und insbsondere Überschlagsrechnungen zum Inhalt haben. Die Dauer der Vorlesungen liegt zwischen 1:03 und 1:38 Stunden.
1) https://www.youtube.com/watch?v=DV0JjwrBVU4
2) https://www.youtube.com/watch?v=rcFfDkgJG2Y
3) https://www.youtube.com/watch?v=H7DVKQS69W8
4) https://www.youtube.com/watch?v=M54MQ_14UBk
5) https://www.youtube.com/watch?v=YFyC0kus0-E
6) https://www.youtube.com/watch?v=2RBmPLPfzKg
Artikel im ScienceBlog
- Redaktion, 22.12.2016. Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?
- Peter Schuster, 23.05.2014. Gibt es einen Newton des Grashalms?
Die Großhirnrinde, ein hochdimensionales, dynamisches System
Die Großhirnrinde, ein hochdimensionales, dynamisches SystemDo, 15.12.2016 - 03:48 — Wolf Singer & Andreea Lazar
Wie schafft es unser Gehirn aus einer Vielzahl an optischen, klanglichen und haptischen Sinneseindrücken einheitliche Wahrnehmungen zu erzeugen? Wie können daraus kohärente Bilder der Welt entstehen? Wolf Singer (Direktor em. am Max-Planck-Institut für Hirnforschung und Leiter des Ernst Strüngmann Instituts für Neurowissenschaften; Frankfurt/M), einer der weltweit profiliertesten Neurowissenschafter, und Andreea Lazar (Postdoc am Max-Planck-Institut für Hirnforschung) zeigen hier auf , dass die Funktionsabläufe in unserem Gehirn nicht zentral organisiert sind, sondern in hohem Maße parallel erfolgen. Dass in der Großhirnrinde ein Prinzip der Informationskodierung und Verarbeitung verwirklicht ist, welches auf der hohen Dimensionalität dynamischer Zustände von rekurrierend gekoppelten Netzwerken basiert.*
Wahrnehmen beruht auf Rekonstruktion
Damit Sinnessignale Wahrnehmungen werden können, müssen sie unter Hinzuziehung von Vorwissen, das im Gehirn gespeichert ist, geordnet und interpretiert werden. Ein erheblicher Anteil dieser Rekonstruktionen wird von der Großhirnrinde erbracht. Wie einzigartig diese Leistung ist, wird deutlich, wenn man bedenkt, dass zum Beispiel auf der Netzhaut des Auges durch den optischen Apparat lediglich eine zweidimensionale, kontinuierliche Verteilung elektromagnetischer Wellen erzeugt wird, die sich in ihrer Intensität und Wellenlänge unterscheiden.
Aus dieser Information, die über die Nervenzellen in der Netzhaut in neuronale Erregungen verwandelt und an die Hirnrinde weitergeleitet wird, erzeugt das Gehirn dann das, was wir wahrnehmen: dreidimensionale Objekte, die voneinander und dem Hintergrund deutlich abgegrenzt und damit identifizierbar sind. Es ist dies eine Leistung, die selbst von den besten derzeit verfügbaren technischen Mustererkennungssystemen nur unter eingeschränkten und relativ stereotypen Bedingungen erbracht werden kann. Unser Gehirn löst diese Aufgabe mühelos und in Bruchteilen einer Sekunde.
Eine notwendige Voraussetzung für diesen Verarbeitungsschritt, der als Szenen- oder Bildsegmentierung benannt wird, ist der Vergleich der einlaufenden Sinnessignale mit gespeicherten Modellen über die Struktur der Sehwelt. Das Gehirn weiß bereits, wie Objekte beschaffen sind und nutzt dieses Vorwissen, um die verfügbaren Sinnessignale zu ordnen und miteinander so zu verbinden, dass voneinander abgegrenzte Gestalten erkennbar werden. Schon in den Dreißigerjahren des letzten Jahrhunderts haben Gestaltpsychologen wie Wertheimer, Koffka und Köhler, die unter anderem in Frankfurt tätig waren, diejenigen Gestaltprinzipien herausgearbeitet, nach denen unsere Gehirne Objekte voneinander abgrenzen.
So zeichnet sich ein Objekt dadurch aus, dass es eine kontinuierliche, geschlossene Umrandung aufweist, dass sich alle seine Konturen mit der gleichen Geschwindigkeit in die gleiche Richtung bewegen, wenn sich das Objekt bewegt, dass seine Bestandteile gewisse Merkmale gemein haben, beispielsweise miteinander verbunden zu sein, oder die gleiche Farbe oder Textur zu haben. Viele psychophysische Experimente verweisen darauf, dass diese Regeln im Gehirn abgespeichert sind und über alle Spezies hinweg große Ähnlichkeiten aufweisen. Letzteres ist nicht verwunderlich, da wir alle in der gleichen Welt leben, mit den gleichen Wahrnehmungsproblemen konfrontiert sind und sich im Laufe der Evolution der Arten eine optimale Strategie herausgebildet hat.
"Wir bilden nicht ab, wir konstruieren"
Das Wissen über Gestaltprinzipien ist zum großen Teil angeboren und in der Verschaltung der Großhirnrindenareale niedergelegt, die sich mit der Verarbeitung von Sinnessignalen befassen. Uns ist nicht bewusst, dass wir über diese Regeln verfügen, da sie über evolutionäre Ausleseprozesse optimiert, in den Genen gespeichert und in der Architektur unseres Nervensystems niedergelegt wurden. Ein Teil der Gestaltkriterien wird jedoch im Laufe der frühen Hirnentwicklung durch Erfahrung erlernt und ebenfalls durch strukturelle Veränderungen in den entsprechenden Neuronennetzen gespeichert und steht dann genauso wie das angeborene Vorwissen für die Interpretation von Sinnessignalen zur Verfügung.
Eine zentrale und noch weitestgehend ungelöste Frage ist nun, wie die Verrechnung der eingehenden Sinnessignale mit dem gespeicherten Vorwissen erfolgt. Einige Randbedingungen, die im Folgenden erläutert werden, lassen erahnen, dass es sich hier um einen ganz außergewöhnlichen Vorgang handeln muss, für den es keine triviale Erklärung geben kann.
Ein geheimnisvolles Speichermedium
Zur Veranschaulichung des Problems muss in Erinnerung gerufen werden, dass Menschen, aber das gilt auch für die meisten anderen Tierarten mit hoch differenzierten Sehsystemen, etwa viermal in der Sekunde die Blickrichtung wechseln, um die Sehwelt zu erkunden oder Bilder auf ihren Gehalt hin abzutasten. Dies bedeutet, dass die Vergleichsoperationen zwischen einlaufenden Sinnessignalen und dem gespeicherten Vorwissen in etwa 200 Millisekunden erfolgen muss. Wenn der Segmentierungsprozess ein vertrautes Objekt isoliert, ist auch der Erkennungsprozess innerhalb von wenigen hundert Millisekunden abgeschlossen. Dies bedeutet, dass auch das gesamte im Gehirn gespeicherte Wissen über Objekte, denen man im Laufe des Lebens begegnet ist, in einem Speicher abgelegt sein muss, der es erlaubt, auf beliebige Inhalte innerhalb von Bruchteilen einer Sekunde zuzugreifen.
In den heute für die Musterverarbeitung verwendeten Computersystemen ist für jeden gespeicherten Inhalt ein adressierbarer Speicherplatz reserviert und die Suche nach dem gewünschten, für den Abgleich erforderlichen Speicherinhalt erfolgt im Wesentlichen seriell. Diese einfache Strategie ist hoch effizient, weil Elektronenrechner mit sehr hoher Taktfrequenz arbeiten können und deshalb die Suchzeiten erträglich sind.
…ein parallel strukturierter Suchprozess
Im Gehirn kann eine solche Strategie keinesfalls realisiert sein, da die Zeitkonstanten, mit denen Neuronen arbeiten, um viele Größenordnungen länger sind als die von Transistoren. Es muss also ein anderes Prinzip verwirklicht sein. Es muss ein Speicherplatz konfiguriert werden, in dem eine unvorstellbare Zahl von Inhalten so gestapelt werden kann, dass auf sie ein parallel strukturierter Suchprozess angewandt werden kann, sodass die Zugriffszeit nur unwesentlich von der Lage des zu suchenden Inhaltes abhängt.
Bei einer seriellen Anordnung wie in den Speichern von Elektronenrechnern dauert die Suche nach Inhalten am Ende der Liste naturgemäß länger als für solche, die am Anfang stehen. Dies scheint bei dem im Gehirn realisierten Speicherprozess nicht der Fall zu sein. Es muss also ein Raum geschaffen werden, der die Überlagerung einer sehr großen Zahl von Inhalten erlaubt - es ist leicht zu sehen, dass ein solcher Raum eine sehr hohe Dimensionalität aufweisen muss. Der dreidimensionale kartesianische Raum, in diesem Fall also eine anatomisch segregierte Anordnung von Inhalten, scheidet aus. Hochdimensionale Räume können jedoch erschlossen werden, wenn die Zeit als Kodierungsdimension hinzugezogen wird und der Raum durch distinkte Zustände eines dynamischen Systems definiert wird. In diesem Fall muss dafür gesorgt werden, ein dynamisches System zu erzeugen, dass eine sehr, sehr große Zahl unterschiedlicher Zustände annehmen kann. Jedem dieser Zustände könnte dann ein ganz bestimmter Inhalt zugeordnet werden. Es muss dann lediglich eine Möglichkeit gefunden werden, dass dieses System beim Eintreffen der Suchsignale, in unserem Fall der Signale von Sinnesorganen, sehr schnell in den Zustand einschwingt, der einem gespeicherten Inhalt entspricht.
Die Arbeitshypothese, die wir in Frankfurt seit geraumer Zeit verfolgen,
geht davon aus, dass die Großhirnrinde (Abbildung 1) als ein dynamisches System verstanden werden kann, das die geforderten Eigenschaften aufweist.
Abbildung 1. Das Gehirn. Links: Querschnitt des menschlichen Gehirns. Die wenige Millimeter dicke Großhirnrinde (Cortex), Teil der grauen Substanz, ist dicht gepackt mit Nervenzellen- rund 60 000 je mm3 - von denen jede mit bis zu 20 000 anderen Nervenzellen "spricht" und von ebenso vielen aus der Nachbarschaft und von weiter entfernten Bereichen "angesprochen" wird. Die in allen Bereichen nahezu identische interne Struktur der Großhirnrinde weist auf nahezu idente, darin ablaufende Verarbeitungsprozesse hin, die Bereiche erhalten jedoch unterschiedliche Eingangsinformationen. Rechts: Verschaltung der sensorischen Hirnrindenareale (Punkte) von Katzen; neuronale Verkopplungen (Linien) von Milliarden Neuronen.
Eines der dominierenden Verschaltungsprinzipien ist, dass Neuronengruppen in der Großhirnrinde reziprok miteinander verbunden sind, sich also gegenseitig beeinflussen können. Wegen der riesigen Zahl von Neuronen, die in einem bestimmten Hirnrindenareal miteinander wechselwirken können, entsteht eine ungeheuer komplexe, hochdimensionale Dynamik, die den erforderlichen Kodierungsraum bereitstellen könnte. Hinzukommt, und das ist eine Entdeckung, die wir in Frankfurt vor mehr als zwanzig Jahren machten, dass lokale Gruppen von Neuronen – die Knoten im Netzwerk – wie Oszillatoren schwingen können (Abbildung 2). Dies erhöht noch einmal mehr die Komplexität der möglichen Dynamik, da auch der Phasenraum zur Kodierung mit genutzt werden kann.
Abbildung 2. (A) Ein klassisches neuronales Netz, wie es in vielen Mustererkennungssystemen verwendet wird. Eingangssignale werden auf eine Schicht von Neuronen verteilt und durch divergente Verschaltungen in Zielneuronen rekombiniert. Dadurch entsteht ein spezifisches Aktivitätsmuster, das dann von Ausgangsneuronen klassifiziert wird. Die Verbindungen von der Zwischenschicht auf die Ausgangsneuronen werden durch einen maschinellen Lernvorgang so gewichtet, dass auf ein gegebenes Muster in der Zwischenschicht nur ein bestimmtes Neuron in der Ausgangsschicht erregt wird. (B) Die Zwischenschicht wurde durch ein rekurrierend gekoppeltes Netzwerk ersetzt. Dieses entwickelt hoch komplexe, dynamische Zustände, die jedoch nach wie vor für die Eingangsmuster spezifisch sind. Die Aktivität einiger dieser Netzwerkknoten wird wiederum auf Ausgangsneurone verteilt, die dann ebenfalls über einen Lernvorgang zu Klassifikatoren für die komplexen Muster ausgebildet werden.© Ernst-Strüngmann Institut/Singer, Lazar, Benzaid
Falls die Großhirnrinde tatsächlich hochdimensionale Dynamik nutzt, um den Abgleich von einlaufenden Signalen mit gespeicherten Inhalten vorzunehmen, dann müssen eine Reihe von überprüfbaren Voraussagen zutreffen. Bei der Formulierung dieser Voraussagen standen die Ergebnisse von theoretischen Arbeiten und Simulationsstudien über künstliche neuronale Netzwerke Pate.
Die Eigenschaften solcher Netzwerke werden seit etwa einer Dekade untersucht, weil sie wegen ihrer hochdimensionalen Dynamik bestimmte Vorteile für die maschinelle Klassifizierung von raumzeitlich strukturierten Mustern aufweisen. Diese informationsverarbeitende Strategie wurde unter dem Namen "reservoir computing" bekannt. Wenn raumzeitlich strukturierte Eingangssignale an einige Knoten solcher Netzwerke verteilt werden, findet man, dass aufgrund der Wechselwirkungsdynamik die Information über den verwendeten Reiz eine Weile gespeichert bleibt und dass sich die Aktivitätsmuster von sequenziell dargebotenen Reizen überlagern, sodass zu einem bestimmten Zeitpunkt die Information über mehrere Reize gleichzeitig verfügbar ist. Und schließlich erweist sich, dass solche Systeme wegen der hohen Dimensionalität ihres Zustandsraumes die Trennung und Klassifizierung von Eingangsmustern sehr erleichtern.
Bestätigte Voraussagen und Überraschungen
Ein Schwerpunkt unserer Arbeiten lag in den vergangenen Jahren darauf, die oben aufgeführten Voraussagen zu testen. Hierzu ist es erforderlich, die Aktivität einer großen Zahl (>50) von Neuronen (Knoten) der Großhirnrinde gleichzeitig zu erfassen, Sinnesreize darzubieten, die resultierende Netzwerkdynamik zu analysieren und mit Hilfe von Methoden aus dem Bereich des maschinellen Lernens dahingehend zu prüfen, ob reizspezifische Informationen in der raumzeitlichen Verteilung der neuronalen Aktivitätsmuster zu finden sind. Um diese Messungen durchführen zu können, werden Tieren in Vollnarkose haarfeine Elektroden in die Großhirnrinde implantiert, über die später die Aktivität der Nervenzellen registriert werden kann. Die hierbei eingesetzten Verfahren ähneln im Detail jenen, die bei Patienten angewandt werden, die aus diagnostischen Gründen Elektroden implantiert bekommen oder um Hirnstrukturen zu reizen, wie das bei der Therapie der Parkinsonschen Erkrankung routinemäßig erfolgt. Die Messungen selbst sind schmerzfrei und bedeuten für die Tiere keine wesentliche Einschränkung, da das Gehirn schmerzunempfindlich ist und die sehr feinen und flexiblen Elektroden bei sachgemäßer Implantation keine Schäden verursachen. Mit Hilfe solcher Untersuchungen konnten wir im Laufe der letzten Jahre die oben aufgeführten Voraussagen bestätigen und die eingangs formulierte Hypothese stützen (Abbildung 3).
Abbildung 3. Hier wurde überprüft, ob sich aus der Aktivität von 60 zufällig ausgewählten Neuronen der Sehrinde einer Katze rückschließen lässt, welcher Reiz (A oder D) zu Beginn einer Serie von Reizen (A/D, B, C) dargeboten wurde. Linke Ordinate: Prozentsatz der richtigen Klassifizierungen (durchgezogene Linie); Rechte Ordinate: Gemittelte Aktivität der Neuronen (gestrichelte Linie); Abszisse: Zeitverlauf der Reizdarbietung. Etwa 100 Millisekunden nach Darbietung des ersten Reizes lässt sich mit fast 100%iger Sicherheit aus dem Erregungsmuster der Neuronen feststellen, welches der erste Reiz (A oder D) war, und diese Information ist auch nach Darbietung des zweiten Reizes (B) noch fast vollständig erhalten. Erst nach dem dritten Reiz (C) sinkt die Klassifizierbarkeit auf das Zufallsniveau ab (graues Band). © Ernst-Strüngmann Institut/Singer, Lazar, Benzaid
Wie so oft in der Grundlagenforschung zeigten die Daten aber auch vollkommen Unerwartetes. Es stellte sich heraus, dass es im Verlauf der Untersuchungen zunehmend leichter wurde, die von den dargebotenen Reizen erzeugten Aktivitätsmuster zu klassifizieren und den Reizen zuzuordnen. Dies konnte nur bedeuten, dass das kortikale Netzwerk bestimmte, reizspezifische Merkmalskombinationen gelernt und dem Fundus von Vorwissen hinzugefügt hat. Offenbar bewirkte die wiederholte Darbietung der Reizmuster eine Veränderung der Netzwerkeigenschaften, die ihrerseits dafür sorgten, dass die entstehenden hochdimensionalen Muster im Netzwerk weniger überlappten und deshalb besser voneinander unterscheidbar wurden. Diese Vermutung erhält ihre direkte Bestätigung durch eine mathematische Analyse der respektiven Muster.
Als Mechanismus für diese lernbedingten Veränderungen vermuten wir eine aktivitätsabhängige Veränderung der Effizienz der reziproken Verbindungen zwischen den Neuronen. Hinweise für solche erfahrungsabhängigen Veränderungen der synaptischen Effizienz eben dieser Verbindungen hatten wir bereits vor Jahren in Experimenten erhalten, bei denen die Auswirkung von Umweltreizen auf die Ausreifung der Großhirnrinde untersucht wurde. Einen direkten und komplementären Hinweis für das Vorliegen eines solchen Mechanismus lieferte schließlich die Beobachtung, dass die neuronalen Netzwerke auch spontan und ohne jede Reizung die Aktivitätsmuster erzeugen, die von oft gesehenen Reizen hervorgerufen werden. Obgleich weder antizipiert noch gezielt gesucht, bilden diese zusätzlichen Befunde eine starke Stütze für die Hypothese, dass die hochdimensionale Dynamik kortikaler Netzwerke tatsächlich genutzt wird, um sensorische Signale mit gespeicherten Vorwissen zu vergleichen und im Falle der Stimmigkeit zu klassifizieren.
Plausibilitätskontrollen durch Simulationen
Jetzt stand es an zu klären, ob reizspezifische Veränderungen in der Stärke der reziproken Koppelungsverbindungen zwischen den Neuronen (Knoten) tatsächlich eine Verbesserung der Klassifizierungsleistungen solcher Netzwerke mit sich bringen. Hierzu haben Andreea Lazar und Jochen Triesch auf konventionellen Rechnern rückgekoppelte Netzwerke simuliert und die Koppelverbindungen mit adaptiven Synapsen ausgestattet, die ihre Effizienz in Abhängigkeit von der Struktur der auftretenden Aktivierungsmuster verändern können (Abbildung 4).
Abbildung 4. Schematische Darstellung des Effektes wiederholter Reizdarbietung in einem simulierten Netzwerk. Die ursprünglich gleich effizienten Verbindungen zwischen den Neuronen im Netzwerk werden entsprechend den verschiedenen Reizen verstärkt (dicke Verbindungen) oder abgeschwächt (dünne oder fehlende Verbindungen), wodurch die von verschiedenen Reizen induzierten, dynamischen Muster sich zunehmend voneinander unterscheiden und besser klassifizierbar werden. © Ernst-Strüngmann Institut/Singer, Lazar, Benzaid
Diese Modifikationen erfolgten nach Regeln, die bereits bei Untersuchungen von Lernvorgängen an realen neuronalen Strukturen erarbeitet worden waren. Die simulierten Netzwerke mit adaptiven Verbindungen wurden daraufhin mit unterschiedlichen Reizsequenzen aktiviert und es zeigte sich, dass sich die Klassifizierungsleistung dieser sich selbst adaptierenden Netzwerke mit wiederholter Reizdarbietung, man könnte auch sagen mit zunehmender Erfahrung, deutlich verbesserte und weit über das hinaus ging, was konventionelle rekurrierende Netzwerke zu leisten vermögen.
Diese Kongruenz von experimentellen und simulierten Daten macht es in unseren Augen sehr wahrscheinlich, dass in der Großhirnrinde ein Kodierungsprinzip verwirklicht ist, das sich deutlich von allen bisher entweder postulierten oder in künstlichen Systemen realisierten Musterverarbeitungsprozessen unterscheidet. Sollte sich diese Vermutung in zukünftigen Untersuchungen bestätigen, wären wir einen Schritt weiter im Verständnis der nach wie vor rätselhaften Funktion der Großhirnrinde. Vielleicht, so die Hoffnung, wird uns das helfen, die ebenfalls rätselhaften Mechanismen besser zu verstehen, die jenen psychischen Erkrankungen zu Grunde liegen, die auf Störungen von Großhirnrindenfunktionen beruhen.
Mit Sicherheit wird es möglich sein, die gewonnenen Erkenntnisse für die Entwicklung völlig neuartiger informationsverarbeitender Systeme zu nutzen.
Literaturhinweise
1. Lazar, A.; Pipa, G., Triesch, J. SORN: a self-organizing recurrent neural network . Frontiers in Computational Neuroscience 3:23 (2009)
2. Nikolic, D.; Häusler, S.; Singer, W.; Maass, W. Distributed fading memory for stimulus properties in the primary visual cortex. PLOS Biology 7: e1000260 (2009)
3. Singer, W. Cortical dynamics revisited. Trends in Cognitive Sciences 17: 616-626 (2013)
*Der unter dem Titel "Die Großhirnrinde, ein hochdimensionales, dynamisches System" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9974873/ESI_JB_2016?c=10583665 ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier leicht gekürzt (Abbildung 3 des Originals wurde weggelassen) und für den Blog adaptiert (Für's leichtere Scrollen wurden einige Untertitel und Absätze eingefügt. Zur Erläuterung von Hirnrinde und Verschaltung der sensorischen Hirnrindenareale wurde Abbildung 1 von der Redaktion eingefügt, die beiden Bilder stammen vom Autor.) .
Weiterführende Links
AIL-Talk: Wolf Singer - Neuronale Grundlagen des Bewusstseins. Video 1:29:27 from Angewandte Innovation Lab. 07.09.2016. https://vimeo.com/184970876
Wolf Singer: The encoding of semantic relations. Conference: East-West Connections, NTU Para Limes. Video (englisch) 1:19:15; 11.11.2016. (Standard Youtube Lizenz) Wolf Singer - Vom Bild zur Wahrnehmung. Iconic Turn - Felix Burda Memorial Lectures. Video 2:03:05; 22.08.2012.(Standard Youtube Lizenz) Wolf Singer: Hirnentwicklung und Umwelt oder Wie Wissen erworben und gespeichert wird.
Wozu braucht unser Gehirn so viel Cholesterin?
Wozu braucht unser Gehirn so viel Cholesterin?Do, 08.12.2016 - 08:37 — Inge Schuster
Unser Gehirn enthält enorm hohe Mengen an Cholesterin, das sowohl essentieller Baustein der Nervenfasern ist, als auch Quelle vieler hormonell aktiver Neurosteroide und Oxysterole. Da die Blut-Hirnschranke eine Aufnahme von Cholesterin aus dem Blut verhindert, muss das Hirn seinen Bedarf an Cholesterin selbst synthetisieren. Die empfindliche Balance zwischen Synthese von Cholesterin und Eliminierung von überschüssigem Cholesterin wird durch Oxysterole reguliert.
Wenn man nach dem Organ fragt, das den höchsten Cholesteringehalt in unserem Körper aufweist, so ist die Antwort klar: es ist dies unser Gehirn. Mit rund 1,4 kg macht das Hirn zwar nur 2 % der gesamten Körpermasse eines Erwachsenen aus, es enthält aber 25 % des darin enthaltenen Cholesterin. In Zahlen ausgedrückt: bis zu 37 g Cholesterin finden sich im Hirn; bezogen auf die Trockenmasse des Gehirns, das rund 80 % Wassergehalt aufweist, bestehen also > 10% der Gehirnsubstanz aus Cholesterin. In unserem gesamten Blut zirkulieren dagegen nur 7% des gesamten Cholesterins.
Um es gleich vorweg zu nehmen: das Cholesterin im Hirn kann nicht über das Blut dorthin gelangen. Um die Blutgefäße, die das Gehirn versorgen, herum existiert eine sehr effiziente, dichte Barriere - die sogenannte „Blut-Hirn Schranke“ -, die den Import von Cholesterin aus dem Blut und ebenso auch den Export von überschüssigem Cholesterin in den zirkulierenden Blutstrom verhindert. Das Hirn ist also darauf angewiesen, Cholesterin selbst zu synthetisieren.
Wozu aber braucht das Hirn so viel Cholesterin?
Cholesterin ist sowohl ein essentieller struktureller Baustein - vor allem in dem aus Zellmembranen generierten Myelin - als auch eine Quelle vieler hormonell aktiver Substanzen - der sogenannten Neurosteroide - und von Signalmolekülen, den Oxysterolen. Über diese Funktionen gibt Abbildung 1 einen groben Überblick .
Abbildung 1. Cholesterin ist integraler Bestandteil von Zellmembranen, Hauptkomponente der Axone umhüllenden Myelinschichten, Quelle von Steroidhormonen und Oxysterolen. Die Eliminierung aus dem Gehirn kann im Wesentlichen nur über die von CYP46A1 katalysierte Bildung eines Oxysterols erfolgen. (Bilder: Zellmembranen und Neuron stammen aus Wikipedia und sind gemeinfrei).
Cholesterin in Zellmembranen…
Wie auch in allen anderen Körperzellen ist Cholesterin integraler Bestandteil der äußeren Zellmembran und der intrazellulären Membranen von Hirnzellen - d.i. von Neuronen und Gliazellen. Cholesterin trägt entscheidend zur Permeabilitätsbarriere zwischen Zelle und Umgebung, zwischen intrazellulärem Kompartiment und angrenzender Umgebung bei, reguliert die Plastizität (Fluidität) der Membranen und moduliert Aktivität und Funktion von darin eingebetteten Signalmolekülen. Eine einzigartige Rolle kommt dabei den Zellmembranen spezieller Gliazellen zu, sogenannter Oligodendriten, welche kompakte isolierende Myelinschichten bilden.
…speziell im Myelin
Der Großteil des Cholesterins befindet sich in einer fettreichen Myelin genannten Substanz: diese besteht bis zu 80 % aus Lipiden - unterschiedlichen Phospholipiden, Glykolipiden, Sphingolipiden - und inkludiert 22 % Cholesterin, welches damit die in höchster Konzentration vertretene Einzelstruktur ist. Wie erwähnt, entsteht Myelin aus den Zellmembranen von Oligodendriten, die sich spiralförmig viele Male um die Fortsätze (Axone) der Nervenzellen (Neuronen) wickeln und diese so elektrisch von der Umgebung isolieren (Abbildung 2, rechts unten). Die spezielle Struktur dieser Isolationsschicht mit Einschnürungen (Ranvierschen Schnürringen) ermöglicht eine sprunghafte, höchst effiziente und rasche Weiterleitung des elektrischen Nervenimpulses vom Zellköper der Nervenzelle entlang seines Axons zur nächsten Nervenzelle. Abbildung 2.
Da Myelin optisch weiß erscheint, sieht man das Hirn dort, wo die Nervenfasern in sehr hoher Dichte vorliegen, als“weiße Substanz” .
Abbildung 2. Das Axon einer Nervenzelle (links) ist umhüllt von einer (unterbrochenen) Isolationsschicht aus Myelin, entstanden durch vielfache Umwicklung mit der Zellmembran von speziellen Gliazellen (im Querschnitt rechts unten).Die Struktur der Isolationsschicht erlaubt eine wesentlich raschere und effizientere Weiterleitung des elektrischen Signals als dies bei einer ununterbrochenen Nervenfaser der Fall wäre (rechts oben). (Bilder aus Wikipedia. links: H.Hoffmeister, Impulsfortleitung an der Nervenzelle - cc-by-sa 3.0; rechts: Dr. Jana - http://docjana.com/#/saltatory ; https://www.patreon.com/posts/4374048, cc-by 4.0 ; Transmission electron micrograph, Electron Microscopy Facility at Trinity College, Hartford CT)
Cholesterin als Quelle von Neurosteroiden…
Dass Steroidhormone verschiedenste Gehirnfunktionen - von der Entwicklung des Nervensystems, inklusive der Ausbildung von Dendriten, von Konnektivitäten der Synapsen und der Myelinisierung bis hin zu den Vorgängen des Erkennens, der Emotionen und den verschiedenartigsten Verhaltensweisen - regulieren, ist seit langem bekannt. Noch vor etwas mehr als einem Jahrzehnt dachte man, dass diese Hormone in den wesentlichen Steroiderzeugenden Organen - den Gonaden, der Placenta, der Nebenniere - gebildet würden und dann über den Blutkreislauf durch die Blut-Hirnschranke hindurch, in das Hirn transportiert würden, um dort ihre physiologischen Wirkungen zu entfalten. (Der Begriff Hormon war ja ursprünglich definiert als: von speziellen Drüsen erzeugter Botenstoff, der über den Blutstrom zum Zielorgan transportiert wird, wo er seine Wirkung entfaltet.) Erst in letzter Zeit wurde es klar, dass Neuronen ebenso wie Gliazellen alle wesentlichen Enzyme zur Steroidhormonsynthese besitzen (es sind hauptsächlich Enzyme aus den Cytochrom P450 Familien). Dementsprechend sind zahlreiche Hirnregionen - u.a. der zerebrale Cortex, der Hippocampus und der Hypothalamus - selbst in der Lage Cholesterin in ein sehr weites Spektrum hormonell aktiver Steroide umzuwandeln. Diese, hier auch als Neurosteroide bezeichneten, Hormone werden also lokal erzeugt und wirken lokal - in der erzeugenden Zelle selbst (autokrine Wirkung) und/oder in benachbarten Zellen (parakrine Wirkung).
…und von Oxysterolen
Oxysterole entstehen durch oxydative Angriffe auf das Cholesterinmolekül. Verursacher sind einerseits Enzyme und hier wiederum hauptsächlich Mitglieder der Cytochrom P450 Familien (darunter solche, die in die Synthese von Steroidhormonen involviert sind), aber auch reaktive Sauerstoffspezies. Es ist eine Fülle unterschiedlicher Oxysterole, die in Proben menschlichen Gehirns nachgewiesen wurden, wobei einige auch aus dem Organismus ins Gehirn gelangt sein können - für Oxysterole stellt die Blut-Hirnschranke kein Hindernis dar.
Welche (patho)physiologische Rolle einzelne Oxysterole im Gehirn spielen, ist Gegenstand intensiver Untersuchungen. Insbesondere werden einige Oxysterole mit der Entstehung von neurodegenerativen Erkrankungen (u.a. Alzheimer-, Huntington-, Parkinsonkrankheit) in Zusammenhang gebracht. Eine vor kurzem veröffentlichte Analyse von Fallstudien aus den letzten 15 Jahren konnte hier aber (auch auf Grund mangelhafter Vergleichbarkeit der Protokolle) noch zu keinen konsistenten Aussagen gelangen. Feststehen dürfte jedoch der Einfluss von Oxysterolen auf die Homöostase des Cholesterin - also auf die Balance zwischen seiner Synthese und seinem Abbaus.
Die Cholesterin Homöostase
Bis vor rund 20 Jahren dachte man, dass die Neurogenese - die Entstehung neuer Nervenzellen - im Zentralnervensystem bereits im frühen Kindesalter abgeschlossen wäre. Heute weiß man, dass abhängig von diversen Stimuli neuronale Stammzellen auch im Alter noch neue Nervenzellen bilden können und, dass dies in Regionen des Hippocampus der Fall ist. Dafür und auch für den lokalen Bedarf an Neurosteroiden benötigt das Gehirn während unserer gesamten Lebensdauer Cholesterin (Abbildung 1), das es, wie eingangs erwähnt, auch zur Gänze selbst herstellen muss. Die Syntheserate ist im Gehirn Erwachsener niedrig, die Verweildauer des Cholesterins im Gehirn lang (Halbwertszeit 5 Jahre).
Die Cholesterinsynthese findet in Gliazellen und in geringerem Maße auch in Neuronen statt. Es ist dies der gleiche Weg, wie auch in allen anderen Körperzellen, der von der aktivierten Essigsäure ausgeht und über viele Stufen (und viele physiologisch wichtige Zwischenprodukte) zum Cholesterin führt. An mehreren Stellen dieses Weges greifen Oxysterole ein und schalten via Regulierung der Transkription von Target-Genen und der Funktion einzelner Proteine die Cholesterinsynthese an oder ab.
Um stets einen weitgehend konstanten Pegel an verfügbaren Cholesterin zu gewährleisten, muss es nicht nur regulierende Eingriffe in die Synthese geben, sondern auch Wege, um ein Zuviel an Cholesterin zu kompensieren. Überschüssiges Cholesterin (z.B. von abgestorbenen Zellen) kann auf Grund der Blut-Hirnschranke ja nicht direkt eliminiert werden. Ingemar Björkhem, ein führender Forscher auf dem Gebiet der Oxysterole, hat ein ein Enzym - CYP46A1 - entdeckt, das praktisch ausschließlich im Hirn (speziell in den Neuronen) vorkommt und Cholesterin zu dem Oxysterol 24S-Hydroxycholesterin oxydiert. Dieses Oxysterol gelangt direkt über die Blut- Hirn Barriere in den Blutstrom - es ist dies der Hauptweg der Cholesterin-Eliminierung. Die resultierenden 24S-Hydroxycholesterin-Blutspiegel sind demnach ein spezifischer Indikator für den Cholesterin-Stoffwechsel des Hirns aus denen aber auch Aussagen über pathologische Zustände und deren Progression oder Reduktion erhalten werden. CYP46A1 ist damit ein Schlüsselenzym der zerebralen Homöostase von Cholesterin. Die Modulierung dieses Enzyms durch Aktivierung oder Inhibierung könnte eine therapeutische Strategie zur Behandlung kognitiver Defekte/neurodegenerativer Erkrankungen darstellen.
Ausblick
Vor dem Hintergrund einer alternden Bevölkerung und einer Zunahme von neurodegenerativen Erkrankungen ist Forschung an Neurosteroiden und Oxysterolen im Gehirn ein vielversprechendes "Hot Topic", das von zahlreichen Gruppen bearbeitet wird. Es steht dabei nicht nur die Hoffnung auf neue therapeutische Ansätze im Vordergrund sondern auch der Wunsch die noch im Alter andauernde Neurogenese in unserem Lernzentrum, dem Hippocampus, zu verstehen und positiv beeinflussen zu können.
Ein wichtiger Aspekt ist natürlich auch die Klärung der Frage, ob und welchen Einfluss die weltweit angewandten Cholesterinsenker (die auch die Blut-Hirnschranke passieren) auf die Homöostase des Cholesterins im Gehirn und seine Funktion ausüben.
Literatur, die in diesen Artikel eingeflossen ist (kann auf Anfrage zugesandt werden):
I.Björkhem (2006) Crossing the barrier: oxysterols as cholesterol transporters and metabolic modulators in the brain. J Int Med 260, Issue 6, 493–508
Spalding KL et al., (2013). Dynamics of hippocampal neurogenesis in adult humans. Cell 153:1219-1277
L.Iuliano et al., (2015) Cholesterol metabolites exported from human brain. Steroids 45(Pt B) · February 2015. DOI: 10.1016/j.steroids.2015.01.026 ·
Winnie Luu et al., (2016) Oxysterols: Old Tale, New Twists. Annu. Rev. Pharmacol. Toxicol. 56:447–67
Miguel Moutinho et al., (2016) Cholesterol 24-hydroxylase: Brain cholesterol metabolism and beyond. Biochimica et Biophysica Acta 1861: 1911–1920
Weiterführende Links
3sat nano - Mythos Cholesterin Video 5:43 min.
Gerhard Roth (Institut für Hirnforschung , Universität Bremen) Das Gehirn (2) | Wie einzigartig ist der Mensch? (6) Video 14:14 min; https://www.youtube.com/watch?v=JPdha_5cTrE (Standard-YouTube-Lizenz)
Arvid Leyh: Neurone: Bausteine des Denkens. Video 2:51 min. https://www.youtube.comwatch?v=usosLatcMK8 (das Gehirn.info, Lizenz: cc-by-nc)
Zum Thema sind im ScienceBlog erschienen:
Inge Schuster 13.09.2013: Die Sage vom bösen Cholesterin
Walter Kutschera 04.10.2013: The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks. http://scienceblog.at/ugly-and-beautiful-%E2%80%94-datierung-menschliche....
Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart
Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der GegenwartDo, 01.12.2016 - 05:25 — Günter Engel
Die Verseuchung von Brotgetreide mit Mutterkorn hat vor allem im Mittelalter zu verheerenden Epidemien - dem Antoniusfeuer - geführt. Als später die Ursache der Vergiftungen erkannt worden waren, begann man die Wirkstoffe des Mutterkorns - Ergotalkaloide - zu erforschen und für therapeutische Anwendungen zu nutzen. Der Biochemiker Günter Engel (Sandoz/Novartis) war an der Charakterisierung der Angriffspunkte dieser Wirkstoffe und der Erfindung entsprechender Therapeutika beteiligt. Sein chemisches Arbeitsgebiet erweckte in ihm das Interesse an mittelalterlicher Kunst.
Das Mutterkorn ist die Überwinterungsform (Sklerotium) eines Schlauchpilzes (Claviceps purpurea Tulasne), der vornehmlich Roggen (aber auch viele andere Gräser) befällt und aus dessen Ähren violettschwarze Zapfen herauswachsen (Abbildung 1). Der Name rührt davon her, dass Mutterkorn seit dem frühen Mittelalter von Hebammen zur Beschleunigung der Geburt verwendet wurde. Erst zu Beginn des 20. Jahrhunderts haben englische Chemiker aus Mutterkorn eine auf die Gebärmutter wirkende Substanz isolieren können, die allerdings auf Grund ihrer toxischen Nebenwirkungen- als Ergotoxin bezeichnet - in der Medizin keine Anwendung fand. Mit den Inhaltsstoffen des Mutterkorns, den sogenannten Ergotalkaloiden hat sich dann der Schweizer Chemiker Albert Hofmann (1906 - 2008) in der ersten Hälfte des 20. Jahrhunderts intensiv beschäftigt: auf der Basis dieser Naturstoffe gelang es ihm eine Menge sehr wirksamer Arzneistoffe zu synthetisieren, die heute noch zu den Standardtherapien in einigen Indikationsgebieten zählen.
Abbildung 1. Mutterkorn. Links: das Sklerotium des Schlauchpilzes Claviceps purpurea in einer Roggenähre und der rote aus dem Sklerotium herauswachsende Fruchtträger (Ausschnitt aus Franz Eugen Köhler, Köhler's Medizinal-Pflanzen 1897). Rechts: Meyers Konversationslexikon aus dem Jahr 1888 zeigt, dass damals in Europa lokale Mutterkornepidemien noch vorkamen (Ausschnitt aus: Meyers Konversationslexikon 1888, http://elexikon.ch/1888_bild/10_0208#Bild_1888 ). (Beide Quellen sind älter als 70 Jahre und damit gemeinfrei)
Mutterkornvergiftungen
Pharmakologisch gesehen rufen Ergotalkaloide eine "Myriade" von Wirkungen auf Nervensystem und Blutgefäße hervor. Ergotvergiftungen - Ergotismus - manifestieren sich in zwei Formen: dem Ergotismus gangraenosus ("brandigen" Ergotismus) und dem Ergotismus convulsivus (der "Kriebelkrankheit"). Abbildung 1. In sehr hoher Dosierung verabreicht verursachen Ergotalkaloide eine starke Verengung der arteriellen Blutgefäße. Dies führt unter heftigen, brennenden Schmerzen in den befallenen Gefäßen zu einer Mangeldurchblutung bis hin zum völligen Blutstillstand, gefolgt von einer Nekrotisierung und anschließenden Mumifizierung des Gewebes. Letztendlich ergibt sich eine Trennung der Glieder vom übrigen Körper ohne Blutverlust. Das Absterben einzelner Körperteile erfolgt in ganz verschiedenem Ausmaß. Nur selten, wenn Nässe eindringt kommt es zu einem feuchten Gangrän. Nach dem Verlust der erkrankten Extremität tritt häufig eine vollkommene Heilung ein, der Betroffene kann als Krüppel weiterleben. Abbildung 2.
Abbildung 2. Mittelalterliche Darstellungen von Opfern des Ergotismus gangraenosus. Ein Bettler (oben links) hat seinen durch Ergotismus mumifizierten, abgetrennten Fuß vor sich ausgebreitet, ein anderer humpelt davon. (Hieronymus Bosch, Federzeichnungen, Königliche Bibliothek Brüssel). Unten: amputierter Fuß eines Bettlers, auf einem weißen Tuch. (Hieronymus Bosch, Ausschnitt aus dem Triptychon "Das jüngste Gericht", Akademie der bildenden Künste, Wien). Die Antoniter beschäftigten auch Wundärzte, die ohne Narkose (die Glieder waren abgestorben) wie hier dargestellt den Fuß absägten.
Die konvulsive Form äußert sich mit Parästhesien - Kribbeln, Ameisenlaufen - der Glieder, schmerzhaften Krämpfen, die an Tetanus erinnern und oft tödlich enden, epilepsieartigen Anfällen und Psychosen.
Epidemien im Mittelalter
Da im Mittelalter der Roggen und damit das daraus hergestellte Brot bis zu zwanzig Prozent Mutterkorn enthielt, brachen nach der Ernte immer wieder Mutterkornvergiftungen in verschiedenen Teilen Europas seuchenartig aus. Diese Vergiftungen - damals Antoniusfeuer (auch ignis sacer – heiliges Feuer) genannt - kamen durch den Verzehr großer Mengen von Ergotalkaloiden zustande - der mittelalterliche Mensch kannte die Ursache nicht und hatte keine Möglichkeit zu deren Vermeidung.
Die arme Landbevölkerung litt viel mehr unter diesen Epidemien als die Adeligen, die sich von Weizen und Fleisch ernährten. Die Hauptnahrung der ärmeren Leute bestand ja vornehmlich aus dunklen Getreideprodukten.
Im Mittelalter herrschte eine abergläubische Vorstellung von dieser Krankheit, sie galt als ein Zeichen des göttlichen Zorns über die Missachtung des Gottesfriedens. Die Verstümmelten wurde als ein warnendes Beispiel angesehen, Personen, die am Ergotismus convulsivus litten, galten als vom Teufel oder von Dämonen besessen, die Mortalität soll sehr groß gewesen sein.
Die Entstehung des Antoniterorden
Da der mittelalterliche Mensch der Krankheit völlig hilflos gegenüberstand, wandte er sich an die Schutzheiligen seiner Gegend. Der Schutzheilige, der bald alle überstrahlen sollte, war der etwa 251 in Ägypten geborene hl. Antonius. Dieser war ein Wüstenheiliger, hatte ein Eremitendasein gewählt und - wie Gemälde des Mittelalters und der beginnenden Neuzeit äußerst suggestiv zeigen - offensichtlich erfolgreich gegen "Dämonen" - Versuchungen durch Wünsche, Triebe, Emotionen, Laster - angekämpft (s.u.). Reliquien dieses Heiligen wurden in einer Kirche eines kleinen Ortes - Saint Antoine - in der Dauphine aufbewahrt. Berichten zufolge soll deren Verehrung zu einer Unzahl an Wunderheilungen geführt haben, der Ort wurde zum Wallfahrtsort und es entstand ein Krankenhaus (um das Jahr 1095), um die vielen kranken, von unerträglichen Schmerzen geplagten Pilger zu versorgen. Schließlich kam es zur Gründung des Ordens der Antoniter, der 1247 von Bonifatius VIII bestätigt wurde.
Die Antoniter waren ein mittelalterlicher Spitalorden oder moderner ausgedrückt eine Krankenhausträgerschaft, die sich ausschließlich derjenigen annahm, die am Antoniusfeuer litten oder auf Grund der Krankheit zu Krüppeln geworden waren. Die Zahl der Krankenhäuser nahm unter der Leitung des Ordens rapide zu - um 1500 gab es bereits 364 dieser Anstalten in Europa.
Medizin und Kunst - ein ganzheitlicher Therapieansatz der Antoniter
Jedem Krankenhaus standen die singularia remedia zur Verfügung, die den Ruf der Antoniter über ganz Europa bekannt gemacht hatten und die Erkrankten von überall herbeieilen ließen. Es waren dies der Antoniusbalsam und der Antoniuswein. Der Wein erhielt durch das Eintauchen der Antoniusreliquien seine religiöse Bedeutung und war - wie der gewöhnliche Krankenwein - mit Heilkräutern versetzt, denen gefäßerweiternde (der Ergotwirkung entgegenwirkende) und schmerzstillende Eigenschaften zukommen. Welche Heilkräuter die Antoniter benutzten, geht u.a. aus einem Gemälde des von Matthias Grünewald 1512 - 1516 geschaffenen Isenheimer Altars hervor. Abbildung 3. Die botanisch sehr genau gemalten Pflanzen werden alle in den Kräuterbüchern des Mittelalters zur Bekämpfung des Antoniusfeuers erwähnt.
Eine vor kurzem wiederentdeckte, lange verschollen geglaubte Rezeptur des Antoniusbalsam beschreibt 14 Heilkräuter, die sich als entzündungshemmend und wundheilend erweisen.
Abbildung 3. Matthias Grünewald: Heilpflanzen, die von den Antonitern benutzt wurden. Ausschnitt aus dem unteren Teil des Bildes: Der Besuch des hl. Antonius bei dem Eremiten Paulus auf dem linken Flügel der dritten Schauseite des Isenheimer Altars. Links: die Zahlen bezeichnen 1: Breitwegerich (zur Wundbehandlung), 2: Eisenkraut (durchblutungssteigernd), 3: Spitzwegerich. Rechts: wahrscheinlich handelt es sich hier um Saatmohn, Kreuzenzian, Schwalbenwurz, Ehrenpreis, Taubnessel, kriechenden Hahnenfuß, Weissklee (Museum Unterlinden, Colmar).
Neben dem Balsam und dem Antoniuswein wurde stärkende, gute Nahrung verabreicht: mutterkornfreies Brot - Weizenbrot - und Schweinefleisch. Schweinschmalz - das die Haut sehr gut durchdringt - diente als Salbengrundlage. Schließlich kam noch die regelmäßige Versorgung durch die Wundärzte hinzu.
Bei den Antonitern trafen die Spitalsinsassen auf Leidensgenossen, die gleiche schmerzliche Erfahrungen durchgestanden hatten und schon wieder auf dem Weg der Besserung waren.
Zur Heilungsförderung verordneten die Antoniter zusätzlich den Gang vor den Altar: Als Teil eines ganzheitlichen Therapieansatzes wurden in den Antoniterspitälern im Spätmittelalter Gemälde eingesetzt, die den Betrachter in der Krankheitsbewältigung unterstützen und zum "Heil" führen sollten. Die Ergotismusopfer sollten zu sich selbst finden, in ihrer Krankheit die göttliche Strafe erkennen, symbolisch dargestellt durch den ignis sacer, die Versuchung durch die Dämonen sowie deren Überwindung. Ein Werk mit besonders starker Ausstrahlung ist das von Matthias Grünewald geschaffene Altargemälde "Versuchung des hl. Antonius" im Isenheimer Kloster, einem wohlhabenden, bedeutenden Antoniterkloster im Elsass, nahe Colmar. Abbildung 4.
Zu den bekanntesten weiteren Malern, die damals Aufträge von den Antonitern erhielten, zählten, Martin Schongauer, Niklaus Manuel und wahrscheinlich Hieronymus Bosch. Das Mutterkorn übte in dieser Zeit nicht nur auf die Medizin, sondern auch auf die Kunst einen bedeutenden Einfluss aus.
Abbildung 4. Matthias Grünewald: Die Versuchung des hl. Antonius. Rechter Flügel der dritten Schauseite des Isenheimer Altars. Links: 8 Dämonen- als Repräsentanten der menschlichen Laster - peinigen den Heiligen. Rechts: Ausschnitt des linken unteren Rands: ein Dämon mit den Symptomen des Ergotismus gangraenosus. Die blaugrünen Flossenfüße symbolisieren die Kälte, das Abgestorbene, die Geschwüre zeigen den von Fäulnisbakterien unterwanderten brandigen Ergotismus. (Museum Unterlinden, Colmar).
Aus dem Gift werden hochwirksame Heilmittel
Dass ein Zusammenhang zwischen Mutterkorn und dem Antoniusfeuer besteht, wurde erst im 17. Jahrhundert erkannt und im 18. Jahrhundert streng wissenschaftlich bewiesen. Mit Kenntnis der Ursache der Erkrankung wurden Präventivmaßnahmen - Überwachung und Entfernung des Mutterkornanteils im Brotgetreide - ergriffen. Hinzu kamen steigender Wohlstand und veränderte Essgewohnheiten (die Kartoffel wurde zu einem Grundnahrungsmittel) und führten allmählich zum weitestgehenden Verschwinden des Antoniusfeuer.
Wie einleitend bereits erwähnt, wurden wässrigeMutterkornextrakte über Jahrhunderte traditionell in der Geburtsmedizin angewandt. Diese Extrakte waren wenig haltbar, unrein und daher nicht exakt dosierbar - sie führten häufig zu den für Ergotalkaloide typischen Nebenwirkungen. Dem Naturstoffchemiker Arthur Stoll - er begründete die Pharmaabteilung der ehemaligen Farbenfirma Sandoz - gelang es 1918 mit schonender, chemischer Aufreinigungstechnologie das uterusaktive Prinzip des Mutterkorns zu extrahieren und zu reinigen. Es war ein Alkaloid, das er Ergotamin nannte und das sich an der menschlichen Gebärmutter als hervorragend blutungshemmend erwies. Unter der Bezeichnung Gynergen® fand das Mittel einen führenden Platz in der Geburtshilfe und später auch als Specificum zur Behandlung der Migräne.
Einer der ersten Chemiker in Stolls neuer Naturstoffabteilung war Albert Hofmann, der ab 1935 Substanzen durch Synthese herstellte, die im Mutterkorn nur in sehr kleinen Mengen vorhanden waren, beispielsweise das Ergonovin. Mit seinen Methoden konnte er auch eine Anzahl verwandter Strukturen von Ergotalkaloiden mit hoher pharmakologischer Wirksamkeit synthetisieren: u.a. das von Ergonovin abgeleitete Methergin® und das Lysergsäurediäthylamid - LSD - das stärkste öffentliche Aufmerksamkeit erregte. Erfolgversprechende klinische Untersuchungen des LSD als Hilfsmittel in der Psychoanalyse wurden in den 1960er Jahren allerdings vom Missbrauch als bevorzugte (Party)Droge überschattet und die Substanz auf die Liste der Rauschmittel gesetzt.
Ein besonders wichtiger Schritt Albert Hofmanns war die Hydrierung des aus drei Alkaloiden bestehenden Ergotoxins. Anstelle der blutdrucksteigernden, gefäßverengenden Eigenschaften des Ergotoxins, bewirkten die hydrierten Verbindungen nun Blutdrucksenkung und Gefäßerweiterung - u.a. auch eine verbesserte Gehirndurchblutung und dies bei insgesamt geringerer Toxizität. Unter dem Handelsnamen Hydergin® wurde das Mittel in den 1970er Jahren zum umsatzstärksten Produkt der Firma. Ebenfalls sehr erfolgreich war die Hydrierung des Ergotamin: Als Dihydroergot - DHE - wurde das Mittel in der Hypotonie und bei vaskulären Kopfschmerzen eingesetzt.
Eines der letzten Ergotalkaloide, das Medizingeschichte geschrieben hat, war das Bromokriptin - Parlodel®. Damit wurde ein neues Kapitel in der (Neuro)endokrinologie aufgeschlagen. Dieses Produkt wirkt auf die Sekretion des Prolaktins, Dopamins und Wachstumhormons. Als Hauptindikationen gelten Parkinson, Akromegalie und Tumoren der Hypophyse.
Die Isolierung und Derivierung der Mutterkornalkaloide stellte also über mehr als 60 Jahre eine medizinalchemische "Fundgrube" für Sandoz dar und eine herausragende Erfolgsgeschichte der Naturstoffchemie.
Weiterführende Links
Klaus Roth (FU Berlin) Vortrag: Vom Isenheimer Altar zu den Beatles. Video 1:14:35 min. Lange Nacht der Chemie - Vom Isenheimer Altar zu den Beatles (Prof. Roth - F.U. Berlin). Roth unternimmt eine weite Reise vom heiligen Antonius über einen Getreidepilz hin zu einem psychedelischen Musikvideo der Beatles.
Das "Heilige Feuer" oder "Antonius Feuer" (Sehr ausführliche Seite über die Leistungen der Antoniter , die medizinischen und kunstgeschichtlichen Aspekte)
Mutterkorn: Halluzinogen und Auslöser von Vergiftungen. Peter Schmersahl (2010)
Ergot: the story of a parasitic fungus (Wellcome Library, 1958; d.i. noch vor dem Siegeszug der auf Ergotalkaloiden basierenden Arzneimittel). Video 24.44 min.
LSD - Die Entdeckung einer Wunderdroge (Dr. Albert Hofmann)Video 44:33 min.
Albert Hofmann - Die Bedeutung von LSD aus der Sicht des Entdeckers. Video 32:30 min. Interview mit Albert Hofmann zum Abschluss des Symposiums "LSD - Sorgenkind und Wunderdroge" Internationales Symposium zum 100. Geburtstag von Albert Hofmann (2006, Basel)
Das Geburtsjahr bestimmt das Risiko an Vogelgrippe zu erkranken
Das Geburtsjahr bestimmt das Risiko an Vogelgrippe zu erkrankenDo, 24.11.2016 - 14:27 — Francis S. Collins
Wahrscheinlich können Sie sich nicht mehr erinnern, wann Sie als Kind das erste Mal Grippe hatten. Neue Erkenntnisse sprechen dafür, dass das menschliche Immunsystem jedoch seine erste Begegnung mit einem Grippevirus niemals vergisst. Es nützt dieses immunologische "Gedächtnis" möglicherweise sogar, um gegen künftige Infektionen mit neuen Stämmen der Vogelgrippe zu schützen. Diese eben erschienenen, grundlegenden Ergebnisse einer NIH-unterstützten Untersuchung fasst der Chemiker und Mediziner Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" hier zusammen.*
Ein NIH-unterstütztes Forschungsteam hat Fälle von Vogelgrippe zwischen 1997 und 2015 in sechs Ländern in Asien und dem mittleren Osten untersucht und gesehen, dass vor 1968 geborene Menschen ein geringeres Risiko hatten an H5N1-Vogelgrippe schwer zu erkranken oder daran zu sterben, als die später geborenen. Genau das Gegenteil war bei dem Vogelgrippestamm H7N9 der Fall: die vor 1968 Geborenen hatten ein wesentlich höheres Risiko, während die später Geborenen häufig besser geschützt waren.
Wie kommt dieser Gegensatz zustande?
Es zeigt sich, dass das H5N1-Vogelgrippevirus (Abbildung 1) näher verwandt ist zu dem Virus der saisonalen Grippe, die vor 1968 dominierte und dass danach zwei saisonale Grippestämme überwogen, die mehr dem H7N9 -Vogelgrippevirus ähnelten. Dies bedeutet, dass die erste Erfahrung mit der Grippe und die sich daraus entwickelnde Immunität Jahrzehnte später über Leben und Tod entscheiden können, wenn der Mensch dann einem völlig neuen Influenzastamm ausgesetzt ist.
Abbildung 1. Wie H5N1-Vogelgrippeviren aussehen. Die Viren haben sich in einer MDCK Zellkultur (eine Nierenzelllinie des Hundes) vermehrt. Anfärbung: Viren: (goldfarben), MDCK Zellen: grün; Transmissionselektronenmikroskopie. Credit: Cynthia Goldsmith, CDC
Diese Ergebnisse haben bedeutende Auswirkungen auf öffentliche Gesundheitsinitiativen, um diejenigen zu schützen, die bei einer künftigen Influenza-Pandemie das höchste Risiko tragen. Die Ergebnisse bieten auch wichtige Einsichten zur Entwicklung universeller Influenzavakzinen, die vor einem weiten Spektrum an Influenzastämmen Schutz bieten könnten.
In welchem Alter sind Menschen am stärksten von Virusgrippe betroffen?
Darüber haben Forscher lange gerätselt. Als das klassische Beispiel, die H1N1-Grippeepidemie im Jahr 1918 Millionen Menschen tötete, waren dies zumeist Erwachsene im Alter von 20 - 30 Jahren. Auch an der H5N1-Vogelgrippe erkrankten mehr Kinder und junge Erwachsene, dagegen betraf H7N9 häufiger ältere Leute.
In einem eben im Journal Science erschienenen Artikel [1] haben James Lloyd-Smith und Kollegen von der University of California, Los Angeles und Michael Worobey von der University of Arizona, Tucson die Vermutung aufgestellt, dass diese eigenartigen Infektionsmuster mehr mit den unterschiedlichen Virusstämmen der Erstinfektion zu tun haben als mit Alter der Menschen. Um diese Möglichkeit zu prüfen, haben die Forscher die Geschichte der saisonalen Grippe in Kambodscha, China, Ägypten, Indonesien, Thailand und Vietnam seit dem Jahr 1918 rekonstruiert. Sodann trugen sie alle bekannt gewordenen Vogelgrippe-Erkrankungen durch H5N1 und H7N9 (1997 erfolgte der Übergang von H5N1 auf den Menschen) zusammen und stellten sie den Geburtsjahren der betroffenen Patienten gegenüber. Abbildung 2.
Abbildung 2. Links: Geburtsjahre von in China lebenden Menschen, die zwischen 1997 und 2015 an der H7N9 Vogelgrippe erkrankten. Rechts: Geburtsjahre von Menschen in Kambodscha, China, Ägypten, Indonesien, Thailand und Vietnam, die zwischen 1997 und 2015 an der H5N1 Vogelgrippe erkrankten. (Quelle: adaptiert aus Science. 2016 Nov 11;354(6313):722-726) Die Daten zeigten, dass eine klarer Zusammenhang zwischen der ersten Begegnung einer Person mit Influenza und späteren Infektionen besteht. Der 1968 beobachtete, plötzliche Sprung in der Anfälligkeit für Grippeinfektionen, lässt sich mit einer abrupten Veränderung in der Häufigkeit der saisonalen Influenzastämme erklären. In diesem Jahr hatte eine Pandemie mit dem H3N2-Stamm - die sogenannte Hongkong-Grippe - die saisonalen Grippestämme H2N2 und H1N1 vollständig abgelöst, die vorher im Umlauf waren.
Darüber, wie die erste Infektion zu einer lebenslangen Immunität einer Person führt, müssen noch detaillierte Kenntnisse gesammelt werden. Zweifellos hängt dieser Vorgang mit der unterschiedlichen Art und Weise zusammen, wie menschliche Antikörper ein spezielles, auf der Virusoberfläche sitzendes Protein - Hemagglutinin - erkennen und darauf reagieren. Jedes Influenzavirus träg eines von 18 unterschiedlichen Typen des Hemagglutinin auf seiner Oberfläche (der Buchstabe "H" gefolgt von einer Nummer charakterisiert den Hemagglutinintyp in der Bezeichnung des Virusstammes). Dabei lassen sich alle 18 Hemagglutinintypen in nur zwei größere Gruppen einteilen: die saisonalen Grippeviren H1 und H2 und der Vogelgrippestamm H5 fallen in eine Gruppe, der saisonale H3-Stamm und das Vogelgrippevirus H7 in die andere Gruppe.
Die in den verschiedenen Ländern erhobenen Infektionsmuster zeigen, dass ein früher Kontakt zu einem bestimmten Influenzastamm einigen Schutz gegen andere Stämme bietet, sofern diese in dieselbe Hemagglutinin-Gruppe fallen (ein als Kreuzreaktivität bekanntes Phänomen). Nach Schätzungen der Forscher kann eine korrekte Prägung des Immunsystems auf ein Hemagglutinin der Gruppe 1 oder 2 einen 75 prozentigen Schutz vor einer schweren Infektion mit H5N1 oder H7N9 und 80 % Schutz vor möglichen Todesfolgen bieten.
In vielerlei Hinsicht sind dies gute Nachrichten.
Wenn dieser Effekt auch auf andere Influenzastämme zutrifft, so sollte es keine komplett neue Grippeepidemie geben. Sogar neue Viren, die noch nie Menschen infiziert haben, werden Charakteristika aufweisen, gegen die einige unserer Immunsysteme geprägt worden sind. Dies bedeutet nicht zwangsweise, dass die mit diesen Viren infizierten Menschen nicht erkranken können, die Grippe wird aber bei denen, die einigen Schutz entwickelt haben, voraussichtlich glimpflicher verlaufen.
Weiters zeigen die Daten, dass ein breiter, lang anhaltender immunologischer Schutz erreicht werden kann. Dieser Schutz basiert offensichtlich auf einem bestimmten Abschnitt des Hemagglutininmoleküls , der bereits vielen Forschern als Zielstruktur für eine universell wirkende Vakzine dient (siehe Artikel im ScienceBlog: http://scienceblog.at/influenza-viren-%E2%80%93-pandemien-sind-universel... ; Anm. Red.) Was sich allerdings zeigt: unsere früheste Begegnung mit Grippeviren prägt unser Immunsystem in einer Weise, die kaum ausgeweitet oder überboten werden kann.
Was eine universell wirksame Influenzavakzine betrifft, so wird diese - in Gegenwart eines bereits existierenden Immungedächtnisses - einen breiten Immunschutz stimulieren müssen, der stärker ist, als ihn Influenzainfektionen im späteren Leben bewirken können. Dies wird verständlich, wenn man vor 1968 geborene Personen betrachtet: diese waren zuerst H1 oder H2 Influenzastämmen ausgesetzt und später, über Jahrzehnte hinweg, den dominierenden saisonalen H3-Stämmen. Die spätere H3-Exposition reichte demnach nicht aus, um diese Menschen zu schützen, als H7N9 auftauchte.
Es ist noch nicht klar, was die Ergebnisse für das Risiko des Einzelnen bedeuten, an einer schweren saisonalen Grippe erkranken. Das ist eine sehr wichtige Frage - immerhin sterben weltweit jährlich bis zu 500 000 Menschen an Grippe [2]. Lloyd-Smith und Worobey meinen dazu, dass man in Zukunft die früheste Influenzainfektion einer Person berücksichtigen sollte, um die beste saisonale Influenza-Vakzine zu wählen - eine Vakzine die das Immunsystem in genau den Bereichen stärken sollte, in denen es Schwächen zeigt.
Im Licht der neuen Ergebnisse sind viele neuen Fragen aufgetaucht und viel Forschungsarbeit ist zu tun. Es gibt auch einige offensichtliche Konsequenzen. H5N1 und H7N9 haben weltweit bereits Hunderte Menschen infiziert. Sollte eines der Viren mutieren und leichter vom Vogel auf den Menschen übergehen, könnte dies die nächste Pandemie verursachen. Die beschriebene Untersuchung zeigt, dass eine sorgfältige Analyse von existierenden Gesundheitsdaten der Bevölkerung in Verbindung mit mathematischen Modellierungen der Krankheitsübertragung es bereits möglich macht, bessere Voraussagen zu treffen und Pläne für derartige Risiken zu entwickeln.
*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Birth Year Predicts Bird Flu Risk" zuerst (am 22. Novemberi 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/11/22/birth-year-predicts-bird-flu-risk/ . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).
[1] Potent protection against H5N1 and H7N9 influenza via childhood hemagglutinin imprinting. Gostic KM, Ambrose M, Worobey M, Lloyd-Smith JO. Science. 2016 Nov 11;354(6313):722-726. (open access)
[2] Influenza (Seasonal). World Health Organization. March 2014.
Weiterführende Links
- Influenza (National Institute of Allergy and Infectious Diseases, NIH),
- Lloyd-Smith Lab (University of California, Los Angeles)
- Michael Worobey (University of Arizona, Tucson)
- Influenza - Die Angriffstaktik des Virus. Video 1:25 min.
Artikel im ScienceBlog
- Peter Palese, 10.05.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?
Vom Sinn des Schmerzes
Vom Sinn des SchmerzesDo, 10.11.2016 - 08:56 — Nora Schultz
Keiner will ihn, doch leben ohne ihn ist gefährlich: Der Schmerz ist eine der wichtigsten Empfindungen überhaupt. Die Biologin und Wissenschaftsjournalistin Nora Schultz beschreibt die komplexe Verarbeitung von Schmerz in Körper und Gehirn und liefert zahlreiche Ansatzpunkte, Schmerz auch ohne Medikamente zu lindern*.
Mitunter sitzt die ganze Seele in eines Zahnes dunkler Höhle“, dichtete dereinst Wilhelm Busch über den Zahnschmerz. Wer die allumfassende Pein im Reim schon einmal selbst erlebt hat, wird sich spätestens dann gefragt haben, wozu Schmerz eigentlich gut sein soll. Die Antwort ist eigentlich schlicht: Schmerz ist ein Hilferuf des Körpers, dass Schaden droht oder schon eingetreten ist und man sich schleunigst von der Gefahrenquelle entfernen sollte. Ohne Schmerz würde niemand die heiße Herdplatte meiden oder einen Knochenbruch in Ruhe ausheilen lassen.
Wie wichtig Schmerzempfinden ist, zeigt der Blick auf Personen, denen es fehlt. „Menschen, die keinen Akutschmerz spüren können, leiden unter massiver Selbstverstümmelung, zum Beispiel abgebissenen Lippen“, sagt Stefan Lechner von der Universität Heidelberg . Wer schon einmal damit zu kämpfen hatte, sich nach einem Zahnarztbesuch seine noch betäubten Mundpartien nicht zu zerbeißen, wird dies nachvollziehen können.
Sinneszellen als Schadensmelder
Klassischer Schmerz beginnt mit putzig klingenden Sinneszellen: den so genannten Nozizeptoren. Was man aus dem Lateinischen lose als Schadensmelder übersetzen kann, sind Zellen mit freien Nervenenden, die sich in fast allen Geweben des menschlichen Körpers finden, vor allem aber in der Haut. Dort existieren sie in größerer Dichte als sämtliche andere Sinnesrezeptoren – was die Bedeutung der Haut als Schutzorgan unterstreicht. Abbildung 1.
Abbildung 1. Nozizeptoren in der Haut. Mit bis zu 200 Nozizeptoren/cm2Haut übertreffen sie alle anderen Rezeptoren der Sinnesempfindungen in diesem Organ. (Quelle: Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rezeptor/. Lizenz: cc-by-nc)
Manche Nozizeptoren reagieren ausschließlich auf mechanische Reize, zum Beispiel einen spitzen Stich, andere auch auf Hitze, Kälte, chemische Reize wie den scharfen Geschmacksstoff Capsaicin oder Botenstoffe, die bei Verletzungen oder Entzündungen freigesetzt werden. Allen Nozizeptoren ist gemein, dass sie im Normalzustand nicht so leicht aus der Ruhe zu bringen sind. Damit sie ein Signal ans Rückenmark losschicken, muss der Reiz ziemlich stark sein. Einige Nozizeptoren sind normalerweise rein gar nicht aus der Reserve zu locken: die so genannten stummen Nozizeptoren sitzen vor allem in inneren Organen und sind in gesundem Gewebe überhaupt nicht erregbar. Kommt es hingegen zu Entzündungen, kann dieser Prozess auch die stummen Nozizeptoren aus dem Dornröschenschlaf wecken. Sie werden erregbar und tragen nun auch zur Schmerzentstehung bei. Die Zellkörper der Nozizeptoren sitzen in den Spinalganglien. Auf dem Weg ins Rückenmark reisen die Signale je nach Zelltyp mit unterschiedlichem Tempo. Nozizeptoren mit so genannten A-Delta-Fasern haben eine Myelinscheide, die eine schnelle Impulsweiterleitung ermöglicht. Sie vermitteln vor allem stechende Schmerzreize. Nozizeptoren mit C-Fasern hingegen sind für die Übertragung von Schmerzen zuständig, die als eher dumpfer und tiefer sitzend empfunden werden. Ihnen fehlt die Myelinummantelung und sie brauchen länger für die Reizübertragung. Eine vereinfachtes Schema der Weiterleitung des Schmerzsignals ist in Abbildung 2 gezeigt.
Abbildung 2. Weiterleitung des Schmerzsignals: ein langer Weg, der nur drei Nervenzellen umfasst. Vom Ort der Entstehung wird das Signal zum Rückenmark weitergeleitet, dort vom zweiten Neuron übernommen und bis ins Gehirn geleitet. Im Cortex wird das Schmerzsignal seinem Ursprungsort (dem schutzbedürftigen Körperteil) zugeordnet. Die somatosensorischen Bereiche orientieren sich an der Rezeptorendichte. (Quelle: Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rez.... .Lizenz:cc-by-nc)
Neben den von Nozizeptoren gemeldeten Reizen, die im Gehirn als Schmerz interpretiert werden, kennt man inzwischen eine Reihe von weiteren Schmerzarten. Oft liegt eine Nervenschädigung zugrunde. Die daraus resultierenden Schmerzen werden dann als „neuropathisch“ bezeichnet. „Dies ist allerdings ein Sammelbegriff für viele Erkrankungen mit sehr unterschiedlichen Mechanismen“, sagt Rohini Kuner, die Sprecherin des Sonderforschungsbereiches 1158, der untersucht, wie chronischer Schmerz entsteht. Neuropathische Schmerzen können zum Beispiel durch mechanische Traumata infolge eines Unfalls ausgelöst werden, durch virale Infektionen, durch zu hohen Blutzucker bei Diabeteserkrankungen oder auch durch Tumorzellen, die entlang von Nervenfasern wandern.
Signal-Verarbeitung noch im Rückenmark
Ist ein Schmerzsignal erst einmal im Rückenmark angelangt, darf man sich die Weiterleitung an die zum Gehirn führende Nervenbahnen keinesfalls wie bei einem Staffellauf vorstellen, wo das Holz einfach an den nächsten Läufer weitergegeben wird: „Im Rückenmark findet Signalintegration in sehr, sehr komplexen Netzwerken statt, die wir gerade erst zu entschlüsseln lernen“, betont Stefan Lechner. So werden die Reize etwa in Nervennetzwerken verknüpft, wodurch die Qualität und Intensität des Schmerzes kodiert wird. Zudem sind Nozizeptoren auch mit Motorneuronen verschaltet, die schnelle Rückziehreflexe von der Schmerzquelle ermöglichen, noch bevor die Schmerzwahrnehmung überhaupt im Gehirn angekommen ist. Selbst Signale, die eigentlich gar nichts mit Schmerz zu tun haben sollten, weil sie zum Beispiel von ganz anderen Sinneszellen kommen oder längst amputierte Gliedmaßen zu peinigen scheinen, können durch Umschaltungen im Rückenmark zu Schmerzbotschaften werden.
Vom Rückenmark wandern Schmerzsignale auf unterschiedlichen Pfaden in verschiedene Gehirnregionen. Sie kreuzen zunächst auf die Gegenseite in den Vorderseitenstrang, durchziehen den Hirnstamm und werden dann im Zwischenhirn vom Ventrobasalkern des Thalamus weiter an andere Gehirnregionen geleitet. Hier ergibt die Zusammenarbeit unterschiedlicher Gehirnareale die eigentliche Schmerzwahrnehmung . Im Cortex beispielsweise ordnen Insellappen und somatosensorische Hinterrinde das Schmerzsignal seinem Ursprungsort zu, damit man über den ersten Rückziehreflex hinaus das schutzbedürftige Körperteil identifizieren kann. Das limbische System hingegen bewertet den Schmerz emotional und der dorsolaterale präfrontale Cortex trägt zur kognitiven Einordnung des Schmerzes bei.
Jeder Schmerz ist einzigartig
Angesichts der vielen beteiligten Gehirnregionen überrascht es kaum, dass die Schmerzwahrnehmung nicht nur höchst subjektiv ist, sondern dass ähnliche Schmerzen auch bei ein und derselben Person je nach Situation sehr unterschiedlich wahrgenommen werden. Akuter Stress zum Beispiel kann das Schmerzempfinden dämpfen und hilft Sportlern oder Soldaten auch schwere Verletzungen vorübergehend zu ignorieren, bis wieder Ruhe einkehrt. Auch die positive Betrachtung bestimmter Schmerzen – zum Beispiel von Geburtswehen – kann zur Linderung beitragen, ebenso gelingt dies mit Entspannungstechniken oder dem schieren Glauben an Placebos. Angst, Traurigkeit, Stress oder Verkrampfung hingegen wirken mitunter wie Schmerzverstärker.
Wo positives Denken an seine Grenzen stößt, greifen Schmerzgeplagte zur Pillenschachtel oder Spritze. Ihnen steht ein überwiegend schon seit Jahrzehnten bewährtes Arsenal an Analgetika zur Verfügung, welches von rezeptfreien Klassikern wie Aspirin und Paracetamol bis hin zu Opioiden reicht. Auch manche Medikamente, die eigentlich für andere Zwecke entwickelt wurden, zum Beispiel zur Behandlung von Depression oder Epilepsie, können als effektive Schmerzmittel wirken. Gänzlich neue Möglichkeiten, Schmerzen zu behandeln, wurden in den letzten Jahren allerdings nicht entdeckt.
Problemfall Chronischer Schmerz
Die bislang eher mageren Erfolge bei der Suche nach neuen Angriffspunkten in der Schmerzbekämpfung tun vor allem da weh, wo Schmerz aus dem Ruder läuft. Das kann zum Beispiel der Fall sein, wenn Patienten Schmerzmittel nicht vertragen oder unter besonders starken und dauerhaften Schmerzen leiden. Gerade chronische Schmerzen bringen Patienten – und auch ihre Ärzte – oft zur Verzweiflung. „Solche Schmerzen sind keine Warnsignale mehr, sondern werden selbst zur Krankheit“, sagt Kuner. Sie entstehen zum Beispiel aufgrund von Nervenschädigungen, die auch nach dem eigentlichen Heilungsprozess fortbestehen, durch dauerhafte Sensibilisierung von Rezeptoren oder durch die bleibende Veränderung von Verschaltungen im Gehirn oder Rückenmark, die zu Schmerzwahrnehmungen führen, obwohl eigentlich keine Gewebeschädigung (mehr) vorliegt. Im Zuge solcher fehlgeleiteten molekularen und zellulären Lernprozesse kann sich ein regelrechtes Schmerzgedächtnis ausbilden, das bislang kaum rückgängig zu machen ist.
Wo chronische Schmerzen eine dauerhafte Schmerzmedikation erforderlich machen, können Nebenwirkungen oder Wirkungsverluste schnell Probleme bereiten. Gerade an Opioide gewöhnt der Körper sich schnell, was dazu führt, dass die Dosis während der Therapie nach und nach erhöht werden muss. „In manchen Fällen kann bereits nach wenigen Wochen eine mehr als zehnfach höhere Dosierung für eine zufriedenstellende Schmerzlinderung erforderlich sein“, berichtet Lechner. Gerade für die Behandlung chronischer Schmerzen hoffen Forscher daher darauf, dass das derzeit rapide wachsende Verständnis der komplexen Vorgänge bei der Schmerzverarbeitung zu neuen Therapieansätzen führen wird. Längst ist zwar klar, dass der Schmerz meist nicht nur eine Ursache hat, sondern aus einem komplexen Zusammenspiel biologischer, seelischer und sozialer Faktoren heraus entsteht. Dieses bio-psycho-soziale Schmerzmodell beantwortet aber nicht automatisch die Frage nach der besten Behandlung. Klar scheint, dass zu den Medikamenten im Rahmen einer multimodalen Therapie zunehmend nicht-medikamentöse Strategien dazu kommen müssen. Ob und wie sich das Schmerzgedächtnis dadurch nachhaltig wieder verlernen lässt, ist derzeit aber noch offen. Wünschenswert wäre es allemal, auch chronischen Schmerz in die Vergangenheit verbannen zu können.
Auch hierfür fand schon Wilhelm Busch die richtigen Worte: „Gehabte Schmerzen, die hab' ich gern.“
* Der Artikel ist der Webseite www.dasgehirn.info entnommen und steht unter einer CC-BY-NC Lizenz: https://www.dasgehirn.info/wahrnehmen/schmerz/vom-sinn-des-schmerzes-1178. Die beiden Abbildungen wurden von der Redaktion eingefügt; sie stammen ebenfalls von der obigen Webseite (Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rez...)
www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe
Weiterführende Links
Zum Thema Schmerz ist auf der Webseite "dasgehirn" eben eine umfassende Artikel-Serie erschienen (darunter der obige ScienceBlog Artikel): https://redaktion.dasgehirn.info/
Chronischer Schmerz: Video 25:44 min. https://redaktion.dasgehirn.info/wahrnehmen/schmerz/chronischer-schmerz-... Lizenz: cc-by-nc.
Artikel im ScienceBlog:
Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffernhttp://scienceblog.at/proteinmuster-chronischer-schmerzen-entziffern#.
Gottfried Schatz, 30.08.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält
http://scienceblog.at/grausamer-h%C3%BCter-%E2%80%94-wie-uns-schmerz-sch....
Woher kommt Komplexität?
Woher kommt Komplexität?Do, 17.11.2016 - 05:25 — Peter Schuster
Der Begriff "komplex" ist zu einem Schlagwort geworden, das von der Gesellschaft gerne mit Problemen assoziiert wird, für die man keine simple Lösung parat hat. Dass komplex aber nicht gleichbedeutend mit kompliziert ist, was unter Komplexität eigentlich zu verstehen ist, welche Ursachen uns etwas komplex erscheinen lassen und wie wir Komplexität erfolgreich bearbeiten können, zeigt hier der theoretische Chemiker Peter Schuster (emer. Prof. Univ Wien) auf. Die "Dynamik evolvierbarer komplexer Systeme" gehört seit vier Jahrzehnten zu den Forschungsschwerpunkten des Autors..*
Wenn man Wissenschafter befragt, was sie unter Komplexität verstehen, werden wohl die meisten von ihnen Komplexität als das Ergebnis aus einem oder mehreren von drei Faktoren charakterisieren, nämlich
i) hohe Dimensionalität,
ii) Netzwerke von Wechselwirkungen und
iii) nichtlineares Verhalten. Für sich betrachtet muss hohe Dimensionalität allerdings nicht unbedingt zu Komplexität führen: Beispiele dafür gibt es in der linearen Algebra , wo - unlimitierte Ressourcen an Rechnerzeit und Speicherkapazität vorausgesetzt - Lösungen über Eigenwertprobleme erhalten werden können; es handelt sich vielleicht um komplizierte aber nicht um komplexe Probleme. Dies gilt auch für den Faktor Wechselwirkungen: kompliziert aber nicht komplex ist es, wie sich beispielsweise Moleküle im Gaszustand verhalten - dies ist keineswegs trivial, dennoch können korrekte statistische Beschreibungen für makroskopische Eigenschaften wie Temperatur, Druck etc. gegeben werden. Auch Nichtlinearität ergibt nicht zwangsläufig ein komplexes System - Beispiele dafür gibt es u.a. in der Kinetik chemischer Reaktionen.
Jeder der genannten drei Faktoren reicht - für sich allein - häufig nicht aus, um komplexe Eigenschaften entstehen zu lassen, im allgemeinen kommen zusätzliche Merkmale dazu oder Kombinationen von Faktoren. Abbildung 1.
Abbildung 1. Digital erzeugte komplexe, geometrische Muster. Mit einfachen mathematischen Formeln, die durch Rückkopplung iteriert werden, lassen sich phantastisch aussehende, selbstähnliche geometrische Muster - Fraktale - erzeugen. Derartige fraktale Muster finden sich überall in der Natur (Verästelungen, Pflanzenformen, Blutgefäße, Küstenlinien, etc.) (Bild: gemeinfrei; Pete Linforth https://pixabay.com/en/chaos-complexity-complex-fractal-724096/)
Komplexes Verhalten ist einfach zu diagnostizieren
Im Gegensatz zur Frage, was zu Komplexität führt, lässt sich komplexes Verhalten einfach diagnostizieren.
Das typischste Merkmal ist, dass sich zukünftiges Verhalten kaum oder überhaupt nicht vorhersagen lässt. Die besten Beispiele sind allgemein bekannt: es sind die Probleme langfristige Prognosen zu Wetter oder Aktienmärkten zu erstellen.
Ein weiteres, leicht zu diagnostizierendes Merkmal komplexer Systeme ist das offensichtliche Fehlen kausaler Zusammenhänge. Wir sind in unserem täglichen Leben ja an lineare Kausalitäten - Ursache-Wirkung Beziehungen - gewohnt: entdecken wir irgendwo einen Defekt, so setzt unsere Reparatur direkt an diesem Fehler an - wir versuchen ihn zu eliminieren oder zu kompensieren. Dass es darüber hinaus "vernetzte Kausalitäten" gibt, dürfte vermutlich aus dem Beobachten und Manipulieren von Ökosystemen erkannt worden sein. Wird hier ein Schaden ausgebessert, kann dies zu Schäden an anderen Stellen führen - gewöhnlich gibt es dann kein anderes Mittel der Wahl als den ursprünglichen Zustand wiederherzustellen. Eines der heute sehr häufig erörterten Beispiele für das Fehlen einfacher Kausalitäten kommt aus der Pharmakologie: Auf Grund der hochkomplexen Netzwerke des Stoffwechsels, gibt es keine Arzneimittel, die nicht auch Nebenwirkungen hätten.
Was aber bedingt Komplexität?
Gibt es außer den oben genannten drei Faktoren - hohe Dimensionalität, Netzwerk-Wechselwirkungen und Nichtlinearität - weitere Gründe, die uns etwas komplex erscheinen lassen? Mit derartigen Gründen befasst sich dieser Essay und nennt:
- fehlendes Wissen,
- fehlende, zur Problemlösung erforderliche Methoden und
- das Einbetten eines einfachen Systems in eine komplexe Umgebung.
Ein Beispiel für fehlendes Wissen
kommt aus der Astronomie der Antike. Im geozentrischen Pythagoreischen Weltbild drehten sich die Himmelskörper - Hohlkugeln - rund um die Erde. Aus der Vorstellung heraus, dass die Welt sich in vollkommener Harmonie befindet, mussten auch die Himmelskörper vollkommene Kugeln sein. Sonne und Mond boten hier kaum Probleme, die Bewegung der Planeten widersprachen aber jedem einfachen Modell, das ein einziges Zentrum der Rotation hatte. Es dauerte mehr als 600 Jahre bis Ptolemäus von Alexandria eine Lösung bereit hatte. Abbildung 2. Unter der Voraussetzung von nach wie vor perfekten Kugeln und gleichförmigen Rotationsgeschwindigkeiten zeigte er, dass für eine vollständige Beschreibung der Beobachtungen (die damals noch mit dem bloßen Auge erfolgten) vier Rotationszentren nötig waren. Das Ptolemäische Welt-System behielt bis zum Anbruch der Moderne - bis Nikolaus Kopernikus, Johannes Kepler und Isaak Newton - ihre Gültigkeit . Dann wurde die Komplexität dieses Systems in drei Schritten reduziert: das geozentrische System wurde von Kopernikus durch ein heliozentrisches ersetzt, an Stelle der vollkommenen Kugeln, Kreisbahnen und gleichförmigen Rotationsgeschwindigkeiten führte Kepler eine allgemeinere Form der planetaren Bewegungen auf Ellipsenbahnen ein, in deren einem Brennpunkt die Sonne steht. Abbildung 2. Newtons Gravitations-Gesetze schließlich ermöglichten eine vollständige Beschreibung aller Bewegungen - für die Berechnungen braucht man nur Informationen über die Massen der Körper und die Ausgangsbedingungen, d.i. die relativen Positionen und Geschwindigkeiten. Die Himmelsmechanik bietet zweifellos das beste Beispiel eines alten Problems, das mit zunehmendem Wissen - mathematisch nachvollziehbar - entmystifiziert und vereinfacht wurde.
Abbildung 2. Das Geozentrische Weltbild des Claudius Ptolemäus (oben) und das Heliozentrische Weltbild des Nikolaus Kopernikus (unten). Quelle gemeinfrei: Andreas Cellarius Harmonia Macrocosmica, 1660/6: links oben: "Scenographia systematis mvndani Ptolemaici." und links unten: "Scenographia Systematis Copernicani"; rechts oben: Wikimedia, rechts unten:Abbildung aus dem Werk: Kopernikus: De revolutionibus orbium coelestium(1543)
Das Fehlen geeigneter Methoden
Ein zweiter Grund, warum Dinge komplexer erscheinen, als sie tatsächlich sind, resultiert aus dem Fehlen geeigneter Methoden, um die Probleme zu analysieren und Modelle zu erstellen.
Empirische Wissenschaften basieren auf den zwei Fundamenten: der Theorie und dem Experiment. An der Zeitenwende vom 19. zum 20. Jahrhundert begannen Wissenschafter, aber auch die Öffentlichkeit, Fragen zu stellen, die eine neue Form schwierig zu lösender Probleme generierten. Ein großer Teil dieser Probleme ließ sich weder durch neue Theorien noch durch vorhandene experimentelle Methoden befriedigend angehen. Ein Beispiel dafür war ein von König Oskar II von Schweden initiiertes Preisausschreiben, der einen mathematischen Beweis für die Stabilität des Sonnensystems sehen wollte. Henri Poincare gewann diesen Preis, allerdings enthielten seine Rechnungen einen Fehler und führten zur unrichtigen Schlussfolgerung: "Das Sonnensystem ist stabil". Er war selbst imstande seinen Fehler zu korrigieren - den König ließ er dann mit dem nicht zufriedenstellenden Argument zurück: "Das Sonnensystem kann zerfallen - zugegebenermaßen mit einer sehr geringen Wahrscheinlichkeit".
Heute trägt Computer-unterstütztes Rechnen enorm zur Vereinfachung von Problemen jeglicher Art bei - es ist das dritte Bein, auf dem der wissenschaftliche Fortschritt weitergeht. Überaus komplexe Fragestellungen können mit Hilfe numerischer Methoden in Angriff genommen werden , dies gilt insbesondere für die erst jetzt mögliche Behandlung von stochastischen Prozessen (Zufallsprozessen).
Das Einbetten in eine komplexe Umgebung
Dass an und für sich einfache Reaktionen in ein komplexes Umfeld integriert sind, ist in der Biochemie und Molekularbiologie durchaus üblich. Ein typisches Beispiel dafür, ist die in allen Lehrbüchern beschriebene Glykolyse, eine Kette von aufeinanderfolgenden Reaktionen, in denen zwölf Enzyme die Umwandlung von Glukose in Milchsäure katalysieren. Abbildung 3. Alle diese Enzyme kennt man bereits sehr gut, man hat sie in der zweiten Hälfte des 20. Jahrhunderts isoliert, charakterisiert und ihre 3D-Kristallstruktur bestimmt. Die Einzelreaktionen und auch die gesamte Glykolyse sind ausreichend untersucht - als isolierte Systeme in vitro und in vivo in intakten Zellen und Organismen. Die Glykolyse stellt demnach ein einfaches System von Reaktionen dar, in dem zwei Schritte irreversibel sind. Dieses einfache, an sich nicht komplexe System liegt allerdings in den allgemeinen Stoffwechsel der anderen Zucker - Monosaccharide - eingebettet vor, die an unterschiedlichen Stellen der Reaktionskette mit der Glykolyse interferieren können und damit ein Netzwerk von Reaktionen bilden. Tatsächlich ist aber auch der Monosaccharid-Stoffwechsel nur ein winziges Segment des gesamten überaus komplexen Stoffwechsel-Netzwerkes in lebenden Zellen. Wer sich die Komplexität dieses Netzwerks vor Augen führen möchte, sollte einen Blick auf die (ursprünglich von Böhringer Mannheim herausgegebenen) "Biochemical Pathways" werfen.
Abbildung 3.Die Glykolyse ist eine relativ einfache Kette von aufeinanderfolgenden Reaktionen, in denen aus 1 Molekül Glukose 2 Moleküle Laktat entstehen (schwarze Pfeile: reversible, blaue Pfeile irreversible Schritte). Im Zellmilieu ist die Glykolyse in den Metabolismus der Zucker eingebettet (rot, nicht alle Zucker sind eingezeichnet). Dies ergibt ein komplexes Netzwerk von Reaktionen, dessen Komplexität bei Integration in den vollständigen Metabolismus der Zelle noch ungemein gesteigert wird. Pyruvate fliesst als Substrat in den Citronensäurecylus, kann auch in zwei Schritten zu Äthanol vergoren werden
Wie geht es weiter?
Fehlendes Wissen, fehlende Methoden zur Behandlung von Problemen und deren Einbettung in komplexen Systemen sind Beispiele, die zur Entstehung komplexen Verhaltens führen können - vermutlich gibt es noch zahlreiche weitere Auslöser. Die genannten Beispiele sollen aufzeigen, auf welche Weise wir in Zukunft komplexe Systeme angehen und erfolgreich bearbeiten können. Insbesondere in den Lebenswissenschaften besteht die dringende Notwendigkeit Komplexität zu reduzieren. Enorme Berge von Daten werden generiert und niemand weiß, ob die wichtigen Informationen wirklich gespeichert werden. Es ist auch nicht zu sehen, ob und wie schnell - im Sinne der Vision von Sidney Brenner - eine neue theoretische Biologie, ein "Newton des Grashalms", im Kommen ist. Zumindest hoffen aber viele Biologen, dass neue Konzepte entwickelt werden, welche die Datenflut und verwirrende Interpretationen vereinfachen.
Hier soll noch ein Punkt erwähnt werden, der komplexen Systemen in allen Gebieten - von der Physik der Elementarteilchen bis zu metabolischen Netzwerken - gemeinsam ist. Ergebnisse aus ausgedehntesten Computer-gestützten Berechnungen können kaum mehr mit dem menschlichem Auge, dem menschlichen Hirn überprüft werden. Das gleiche gilt auch für viele modernen Techniken, wie dem "high throughput screeining" - dem gleichzeitigen Testen von Tausenden Proben - oder beispielsweise für die bildgebenden Verfahren in der Mikroskopie und Tomographie. Wir müssen uns also auf unsere Computer und die verwendeten Rechenmodelle verlassen können.
Wer aber kontrolliert die Computer? Das ist wiederum nur über Computerprogramme möglich. Die Entwicklung von Software, die Computerprogramme prüft und korrigiert, ist ein überaus aktives Gebiet in der heutigen Informatik.
Weiterführende Links
- Scobel - Komplexität: Was haben ein Tsunami und die Börse gemeinsam? Sehr empfehlenswertes Video (50:13 min) mit Interviews von Topexperten der Komplexitätsforschung anläßlich einer von Klaus Mainzer veranstalteten Tagung in Heidelberg.
- Scobel: Entscheidungen - Nach welchen Kriterien wir wählen Video (38:57 min) über Komplexität sozio-ökonomischer Probleme.
Artikel von Peter Schuster zum Thema Komplexität im ScienceBlog:
- 03.11.2011: Gibt es Rezepte für die Bewältigung von Komplexität?
- 13.09.2012: Zentralismus und Komplexität
- 23.05.2014: Gibt es einen Newton des Grashalms?
Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von Impfstoffen
Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von ImpfstoffenDo, 03.11.2016 - 07:26 — Richard Neher
Wir sind umgeben von Mikroorganismen, die sich im Wettstreit ums Überleben ständig verändern. Im Unterschied zu Tieren und Pflanzen dauern solche Veränderungen nicht Tausende von Jahren, sondern oft nur einige Wochen. Um solch schnelle Evolution zu verstehen, benötigen wir neue theoretische Konzepte und müssen die evolutionäre Dynamik direkt beobachten. Die Forschungsgruppe rund um den Biophysiker Richard Neher (Arbeitsgruppenleiter am Max-Planck-Institut für Entwicklungsbiologie, Tübingen) entwickelt dazu Methoden und wendet sie auf Daten von Grippe- und HI-Viren an. Die Ergebnisse ermöglichen Vorhersagen der Zusammensetzung zukünftiger Viruspopulationen.
Virus-Evolution
Evolution gilt gemeinhin als ein langsamer Prozess, der nicht über einen Zeitraum von ein paar Jahren beobachtbar ist. Mikroorganismen hingegen verändern sich oft sehr schnell und können innerhalb von Wochen neue Eigenschaften entwickeln. Zu diesen Mikroorganismen gehören viele Krankheitserreger und deren stetige Anpassung kann dramatische Auswirkungen auf die Gesundheit von Menschen, Tieren und Pflanzen haben, besonders dann, wenn Erreger resistent gegen Medikamente werden.
Die rasante Entwicklung der Sequenzierungstechnologien ermöglicht es, die Veränderung und Ausbreitung von Krankheitserregern, wie zum Beispiel von Grippe-Viren, genau zu beobachten. Das Global Influenza Surveillance and Response System sequenziert jeden Monat Hunderte von Influenza-Viren. Um diese Daten intuitiv und in Echtzeit darzustellen und zu analysieren, hat die Forschungsgruppe um Richard Neher zusammen mit Wissenschaftlern aus Seattle die Webseite nextflu.org (Neher, R.A.; Bedford, T. nextflu: Real-time tracking of seasonal influenza virus evolution in humans, Bioinformatics 31, 3546-3548 (2015)) entwickelt. Abbildung 1 zeigt, wie die Webseite die zeitliche und geographische Ausbreitung von Grippe-Virus Varianten darstellt. Diese Art der Datenanalyse hilft, dass Impfstoffe rechtzeitig an sich verändernde Viren angepasst werden können. Bei anderen Virus Erkrankungen, wie zum Beispiel Ebola, können so Infektionsketten schnell identifiziert werden.
Abb. 1: Fortlaufend aktualisierter Stammbaum und Dynamik von Grippe-Viren, dargestellt auf nextflu.org. Unten rechts ist die Häufigkeit der Virusvarianten 3c2.a und 3c3.a über die Jahre 2013 bis 2015 dargestellt. © Max-Planck-Institut für Entwicklungsbiologie/Neher, Bedford
Neben der Überwachung der Evolution von Krankheitserregern können wir an den sich schnell verändernden Mikroorganismen evolutionäre Prozesse studieren, die in Eukaryonten Millionen von Jahren dauern würden. Die Fülle an Sequenzdaten aus mikrobiellen Populationen erlaubt Einblicke in die Triebkräfte und Gesetze der Evolution. Deren Verständnis wiederum hilft uns, Bedingungen zu definieren, die die Anpassung von Krankheitserregern verlangsamen. Auch Prognosen der Zusammensetzung und Eigenschaften zukünftiger Viruspopulationen rücken in greifbare Nähe. Diese Entwicklungen spielen sich an der Schnittstelle zwischen neuen Sequenzierungstechnologien, Mikrobiologie, Bioinformatik sowie mathematischer Theorie und Modellierung evolutionärer Prozesse ab.
Die Theorie sich schnell verändernder Populationen
Populationsgenetik beschreibt die Dynamik von Mutationen unter dem Einfluss von natürlicher Selektion, Rekombination und den vielfältigen zufälligen Prozessen im Lebenszyklus der Individuen. Traditionell befasst sich die Populationsgenetik mit der Evolution multizellulärer Eukaryonten. Typischerweise wird angenommen, dass die Mehrheit aller beobachteten Mutationen keinerlei Effekt auf den Phänotyp hat und sich nur gelegentlich diejenige Mutation durchsetzt, die Eigenschaften zum Positiven verändert. In Mikroorganismen und insbesondere in RNA-Viren, wozu die Grippe-Viren gehören, sind diese Annahmen nicht gerechtfertigt. Somit wird eine Theorie benötigt, die genau dieser Dynamik schnell adaptierender Populationen Rechnung trägt.
Die Max-Planck-Forschungsgruppe und weitere Wissenschaftlerinnen und Wissenschaftler haben in den letzten Jahren Modelle entwickelt, die der Dynamik mikrobieller Populationen Rechnung tragen und Vorhersagen der genetischen Diversität ermöglichen. Abbildung 2 zeigt schematisch die wesentlichen Züge eines solchen Modells. Individuen in der Population unterscheiden sich durch viele Mutationen, und diese genetische Diversität führt zu phänotypischer Diversität, die wiederum zu Diversität im Replikationserfolg, also der Fitness, führt. Da fitte Individuen im Mittel mehr Nachkommen haben, kommen die Vorfahren der Population typischerweise vom oberen Ende der Fitnessverteilung, während durchschnittliche Individuen auf lange Sicht keine Nachkommen hinterlassen. Der Wettstreit dieser Varianten kann mathematisch beschrieben werden. Diese Theorie liefert explizite Vorhersagen für die Eigenschaften der Stammbäume, die dann mit Sequenzdaten verglichen werden können.
Abb. 2: Schnell evolvierende Populationen sind divers und nur die fittesten Individuen setzen sich durch. Die Vorfahren zukünftiger Populationen kommen vom oberen Rand der Fitnessverteilung, wo seltene Ereignisse die Dynamik dominieren. © Max-Planck-Institut für Entwicklungsbiologie.
Die Evolution von Grippe-Viren ist vorhersehbar
Durch das Studium der Populationsmodelle haben wir verstanden, wie tendenziell erfolgreiche, also fitte Viren von weniger erfolgreichen anhand ihrer Genom-Sequenzen unterschieden werden können. Diese Vorhersagen beruhen auf Mustern im Stammbaum der Viren, der aus den Sequenzen rekonstruiert werden kann. Da die erfolgreichen Viren zukünftige Populationen dominieren, erlaubt diese Einsicht Vorhersagen über die Zusammensetzung zukünftiger Populationen.
Für Grippe-Viren sind zuverlässige Vorhersagen besonders relevant, da der Impfstoff gegen Influenza fast jedes Jahr aktualisiert werden muss. Innerhalb weniger Jahre können sich die Viren so stark verändern, dass veraltete Impfstoffe nicht mehr schützen. Die Produktion eines neuen Impfstoffes dauert allerdings mehr als ein halbes Jahr, sodass die Entscheidung über die Impfstoffzusammensetzung lange im Voraus getroffen werden muss. Hier können Vorhersagen, basierend auf einer auf Grippe-Viren bezogenen, neuen Evolutionstheorie, konkret helfen.
Die Forschungsgruppe hat die Vorhersagen ihrer Theorie mit der Evolution von Grippe-Viren zwischen 1995 und 2014 verglichen. Es zeigte sich, dass in fast allen Jahren die Methode eine Virusvariante identifizierte, die nahe an der zukünftigen, tatsächlich aufgetretenen Population lag – in vielen Jahren fiel die Wahl sogar auf die beste Virusvariante. Momentan verfeinern die Wissenschaftlerinnen und Wissenschaftler diese Methode, um der Weltgesundheitsorganisation (WHO) optimale Prognosen für die Impfstoffzusammensetzung zu liefern.
Evolution von HIV im Patienten
Ein weiteres Beispiel schneller Evolution ist die Anpassung von HIV an das individuelle Immunsystem des Wirts. Dieser Prozess passiert jedes Mal wieder, wenn sich ein Mensch mit HIV infiziert. Um diesen Prozess im Detail zu studieren, haben die Max-Planck-Forscher zusammen mit Jan Albert vom Karolinska Institut in Stockholm archivierte Proben von elf Patienten untersucht. Für jeden dieser Patienten standen ihnen fünf bis zwölf Proben zur Verfügung, die die HIV-Infektion von Beginn an über viele Jahre hinweg repräsentieren. Jede Probe enthält Tausende HIV-Genome, die die Wissenschaftlerinnen und Wissenschaftler mit modernen Sequenzierungsmethoden entschlüsseln konnten. Solche Zeitserien von Proben sind im Grunde wie Filme zu betrachten, dank derer die Forscher nachvollziehen können, wie sich die Virus-Population über die Zeit verändert hat.
Abbildung 3 zeigt die Dynamik von Mutationen in einem kleinen Abschnitt des HIV-Genoms innerhalb eines HIV-positiven Menschen. Innerhalb der 350 Basen werden in diesem Beispiel zehn Mutationen beobachtet, die sich durchsetzen. Noch sehr viel mehr Mutationen findet man als seltene Varianten unter 10% in der Population. Anhand solcher Daten konnten die Forscher zum Beispiel zeigen, dass HIV eine Art optimale Sequenz hat und rund ein Drittel aller Veränderungen Reversionen zurück zu dieser optimalen Sequenz darstellen.
Abb. 3: Die Dynamik von Mutationen im HIV-Protein p17 innerhalb eines HIV-positiven Patienten. Viele Mutationen setzen sich in der Population durch, noch sehr viel mehr erscheinen nur transient. © Max-Planck-Institut für Entwicklungsbiologie, verändert.
Ursprünglich sind diese suboptimalen Varianten vermutlich entstanden, als das Virus dem Immunsystem ausweichen musste. In einem neuen Wirt mit einem anderen Immunsystem können, so wird angenommen, solche Veränderungen dann rückgängig gemacht werden. Diese und andere Resultate zeigen, dass HIV-Populationen problemlos jede mögliche Mutation entdecken können und aus der Fülle an möglichen Mutationen fast deterministisch jene selektieren, die die Virusreplikation insgesamt beschleunigen. Diese Annahme zu prüfen und weitere Methoden zur Vorhersage von Virus-Evolution zu entwickeln, wird die Forscher in Zukunft weiter beschäftigen.
* Der, unter dem Titel "Ist Evolution vorhersehbar? " im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (http://www.mpg.de/9826795/MPI_EB_JB_2016) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert und ohne die im Original ersichtlichen, nicht frei zugänglichen Literaturstellen (diese können auf Anfrage zugesandt werden).
Weiterführende Links
- Max-Planck-Institut für Entwicklungsbiologie, Tübingen
- Real-time tracking of influenza virus evolution
- neherlab: Blog (englisch) Evolution, population genetics, and infectious diseases
- Infektionen jetten um die Welt, Video 5:56 min (ein mathematisches Modell simuliert, wie Erreger - Beispiel SARS - um den Globus wandern).
- Infektionen auf dem Vormarsch, Video 5:26 min.
Artikel im ScienceBlog
- Peter Schuster; 24.05.2013: Letale Mutagenese — Strategie im Kampf gegen Viren
- Peter Palese; 10.05.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?
- Gottfried Schatz; 31.05.2013: Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden
- Gottfried Schatz; 05.12.2014: Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus
Ist Leben konstruierbar? Minimalisierung von Lebensprozessen
Ist Leben konstruierbar? Minimalisierung von LebensprozessenDo, 27.10.2016 - 05:13 — Petra Schwille
Trotz der Erfolgsgeschichte der Biowissenschaften in den letzten Jahrzehnten wissen wir die Frage, wo die Trennlinie zwischen belebter und unbelebter Natur genau verläuft, noch immer nicht überzeugend zu beantworten. Eines der wichtigen Kennzeichen der uns bekannten belebten Systeme ist ihre enorme Komplexität. Ist diese aber eine notwendige Bedingung? Die Biophysikerin Petra Schwille (Direktorin am Max-Planck Institut für Biochemie, München) versucht zusammen mit ihrem Team belebte Systeme auf nur wenige Grundprinzipien zu reduzieren. Ihr Ziel ist eine durchweg biophysikalisch, quantitativ beschreibbare und aus definierten Ausgangskomponenten zusammengesetzte Minimalzelle. Auf dem Weg zu einem künstlichen, sich selbst organisierenden Minimalsystem der Zellteilung wurde bereits ein aufsehenerregender Erfolg erzielt .*
Synthetische Biologie in biophysikalischer Perspektive
Unsere Kenntnis dessen, welche Prozesse in lebenden Zellen ablaufen und auf welchen Molekülen sie beruhen, hat in den letzten 50 Jahren enorme Ausmaße angenommen. Wir verstehen immer besser, was in der Informationszentrale der verschiedenen Zellen, ihrer DNA, geschrieben steht, welche komplexen Proteinmaschinen in ihnen hergestellt werden und haben einen Begriff von der Breite und Vielfalt der Interaktionsnetzwerke dieser Proteine. Bereits in einfachen Zellen ähneln diese Netzwerke mit ihrer Vielzahl von Akteuren, Wechselwirkungen und Schaltstellen, an denen verschiedene Prozessketten zusammenlaufen, durchaus dem Internet als dem vermutlich komplexesten Netzwerk, das wir heute kennen.
Unsere modernen Analysemethoden erlauben uns mittlerweile bereits riesige Proteine bis auf ihre Einzelatome herab abzubilden oder einzelnen Molekülen in der Zelle bei der Arbeit zuzuschauen. Damit legen sie es nahe, über die Biologie immer mehr auch in technologischen Konzepten nachzudenken, sie also wie jedes technische System in einzelne wohldefinierbare und verstehbare Funktionsmodule zu zerlegen. Mit dem zunehmenden Wissen über diese Module und deren Handhabung entsteht wie in anderen wissenschaftlichen Disziplinen zuvor - das letzte Mal in der Chemie vor etwa 100 Jahren - der Drang, nicht nur zu analysieren, sondern diese Module ganz neu zu kombinieren, also nicht nur Analyse, sondern auch Synthese zu betreiben. Wie damals aus der analytischen die synthetische Chemie entstanden ist, der wir einen nicht unerheblichen Teil der uns umgebenden Welt verdanken, so entsteht gegenwärtig aus der analytischen Biologie die synthetische Biologie.
Diese Synthetische Biologie kann man nun mit verschiedenen Zielen betreiben:
- Das eine Ziel, das insbesondere aus der angewandten Biotechnologie kommt, ist es, lebende Organismen, die als Produktionssysteme für neue Medikamente, Chemikalien, Materialien oder Energie eingesetzt werden, so zu verändern, dass deren Herstellung effizienter oder überhaupt erst möglich wird.
- Das andere Ziel ist fundamentaler, es beruht auf der Frage, ob es so etwas wie einen Basissatz von Funktionsmodulen, also Molekülen und ihren Wechselwirkungen, gibt, mit dem Leben überhaupt beginnt. Diese Spielart nennen wir bottom-up, also Synthese lebender Systeme von unten, aufbauend auf einzelnen molekularen Bausteinen (Abbildung 1). Ob so etwas im Labor überhaupt möglich ist, ist ungewiss, allerdings hat die Natur selbst diesen Schritt vor etwa 3,5 Milliarden Jahren vollzogen.
Abbildung 1. Welche Minimalausstattung an Molekülen und Prozessen benötigt eine Zelle? Dieser Frage kann man sich von zwei Seiten nähern, von oben (top down), indem lebenden Zellen nicht unbedingt erforderliche Module entnommen werden, oder von unten (bottom-up), indem gerade nur so viele essenzielle Module, das heißt, funktionale Moleküle, zusammengebracht werden, dass das Gesamtsystem die lebensnotwendigen Kennzeichen des Lebens zeigt. © Max-Planck-Institut für Biochemie/Schwille
Die Attraktivität des bottom-up Ansatzes für die Biophysik ist offensichtlich: Erstmals wären nicht nur Teilsysteme und Aspekte lebender Zellen quantitativ und durchgängig erfassbar, sondern auch das Gesamtsystem der - minimalen - Zelle. Erst dann könnte man von einem wirklichen physikalischen Verständnis des Phänomens Leben reden.
Bis dahin ist es aber noch ein weiter Weg. Nicht nur kennen wir die Moleküle und Bedingungen nicht mehr, die auf der Erde oder sonst im Universum an der Entstehung des Lebens beteiligt waren, sondern unsere heutigen Organismen haben sich im Laufe dieser langen Zeit durch Evolution auch so weit davon fortentwickelt, dass eine rückwärtige Extrapolation praktisch unmöglich ist. Der einzige Ansatzpunkt ist der Versuch, bekannte biologische Teilsysteme und Phänomene ihrerseits auf eine nicht Organismus spezifische Quintessenz hin zu analysieren. Dies geschieht durch eine sogenannte Rekonstitution, also den Transfer eines Prozesses in zellfreie Systeme, wo er isoliert vom zellulären Kontext analysiert und verstanden werden kann.
Ein minimaler Zellteilungsapparat?
Welche Funktionen lebender Systeme mit Hilfe eines bottom-up Ansatzes zuerst nachgestellt werden sollen, hängt natürlich von der wissenschaftlichen Schwerpunktsetzung ab. Unsere Forschung hat sich zunächst eine Rekonstitution der Zellteilung zum Ziel gesetzt.
Welche Minimalausstattung von (Protein-) Funktionselementen ist hierfür nötig?
Die Hülle der meisten heutigen Zellen besteht im Wesentlichen aus einer Membran - einer Sandwichstruktur aus sogenannten Lipiden. Lipide sind Fettsäuremoleküle mit einem wasserlöslichen und einem wasserunlöslichen Ende. Lagern sie sich in wässriger Umgebung spontan zusammen, entstehen seifenblasenähnliche Vesikel. In diesen Blasen können sich alle Stoffe sammeln, die auch in Wasser löslich sind. Die Membranblasen sind zwar sehr weich und leicht verformbar, aber praktisch undurchdringbar für größere Moleküle. Die ideale Struktur also, um eine minimale Zelle zu begrenzen. Doch wie können sich jetzt in diesen einfachen Seifenblasen so etwas wie Strukturen ausbilden? Wie können die eingeschlossenen Moleküle erfassen, was und wie groß genau ihre Hülle ist und vor allem: Wie können sie diese Hülle zur Teilung bringen?
Das Bakterium Escherichia coli
Diese Aufgaben sind in allen heute bekannten Zellen auf so komplizierte Weise geregelt, dass der Nachbau einer dieser Zellteilungsmaschinerien, auch schon von primitiven Mikroorganismen, eine Herkulesaufgabe zu sein scheint. Und doch gibt es Motive und Moleküle, die so interessant und vielversprechend sind, dass sie sich als Modelle zum Nachbau geradezu anbieten. So zeigt zum Beispiel das Bakterium Escherichia coli, eines der „Haustierchen“ der modernen Biotechnologie, eine höchst bemerkenswerte Abfolge von Prozessen bei der Zellteilung: Das Bakterium ist stäbchenförmig und wächst in Längsrichtung, bis es ab einer bestimmten Länge einen sogenannten Teilungsring aus Proteinen ausbildet, der sich durch eine bislang nicht verstandene Kraft zusammenzieht und die Zelle in zwei Tochterzellen abschnürt.
Wie „weiß“ nun aber dieser Ring, wo die Mitte ist, und wie kommt er dort hin?
Der Positionierung dieses bakteriellen Teilungsrings liegt ein spektakulärer Musterbildungsmechanismus zugrunde. Hierfür organisieren sich die sogenannten MinDE Proteine unter Nutzung der zellulären Energiewährung ATP derart, dass sie im Minutentakt zwischen den beiden Polen des Bakteriums hin und her oszillieren. Durch diese Oszillation entsteht im zeitlichen Mittel eine höhere Konzentration an den Polen als in der Mitte. Und ein drittes Protein MinC sorgt dafür, dass sich nur dort, wo die anderen Proteine nicht sind, der Ring anlagern kann, also in der Mitte. Durch die unterschiedliche „Laufzeit“ der Oszillationen kann die Zelle auch genau bestimmen, bei welcher Länge sie eine Teilung durchführt (Abbildung 2).
Abbildung 2. Pol-zu-Pol Oszillation der Proteine MinD und MinE zur Ausbildung des Teilungsrings in Escherichia coli. Nähere Erläuterungen im Text. © Max-Planck-Institut für Biochemie/Schwille
Dass der Ausbildung dieser Oszillationen ein sehr einfacher Reaktionsmechanismus zugrunde liegt, der tatsächlich nur auf der Wechselwirkung zweier verschiedener Molekülarten, einer Membran und der Energiewährung ATP beruht, konnten wir in den letzten Jahren durch Rekonstitution von MinD und MinE auf künstlichen Membranen zeigen. Auf nicht begrenzten Oberflächen entstehen anstelle von Oszillationen fortschreitende Konzentrationswellen, die alle Kennzeichen selbst organisierter Systeme zeigen (Abbildung 3). Der Positionierungsapparat funktioniert also offenbar tatsächlich bereits in minimaler Form.
Abbildung 3. Selbstorganisationsmuster, die im Reagenzglas durch Rekonstitution der gereinigten Proteine MinD und MinE auf einer künstlichen Membran entstehen. © Max-Planck-Institut für Biochemie/Schwille.
Rekonstitution zellulärer Oszillationen und Vorstadien der Zellteilung
Im nächsten Schritt wurde untersucht, ob die MinDE-Konzentrationswellen in begrenzten Volumina wie Zellen tatsächlich Oszillationen ausbilden und auf diese Weise eine raumzeitliche Positionierung des Teilungsringes erreichen können. Hierzu wurden mithilfe der Mikrosystemtechnik kleine zellähnliche Kompartimente in Silikon erzeugt und mit Membran ausgekleidet. Formt man die Kompartimente in derselben Weise wie eine Bakterienzelle, entstehen bei Zugabe des Teilungsproteins FtsZ tatsächlich nach einiger Zeit allein durch Selbstorganisation der Proteine in der Mitte scharfe Konzentrationsprofile, die der Vorstufe des bakteriellen Teilungsrings entsprechen (Abbildung 4).
Abbildung 4. Rekonstitution einer Teilungszone als Vorstadium des Teilungsrings in minimalen Zellmodellen. (A) zellähnliche Kompartimente in Silikon, die durch Mikrostrukturtechnik hergestellt werden, (B) Gegenoszillationen der Min-Proteine (rot) und der Ringproteine (blau), (C-E) Durch Selbstorganisation eingestellte Konzentrationsprofile mit Vorstufen des Teilungsrings (blau). © Max-Planck-Institut für Biochemie/Schwille
Fazit
Hiermit sind wichtige Meilensteine hin zu einem Minimalsystem der bakteriellen Zellteilung bereits erreicht, weitere Ziele wie die Rekonstitution dieser Proteinmaschinerie in leicht verformbare Membranvesikel stehen noch aus. Natürlich ist auch ein sich autonom teilendes System noch lange kein Leben, aber doch eine essenzielle Vorstufe, an die sich weitere wichtige Funktionselemente wie die autonome Energieerzeugung (Metabolismus) und vor allem die Replikation einer Informationseinheit (DNA/RNA) anschließen müssen.
* Der, unter dem Titel "Minimalisierung von Lebensprozessen" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9839917/MPIB_JB_20161?c=10583665, DOI 10.17617/1.2K) wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert und ohne die im Original ersichtlichen, nicht frei zugänglichen Literaturstellen (diese können auf Anfrage zugesandt werden).
Weiterführende Links
- Max-Planck Institut für Biochemie, München
- Petra Schwille: Campus TALKS: Zelle 0:0: Was braucht es, um zu leben? Video: 12:46 min.
- Lise-Meitner-Lecture 2016 - Vortrag von Prof. Dr. Petra Schwille. Video 56:13 min.
- Mit dieser jährlichen Veranstaltungsreihe von der Deutschen Physikalischen Gesellschaft (DPG) und der Österreichischen Physikalischen Gesellschaft (ÖPG) sollen herausragende Wissenschaftlerinnen aus Deutschland und Österreich, so genannte „Role Models“, einem breiten Publikum vorgestellt werden.
- Lise-Meitner-Lecture 2016 - Interview mit Prof. Dr. Petra Schwille. Video 21:21 min.
Wissensvermittlung - Wiener Stil. 30 Jahre Wiener Vorlesungen
Wissensvermittlung - Wiener Stil. 30 Jahre Wiener VorlesungenDo, 20.10.2016 - 09:25 — Inge Schuster
Seit 1987 gibt es die Wiener Vorlesungen. Hubert Christian Ehalt, Historiker, Soziologe und Wissenschaftsreferent der Stadt Wien (und auch einer unser ScienceBlog Autoren) hat diese Initiative ins Leben gerufen und organisiert sie seitdem mit grenzenlosem Enthusiasmus und ungeheurem Arbeitseinsatz. Als Referenten fungieren führende Wissenschafter, Künstler, Experten und Politiker des In-und Auslands, die ein breites Spektrum an Themen - von Sozial-und-Kulturwissenschaften, (Gesellschafts)politik bis hin zu naturwissenschaftlichen und medizinischen Fragestellungen - diskutieren. Bis jetzt fanden 1500 Veranstaltungen - meistens im Festsaal des Wiener Rathauses - mit insgesamt rund 5000 Vortragenden statt. Öffentlich frei zugänglich erfreuen sich die Vorlesungen großer Beliebtheit - Tausend und mehr Besucher sind keine Seltenheit.
"Wenn wir wollen, dass alles so bleibt, wie es ist, müssen wir alles verändern"
Giuseppe Tomasi:" Il Gattopardo"
Nichts beschreibt das offensichtliche Lebensmotto von Christian Ehalt besser, als der Ausspruch aus dem Roman "Il Gattopardi" (auf Deutsch nicht ganz richtig mit "Der Leopard" übersetzt), den er am vergangenen Montag zitiert hat. Anlass war eine Feier im Wiener Rathaus zu seinen "Wiener Vorlesungen", die nun ins dreißigste Jahr ihres Bestehens gehen.
Entsprechend dem obigen Motto wollte und will der Sozialhistoriker Ehalt den ständigen Veränderungsprozess, dem wir alle ausgesetzt sind, nicht passiv miterleben sondern die Möglichkeit nutzen diesen Wandel aktiv mitzugestalten. Dies hat er u.a. mit seinem Konzept der "Wiener Vorlesungen" bewirkt. Als Wissenschaftsreferent der Stadt Wien für die Förderung von Wissenschaft und Forschung zuständig, hat Ehalt im Jahr 1987 mit diesen Vorlesungen ein - wie er es ausdrückt - "intellektuelles Scharnier zwischen den Wiener Universitäten und dem Rathaus" geschaffen.
Was sind nun die "Wiener Vorlesungen"?
Die Information auf der Webseite der Stadt Wien nimmt sich eher sehr bescheiden aus:
"Die Wiener Vorlesungen laden wichtige Persönlichkeiten des intellektuellen Lebens in die Festsäle des Rathauses, um Analysen und Befunde zu den großen aktuellen Problemen der Welt vorzulegen. Seit 2. April 1987 sind die Wiener Vorlesungen das Dialogforum der Stadt Wien im Rathaus: öffentlich und frei zugänglich, kritisch, am Puls der Zeit.
Seither analysieren, befunden und bewerten die Wiener Vorlesungen die gesellschaftliche, politische und geistige Situation der Zeit."
Es ist auch vermerkt, dass die Konzeption und Koordination dieses Dialogforums Christian Ehalt innehat. Erst, wenn man dann unter den einzelnen Links auf der Seite nachsieht, wird man sich der enormen Dimensionen bewusst , welche die Wiener Vorlesungen inzwischen angenommen haben: enorm, sowohl was die Zahl der Veranstaltungen betrifft als auch das immens weite Spektrum der behandelten Themen. Dazu kommt deren Anspruch auf höchste Qualität und auch darauf schwierigste Sachverhalte leichtverständlich zu vermitteln.
Das Ausmaß der Veranstaltungen:
Unter dem Link "Veranstaltungsarchiv" findet man Titel und Referenten aller Vorträge: bis jetzt haben 1500 Veranstaltungen - Vorträge und/oder Diskussionen - stattgefunden mit insgesamt rund 5000 Referenten. Auf die einzelnen Jahre umgelegt sieht dies etwa so aus (Abbildung 1): Abbildung 1. Wiener Vorlesungen. Nach einer Anfangsphase hat sich die Zahl der jährlichen Veranstaltungen auf rund 50 eingependelt (für 2016 gibt es noch nicht alle Termine). Erfreulicherweise ist ein beträchtlicher Anteil naturwissenschaftlich/medizinischenThemen gewidmet. (Daten zusammengestellt aus: https://www.wien.gv.at/kultur/abteilung/vorlesungen/Veranstaltungsarchiv).
Im Schnitt finden also jährlich rund 50 Veranstaltungen statt; wie oben erwähnt, konzipiert und koordiniert von Christian Ehalt, der - mit Enthusiasmus und ungeheurem Arbeitseinsatz - dazu noch mindestens die Hälfte der Veranstaltungen moderiert und die Diskussionen leitet.
Ein Projekt der Aufklärung des 21. Jahrhunderts
Nicht minder imposant wie die Zahl der Vorlesungen ist das immens breite Spektrum der Themen: Fachgrenzen überschreitend werden brennende Probleme der Gegenwart, Fragen des sozialen und kulturellen Lebens diskutiert, nach den biologischen Grundlagen des Lebens und den Möglichkeiten dieses gesund und lang zu erhalten, gesucht.
Die Grenzen zum Bürger überschreitend bieten die Wiener Vorlesungen eine beispielgebende Form von Volksbildung - Aufklärung über die Welt, in der wir leben und wie wir darin leben -, die von den Besuchern geschätzt wird. Tausend und mehr Besucher im Festsaal des Rathauses sind keine Seltenheit.
Eine Zusammenstellung wesentlicher Themen ist in Form einer Schlagwortwolke in Abbildung 2 gegeben: bei der riesigen Fülle an unterschiedlichen, transdisziplinären Vortragsinhhalten wären zweifellos noch wichtige Ergänzungen anzubringen, auch bietet die Darstellung keine korrekte Gewichtung der einzelnen Themen.
Abbildung 2. Wesentliche Themen der Wiener Vorlesungen.
Wer sich über die Themenvielfalt informieren möchte, sollte am besten auf der oben erwähnten Webseite der Wiener Vorlesungen nachsehen. Medienberichte und auch ein einschlägiger Artikel in Wikipedia betonen vor allem die politischen, gesellschaftlichen und kulturellen Angebote und verschweigen, dass ein nicht unerheblicher Anteil der Vorlesungen (zum Teil bahnbrechende) naturwissenschaftliche Erkenntnisse und mögliche Durchbrüche in der medizinischen Forschung betrifft. (Auch die Reden anlässlich der 30-Jahr Feier der Wiener Vorlesungen haben da keine Ausnahme gemacht.)
Wissenschaft wirksam machen
Die Wiener Vorlesungen bieten also:
- Ein ungemein breites Spektrum an hochaktuellen Themen: nach dem Motto "wer vieles bringt, wird manchem etwas bringen" wird nahezu jeder für ihn interessante Themen vorfinden.
- Wissenschafter zum Anfassen: Es ist ein Reigen prominenter Wissenschafter - darunter zahlreiche Nobelpreisträger - , Künstler, Philosophen und Politiker aus dem In- und Ausland, die als Referenten in den Wiener Vorlesungen fungieren und mit denen das Publikum auf Augenhöhe diskutieren kann.
- Wissenschaft als Fest: die meisten Veranstaltungen finden im prächtigen Festsaal des Wiener Rathauses statt; trotz seiner riesigen Dimensionen ist dieser häufig bis auf den letzten Platz gefüllt.
- Wissenschaft zum Nulltarif: die Veranstaltungen sind öffentlich und gratis für jeden zugänglich.
- Wissenschaft ohne Grenzen: Kooperationen mit den TV-Sendern ORF III und OKTO ermöglichen Interessierten auch außerhalb Wiens die Vorlesungen mitzuerleben. Zu knapp 60 Vorlesungen gibt es im Netz frei abrufbare Videos. Eine Reihe von Vorträgen liegt in 300 Bänden zum Nachlesen vor.
Fazit:
Die Wiener Vorlesungen sind aus dem kulturell-geistigen Leben Wiens nicht mehr wegzudenken. Man kann jedem nur empfehlen an der einen oder anderen Vorlesung teilzunehmen!
Lieber Christian Ehalt:
Was du hier tust, ist sehr wichtig, wir brauchen das und wollen das auch weiterhin!
Links:
Wiener Vorlesungen - das Dialogforum der Stadt Wien 61 Videos diverser Vorlesungen
Hubert Christian Ehalt in ScienceBlog:
06.02.2015: Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft
Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.
Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.Do, 13.10.2016 – 13:53 — Francis S. Collins
Der enormen internationalen Anstrengung, die vor 13 Jahren zur Entschlüsselung des menschlichen Genoms führte, hat sich ein nicht minder gewaltiges Projekt angeschlossen: ein internationales Forschungs-Konsortium strebt an die Funktion jedes einzelnen der rund 20 000 Gene im Organismus aufzuklären und deren mögliche Rolle in der Entstehung von Krankheiten festzustellen. Da praktisch alle humanen Gene ihre Entsprechung im Mäusegenom haben (das kurz nach dem humanen Genom entschlüsselt wurde), erfolgt nun eine systematische Untersuchung der Merkmale (des Phänotyps) von Mäusen, bei denen jeweils eines der 20 000 Gene ausgeschaltet wurde ("Gen-Knockout"). Der Chemiker und Mediziner Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" weist hier auf den eben erschienenen, richtungsweisenden Bericht des Konsortiums über die erste Phase des Projekts hin.*
Wahrscheinlich betrachten viele Menschen Mäuse nur als unerwünschte Schädlinge in ihrem Haushalt. Tatsächlich erweisen sich Mäuse für die medizinische Forschung bereits seit mehr als einem Jahrhundert als unglaublich wertvoll. Um eines unter den vielen Beispielen zu nennen: Untersuchungen an Mäusen helfen gegenwärtig den Forschern zu verstehen wie die Genome von Säugetieren - das menschliche Genom miteingeschlossen - funktionieren. Wissenschafter haben Jahrzehnte damit zugebracht einzelne Gene in Labormäusen zu inaktivieren oder "Knockouts" zu generieren, um daraus abzuleiten, welche Gewebe oder Organe betroffen sind, wenn ein spezielles Gen defekt ist und damit dann wichtige Informationen über dessen Funktion zu erhalten. Abbildung 1.
Abbildung 1. Symbolbild zum Knockout Maus Projekt (KOMP) (Bild: "Courtesy: National Human Genome Research Institute", https://www.genome.gov/)
Vom Knockout Maus Projekt (KOMP)…
Vor mehr als zehn Jahren hat das NIH ein Projekt mit dem Namen Knockout Mouse Project (KOMP) gestartet [1]. Das Ziel war es in embryonalen Stammzellen eines Standard Mäusestamms mittels homologer Rekombination ( d.i. Austausch von ähnlichen oder identischen Sequenzen der DNA) alle für Proteine kodierende Gene auszuschalten. Die aus dieser Arbeit hervorgehenden Zelllinien wurden weithin Forschern, die an speziellen Genen interessiert waren, zur Verfügung gestellt und damit Zeit und Geld gespart.
…zum Internationalen Knockout Maus Konsortium
Eine Zelllinie mit einem Knockout-Gen herzustellen, ist eine Sache; wesentlich interessanter (und herausfordernder) ist es den Phänotyp, die beobachtbaren Charakteristika, jedes Knockouts zu bestimmen. Um diesen Prozess nach streng wissenschaftlichen Kriterien und in systematischer Weise zu beschleunigen, sind das NIH und andere Forschungsförderungs-Institutionen zusammengetreten, und haben ein internationales Forschungskonsortium ins Leben gerufen. Abbildung 2. Das Ziel dieses Konsortium ist es von den manipulierten embryonalen Stammzellen Mäuse zu generieren und schlussendlich die Funktion der rund 20 000 Gene, die Menschen und Mäuse gemeinsam haben, zu katalogisieren.
Abbildung 2. Knockout Mouse Project (KOMP) and Knockout Mouse Production and Phenotyping (KOMP2) (Bild aus: Colin Fletcher (2013), https://commonfund.nih.gov/sites/default/files/CF-KOMP1-2_for_web.pdf)
Bericht über die erste Phase des Projekts
Über die Phänotypen der ersten 1 751 neuen Linien von Knockout Mäusen ist eben eine Analyse des Konsortiums (des International Mouse Phenotyping Consortium) im Fachjournal Nature erschienen [2], Daten zu wesentlich mehr Knockout-Stämmen sollen in den nächsten Monaten folgen. An den Untersuchungen waren Wissenschafter (insgesamt 84 Autoren, Anm. Red) von drei Kontinenten beteiligt, unter der Leitung von Stephen Murray (Jackson Laboratory, Bar Harbor, ME) und anderen hervorragenden Forschern.
Die Forscher haben die zur Verfügung stehenden Ressourcen an manipulierten embryonalen Stammzelllinien (s.o.) genutzt, um 1 751 Stämme von Knockout Mäusen zu generieren, die bisher noch nicht untersucht worden waren. Jeder Stamm trug zwei inaktivierte Kopien eines Gens auf einem ansonsten genetisch identen Genom. Die Studie zeigt, dass es sich bei 410 der insgesamt 1751 Gene um essentielle Gene handelt, deren Ausfall mit einer Lebendgeburt nicht vereinbar ist.
Knockouts essentieller Gene
Um über diese essentiellen Gene mehr herauszufinden, haben die Forscher ein ausführliches Procedere entwickelt, das ein präzises Timing für das Absterben von Embryos erlaubte. Sie verwendeten auch das aktuellste, hochauflösende 3D-bildgebende Verfahren, um Probleme in der (embryonalen) Entwicklung zu entdecken, die ansonsten unter den Tisch gefallen wären.
Zu den am häufigsten beobachteten Anomalien zählte eine Verlangsamung von Wachstum und embryonaler Entwicklung. Es gab auch zahlreiche Anomalien in der Entwicklung des kardiovaskulären Systems, Missbildungen des Schädels und des Gesichts und Defekte in der Entwicklung der Gliedmaßen.
Dass die Mausdaten Relevanz für das Verstehen humaner Krankheiten haben dürften, wiesen die Forscher nach, indem sie zeigten, dass mit Funktionsverlust einhergehende Mutationen in essentiellen Mausgenen, in den entsprechenden Genen gesunder Menschen kaum auftreten. Dies deutet darauf hin, dass diese Gene auch für Leben und Gesundheit des Menschen essentiell sind und geeignete Ansatzpunkte darstellen um nach Antworten zu Fehlgeburten, Totgeburten oder auch ungeklärten genetischen Gegebenheiten des Menschen zu suchen.
Es gab auch Überraschungen. Obwohl alle Forscher in dem Konsortium ihre Untersuchungen nach standardisierten Protokollen ausführten und die embryonalen Mäuse das exakt gleiche Set an Genen aufwiesen, zeigten diese nicht immer die gleichen physischen Merkmale, das gleiche Endergebnis - Leben oder Tod. Diese Befunde weisen darauf hin, dass neben den Genen und Umweltfaktoren noch weitere, anscheinend zufällige, Ereignisse während des Entwicklungsprozesses eine wichtige Rolle spielen können.
Outlook
Die Untersuchungen laufen weiter. Tatsächlich hat das Konsortium bereits Daten zu mehreren Hundert weiteren Knockout-Mäusen vorliegen, die darauf warten analysiert zu werden. Alles, was an Ergebnissen anfällt, wird in Echtzeit Wissenschaftern aus aller Welt frei zur Verfügung gestellt, die diese nach Bedarf nutzen und darauf aufbauen können. Das Konsortium macht auch die Knockout-Mäuse selbst verfügbar, um anderen Forschern noch detailliertere Untersuchungen zu ermöglichen.
Es zeigt sich hier, welch ein außergewöhnlicher Fortschritt in der Biomedizin erzielt werden kann, wenn Wissenschafter aus aller Welt sich als Team um ein gemeinsames Vorhaben zusammenscharen, um ein gemeinsames Ziel zu erreichen. Das ist eine großartige Quintessenz!
*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Of Mice and Men: Study Pinpoints Genes Essential for Life" zuerst (am 20. Septemberi 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/09/20/of-mice-and-men-study-pinpoints.... . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).
[1] Knockout Mouse Project (KOMP) Repository (University of California, Davis and Children’s Hospital Oakland Research Institute). ] Knockout Mouse Project (KOMP) Repository [2] Dickinson ME, et al.,(insgesamt 84 Autoren), Nature. 2016 Sep 14. High-throughput discovery of novel developmental phenotypes.
Links zu den Konsortien:
- International Mouse Phenotyping Consortium
- International Knockout Mouse Consortium
- Knockout Mice Fact Sheet (National Human Genome Research Institute/NIH)
- The Centre for Phenogenomics (Toronto, Canada)
- Medical Research Council Harwell (Oxfordshire, U.K.)
Weiterführende Links
International Mouse Phenotyping Consortium (IMPC) Overview. Video 2:00 min (englisch)
The Human Genome: Collaboration is the New Competition. Dr. David Haussler | TEDxSantaCruz (Juli 2015); Video: 15:55 min (englisch, leicht verständlich).
Autophagie im Rampenlicht - Zellen recyceln ihre Bausteine. Nobelpreis für Physiologie oder Medizin 2016
Autophagie im Rampenlicht - Zellen recyceln ihre Bausteine. Nobelpreis für Physiologie oder Medizin 2016Fr, 07.10.2016 - 08:57 — Redaktion
Der diesjährige Nobelpreis für Physiologie oder Medizin [1] geht an Yoshinori Ohsumi, der die Grundlagen zum Verständnis der Autophagie geschaffen hat. Autophagie - ein fundamentaler Mechanismus in eukaryotischen Zellen - ist ein Selbstverdauungsprozess: wenn Zellen hungern oder gestresst werden, bauen sie überschüssige und/oder beschädigte Proteine und Zellorganellen ab und erzeugen daraus neue Bausteine, die für ihr Überleben essentiell sind.
"The one who is finally awarded the Prize has made a discovery that has changed the paradigm in an area of physiology or medicine, one who has changed our understanding of life or the practice of medicine." Göran Hansson, Sekretär des Nobelkomitees für Physiologie oder Medizin.
Abbildung 1. Yoshinori Ohsumi (Jg.1945) , Tokyo Institute of Technology, Tokyo, Japan. http://www.ohsumilab.aro.iri.titech.ac.jp/english.html
Es kommt nicht allzu häufig vor, dass der Nobelpreis einem einzelnen Wissenschafter verliehen wird. Yoshinori Ohsumi (Tokyo Institute of Technology), der diesjährige Laureat für Physiologie oder Medizin, ist einer von gerade einmal sieben Forschern, die in diesem überaus weitem Forschungsfeld in den letzten 50 Jahren allein ausgezeichnet wurden. Abbildung 1. Ohsumis Arbeiten waren bahnbrechend: sie haben geholfen einen fundamentalen Prozess höherer Organismen - d.i. von Pilzen, Pflanzen, Tieren - aufzuklären, nämlich wie deren Zellen (eukaryotische Zellen) ihre Organellen abbauen und recyceln.
Aufbau - Abbau - Recycling
Intakte, lebende Zellen befinden sich in einem dynamischen Gleichgewichtszustand (der Homöostase), in welchem Aufbau und Abbau diverser molekularer Komponenten und subzellulärer Organellen sich die Waage halten müssen. Wie diese Komponenten - Proteine, Lipide, Zucker und diverse im Stoffwechsel aktive Moleküle - und Organellen aufgebaut werden, war ein prioritäres Forschungsgebiet des 20. Jahrhunderts und bleibt es auch weiterhin. Was aber mit diesen nun einmal aufgebauten Zellkomponenten geschieht - wenn sie Beschädigungen aufweisen, altern oder einfach nicht mehr gebraucht werden - stieß lange Zeit auf wesentlich geringeres Interesse.
Wohin also mit dem Abfall
und - in Anbetracht begrenzter Ressourcen - inwieweit kann, muss dieser wieder verwertet, recycelt werden?
Es ist dies ja ein ganz allgemeines Problem. Es gilt in gleicher Weise auch für unsere modernen Gesellschaften, die mehr und mehr Güter produzieren, für die aber das Entsorgen von unbrauchbaren und/oder überschüssigen Produkten zu einem gravierenden Problem geworden ist.
Eukaryotische Organismen haben hier eine generelle Lösung gefunden: es ist dies ein hochkonservierter Prozess, der in allen Zellen abläuft und in dessen Verlauf Strukturen in effizienter Weise abgebaut und recycelt werden.
Ab der Mitte des 20. Jahrhunderts konnte man sich daran machen zu untersuchen, wo Abbau-/Umbau-Prozesse in den Zellen stattfinden. Es standen nun geeignete Verfahren zur Verfügung, um die Strukturen im Zellinneren (Organellen) isolieren zu können und enorm verbesserte mikroskopische und analytisch-chemische Methoden zu deren Detektion und Charakterisierung. Ein Höhepunkt dieser Forschungen war die Entdeckung eines neuen Typus von Zellorganellen, den sogenannten Lysosomen, durch den belgischen Biochemiker Christian de Duve (der für diese Entdeckung 1974 den Nobelpreis erhielt). Lysosomen sind von einer Lipidmembran umgebene Kompartimente (Vesikel), die beträchtliche Teile des Cytosols (d.i. des Zellinhalts ohne Zellorganellen) einschließen und überdies eine breite Palette an Verdauungsenzymen enthalten, welche das cytosolische Material (Proteine, Lipide und Kohlehydrate) in kleine (d.h. niedermolekulare) Bruchstücke zerlegen. Diese Abbauprodukte werden aus den Lysosomen ins Cytoplasma transportiert und stehen dort als Bausteine zur Synthese benötigter neuer Moleküle zur Verfügung.
Selbstverdauung – der Begriff Autophagie wird geprägt
Etwas später wurde entdeckt, dass Lysosomen auch ganze, offensichtlich zum Abbau bestimmte Zellorganellen (beispielsweise Mitochondrien, endoplasmatisches Retikulum, Peroxisomen) enthalten können und dass ein anderer Typ von Vesikeln sich derartige Organellen einverleibt und als Fracht zum Lysosom befördert. Den Vorgang, der zur "Verdauung" und Verwertung der zelleigenen Strukturen führt, hat de Duve mit Autophagie (griechisch von "autos" - selbst und "phagein" - essen) bezeichnet, den neuen Vesikeltyp entsprechend Autophagosomen. Abbildung 2.
Abbildung 2. Ein passendes Symbol für Autophagie/Recyceln: die Schlange, die sich selbst vom Schwanz her auffrisst ("Ouroboros"). Der Ouroboros ist ein bereits im Altertum bekanntes Symbol. Die hier gezeigte Darstellung stammt von Theodoros Pelecanos aus Synosius, einem alchemistischen Traktat (1648).
Wie aber dieser Vorgang startet, wie er abläuft, welche Rolle die Autophagie in intakten Zellen spielt und inwieweit Störungen der Autophagie Erkrankungen hervorrufen können, an Erkrankungen beteiligt sein können, blieb bis zu den Arbeiten Yoshinori Ohsumis ein Rätsel.
Die Autophagie wird entschlüsselt
"Ich glaube, dass es grundlegende Funktionen von Zellen gibt, die von der Hefe bis hin zu den Säugetieren konserviert sein sollten. Natürlich unterscheidet sich eine Vakuole von einem Lysosom, ich dachte aber, dass fundamentale Mechanismen erhalten bleiben mussten." (Yoshinori Ohsumi [2])
Yoshinori Ohsumi hat vor rund 28 Jahren begonnen den Prozess der Autophagie zu erforschen. Als Modell dienten ihm Hefezellen, deren Vakuolen das funktionelle Äquivalent zu den Lysosomen tierischer Zellen darstellen. Hefe war für ihn ein ideales System: zur Isolierung der Vakuolen hatte er bereits als Postdoc in Gery Edelmanns Labor (an der Rockefeller-University) eine einfache Methode entwickelt und diese Vakuolen waren groß genug, um sie unter dem Lichtmikroskop untersuchen und morphologische Änderungen erkennen zu können. Für den Forscher, der nur ungern in einem hochkompetitiven Gebiet arbeiten wollte, kam hinzu, dass Hefe-Vakuolen damals als wenig interessant galten, bloß als Müllcontainer der Hefezellen gesehen wurden. Man musste also kaum mit Konkurrenz rechnen.
Dass Autophagie in Hefezellen eine Rolle spielt, konnte Ohsumi in ebenso eleganten wie einfachen Versuchen nachweisen [3] (Abbildung 3): Er induzierte den Autophagieprozess durch Nahrungsentzug, wodurch - wie er annahm - mehr und mehr abzubauendes Zellmaterial via Autophagosomen in der Vakuole landen sollte, blockierte dort aber gleichzeitig Protein-abbauende Enzyme (Proteasen). Tatsächlich kam es nun in der Vakuole zu einer hohen Anhäufung von Autophagosomen (autophagic bodies, s.u.) gefüllt mit unzerlegbarem Zellmaterial.
Abbildung 3. Autophagosomen in Hefezellen. Oben: Zellen unter Nährstoff(Stickstoff)mangel, deren Proteasen ausgeschaltet wurden. In den großen runden Vakuolen (V) haben sich Autophagosomen (AB - "autophagic body") angesammelt. Mitte: vergrößerte Hefezelle, wie oben (Balken: 1 micrometer). Unten: intakte Autophagosomen aus Hefezell-lysaten, die mittels eines spezifischen Fluoreszenzmarkers detektiert wurden (Balken: 0,2 micrometer). (Bilder: Oben und Mitte stammen aus: Takeshige, K. et al., (1992) [3] und stehen unter cc-by-nc-sa lizenz, Unten stammt aus Suzuku et al., [5] und steht unter cc-by Lizenz. )
Sehr wichtig war auch, dass das Hefe-Genom zu dieser Zeit entschlüsselt wurde und damit die Möglichkeit gegeben war durch Mutation und Ausschalten von Genen solche Gene zu identifizieren, die eine essentielle Rolle im Autophagie Prozess spielen.
Bereits 1992/93 erschienen bahnbrechende Ergebnisse: Ohsumi und sein Team hatten 15 Gene identifiziert (Autophagie-related proteins - Atg 1 - 15), die für die Aktivierung des Autophagie-Prozesses in eukaryotischen Zellen essentiell sind [3, 4]. In den folgenden Jahren konnten dann molekulare und mechanistische Details geklärt werden, wie der Prozess aktiviert wird und welche Proteine in welcher Weise in den Prozess eingreifen und diesen regulieren.
Untersuchungen, die in der Folge auch an tierischen und pflanzlichen Zellen ausgeführt wurden, bestätigten, dass der Autophagieprozess über die Evolution hin konserviert blieb, für alle eukaryotischen Zellen gilt.
Wie läuft der Autophagieprozess ab?
Autophagie ist in allen eukaryotischen Zellen immer existent (konstitutive Autophagie), allerdings läuft der Prozess auf einem niedrigen Level . Bei Stress - verursacht etwa durch Nahrungsknappheit, Strahlen, Hitze, aber auch durch infektiöse Partikel - wird der Prozess aktiviert. Er erfordert eine weitreichende Umstrukturierung von Lipidmembranen. Abbildung 4.
Abbildung 4. Der Autophagieprozess. Stark vereinfachtes Schema. Zellorganellen (hier Mitochondrien und endoplasmatisches Retikulum) und Proteine werden abgebaut und recycelt.
- Eine anfänglich tassenförmige Doppel-Membran (Phagophor) beginnt sich um das abzubauende Zellmaterial zu bilden und dieses in Form des sogenannten Autophagosom vom Rest der Zelle zu isolieren.
- Die äußere Membran des Autophagosoms fusioniert mit der Membran des Lysosoms/der Vakuole (oder auch des Endosoms - d.i. ein Vesikel, das durch Einstülpung der Zellmembran entsteht).
- Von der inneren Membran umgeben liegt das Autophagosom ("autophagic body") in der Vakuole. Seine Membran wird dort von Abbauenzymen angegriffen.
- Das anfänglich vom Autophagosom umschlossene Zellmaterial ist nun nicht mehr durch die Membran geschützt und wird durch die Enzyme der Vakuole/des Lysosoms abgebaut. Die Abbauprodukte werden ins Cytosol transportiert.
Was bedeutet Autophagie für die Zelle?
Autophagie ist das einzige System, das ganze Zellorganellen - wie Mitochondrien, Peroxisomen, endoplasmatisches Retikulum - und darüber hinaus langlebige Proteine abbauen kann. Da das System bei unterschiedlichsten Stresszuständen sehr rasch anspringt, kann es beschädigte Proteine und Organellen (zumeist) ausschalten, bevor diese für die Zelle toxisch werden. Autophagie ist aber auch Bestandteil physiologischer Prozesse: die Differenzierung von Zellen oder auch die Embryogenese erfordern ja weitgehendste Umstrukturierung ihrer Komponenten.
Im finalen Schritt der Autophagie entstehen Abbauprodukte, die ins Cytosol abgegeben werden und dort als Nährstoffe dienen. Sie können aber auch zu neuen Strukturen zusammengesetzt werden - etwa in der erwähnten Differenzierung, der Embryogenese oder auch um eine verbesserte Anpassung an die Umgebung zu ermöglichen.
Autophagie erhält Zellen also funktionsfähig: beschädigte und/oder nicht mehr (dringend) gebrauchte Strukturen werden abgebaut und zu Nährstoffen recycelt. Damit können Zellen auch magere Zeiten überstehen.
Wie bei allen physiologischen Vorgängen, gibt es auch Störungen des Autophagieprozesses. Diese können zu Krankheiten beitragen/diese hervorrufen, aber ebenso auch den normalen Alterungsprozess betreffen. Es funktionieren dann weder die "Müllabfuhr" noch das Recycling wichtiger Bausteine zur Zellregeneration. Derartige Störungen werden insbesondere mit verschiedenen neurodegenerativen Erkrankungen - von Parkinson, Alzheimer bis zu Huntington - assoziiert. Neuronen leben ja sehr, sehr lange und sind für die laufende Synthese ihrer im Vergleich dazu kurzlebigen Bestandteile von einer effizienten Müllabfuhr und Versorgung mit Nährstoffen abhängig. Auch an unterschiedlichsten anderen Erkrankungen von Infektionskrankheiten über Stoffwechselkrankeheiten (u.a. Diabetes) bis hin zu Krebserkrankungen dürften Anomalitäten der Autophagie beteiligt sein. Beispielsweise haben rezente Untersuchungen einen Zusammenhang zwischen Mutationen eines Autophagie-Gens und der Inzidenz von Brust- und Eierstockkrebs gezeigt.
Ausblick
Als Ohsumi vor 28 Jahren über Autophagie zu arbeiten begann, hat er ein neues Forschungsgebiet eröffnet. Von der Zeit der ersten Erwähnung durch de Duve bis dahin gab es zu diesem Thema nur einige wenige Veröffentlichungen im Jahr. Ohsumis Erfolge haben Hunderte Wissenschafter inspiriert in die Autophagie-Forschung einzusteigen: aktuell verzeichnet die Datenbank PubMed unter dem Schlagwort "Autophagy" 25 980 Publikationen in Fachzeitschriften, wobei in den letzten Jahre jeweils bis zu 4000 Arbeiten veröffentlicht wurden.
Es ist unbestritten, dass Autophagie essentiell ist, um Zellen gesund zu erhalten, dass Stresszustände Autophagie ankurbeln, dass Mutationen in Autophagie-Genen Krankheiten verursachen können. Sowohl akademische Institutionen als auch die Pharmaindustrie bemühen sich dieses Wissen therapeutisch zu nutzen, um Arzneimittel zu entwickeln, die Störungen im Autophagieprozess entgegenwirken.
[1] The Nobel Prize in Physiology or Medicine 2016. Nobelprize.org. Nobel Media AB 2014. Web. 6 Oct 2016. http://www.nobelprize.org/nobel_prizes/medicine/laureates/2016/
[2]Caitlin Sedwick (2012) Yoshinori Ohsumi: Autophagy from beginning to end. JCB 197 (2):164-5. http://jcb.rupress.org/content/197/2/164
[3] Takeshige, K., Baba, M., Tsuboi, S., Noda, T. and Ohsumi, Y. (1992). Autophagy in yeast demonstrated with proteinase-deficient mutants and conditions for its induction. Journal of Cell Biology 119, 301-311
[4] Tsukada, M. and Ohsumi, Y. (1993). Isolation and characterization of autophagy-defective mutants of Saccharomyces cervisiae. FEBS Letters 333, 169-174
[5] Suzuki K., Nakamura S., Morimoto M, Fujii K, Noda N.N., Inagaki F, Ohsumi Y, (2014) Proteomic Profiling of Autophagosome Cargo in Saccharomyces cerevisiae. Published: March 13, 2014, http://dx.doi.org/10.1371/journal.pone.0091651
Weiterführende Links
- Scientific Background Discoveries of Mechanisms for Autophagy
- Cell Death, Autophagy and CVD - BCVS 2011. Interview with Yoshimori Ohsumi . Video 4:02 min. Standard-YouTube-Lizenz
- Katie Parzych: Autophagy: How Cells Recycle to Survive Video 5:38 min (englisch, leicht verständlich) Standard-YouTube-Lizenz
Wie Nervenzellen miteinander reden
Wie Nervenzellen miteinander redenFr, 30.09.2016 - 06:03 — Reinhard Jahn
Nervenzellen sind miteinander durch Synapsen verbunden, an denen Signale in Form von Botenstoffen übertragen werden. Diese Botenstoffe liegen- portionsweise in kleine Membranbläschen (die synaptischen Vesikel) verpackt - im Inneren der Nervenzellen bereit. Wenn elektrische Signale anzeigen, dass eine Botschaft übermittelt werden soll, verschmelzen einige synaptische Vesikel mit der Zellmembran und entleeren ihren Inhalt nach außen. Wie dies genau funktioniert, hat der Biochemiker Reinhard Jahn, Direktor am Max-Planck-Institut für biophysikalische Chemie in Göttingen, erforscht. Nach zahlreichen hochkarätigen Preisen für seine wegweisenden Arbeiten wird er im November mit dem Balzanpreis 2016, einem der bedeutendsten Wissenschaftspreise, ausgezeichnet.*Unser Nervensystem besteht aus etwa 100 Milliarden Nervenzellen, die untereinander vernetzt sind und dadurch zu komplexen Rechenleistungen in der Lage sind. Die Nervenzellen besitzen eine Antennenregion, die durch den Zellkörper und deren Fortsätze (Dendriten) gebildet wird. Hier empfangen sie die Signale anderer Nervenzellen.
Abbildung 1: Schematische Darstellung einer Nervenzelle (links) und einer Synapse (rechts). © MPI für biophysikalische Chemie
Eine Zelle redet, die andere hört zu
Die Signale werden dann verrechnet und durch ein „Kabel“, das Axon, in Form von elektrischen Impulsen weitergeleitet. In der Senderregion verzweigt sich das Axon und bildet Kontaktstellen aus, die Synapsen, an denen die Signale auf andere Nervenzellen übertragen werden (Abbildung 1). Dort werden die aus dem Axon eintreffenden elektrischen Impulse in chemische Signale umgewandelt. Die Information fließt dabei nur in einer Richtung: Eine Zelle redet, die andere hört zu.
Die Zahl der Synapsen, die eine einzelne Nervenzelle ausbilden kann, variiert sehr stark: Je nach Zelltyp kann sie zwischen genau einer und über 100.000 Synapsen betragen, im Mittel sind es ungefähr 1000 pro Nervenzelle.
Synapsen – elementare Einheiten der neuronalen Informationsübertragung
Synapsen bestehen aus
- dem Nervenende des Sender-Neurons (präsynaptisch),
- dem synaptischen Spalt, der die Sender- und Empfängerzelle trennt, und
- der Membran des Empfänger-Neurons (postsynaptisch).
Die präsynaptischen Nervenenden enthalten die als Neurotransmitter bezeichneten Signalmoleküle, die in kleinen membranumschlossenen Vesikeln gespeichert sind. Jedes Nervenende im zentralen Nervensystem enthält durchschnittlich mehrere 100 synaptische Vesikel. Dennoch gibt es hier große Unterschiede: So gibt es beispielsweise Spezialisten unter den Synapsen, die mehr als 100.000 Vesikel enthalten. Dazu zählen die Synapsen, die unsere Muskeln steuern. In jeder Synapse befinden sich stets einige Vesikel in Startposition und ‚lauern‘ direkt an der präsynaptischen Plasmamembran, an der sie angedockt haben.
Molekulare Maschinen bei der Arbeit
Wenn ein elektrisches Signal im Nervenende eintrifft, werden Calcium-Kanäle in der Plasmamembran aktiviert, durch die Calcium-Ionen vom Außenraum in das Innere der Synapse strömen. Sie treffen auf eine molekulare Maschine, die sich zwischen der Membran der Vesikel und der Plasmamembran befindet und die durch die hereinströmenden Calcium-Ionen aktiviert wird. Diese Maschine bewirkt, dass die Membran der Vesikel, die sich in der Startposition befinden, mit der Plasmamembran verschmilzt. Dadurch werden die Botenstoffe, die in den Vesikeln gespeichert sind, in den synaptischen Spalt ausgeschüttet.
Auf der anderen Seite des synaptischen Spaltes treffen die Botenstoffe auf Andockstellen in der Membran des Empfänger-Neurons, die die elektrischen Eigenschaften dieser Membran regulieren. Dadurch ändert sich der Membranwiderstand. Die Empfängerzelle kann die Spannungsänderung, die dadurch entsteht, in einem rasanten Tempo verarbeiten Zwischen dem Eintreffen des Impulses bis zur Spannungsänderung auf der anderen Seite des synaptischen Spalts vergeht nur etwa eine tausendstel Sekunde.
Damit stellt die synaptische Übertragung einen der schnellsten biologischen Vorgänge dar. Dennoch: Im Vergleich mit einem Transistor ist sie immer noch geradezu schneckenartig langsam.
Synaptische Vesikel: Nicht nur Speicherorganellen
Abbildung 2: Molekulares Modell eines synaptischen Vesikels. Links: Aufsicht mit Bezeichnung der wesentlichen Proteine. Rechts: Geöffnetes Vesikel. Innenraum gefüllt mit Neurotransmittern (rot). Die kleinen grauen Photos sind elektronenmikroskopische Aufnahmen realer synaptischer Vesikel; großes graues Photo: so würde das Modell im Elektronenmikroskop aussehen (Bild rechts von Redaktion übernommen aus: http://www.mpibpc.mpg.de/de/grubmueller). © MPI für biophysikalische Chemie
Die synaptischen Vesikel sind keineswegs nur eine Art membranumhüllte „Konservendose“ zur Speicherung der Botenstoffe. In ihrer Membran befindet sich eine ganze Reihe von Proteinen, die sich seit Millionen von Jahren durch die Evolution kaum verändert haben (Abbildung 2). Eine Gruppe dieser Proteine, die Neurotransmitter-Transporter, ist dafür verantwortlich, die Botenstoffe aus dem Zellplasma in die Vesikel hineinzupumpen und dort anzureichern. Dazu ist viel Energie erforderlich. Diese wird von einem weiteren Proteinmolekül bereitgestellt, einer Protonen-ATPase (V-ATPase), die unter Verbrauch von Adenosintriphosphat (ATP) Protonen in die Vesikel hineinpumpt. Das dadurch entstehende Konzentrationsgefälle nutzen die Pumpen ihrerseits für die Aufnahme von Botenstoffen aus.
Neben diesen für das „Auftanken“ erforderlichen Proteinen enthalten die Membranen synaptischer Vesikel weitere Komponenten, die dafür sorgen, dass die Vesikel mit der Plasmamembran verschmelzen können (darunter das SNARE-Protein Synaptobrevin und den Calcium-Sensor Synaptotagmin) und nach der Membranfusion wieder in das Nervenende zurücktransportiert werden. Die synaptische Vesikel werden anschließend im Nervenende über einige Zwischenschritte wieder recycelt und neu mit Botenstoffen befüllt. Und das immer und immer wieder, viele tausend Male im Lebenszyklus eines Vesikels.
Die Funktionsweise der synaptischen Vesikel auf molekularer Ebene zu verstehen, ist eine aufwendige Arbeit. Wir haben dazu vor einigen Jahren ein umfassendes Inventar aller Vesikelbestandteile erstellt. Da die Vesikel winzig klein und komplex in ihrer Zusammensetzung sind, war dieses Unterfangen keineswegs einfach: Mehrere Teams aus Deutschland, Japan, der Schweiz und den USA mussten jahrelang zusammenarbeiten, um die Eiweiß- und Fettkomponenten der Vesikel zu identifizieren und ein quantitatives molekulares Modell eines Standard-Vesikels zu erstellen.
Dabei mussten Probleme gelöst werden, die keineswegs so einfach waren, wie man annehmen möchte, z. B. das Auszählen der Vesikel in einer Lösung oder die quantitative Bestimmung des Gehaltes von Proteinen und Membranlipiden. Die Ergebnisse waren auch für Experten überraschend. So stellte sich heraus, dass ein biologisches Transportvesikel in seiner Struktur viel stärker durch Proteine bestimmt wird als zuvor angenommen: Wenn man von außen auf das Vesikelmodell schaut (Abbildung 2), kann man die Lipidmembran (gelb) vor lauter Proteinen kaum erkennen, und dabei sind im Modell nur ca. 70 Prozent der Gesamtmenge an Protein enthalten.
Diese Arbeiten bildeten die Grundlage zu weiterführenden Untersuchungen. So ist es gelungen, Vesikel, die unterschiedliche Botenstoffe transportieren, voneinander zu trennen und miteinander zu vergleichen. Anders als vorher vermutet, unterscheiden sie sich nur geringfügig in ihrer Zusammensetzung. Außerdem konnten verschiedene Vesikel isoliert werden, die bereits an der Plasmamembran angedockt sind, was ebenfalls eine Analyse ihrer Proteinzusammensetzung erlaubte.
Wie fusionieren die Membranen?
Ein zweiter Schwerpunkt der Forschung besteht darin, die Proteinmaschine, die die Membranfusion bewerkstelligt, in ihren funktionellen Details zu verstehen. Die dafür verantwortlichen Proteine sind bereits seit über zehn Jahren bekannt, doch ist immer noch nicht klar, wie sie es schaffen, innerhalb von weniger als einer Millisekunde nach Einstrom der Calcium-Ionen die Membranen zu verschmelzen.
Für die Fusion selber sind SNARE-Proteine verantwortlich – kleine Proteinmoleküle, die in der Plasmamembran wie in der Vesikelmembran sitzen. Kommen die Membranen nahe aneinander, lagern sich die dieser Proteine aneinander, wobei sie sich in Richtung der Membran wie Taue miteinander verdrillen (Abbildung 3).
Abbildung 3. Modell der Membranfusion (links) und Strukturmodell des SNARE-Komplexes (rechts). © MPI für biophysikalische Chemie
Bei dieser Zusammenlagerung wird Energie freigesetzt, die für das Verschmelzen der Membranen benutzt wird. Neuere Untersuchungen haben ergeben, dass das verdrillte Bündel bis in die Membran hineinreicht.
Um zu verstehen, wie diese Zusammenlagerung die Verschmelzung der Membranen bewirkt, wurden die SNARE-Proteine in künstliche Membranen eingebaut, an denen man die Fusion mit hochauflösenden Methoden, darunter der Kryo-Elektronenmikroskopie, untersuchen konnte. Dabei wurden erstmalig Zwischenstufen der Fusionsreaktion identifiziert. Dadurch konnte ein Modell der einzelnen Schritte auf molekularer Ebene erstellt werden.
Fortschritte sind ebenfalls bei der Frage erzielt worden, wie die einströmenden Calcium-Ionen die Fusionsmaschine aktivieren. Dies wird durch ein weiteres Protein in der Membran synaptischer Vesikel vermittelt, das Synaptotagmin, das die Calcium-Ionen bindet und dann die Membranen etwas näher aneinander bringt.
Trotz großer Fortschritte sind die komplexen molekularen Prozesse immer noch nicht vollständig verstanden: Umso erstaunlicher ist es, wie reibungslos Nervenzellen miteinander kommunizieren, wie effektiv die Fusionsmaschinerie in der Synapse funktioniert, bei jeder unserer Bewegungen, in unserem Fühlen und Denken. Deshalb forschen Wissenschaftler auf der ganzen Welt weiterhin daran, diese Prozesse noch besser zu verstehen. Es besteht die berechtigte Hoffnung, dass dadurch auch ein besseres Verständnis von neurodegenerativen Erkrankungen, wie Parkinson, Alzheimer und Chorea Huntington erzielt werden kann.
* Der gleichnamige Artikel erschien am 16. September 2016 auf der Webseite der Max-Planck Gesellschaft (https://www.mpg.de/synapse) und wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert (u.a. wurde eine Grafik von der Webseite http://www.mpibpc.mpg.de/de/grubmueller in Abbildung 2 eingefügt).
Weiterführende Links
Max-Planck Institut für Biophysikalische Chemie (Göttingen), Abteilung Neurobiologie: http://www.mpibpc.mpg.de/de/jahn
Was passiert an Synapsen? Video 3:56 min. https://www.mpg.de/6915155/synapsen_langzeitpotenzierung
Synapsen: Schnittstellen des Lernens. Video 2:26 min. Arvid Leyh, dasGehirn.info (Lizenz: cc-by-nc) Lhttps://www.dasgehirn.info/entdecken/kommunikation-der-zellen/synapsen-schnittstellen-des-lernens-3588/
Nervenzelle, Nerv, Axon, Synapsen - Grundbegriffe des Nervensystems, Video 5:34 min (Alexander Giesecke und Nicolai Schork: The simple Biology; Standard-YouTube-Lizenz). https://www.youtube.com/watch?v=20m6fhh-G7U
Die Macht der Synapsen-Proteine. Video 13:57 min. Ragnar Vogt (dasGehirn.info) spricht mit dem Biochemiker Nils Brose (Max-Plack Institut für experimentelle Medizin, Göttingen). Lizenz: cc-by-nc. https://www.dasgehirn.info/aktuell/hirnschau/die-macht-der-synapsen-prot...
Gehen wir auf eine Post-Antibiotika Ära zu?
Gehen wir auf eine Post-Antibiotika Ära zu?Fr, 23.09.2016 - 15:26 — Inge Schuster
Abgesehen von einem (relativ geringen) Risiko von Nebenwirkungen tragen Antibiotika wesentlich dazu bei, dass wir gesund bleiben und lang leben. Allerdings entwickeln Bakterien gegen diese Substanzen schnell Resistenzen, in vielen Fällen werden sie multiresistent. Es besteht die Gefahr, dass die vorhandenen Antibiotika schneller unwirksam werden als innovative, neue Substanzen auf den Markt kommen. Dies könnte zu einer Pandemie führen.
Vor kurzem hat mich ein Freund angerufen. Er hatte am 15. September das ARD-Magazin "Kontraste" gesehen und war nun zutiefst verunsichert. In dieser Sendung wurde über dauerhafte Gesundheitsschäden berichtet, die durch die Einnahme des Antibiotikums Ciprofloxacin entstanden waren. Dieses Arzneimittel war meinem Freund eben verschrieben worden, da er nach einer Operation an einer massiven Infektion im Urogenitaltrakt litt. Er fürchtete sich nun vor Nebenwirkungen - Sehnenabrisse, Nervenschäden sowie Angstattacken und Psychosen -, wie dies in der TV-Sendung an Hand zweier nahezu bewegungsunfähiger junger Männer überaus drastisch vor Augen geführt wurde.
Bereits der einleitende Satz der Sprecherin machte klar, wer für diese Schäden die Verantwortung zu tragen hätte: "unsere Geschichte handelt von fahrlässigen Ärzten, einer trägen Arzneimittelbehörde und einem tatenlosen Minister." In den folgenden rund siebeneinhalb Minuten wurden Ängste geschürt - es gäbe keine aktuellen Warnungen von Seiten der Arzneimittelbehörde oder gar eine dick-schwarz umrandete (Black Box) Warnung auf den Beipackzetteln, wie dies die amerikanische Arzneimittelbehörde FDA (allerdings erst vor 4 Monaten) getan hatte und auch keine breite öffentliche Aufklärung der Patienten (wie in den USA). Ein Patient klagte " ich bin hinterhältig vergiftet worden, ohne überhaupt gewarnt zu werden" Dass der Beipackzettel [2] alle Risiken und für die Anwendung wichtigen Informationen enthält, wurde kommentiert "da steht dermaßen viel drin, dass kein Mensch, kein Verbraucher und auch kein Arzt überblicken kann, was alles drin steht". Viele Zuseher fühlten sich von diesem Report offensichtlich sehr betroffen, gerieten in Panik und setzten ihre Medikamente ab - zumindest war dies aus Diskussionen In Internetforen zu entnehmen.
Was ist Ciprofloxacin?
Ciprofloxacin ist bereits seit rund 30 Jahren am Markt. Die Grundstruktur - ein Chinolon - stammt (wie auch das verwandte Chinin) aus der China-Rinde. Erfolgreiche Derivatisierung hat dann zu einem breiten Spektrum an behandelbaren Keimen geführt, zu erhöhter Wirksamkeit, verbesserter Stabilität im und Verfügbarkeit für den menschlichen Organismus (zum Unterschied zu vielen anderen Antibiotika kann es oral verabreicht werden). Abbildung 1.
Abbildung 1. Ciprofloxacin ist ein kleines, synthetisches Molekül, das 1987 von Bayer auf den Markt gebracht wurde. Als oral anwendbares Breitbandantibiotikum hat es sich zum Blockbuster (> 1Mrd $ Umsatz) entwickelt.
Ciprofloxacin ist ein Breitbandantibiotikum: es wirkt gegen gram-positive (u.a. Pneumokokken) und gram-negative Keime (u.a. Chlamydien, Pseudomonas, E. coli,…) und tötet diese ab. Besondere Bedeutung hat es in der Behandlung von schweren Infektionen, vor allem von solchen, die durch Pseudomonas aerugenosa hervorgerufen wurden. Es wird bei Infektionen des Bauchraums, der Atemwege, von Harnwegsinfektionen, akute Nierenbeckenentzündung, Infektionen der Gallenwege und auch bei Milzbrand (Anthrax) angewandt, gilt aber auch als Reserveantibiotikum (kommt zum Einsatz, wenn andere Antibiotika - u.a. beta-Lactame, Tetracycline - erfolglos waren).
In den letzten Jahrzehnten sind praktisch keine neuen, gegen gram-negative Bakterien gerichtete, Antibiotika auf den Markt gekommen. Ciprofloxacin ist und bleibt also auch weiterhin ein wichtiger Bestandteil des antibiotischen Armentariums:
- Die World Health Organisation (WHO) führt Ciprofloxacin in der Liste essentieller Arzneistoffe unter Antibacterials (14 beta-Lactame und 14 "other antibacterials", darunter Ciprofloxacin).
- Chinolone gehören - trotz ihrer Nebenwirkungen (siehe unten) - auch weiterhin zu den Strukturen, die modifiziert werden und als Entwicklungssubstanzen in die klinische Prüfung kommen. Derzeit befinden sich 39 Substanzen in den klinischen Phasen 1 -3, darunter sind 7 Chinolone, 3 davon in der letzten Phase (Phase III) [4].
Nutzen versus Risiko
Im vergangenen Jahrhundert ist die Lebenserwartung in der westlichen Welt stark gestiegen. Lag sie für Neugeborene in Deutschland um 1900 bei rund 42 Jahren (Mittel aus m + f), so war sie um 1960 auf 67 (m) und 72 (w) Jahre angestiegen. Dies war neben besserer Ernährung und Hygiene vor allem der wirksamen Bekämpfung von Infektionskrankheiten mit Medikamenten, insbesondere von bakteriellen Infektionen mit Antibiotika, und Vakzinen zu verdanken. Vormals tödliche Erkrankungen wie Tuberkulose oder Lungenentzündung konnten nun geheilt werden.
Insgesamt stehen heute rund 200 unterschiedliche Wirkstoffe zur Verfügung, die gegen verschiedene Erreger eingesetzt werden, zum Teil sind sie gegen ein weites Spektrum von Bakterien wirksam - sogenannte Breitband-Antibiotika -, zum Teil nur gegen einzelne spezielle Keime.
Allerdings ist mit jeder Antibiotikatherapie auch das Risiko von Nebenwirkungen verbunden (auch, wenn diese zum Glück vhm. selten auftreten). Um nur einige davon zu nennen:
- bei beta-Laktamen (Penicillinen, Cephalosporinen, Penemen) können neben gastrointestinalen Beschwerden vor allem allergische Reaktionen bis hin zum anaphylaktischen Schock auftreten.
- Bei Folsäureantagonisten können es Veränderungen des Blutbilds und Knochenmarksschädigungen sein,
- bei Makroliden Hörstörungen und Leberschäden bis hin zur cholestatischen Hepatitis.
- Bei der Gruppe der Chinolone, zu denen das bereits erwähnte Ciprofloxacin gehört, sind es u.a. gastrointestinale Beschwerden, Ausschlag, Leberschäden, Sehnenentzündungen bis hin zu Sehnenrissen, Nervenschäden und Psychosen. Ob Chinolone mehr Nebenwirkungen verursachen als Cephalosporine, darüber differieren die Meinungen.
Einer Antibiotikabehandlung sollte daher eine Risikoabwägung vorausgehen: ist die Wirkung weitaus höher einzuschätzen als der Schaden durch mögliche Nebenwirkungen? (So wie er Gebrauchsanweisungen für diverse Geräte studiert, sollte der mündige Patient auch den Beipackzettel zu seinem Medikament ansehen.)
Ein sozio-ökonomisch weit bedrohlicheres Szenario als das Risiko von Nebenwirkungen, ist allerdings die sich ausbreitende Resistenz gegenüber den Antibiotika.
Resistenzentwicklung – Antibiotika verlieren ihre Wirksamkeit
Dass Bakterien - aber auch andere Mikroorganismen - gegen antimikrobielle Substanzen resistent werden, ist ein ganz natürlicher Vorgang. Viele dieser Organismen produzieren ja selbst Antibiotika und müssen daher Mechanismen haben, um sich davor schützen. Resistenz ist aber auch logische Folge eines Evolutionsprozesses - von Mutation und Selektion: Bakterien vermehren sich sehr rasch und machen bei der Kopierung ihres Erbguts relativ viele Fehler. Beeinträchtigt eine Mutation nun die Zielstruktur (Target) gegen die ein Antibiotikum wirkt, so hat das betroffene Bakterium einen Vorteil, es kann sich in Gegenwart des Antibiotikums munter weiter vermehren und es entsteht eine neue, resistentere Population.
Bakterienpopulationen sind stets heterogen. Bei Behandlung mit Antibiotika werden zuerst die dagegen empfindlichsten Populationen eliminiert/abgetötet, dann die weniger sensitiven, dann die noch weniger sensitiven, usf. Wird die Behandlung zu früh abgebrochen, oder war die Dosis zu gering, so bleiben die resistenteren Keime über und vermehren sich - auf das Antibiotikum in der üblichen Dosierung spricht diese Population nicht mehr an.
Resistenzgene können auch von einem auf andere Bakterien - über die Speziesgrenzen hinweg - übertragen werden und diese damit gegen unterschiedliche Antibiotika resistent werden. So entstehen dann multiresistente Erreger.
Gegen Antibiotika resistente Bakterien findet man überall und in allen Ländern . Sie sind in Lebensmitteln , in der Umwelt, in Tier und Mensch. Eine enorme Bedrohung stellen sie in Spitälern und in Pflegeeinrichtungen dar.
Die Resistenzentwicklung wird durch exzessive Anwendung von Antibiotika und Missbrauch beschleunigt, beispielsweise, wenn oft allzu leichtfertig Antibiotika gegen virale Infektionen wie Influenza oder Erkältungen verschrieben werden, gegen die sie ja völlig wirkungslos sind, oder wenn sie tonnenweise in der Viehzucht eingesetzt werden, um schnelleres Wachstum zu erreichen. Ein Beispiel aus West-Bengalen zeigt, wie dort pathogene Erreger (E. coli) in den letzten Jahren zunehmend gegen das gesamte Arsenal an Antibiotika resistent wurden. Abbildung 2
Abbildung 2 . Wie E.coli in den Jahren 2008 bis 2013 Resistenzen gegen das Spektrum von Antibiotika entwickelte. Insgesamt 5476 Isolate aus Harnproben (von Harnwegsinfektionen) wurden analysiert, rund 2/3 der enthaltenenKeime waren E. coli, rund 22 % Klebsiellen (die Resistenzentwicklung ist hier noch dramatischer). Bei den beiden Angaben zu Cephalosporinen handelt es sich um Cephalosporine der dritten und vierten Generation. Daten aus West-Bengalen, Indien (Quelle: S.Saha et al., Front. Microbiol., 18 September 2014 | http://dx.doi.org/10.3389/fmicb.2014.00463) cc-by-Lizenz
Dass Antibiotika gegen virale Infektionen wirkungslos sind, ist EU-weit leider noch nicht allgemein bekannt. Dies zeigt eine eben erschienene Eurobarometer-Umfrage [5]. Immerhin glauben über 40 % unserer Landsleute, dass Antibiotika gegen Erkältung und Grippe wirken und merkwürdigerweise nahezu zwei Drittel, dass Viren durch Antibiotika zerstört werden. Abbildung 3. Zweifellos haben diese Einschätzungen negative Auswirkungen auf die Nutzung, trägt zur weiteren Resistenzentwicklung bei.
Abbildung 3. Spezial-Eurobarometer 445: Antibiotikaresistenz (April 2016). Fragen zur Wirksamkeit von Antibiotika gegen Viren, Grippe und Erkältungen, zum Wirkungsverlust durch Missbrauch und zu Nebenwirkungen. (Quelle: ebs_445_fac_at_de.pdf)
Wir haben dringenden Bedarf für neue Antibiotika
In etwas mehr als 50 Jahren wurde ein breites Arsenal an Antibiotika entdeckt und zu hochwirksamen Arzneimitteln optimiert : es waren dies vor allem die ersten Verteter der beta-Lactame - Penicillin (1938) und Cephalosporin -, Aminglykoside (1946), Tetracycline (1952), Makrolide (1951) und Chinolone (1968). Allerdings begannen sich bald Resistenzen auszubilden und zwar gegen alle Antibiotika. Bis nach der Einführung die ersten Resistenzen beobachtet wurden, dauerte es von weniger als 1 Jahr bis zu mehreren Jahren.
Erkrankungen durch multiresistente Bakterien sind nun nicht mehr selten: im Jahr 2013 waren es in den USA bereits rund zwei Millionen Menschen, von denen 23 000 starben; 400 000 Erkrankungen und eine ähnliche Zahl an Todesfällen - 25 000 wurden auch für die EU geschätzt.
Wenn sich diese Entwicklung fortsetzt, ohne dass neue Medikamente auf den Markt kommen, werden 2050 voraussichtlich bereits 10 Millionen Menschen an Infektionskrankheiten sterben, mehr als an der bisherigen Nummer 1, den Krebserkrankungen. Abbildung 4.
Abbildung 4. Schlechte Aussichten für 2050: Infektionskrankheiten werden mehr Todesopfer fordern als Krebserkrankungen (Quelle: Niall McCarthy, https://www.statista.com/chart/3095/drug-resistant-infections. Lizenz: cc-by-nd
Antibiotika-Dämmerung
Der Anstieg von Resistenzen gegen vorhandene Antibiotika und die Entwicklung von multiresistenten Erregern, gegen die das vorhandene Arsenal an Antibiotika nichts mehr ausrichtet, wirkt bedrohlich. Insbesondere, weil offensichtlich vorhandene Wirkstoffe schneller unwirksam werden als innovative, neue auf den Markt kommen. Abbildung 5.
Abbildung 5. Die Zahl der in den USA neu-zugelassenen Antibiotika sinkt rapide (Quelle: EFPIA)
Die Gründe dafür sind erklärbar: Das "Goldene Zeitalter" der Antibiotikaforschung in den1950 - 1960-Jahren hat viele Pharmakonzerne bewogen in Infektionskrankheiten zu investieren. Praktisch alle großen Konzerne - Roche, Ciba, Sandoz, Pfizer, Bristol-Myers Squibb , Eli-Lilly und wie sie damals alle hießen - haben Forschungseinrichtungen gebaut, die sich nun diesem großen, erfolgsverheißenden Thema widmeten.
Einige Jahre später schlug bei nahezu allen Firmen die Aufbruchstimmung in eine Mischung aus wissenschaftlicher und kommerzieller Frustration um.
- Wissenschaftliche Frustration, weil trotz enormer Anstrengungen es nur wenige innovative, neue Substanzen bis in die klinische Prüfung schafften, und noch weniger den Markt erreichten. Der Blick auf das nun größer gewordene Arsenal der Antibiotika ließ das Marketing aber argumentieren, es gäbe bereits ausreichend Antibiotika, für neue bestünde nur mehr wenig Bedarf, sie würden nur miteinander konkurrieren. (Anders als bei nicht-ansteckenden chronischen Erkrankungen dauern Antibiotika-Therapien nur Tage bis wenige Wochen - man braucht also hohen Absatz, um die enormen Entwicklungskosten adzudecken.) Dass Resistenzentwicklung einen Kahlschlag unter den Antibiotika verursachen könnte, wusste man damals noch nicht.
- Kommerzielle Frustration, weil das Return on Investment (ROI) nicht den Erwartungen entsprach und das Management sich nach einiger Zeit Gebieten zuwandte, die lohnender schienen (O-Ton unseres Forschungsleiters bei Sandoz: "Wir wollen gutes Geld nicht dem schlechten Geld nachwerfen").
Später, als die Auswirkungen der Resistenzentwicklung klarer wurden, kam noch ein weiterer, sehr wichtiger kommerzieller Aspekt dazu: Um gegen ein neues hochwirksames Antibiotikum nicht schnell Resistenzen entstehen zu lassen, dürfte es nur äußerst sparsam eingesetzt werden, nur in Fällen, wo nichts anderes mehr helfen würde. Das heißt, das Mittel wäre dann im wesentlichen auf Spitäler beschränkt, die aber davon auch nur ganz wenige Packungen auf den Regalen stehen hätten, gleichbedeutend mit minimalem Absatz. Pharma müßte also die extrem hohen Forschungs-und Entwicklungskosten auf ein Produkt aufwenden, von dem dann nur sehr wenig Absatz findet. Wenn aber der geringe Absatz in den Preis kalkuliert wird, ist das Mittel nahezu unerschwinglich.
So endete für viele große Firmen der Ausflug in die Infektionskrankheiten relativ bald. Die Experten wurden anderen (Forschungs)richtungen zugeteilt oder freigesetzt, die sehr umfangreichen Sammlungen von pathogenen Bakterienstämmen wurden aufgelasen und das Das Know-How ging verloren. Sandoz stieg bereits 1986 aus den Infektionskrankheiten aus, das halbierte Forschungsinstitut in Wien widmete sich bis zu seiner Einebnung dem Hoffnungsgebiet Dermatologie. Interessanterweise wurde die anfangs der 1970er Jahre in Wien entdeckte Gruppe der Pleuromutiline nun wieder reanimiert, eine Substanz ist bereits in der letzten Phase der klinischen Prüfung.
Wie kann es weitergehen?
Sowohl auf der wissenschaftlichen Seite als auch auf der organisatorisch-ökonomischen Seite sind viele Fragen noch offen.
Was die unzähligen Naturstoffe betrifft, deren antibiotische Wirksamkeit man entdeckt hat, wissen wir nur von den allerwenigsten, wo ihre Angriffspunkte (Targets) im/am Bakterium liegen . Auf der anderen Seite hat man bis jetzt nur wenige der bakteriellen Genprodukte als Targets untersucht und verwendet. Hier liegt die Möglichkeit zu innovativen neuen Wirkstoffen, die man dann gezielt hinsichtlich Wirkspektrum und Stabilität und vor allem nach weniger (schweren) Nebenwirkungen optimieren kann.
Die organisatorisch-ökonomische Seite ist komplex: Wir brauchen dringendst neue Antibiotika - dafür ist hoher finanzieller und personeller Aufwand erforderlich - neue Antibiotika bleiben dann in Reserve/werden äußerst sparsam verwendet - der Aufwand wird nicht ersetzt. Dies ist für einzelne Firmen, aber auch für die öffentliche Hand (in den meisten Staaten) nicht machbar. Es sind nun eine Reihe auf Kooperation basierender Initiativen gegründet worden:
- Von besonderer Bedeutung ist hier die " Declaration by the Pharmaceutical, Biotechnology and Diagnostics Industries on Combating Antimicrobial Resistance" (January 2016) [6] Darin haben sich 85 Pharma-, Biotech-und Diagnostische Unternehmen (darunter die TOP-Unternehmen) auf gemeinsame globale Prinzipien in der Entwicklung neuer Arzneimittel , Diagnostika und Vaccinen geeinigt. (Über die Finanzierung wird allerdings nichts gesagt.)
- "New Drugs 4 Bad Bugs" (ND4BB) ist ein gemeinsames europäisches Projekt der "Innovative Medicines Initiative" (IMI) der EU und der "European Federation of Pharmaceutical Industries and Associations" (EFPIA), das Mittel (223,7 mio €) zur Unterstützung der Forschung von kleinen und mittleren Unternehmen und akademischen Einrichtungen zur Verfügung stellt.
- "Antimicrobial Resistance Diagnostic Challenge" ist ein 20 Mio$ Preis der "National Institutes of Health" (NIH) und deren "HHS Office of the Assistant Secretary for Preparedness and Response (ASPR)"
Wie der Wettlauf zwischen Resistenzentwicklung und Einführung neuer Antibiotika zu gewinnen ist? Die Red Queen (Alice im Wunderland (Carol Lewis)) würde dazu meinen:
"Now, here, you see, it takes all the running you can do, to keep in the same place. If you want to get somewhere else, you must run at least twice as fast as that!"
So einfach wäre das! :-)
[2] Beipackzettel https://www.bayer.at/static/documents/produkte/gi/Ciprox500FT.pdf
[3] http://www.who.int/medicines/publications/essentialmedicines/EML2015_8-M...
[4] Antibiotics Currently in Clinical Development http://www.pewtrusts.org/~/media/assets/2015/12/antibiotics_datatable_20...
[5] Spezial-Eurobarometer 445: Antibiotikaresistenz (April 2016). ebs_445_fac_at_de.pdf
[6] Declaration by the Pharmaceutical, Biotechnology and Diagnostics Industries on Combating Antimicrobial Resistance. January 2016. https://amr-review.org/sites/default/files/Declaration_of_Support_for_Co...
Weiterführende Links
Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)
Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz.
Warum gibt es Antibiotika-Resistenzen? Video 2:43 min (Standard YouTube Lizenz)
Genetische Choreographie der Entwicklung des menschlichen Embryo
Genetische Choreographie der Entwicklung des menschlichen EmbryoFr, 16.09.2016 - 08:00 — Ricki Lewis
In den ersten zwei Monaten des Lebens entwickelt der menschliche Embryo bereits alle Organe und Gewebe; darüber, wie diese Prozesse ablaufen, ist aber relativ wenig bekannt. Gene, die an- und abgeschaltet spielen eine zentrale Rolle als Regulatoren der Organogenese. Angeschaltet, wird die DNA eines Gens in RNA transkribiert und diese dann häufig in ein Protein übersetzt, das Zellprozesse initiiert und kontrolliert. Die Genetikerin Ricki Lewis berichtet hier über die eben publizierte Entdeckung eines wesentlichen neuen Programms in der embryonalen Entwicklung: DNA wird zu mehr als 6000 RNAs transkribiert, die nicht für Proteine kodieren und offensichtlich die Organogenese spezifisch steuern.*
Als ich vor Jahren an einer staatlichen Universität unterrichtete, hatte ich die Möglichkeit meinen Genetik-Klassen echte menschliche Embryonen und Föten vorzuführen. Es waren dies Präparate aus den 1950er Jahren, stammten von Fehlgeburten, die ein Gynäkologe - mit dem Einverständnis der Frauen, wie mir versichert wurde - aufbewahrt und der Sammlung der Biologieabteilung geschenkt hatte.
Meine Studenten waren überrascht über die Formen, die da in Reagenzgläsern und Fläschchen schwebten, der Größe nach aufgereiht bis hin zum einem 8-Monate Fötus in einem riesigen Mayonnaise Glas. Ich ging mit diesen Präparaten sehr vorsichtig und respektvoll um.
Als ich einmal die Sammlung in einem Einkaufswagen über den Campus zu meiner Klasse transportierte, sprachen mich Studenten an. Sie nahmen an ich wäre auf dem Weg zu einer "Recht auf Leben"-Veranstaltung. Nein, korrigierte ich, "das gehört für den Biologie-Unterricht". Ein anderes Mal begleitete mich meine vierjährige Tochter auf den Campus. Als sie den 8-Monate Fötus sah, brach sie in Tränen aus - er sah ihrer ganz kleinen Schwester zu ähnlich.
Jahre später stieß ich wieder auf eines der wertvollen Reagenzgläser, eingerollt in Papiertücher lag es in einer Schachtel mit Prüfungsunterlagen. Ich hatte es damals wohl unabsichtlich mitgenommen. Ich bewahrte es auf und zeige es nun hier: es ist ein 44 Tage alter Embryo - zum Größenvergleich liegt ein Penny daneben (Abbildung 1).
Abbildung 1. Menschlicher Embryo, 44 Tage nach der Befruchtung. Zum Größenvergleich liegt ein Penny daneben
Ein Blick auf die Organbildung (Organogenese)
Menschliche Embryonen und Föten erzeugen starke Bilder. Auf meine Studenten machten damals die Präparate einen unvergesslichen Eindruck – in einer Weise, wie es Abbildungen, Fotos und Filme kaum je vermögen. Heute sehe ich auf den Plakatwänden nahe meinem Haus fröhliche Babys und dazu Angaben in welcher Schwangerschaftswoche bereits Herzschlag, Fingerabdrücke und ein Lächeln bemerkbar wurden. Vermutlich, um Schuldgefühle in Frauen hervorzurufen, die den Abbruch der Schwangerschaft wählen müssen.
Die Carnegie-Stadien
Üblicherweise haben Embryologen (alias Entwicklungsbiologen) für die Embryonalentwicklung ein Klassifizierungssystem angewandt, das auf den physischen Merkmalen beruht, die nach bestimmten Zeitabschnitten erkennbar werden: es ist dies eine Einteilung in 23 Stufen – die Carnegie-Stadien:
Beispielsweise ist am Tag 32 ein Embryo 4 – 6 mm groß, hat Ansätze ("Knospen") aus denen dann Beine entstehen, Vertiefungen aus denen Ohren, Verdickungen der Außenschicht, aus denen Linsen werden und 30 Körpersegmente (Somiten), die sich zu spezialisierten Teilen des Körpers entwickeln werden.
Am Tag 56 misst der Embryo 27 – 32 mm und sein Kopf ist halb so groß wie der ganze Körper. Er hat ein Kinn, ausgedehnte Extremitäten, gesäumt mit Fingern oder Zehen und andeutungsweise erkennbare Genitalien. Abbildung 2.
Abbildung 2. Modell eines 8 Wochen alten menschlichen Embryos
Die Phase der embryonalen Entwicklung dauert von der Befruchtung der Eizelle bis zum Tag 58, dem Ende der 8. Woche. Die 2. Woche wird durch das Auftauchen der drei Keimblätter – Ektoderm, Endoderm und Mesoderm – markiert, die sich zur Form der klassischen Gastrula biegen. Nach einem präzisen genetischen Programm entfalten und entwickeln sich daraus die Organe.
Ungefähr ab der dritten Woche beginnen sich die Ansätze der Organe zu formieren und die Organogenese beschleunigt sich in der darauffolgenden Woche. Der Übergang vom Embryo zum Fötus findet am Ende der 8. Woche statt, wenn alle Vorläuferstrukturen bereits vorhanden sind (die Zeit wird übrigens von der Empfängnis an gerechnet, nicht von dem Kürzel der Gynäkologen "letzte Menstruation"). Die Begriffe Embryo und Fötus bezeichnen zwei biologisch völlig unterschiedliche Phasen der pränatalen Entwicklung, werden aber gerne durcheinander geworfen - von Gegnern der Familienplanung ("Planned Parenthood") und von den Medien - sogar im Lesestoff, der in den Ordinationen von Gynäkologen aufliegt, habe ich derartige Verwechslungen gesehen.
Wie die Expression von Genen während der Entwicklung des Embryos verläuft
Die Carnegie-Stadien basieren auf dem, was sichtbar ist. Aber das Genom kontrolliert den Start der beobachtbaren anatomischen Veränderungen, die die Reise des Embryos zum Fötus vorantreiben. Eine grandiose, eben im Journal eLife erschienene Veröffentlichung bietet nun einen völlig neuen Einblick in die embryonale Entwicklung des Menschen, basierend auf der Genexpression in den spezifischen Organen [1].
Diese Arbeit - mit "Ein integrativer Atlas des Transkriptoms der Organentwicklung in menschlichen Embryos (An integrative transcriptomic atlas of organogenesis in human embryos)" übertitelt - unterscheidet sich grundlegend von früheren Forschungsrichtungen, die zur Untersuchung der pränatalen Entwicklung eingeschlagen wurden. So hatte man die RNA ganzer Embryos analysiert (damit war keine Aussage zur Entwicklung spezifischer Organe möglich), die Differenzierung von humanen Stammzellen und deren Tochterzellen verfolgt, Tiermodelle von Krankheiten des Menschen entwickelt, humane Organoide im Labor produziert und Schlussfolgerungen gezogen, welche Fehlentwicklungen hinter bestimmten Geburtsfehlern stehen.
Die aktuelle Studie wendet das statistische Verfahren der Hauptkomponentenanalyse (principal component analysis (PCA)) auf die sich ausweitenden Entwicklungswege der Zelllinien an, wenn aus den ersten Zellteilungen und der Schichtung von Geweben Organogenese wird. Die PCA erlaubt es, die überaus umfangreichen Datensätze auf ein überschaubares Ausmaß zu reduzieren, das die Trends (Substrukturen) unter den vielen Variablen aufzeigt. Dieser Ansatz (“lineage guided PCA” -LgPCA) identifiziert Gruppierungen von Genen ("Metagene"), die sich an der Bildung spezifischer Körperteile des Embryos beteiligen, einige davon in vielen Geweben.
Die Untersuchung katalogisiert nun die RNAs, die von Genen während der embryonalen Entwicklung vom Ende der 3. Woche bis zum Ende der 8. Woche transkribiert werden. Diese Forschung war möglich, weil es in England jahrzehntelange Erfahrung gibt, embryonales Gewebe in ethisch zulässiger Weise von Frauen zu erhalten, die sich freiwillig einem Schwangerschaftsabbruch unterziehen. Auf der Webseite der Human Tissue Authority ist jedes Detail beschrieben, wie mit humanen Zellen, Geweben und Organen gearbeitet werden muss. Die Seite berücksichtigt auch bioethische Bedenken hinsichtlich Zustimmung und Menschenwürde, Ausstellungen in Museen, religiösen und kulturellen Vorstellungen zu Organspenden, Verwendung von Stammzellen und Zelllinien und von embryonalem und fötalem Gewebe, das von Schwangerschaftsabbrüchen stammt.
Die Forscher sammelten Material und präparierten 15 spezifische Teile für ihre Analysen. Darunter waren ganze Organe wie beispielsweise die Nebennieren, Leber und Lunge aber auch bestimmte Segmente wie das Pigmentepithel der Retina des Auges, der Magen losgelöst von den Schließmuskeln und Knospen der Gliedmaßen. Um ausreichend RNA für die Analyse isolieren zu können wurden jeweils mehrere Präparate zusammengefasst (gepoolt) und die Abschnitte am Genom von denen Transkription erfolgte, identifiziert. Abbildung 3.
Abbildung 3. Menschlicher Embryo mit den 15 Geweben und Organen, die für die RNA-Analysen herangezogen wurden. (Bild von der Redaktion eingefügt; es ist Figure 1 aus Gerrard et a., (2016) entnommen [1] und steht unter cc-by Lizenz)
Über 6000 RNAs transkribiert, die nicht für Proteine kodieren
Indem sie die RNAs aus unterschiedlichen Regionen des Körpers isolierten, konnten die Forscher DNA-Sequenzen identifizieren, die komplexen angeborenen Anomalien zugrunde liegen und mehr als einen Gewebetyp betreffen, beispielsweise den Wolfsrachen (Gaumenspalte) und einige Formen der angeborenen Herzschwäche.
Das überraschendste Ergebnis war, dass von den 6 251 identifizierten neuen RNA-Transkripten rund 90 % keine der üblichen RNAs waren, die für Proteine kodieren. Sie waren vielmehr Transkripte von langen, zwischen den Genen liegenden Abschnitten der DNA und werden demgemäß als "long intergenic non-coding RNAs" ("LINC RNAs") bezeichnet. Diese LINC RNAs sind hochspezifisch für die einzelnen Körperteile, wo sie offensichtlich die Bereitstellung von Transkriptionsfaktoren regulieren – also von Proteinen, die ihrerseits nun wieder das Programm der Gen-Aktivierung und -Suppression steuern, das dann die Veränderungen in der Entwicklung direkt überwacht.
Mittels der oben erwähnten Hauptkomponentenanalyse (PCA) konnten aus dem riesigen Datensatz 11 Metagene identifiziert werden, also Gruppierungen von Genen, die sich an der Bildung spezifischer Körperteile des Embryos beteiligen. Ein Beispiel ist Metagen2, das 39 Gene umfasst, welche die Leber des Embryos formen. Da der PCA-Ansatz auf Zellinien basiert, kann er die genetischen Programme aufzeigen, die zu Entwicklungsdefekten führen: ein Beispiel ist das Holt-Oram Syndrom, das Hand und Herz betrifft (Fehlbildungen von Daumen oder Speiche und Herz).
Das Wissen, wie die Organentstehung genetisch kontrolliert wird, kann einerseits zur Entwicklung von Diagnosetests führen oder vielleicht sogar zu neuen Zielstrukturen (Targets) für die Entwicklung von Arzneimitteln. In der Forschung kann die Kenntnis von Genexpressionsmustern und Signalen, die ein Ereignis – wie beispielsweise die Bildung einer Milz – einleiten, Benchmarks ergeben, die für die Erzeugung induzierter pluripotenter Stammzellen und deren Differenzierung genutzt werden könnten.
Die großen Zusammenhänge
Die neue Sichtweise auf die Entstehung der Organe fasziniert mich ungemein. Welche Auswirkungen ihre Arbeit haben kann, beschreiben die Forscher beschreiben wohl am besten: "Die Entdeckung eines wesentlichen neuen Programms von nicht-kodierender Transkription fügt der raum-zeitlichen Regulierung des menschlichen Genom eine neue Ebene hinzu.
Die Identifizierung der Rolle von nicht-proteinkodierenden RNAs in der Ausbildung der embryonalen Organe, ist meiner Meinung auf der gleichen Linie zu sehen, wie die Entdeckung, dass Gene gestückelt sind – die Introns herausgeschnitten – und nur die Exons für Proteine kodieren. Dies hat Walter Gilbert im Jahr 1978 klargemacht [2] und damit mit einem Schlag die lange Zeit vertretene Ansicht zerstört, dass Gene in Form eines einzelnen DNA-Stücks für ein RNA-Molekül kodieren.
Abbildung 4. Eine DNA-Sequenz ist nicht "junk" (Müll), bloß weil wir ihre Funktion nicht kennen.
Wie ehemals Introns wurden auch LINC RNAs als Teil des Müllhaufens des Genoms, als "junk DNA" (Müll-DNA) betrachtet , eine Bezeichnung (u.a. von Francis Crick), welche von den Medien gleich vereinnahmt wurde und bis zum heutigen Tag weiterlebt. Abbildung 4.
Ich zweifle daran, dass viele Genetiker meinen, DNA-Sequenzen könnten ohne Nutzen oder Bedeutung sein, nur weil wir diese noch nicht entdeckt haben.
Das Wunder der Genetik liegt darin, dass wir oft meinen, wir wüssten bereits nahezu alles, was es zu wissen gibt, um dann doch wieder eine andere Sprache des Lebens zu entdecken.
[1] DT Gerrard, AA Berry, RE Jennings, KP Hanley, N Bobola, NA Hanley (2016) An integrative transcriptomic atlas of organogenesis in human embryos. eLife 2016;5:e15657. DOI: 10.7554/eLife.15657. https://elifesciences.org/content/5/e15657
[2] W Gilbert (1978) Why genes in pieces? Nature. 1978 Feb 9;271(5645):501
*Der Artikel ist erstmals am 8. September 2016 in PLOS Blogs - DNA Science Blog unter dem Titel "Genetic Choreography of the Developing Human Embryo" erschienen (http://blogs.plos.org/dnascience/2016/09/08/genetic-choreography-of-the-...) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung durch ScienceBlog.at einverstanden erklärt. Diese folgt so genau als möglich der englischen Fassung.
Weiterführende Links
Zeitleiste der embryonalen Entwicklung (Carnegie Stadien) Fotos mit Beschreibung (deutsch) http://www.embryology.ch/carnegie/carnegiede.html?number=10
The Multi-Dimensional Human Embryo (Bradley Smith et al., collaboration funded by the National Institute of Child Health and Human Development (NICHD), Bethesda, Maryland): a 3D- image reference of the Human Embryo Carnegy stages 13 - 23 based on magnetic resonance imaging. https://www1.cgmh.org.tw/intr/intr5/c6700/OBGYN/F/embryo/carnStages.html
Embryo – Fetus (Howard Hughes Medical Institute) Video 2:18 min (englisch)
Ricki Lewis: Genetics and Reproduction: How Far Should We Go? Talk TEDxSchenectady. Video 21:48 min (englisch)
Wie sich Europas Bevölkerung ändert - das "Europäische Demographische Datenblatt 2016"
Wie sich Europas Bevölkerung ändert - das "Europäische Demographische Datenblatt 2016"Fr, 09.09.2016 - 05:05 — IIASA
Vor wenigen Tagen ist das in Zusammenarbeit vom Internationalen Institut für angewandte Systemanalyse (IIASA) und dem Institut für Demographie der Österreichischen Akademie der Wissenschaften erstellte "Europäische Demographische Datenblatt 2016" (http://www.populationeurope.org/) erschienen [1]. Neben einer weiter steigenden Lebenserwartung weist die Prognose für das Jahr 2050 in vielen europäischen Staaten - darunter auch in Österreich und der Schweiz - auf eine massive Umschichtung der Bevölkerungsstrukturen hin, die durch Migration und sinkende Fertilitätsraten bestimmt sein wird.*
Vor wenigen Tagen ist die "European Population Conference" (31.8. - 3.9.2016, Mainz) zu Ende gegangen, die unter dem Motto " Demographischer Wandel und politische Auswirkungen" gestanden ist. Zu Beginn dieser Tagung wurde das "Europäische Demographische Datenblatt 2016" veröffentlicht. Dieses Datenblatt – entstanden aus der Kooperation zwischen dem Internationalen Institut für angewandte Systemanalyse (IIASA) und dem Institut für Demographie der Österreichischen Akademie der Wissenschaften – ist online frei zugänglich und bietet eine umfassende Zusammenstellung wesentlicher demographischer Indikatoren und Trends inklusive einer Prognose, wie sich die Bevölkerung bis zum Jahr 2050 entwickeln wird. So findet man darin Geburtenraten, Mortalitätsraten, Zahlen zu Migration und Bevölkerungsstrukturen einschließlich der Alterspyramiden für alle Staaten Europas und für europäische Regionen (West-, Nord-, Süd-, Zentralost-, Südost- und Osteuropa), für Japan und die USA. Das Datenblatt zeigt Landkarten, Bevölkerungspyramiden, Ranglisten, Tabellen, Grafiken und Themenboxen, die ausgewählte Fragen beleuchten - (adjustierte) Indikatoren für Fertilitäten, Pensionsalter und EU-weite Bevölkerungstrends (incl. Änderungen mit und ohne Brexit). Besondere Aufmerksamkeit richtet sich dabei auf die Bedeutung , welche die Migration auf heutige und zukünftige Änderungen der Bevölkerungsstrukturen auf unserem Kontinent hat und auf neue, von IIASA entwickelte Indikatoren für die Alterung der Bevölkerung [2].
Alterung - neue Maßzahlen
Federführend für die Erstellung des Datenblatts war Sergej Scherbov, Vizedirektor des "IIASA World Population Program" . Hinsichtlich Alterung meint er: "Wir berücksichtigen hierzu die sich ändernde Lebenserwartung (Dieser „prospective approach“ stuft Menschen als alt ein, wenn sie 15 (und weniger) Jahre Lebensspanne vor sich haben; siehe [2], Anm. Red.). Dies führt zu einer massiven Änderung des Bildes , das wir von einem alternden Europa haben." (Abbildung 1). Mit diesen neuen Maßzahlen sieht Scherbov, dass die Bevölkerung östlicher europäischer Staaten am raschesten altert (wohingegen übliche Standardindikatoren hier fälschlicherweise nur langsame Alterung in dieser Region angeben).
Abbildung 1. Die Altersgrenze, ab der die verbleibende Lebensspanne (weniger als) 15 Jahre beträgt, wird bis 2050 um bis zu 5 Jahre ansteigen. Entsprechend der steigenden Lebenserwartung und dem längeren Erhalt von physischen und psychischen Fähigkeiten definiert IIASA Alter vorausschauend durch die noch verbleibende Lebensspanne [2]. (Abbildung: European Demographic Data Sheet 2016 [1])
Das Datenblatt untersucht auch einige Ergebnisse des Projekts "Reassessing Aging from a Population Perspective (Re-Aging)", das Scherbov zusammen mit dem IIASA-Forscher Warren Sanderson leitet: das Konzept eines generationenübergreifend fairen Alters des Pensionsantritts (intergenerationally equitable normal pension age – IENPA). Dies bedeutet, dass die Balance zwischen Pensionsbeiträgen und späteren Pensionsleistungen für jede Generation in gleicher Weise sichergestellt ist und die Pensionssysteme sich ausreichend flexibel an Änderungen anpassen. (Abbildung 2).
Abbildung 2. Generationenübergreifend faires Alters des Pensionsantritts (intergenerationally equitable normal pension age - IENPA). Um die Balance zwischen Pensionsbeiträgen und späteren Pensionsleistungen für jede Generation in gleicher Weise sicherzustellen, ist die Anpassung des Pensionsantrittalters an die steigende Lebenserwartung Voraussetzung. Links: IENPA bis 2050 in Deutschland. Rechts: Im Jahr 2050 solllte IENPA im EU-28 Mittel bei 69,3 Jahren liegen, dies ist auch die Prognose für Österreich (Abbildungen: European Demographic Data Sheet 2016 [1])
Migration bewirkt große Änderungen
Die neuen Daten zeigen, wie Migration in den verschiedenen Ländern zu Wachstum oder Abnahme der Bevölkerung beiträgt. An Hand von Bevölkerungspyramiden sieht man welchen Anteil einheimische und zuwandernde Bewohner ausmachen. Abbildung 3.
Abbildung 3. Altersspyramiden für Österreich und Schweiz im Jahr 2015. Der Anteil an im Ausland geborenen Bewohnern ist nur in Luxemburg(44,2 % - vorwiegend EU-Ausländer) höher, in Zypern liegt er bei 20 %. Schweden (16,4 %), Deutschland (12,5 %), Frankreich (11,9 %), Italien (9,5 %), Spanien (12,5 %) weisen niedrigere Anteile als Österreich auf; besonders niedrige Zahlen mit unter 2 % haben haben Polen, Rumänien und Bulgarien. (Abbildungen und Zahlen: European Demographic Data Sheet 2016 [1])
Trends der Bevölkerungsentwicklung bis zum Jahr 2050 wurden für die Szenarios mit Migration und ohne Migration berechnet:
Für die EU als Ganzes genommen stellen die Prognosen bis 2050 ein Bevölkerungswachstum von 6,6 % in Aussicht (es werden dann 540 Mio Menschen sein), wenn Migration berücksichtigt wird. Andernfalls, ohne Migration, würde die Bevölkerung um 5,4 % (auf 479 Mio Menschen) abnehmen. In Zahlen ausgedrückt: Migranten, die zwischen 2015 und 2050 in die EU strömen und ihr Nachwuchs würden EU um 61 Mio Einwohner vergrößern. In einigen europäischen Ländern würde dies sogar zu über 30 % Zunahme der Einwohner führen. (Wenn UK im Jahr 2018 die EU verlässt, wird eine Abnahme von 13 % erwartet. )Abbildung 4.
Abbildung 4. Prognose: Wie sich die Bevölkerungszahlen in ausgewählten europäischen Staaten von 2015 - 2050 ändern . Der Bevölkerungszunahme in West-und Nordeuropa steht eine stark schrumpfende Bevölkerung in Zentral-Ost-, Südost- und Osteuropa gegenüber. Unter Berücksichtigung der Migration wird für Österreich nach Norwegen, Schweiz und Schweden das vierthöchste Bevölkerungswachstum (22 %) prognostiziert. Im Jahr 2050 wird es demnach 10,5 Mio Einwohner verzeichnen, ohne Migration (29,9 %) würde es auf 7,9 Mio schrumpfen. Deutschland kann sein Schrumpfen durch Migration gerade kompensieren. (Abbildung und Zahlen: European Demographic Data Sheet 2016 [1])
Migration führt in zahlreichen europäischen Ländern zur Umgestaltung der Bevölkerungsstruktur - der Treiber des Wachstums ist zumeist Migration und nicht Fertilität. Länder mit niedriger Fertilität wie beispielsweise Österreich, Schweiz oder Spanien (vor der Rezession im Jahr 2008) haben auf Grund von Einwanderung in den letzten Jahrzehnten einen massiven Bevölkerungszuwachs erlebt. Abbildung 5.
Abbildung 5.Prognose: Wie sich die Zahl der Lebendgeburten von 2015 - 2050 ändern wird. Vor allem für die skandinavischen Länder, England und die Schweiz werden steigende Geburtenraten erwartet, dagegen stark reduzierte Raten in Zentral-Ost-, Südost- und Osteuropa. In der Schweiz waren 2014 bereits 39%, in Österreich 31 % der Lebendgeburten auf ausländische Mütter zurückzuführen(mit Ausnahme von Luxemburg waren dies die höchsten Anteile in Europa). (Abbildung und Zahlen: European Demographic Data Sheet 2016 [1])
Im Gegensatz dazu ist in vielen Teilen Osteuropas, inklusive Rumänien und Litauen, die Einwohnerzahl geschrumpft - die Menschen sind in wohlhabendere Regionen Europas abgewandert. Moldavien könnte um die 40 % seiner Bevölkerung verlieren.
Zum Demographischen Datenblatt
Dieses erscheint seit 2006 im Abstand von zwei Jahren und stellt die vorrangige Quelle für Politiker und Demographen dar, die sich über die Dynamik der europäischen Bevölkerungsentwicklung ein Bild machen wollen. Zum ersten Mal gibt es dieses Datenblatt nun in einer frei zugänglichen online-Version [1], welche die Daten in einer Reihe unterschiedlicher Darstellungen präsentiert zusammen mit Details zur Herkunft der Daten und der Erklärung von Definitionen.
[1] European Demographic Datasheet 2016, Vienna Institute of Demography (VID) and International Institute for Applied Systems Analysis (IIASA). 2016. Wittgenstein Centre (IIASA, VID/OEAW, WU), Vienna.i>(Explore, visualize, and compare population indicators, charts, and maps for 49 European countries.)
[2] IIASA: Ab wann ist man wirklich alt?
*Der Blogartikel basiert auf der IIASA-Presseaussendung “New population data provide insight on aging, migration“ vom 25. August 2016. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und Abbildungen aus dem European Demographic Datasheet 2016 (oder aus dessen Daten zusammengestellt) versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.
Die Erkundung der verborgenen prähistorischen Landschaft rund um Stonehenge
Die Erkundung der verborgenen prähistorischen Landschaft rund um StonehengeFr, 02.09.2016 - 08:25 — Wolfgang Neubauer
>Im Rahmen des bisher größten archäologischen Forschungsprojekts "Stonehenge Hidden Landscape Project" haben das Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) und die Universität Birmingham den Untergrund der Landschaft rund um das weltweit wohl berühmteste neolithische Monument Stonehenge mittels modernster zerstörungsfreier Erkundungsmethoden systematisch "durchleuchtet" und erstmals eine detaillierte archäologische Landkarte erstellt. Wolfgang Neubauer (Direktor des LBI ArchPro) berichtet hier über die sensationellen Forschungsergebnisse, welche die Geschichte von Stonehenge in einem völlig neuen Licht erscheinen lassen.
Vor rund 10 000 Jahren wurde nach der letzten Eiszeit das Klima in Europa wieder wärmer. In der mittleren Steinzeit ab 8 500 v. Chr. können in der Landschaft von Stonehenge, im Süden Englands, Spuren der ersten Jäger und Sammler nachgewiesen werden. Es gab hier warme Quellen - wenige Kilometer von dem Ort entfernt, wo später Stonehenge entstand -, ein immergrünes Gebiet, das Wildtiere vor allem in den kalten Jahreszeiten aufsuchten. Über Jahrtausende bis etwa 4300 v. Chr. zog dieses Gebiet - Blick Mead genannt - Jäger an . Sie bauten hier immer wieder saisonale Unterstände und errichteten Totems.
Wenige Jahrhunderte, nachdem sich die letzten Spuren der Jäger verloren, die Landverbindung zum Kontinent durch den steigenden Wasserspiegel im Meer versank, fanden in der Landschaft von Stonehenge Feste neuer vom Kontinent eingewanderter Bevölkerungsgruppen statt. Wo deren Siedlungen lagen, ist bis heute unbekannt, wir kennen aber die monumentalen Erdwerke und Grabanlagen, die sie im 4. Jahrtausend v. Chr. errichteten (siehe unten: Identifizierung und 3D-Visualisierung eines Gemeinschaftsgrabes).
Stonehenge – prähistorisches Design der Superlative
"Henges" - Räume, die von einem kreisförmigen oder ovalen Graben mit einem daran anschließenden Erdwall umschlossen wurden - waren prähistorische Kultplätze, von denen es auf den Britischen Inseln viele Beispiele unterschiedlicher Komplexität und Größe gibt und deren Entstehung zwischen 3000 und 2300 v. Chr. datiert wird.
Das bekannteste neolithische Bauwerk der Welt ist die heute noch sichtbare Ruine Stonehenge: es ist eine unvergleichliche Anordnung von kreisförmigen , im Zentrum hufeisenförmigen Steinstrukturen, die sich in der Mitte eines stark erodierten Walls und Grabens erhebt; außerhalb des zentralen Monuments stehen isolierte Steine. Es ist eine Anlage, die beginnend von rund 3000 v. Chr. an über einen Zeitraum von mehr als tausend Jahren in mehreren Phasen gebaut und genutzt wurde. Mit einfachen Werkzeugen wurden die riesigen Steine präzise zugerichtet und sorgfältig zu einem Bauwerk ineinander gefügt, das prähistorische Ingenieurkunst verkörpert und hohe Eleganz ausstrahlt . Abbildung 1.
Abbildung 1. Stonehenge: weltweit bekannteste neolithische Kultanlage und Weltkulturerbe. Der Bau erfolgte über mehr als ein Jahrtausend: in der frühesten Phase um 3000 v. Chr. bestand die kreisförmige Anlage aus einem Erdwall mit einer Einfriedung aus Holzpfosten, hatte einen Durchmesser von rund 115 m und war ein Begräbnisplatz (links unten). Später, ab 2.600 v. Chr. wurden Gruppierungen aus ca 4 t schweren, aufrecht stehenden Steinen ("Blausteinen) errichtet, die aus rund 240 km entfernten Regionen in Wales stammten (unten Mitte). Kreisförmige Strukturen aus 25 - 50 t schweren Sandsteinblöcken (Sarsensteinen) kennzeichnen die 3. Bauphase, von der heute noch die Reste zu sehen sind (unten rechts). Die Anordnung der Steine kennzeichnet den Tag der Sommer- und Wintersonnenwende. Über die Nutzungen als Observatorium und/oder auch als Heilstätte wird diskutiert (Bilder: © LBI ArchPro, Jakob Kainz; ©7reasons).
Die Kultanlage Stonehenge stand allerdings nicht isoliert,
sondern war in eine rituelle Landschaft mit Hunderten von Monumenten eingebettet. Einige davon sind bis heute im Gelände sichtbar, aber weit mehr liegen im Boden verborgen. Diese wurden erst jetzt im Rahmen des Stonehenge Hidden Landscapes Project (SHLP) mit Erkundungsmethoden aus der Luft und modernsten, nicht-invasiven Methoden der Bodenerkundung entdeckt. In diesem bisher größten archäologischem Forschungsprojekt hat das Ludwig Boltzmann Institut für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) gemeinsam mit seiner britischen Partnerinstitution, der Universität Birmingham und internationalen Partnern erstmals den Untergrund rund um Stonehenge auf einer Fläche von 12 Quadratkilometern detailliert "durchleuchtet". Mit großflächigen Messungen des Erdmagnetfelds, 3D-Laserscannern und Bodenradar wurden die im Boden verborgenen archäologische Strukturen aufgespürt und bisher unbekannte Details zu den bereits bekannten Monumenten ans Licht gebracht. Aus Terabytes von so gewonnenen Daten kann nun erstmals eine genaue Karte der archäologischen Landschaft erstellt und deren Entwicklung über die Zeit hin verfolgt werden. Abbildung 2. (Die genannten prospektiven Methoden wurden bereits vorgestellt in: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum [1]).
Abbildung 2. Eine archäologische Landkarte des rund 12 km2 großen Gebietes rund um Stonehenge herum. Hier eingezeichnet: das bereits früher entdeckte Woodshenge, das riesige Durrington Walls (s.u.) und ein ca 3 km langer, rund 150 m breiter "Cursus", der bereits einige Jahrhunderte vor Stonehenge angelegt wurde und dessen Funktion unbekannt ist. Unten: An Hand der bodenmagnetischen Untersuchungen (links) wurden 17 Henges neu entdeckt (rechts). Diese sind im Bild oben als rote Punkte markiert. (Bilder: © LBI ArchPro, Wolfgang Neubauer und © LBI ArchPro, Mario Wallner)
Das Stonehenge Hidden Landscapes Project (SHLP): neue Kapitel in der Geschichte von Stonehenge
Die neuen Entdeckungen im Rahmen des SHLP umfassen Henge-Monumente (Abbildung 2), Einfriedungen, Palisadengräben, Grabbauten und Tausende von Menschen gegrabene Gruben. Davon sollen hier nur zwei der spektakulärsten Entdeckungen kurz beschrieben werden.
Identifizierung und 3D-Visualisierung eines Gemeinschaftsgrabes
Zahlreiche, durch die Landwirtschaft bereits eingeebnete Grabhügel konnten identifiziert und im Detail erkundet werden: zwischen 3 800 und 3 500 v. Chr. errichteten die ersten Bauern und Viehzüchter Gemeinschaftsgräber für ihre Toten, sogenannte long barrows. Dies waren lange Hügel aufgeschichtet aus Erde und Kreidegestein, die hausartige Grabkammern aus Holz oder Stein überdeckten. Wie ein derartiges Totenhaus im Detail ausgesehen haben mag, kann an Hand der Visualisierung eines 2,6 km von Stonehenge entfernten long barrow aufgezeigt werden, das in der ersten Hälfte des vierten Jahrtausends v. Chr. entstanden sein dürfte. (Abbildung 3).
In den Bodenradarmessungen zeichnet sich die Form eines hölzernen Langhauses von über 30 m Länge ab und in dessen Inneren zahlreiche einzelne Bestattungskammern. Der Zugang wurde durch einen massiven Pfosten blockiert, sodass nur ein schmaler Durchgang in das Innere offen blieb. Die zangenförmig ausgreifende hölzerne Fassade umschloss einen Vorplatz, der Raum für Totenrituale bot.
Abbildung 3. Ein Haus für die Toten - ein sogenannter long barrow. Daten aus geophysikalischen Untersuchungen (oben links), Interpretation und 3D-Rekonstruktion. (Bilder: © LBI ArchPro, Joachim Brandtner)
Das Superhenge Durrington Walls
3 km nordöstlich von Stonehenge liegt dieses seit langem bekannte, prähistorische Monument, das größte Henge Englands mit über 500 m Durchmesser (im Vergleich dazu hatte Stonehenge einen Durchmesser von "nur" 115 m). Es besteht aus einem tiefen, innen liegenden Graben mit bis zu 17 m Breite begleitet von einem außen liegenden Wall. Zwei Pfostenkreise und kleinere Einfriedungen im 20 Hektar großen Innenraum waren der Mittelpunkt für saisonale Zeremonien und Feste (man hat dort große Mengen an Keramik und Tierknochen gefunden). Das Superhenge besaß einen nach Südosten gerichteten Eingang, von dem aus eine zur Wintersonnenwende ausgerichtete Avenue zum Fluss Avon führte.
Unter dem Wall verborgen liegen die Ruinen einer älteren Siedlung und die kürzlich vom SHLP mittels Bodenradarmessungen entdeckten Reste eines weit älteren, spektakulären Monuments. Es sind dies die Überreste des ersten großen Steinmonuments in der Landschaft von Stonehenge. Um die natürliche Senke, in der später das Henge errichtet wurde, hatte man bis zu 200 tonnenschwere, bis zu viereinhalb Meter hohe Steine in einer langen, C-förmigen Reihe aufgerichtet. Manche der Steine wurden dann spätestens um 2600 v. Chr. umgestoßen, einige liegen unter der Wallaufschüttung verborgen. Die größten davon haben die Dimension der Monolithen im äußeren Steinkreis von Stonehenge, andere sind gebrochen, die meisten wurden aber entfernt und können nur durch die großen Fundamentgruben nachgewiesen werden (möglicherweise dienten sie als Baumaterial für das später entstandene Stonehenge). Abbildung 4.
Abbildung 4. Durrington Walls, die (vermutlich) weltweit größte neolithische Henge-Anlage. Oben links: Visualisierung des riesigen Walls, des innenliegenden Grabens und der zwei Pfostenkreise. Oben rechts und unten: Wie die durch Bodenradarmessungen unter dem Wall entdeckte lange Steinreihe ausgesehen haben mag. (Bilder: © LBI ArchPro, Juan Torrejón Valdelomar, Joachim Brandtner)
Fazit
Modernste naturwissenschaftliche Untersuchungsmethoden revolutionieren die archäologische Forschung. Die vom LBI ArchPro entwickelten Techniken - vor allem Messungen mittels Bodenradar und hochauflösenden Magnetometern - bieten noch nie dagewesene Möglichkeiten ganze Landschaften systematisch und zerstörungsfrei auf die im Boden verborgenen Überreste früherer Kulturen zu durchleuchten und diese zu rekonstruieren. Das bisher größte archäologische Forschungsprojekt - "Stonehenge Hidden Landscape Project" - hat nun erstmals zu einer detaillierten Landkarte einer prähistorischen Landschaft geführt: eine Vielzahl neuer Monumente wurde rund um Stonehenge entdeckt, ebenso wie neue, den Archäologen bis dato unbekannte Arten von Monumenten. Über die Bedeutung und Funktion vieler dieser Denkmäler kann zur Zeit nur spekuliert werden.
Wie diese prähistorische Landschaft ausgesehen hat, kann nun in einer weltweit erstmaligen Ausstellung Stonehenge. Verborgene Landschaft im Museum Mistelbach bis 27.11. 2016 besichtigt werden (Details: [2], [3])). Aufwendige Visualisierungen vermitteln einen dreidimensionalen Eindruck der Landschaft von Stonehenge und der faszinierenden Kultdenkmäler, inklusive der neuesten Forschungsergebnisse zum noch viel größeren und älteren Steinkreis bei Durrington Walls. Ohne dafür die Kultstätte selbst bereisen zu müssen, lassen maßstabsgetreue, auf 3D-Laserscandaten basierende Rekonstruktionen der Steine die Größe und Dimension dieses Kultmonuments erfahren,
[1] Wolfgang Neubauer, 01.07.2016: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum. .
[2] Museum Mistelbach: Stonehenge. Verborgene Landschaft.
[3] Stonehenge. A Hidden Landscape - Exhibition Mamuz Museum: Video 8:50 min
Weiterführende Links
Ludwig Boltzmann Institute for Archaeological Prospection and Virtual Archaeology: http://archpro.lbg.ac.at Videos: LBI ArchPro - Durrington Walls new Stones: 1:20 min, Stonehenge Royal Society: 6:25 min Ground penetrating radar at Stonehenge: 2:34 min
BBC Operation Stonehenge What Lies Beneath 2of2 720p HDTV x264 AAC MVGroup org: 1:24:16
Wie Gene aktiv werden
Wie Gene aktiv werdenFr, 26.08.2016 - 10:22 — Patrick Cramer
Um die Erbinformation in lebenden Zellen zu nutzen, müssen Gene aktiviert werden. Die Gen-Aktivierung beginnt mit einem Kopiervorgang, der Transkription, bei dem eine Genkopie in Form von RNA erstellt wird. Der Biochemiker Patrick Cramer (Direktor am Max-Planck Institut für biophysikalische Chemie, Göttingen) erforscht mit seinem Team, wie diese Kopiermaschinen ("RNA-Polymerasen") im Detail aufgebaut sind, wie sie arbeiten und gesteuert werden. Es sind bahnbrechenden Untersuchungen mittels strukturbiologischer Methoden, die nun erstmals eine Beschreibung des Kopiervorgangs und der Kopiermaschinen - der RNA-Polymerasen - in atomarem Detail ermöglichen.*
Gene zum Sprechen bringen
Zu den Kennzeichen des Lebens gehört, dass Organismen sich entwickeln und am Ende die Art erhalten. Dazu bedarf es der Erbinformation, die in lebenden Zellen in Form der DNA vorliegt. Die DNA ist ein fadenförmiges Molekül mit tausenden von funktionalen Abschnitten, wozu die Gene gehören. Gene sind für sich genommen stumm. Doch es kann ihnen Sprache verliehen werden. Dies geschieht während der Gen-Ausprägung, auch Gen-Expression genannt, bei der die genetische Information zur Synthese von Proteinen genutzt wird. Der erste Schritt in diesem Prozess ist die Transkription, ein Kopiervorgang, bei dem RNA-Kopien von Genen erstellt werden. Die biologischen Kopiermaschinen heißen RNA-Polymerasen und sind in der Lage, DNA in RNA zu übersetzen. Zu verstehen, wie Gene aktiviert werden und wie Genaktivität reguliert wird, ist von großem biomedizinischem Interesse.
Die Gen-Kopiermaschinen
In eukaryontischen Zellen gibt es mehrere RNA-Polymerasen, die verschiedene Gene kopieren. Dreidimensionale Strukturen von Polymerasen wurden in den letzten Jahren mit Hilfe der Röntgenkristallographie bestimmt. Die Struktur der RNA-Polymerase I umfasst 14 Untereinheiten und zeigt, wie diese Maschine in einem inaktiven Zustand auf ihren Einsatz zur Kopie ihres Zielgens wartet (Abbildung. 1; [1]).
Abbildung 1: Atomare Struktur der RNA-Polymerase I. Die Struktur dieses sehr großen (Molekulargewicht 590 000), aus 14 Untereinheiten bestehenden Enzyms wurde im Labor des Autors mithilfe der Röntgenkristallographie ermittelt [1]. © Max-Planck-Institut für biophysikalische Chemie/Cramer.
Die Struktur der RNA-Polymerase II ist bereits aus mehreren aktiven und inaktiven Zuständen bekannt [2]. Aus der Vielzahl der strukturellen Schnappschüsse konnte so ein Film der Gen-Transkription erstellt werden (Abbildung 2; [3]). Eine spezialisierte, viel kleinere RNA-Polymerase findet sich in den Kraftwerken der Zelle, den Mitochondrien [4].
Alle Polymerasen haben ein aktives Zentrum, das RNA-Moleküle anhand einer DNA-Vorlage synthetisieren kann. Die Kopiermaschinen unterscheiden sich aber auf ihrer Oberfläche. Dies ermöglicht es, verschiedene Polymerasen zu ihren spezifischen Zielgenen zu bringen und individuell zu regulieren.
Abbildung 2: Atomare Struktur der RNA-Polymerase II. Auch die Struktur dieses großen, komplexen Proteins (Molekulargewicht 550 000) wurde im Labor des Autors mithilfe der Röntgenkristallographie ermittelt [2]. Die Doppelhelix der DNA (blau-türkis), im aktiven Zentrum des Enzyms angedockt, ist hier bereits geöffnet, ein Strang dient als Vorlage (Template) für die Synthese eines neuen RNA-Strangs (roter Strang). © Max-Planck-Institut für biophysikalische Chemie/Cramer
Wie die Gen-Abschrift beginnt
Wie die Transkription startet, ist am besten für die RNA-Polymerase II verstanden. Dieses Enzym arbeitet dazu mit mehreren spezifischen Faktoren zusammen. Die Faktoren helfen zunächst, den Beginn eines Gens auf der DNA zu finden. Dann wird die DNA, die als Doppelhelix vorliegt, entwunden, was den Matrizenstrang freilegt. Nun kann die RNA-Polymerase den Matrizenstrang binden und den Kopiervorgang einleiten. Wie einige der Schritte dieser sogenannten Initiation ablaufen, konnte kürzlich sichtbar gemacht werden [5, 6]. Dabei weisen sowohl die RNA-Polymerase als auch die zusätzlichen Faktoren eine große Flexibilität auf. Die Dynamik der Transkription und die Beteiligung dutzender von Faktoren, die nur vorrübergehend präsent sind, erschweren allerdings die Strukturanalyse und eine vollständige Aufklärung des Prozesses.
Wie der Kopiervorgang reguliert wird
In menschlichen Zellen sind über Tausend Faktoren bekannt, die die Transkription regulieren. Sie sorgen dafür, dass die Transkription nur an denjenigen Genen startet, die zu einer bestimmten Zeit und an einem bestimmten Ort im Organismus aktiviert werden müssen. Die regulatorischen Faktoren können den Prozess der Initiation nur indirekt steuern, indem Sie auf sogenannte Koaktivatoren Einfluss nehmen. Der prominenteste Koaktivator ist der sogenannte Mediator-Komplex, der fast dreimal so groß wie die RNA-Polymerase II selbst ist und aus 25 bis 35 Untereinheiten besteht. Es ist jetzt gelungen, Einsichten in den Aufbau des Mediators zu erlangen [7] und seine Position auf der RNA-Polymerase II zu bestimmen (Abbildung 3; [8]).
Abbildung. 3: Regulierung des Transkriptionsvorgangs. Oben: Schematische Darstellung der RNA-Polymerase II, die zusammen mit vielen Faktoren - darunter dem riesige Mediatorkomplex - eine hochkomplexe, dynamische Genkopiermaschine bildet (Bild von der Homepage des Autors eingefügt; Red.). Unten: Derzeitiges Modell der RNA-Polymerase II (silber) mit gebundenem Mediatorkomplex (blau) und weiteren Faktoren. Diese Struktur wurde mithilfe der Kryo-Elektronenmikroskopie bestimmt. © Max-Planck-Institut für biophysikalische Chemie/Cramer
Für diese Arbeiten wurde die Kryo-Elektronenmikroskopie angewandt, die es nun aufgrund von technischen Entwicklungen ermöglicht, auch sehr große und flexible Komplexe in molekularem Detail sichtbar zu machen. So wurde beispielsweise erkannt, wie der Mediator den Prozess der Initiation der Transkription erleichtern und so Gene aktivieren kann.
Vom Molekül zum System
Zukünftig muss die Genaktivität möglichst als Ganzes im lebenden System der Zelle untersucht werden, um so Zusammenhänge zwischen der Ausprägung einzelner Gene besser zuordnen zu können. Dazu werden immer mehr Methoden entwickelt, die es erlauben, die Aktivität aller Gene gleichzeitig zu studieren. In jüngeren Studien wurde gezeigt, dass alle aktiven Gene eine besondere, modifizierte Form der RNA-Polymerase II tragen [9]. Auch gibt es in Zellen einen Mechanismus, der dafür sorgt, dass fehlgeleitete Transkription generell gestoppt wird [10]. So werden Polymerasen, die fälschlicherweise Regionen im Erbgut kopieren, die außerhalb der Gene liegen, von der DNA losgelöst. Das unbrauchbare RNA-Produkt wird nachfolgend abgebaut.
Nun gilt es, die molekularen und systemischen Ansätze derart zu kombinieren, dass ein umfassendes Verständnis der Genaktivität erreicht wird. Ein tiefes Verständnis dieser fundamentalen Prozesse könnte es ermöglichen, eine Fehlregulation der Genaktivität, wie sie bei vielen Krankheitsprozessen und insbesondere beim Krebs auftritt, zu korrigieren.
Literaturhinweise
[1] Engel, C.; Sainsbury, S.; Cheung, A. C.; Kostrewa, D.; Cramer, P. RNA polymerase I structure and transcription regulation. Nature 502, 650-655 (2013)
[2] Cheung, A.C.; Cramer, P. Structural basis of RNA polymerase II backtracking, arrest and reactivation. Nature 471, 249-253 (2011)
[3] Cheung, A.C.; Cramer, P. A movie of RNA polymerase II transcription. Cell 149, 1431-1437 (2012)
[4] Ringel, R.; Sologub, M.; Morozov, Y.I.; Litonin, D.; Cramer, P.; Temiakov, D. Structure of human mitochondrial RNA polymerase. Nature 478, 269-273 (2011)
[5] Kostrewa, D.; Zeller, M.E.; Armache, K.J.; Seizl, M.; Leike, K.; Thomm, M.; Cramer, P. RNA polymerase II-TFIIB structure and mechanism of transcription initiation. Nature 462, 323-330 (2009)
[6] Sainsbury, S.; Niesser, J.; Cramer, P. Structure and function of the initially transcribing RNA polymerase II-TFIIB complex. Nature 493, 437-440 (2013)
[7] Laivière, L.; Plaschka, C.; Seizl, M.; Wenzeck, L.; Kurth, F.; Cramer, P. Structure of the Mediator head module. Nature 492, 448-451 (2012)
[8] Plaschka, C.; Larivière, L.; Wenzeck, L.; Seizl, M.; Hemann, M.; Tegunov, D.; Petrotchenko, E.V.; Borchers, C.H.; Baumeister, W.; Herzog, F.; Villa, E.; Cramer, P. Architecture of the RNA polymerase II-Mediator core initiation complex. Nature 518, 376-380 (2015)
[9] Mayer, A.; Heidemann, M.; Lidschreiber, M.; Schreieck, A.; Sun, M.; Hintermair, C.; Kremmer, E.; Eick, D.; Cramer, P. CTD tyrosine phosphorylation impairs termination factor recruitment to RNA polymerase II. Science 336, 1723-1725 (2012)
[10] Schulz, D.; Schwalb, B.; Kiesel, A.; Baejen, C.; Torkler, P.; Gagneur, J.; Soeding, J.; Cramer, P.Transcriptome surveillance by selective termination of noncoding RNA synthesis. Cell 155, 1075-1087 (2013)
* Der gleichnamige im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel ( https://www.mpg.de/9956356/MPIbpc_JB_20161?c=10583665&force_lang=de ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert (u.a. wurde eine Grafik von der homepage des Autors in Abbildung 3 eingefügt). Die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.
Weiterführende Links
Max-Planck-Institut für biophysikalische Chemie, Göttingen http://www.mpibpc.mpg.de/de
A movie of RNA Polymerase II transcription, (Cramer Group). Der erste Film, der den Prozess der Transkription in atomarer Auflösung zeigt. Video 6:05 min, (Standard-YouTube-Lizenz). (Unter dieser Adresse finden sich weitere 5 Videos aus der Cramer Gruppe zu Mechanismen der Transkription)
Animation: The Central Dogma, Nature Video, 10:47 min (englisch; Standard-YouTube-Lizenz)
Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigen
Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigenFr, 19.08.2016 - 07:27 — Peter Schuster
Seit mehr als 50 Jahren sind Wissenschafter ebenso wie Laien an die Nutzung von Rechnern gewohnt , die immer schneller und dabei immer effizienter werden, insbesondere, was Prozessorleistung, Größe des internen Speicher und Speicherkapazität betrifft. Der theoretische Chemiker Peter Schuster (emer. Prof. Univ Wien) erklärt hier welche Auswirkungen die - entsprechend dem Moore'schen Gesetz - bis jetzt anhaltende, exponentielle Steigerung der Computerleistung auf die wissenschaftlichen Disziplinen hatte und warum diese bald ein Ende finden wird.
Kürzlich hat Mitchell Waldrop, US-amerikanischer Teilchenphysiker und Redakteur des Journals Nature, die gegenwärtige Lage der Chip-Hersteller analysiert. Er kommt zur Schlussfolgerung: die von Moore im Jahr 1965 vorausgesagte, bis jetzt anhaltende exponentielle Steigerung der Computerleistung wird nun ein Ende erreichen [1].
Ist dies tatsächlich realistisch?
Als Nutzer von Rechnern seit nahezu deren Anbeginn, möchte ich im Folgenden versuchen die spektakuläre Entwicklung der Computer zu beleuchten: die Erfolge, die bis jetzt für die Mathematik, Naturwissenschaften und Technologien erzielt wurden, ebenso aber auch die möglichen Konsequenzen, die das Ende dieser Entwicklung bedeutet.
Das Moore'sche Gesetz
Nur wer bereits an den Rechenanlagen der frühen 1960er Jahre arbeitete, kann die enormen, seitdem erfolgten Fortschritte - im Großen wie auch in jedem kleinsten Detail - wirklich bewerten. Abbildung 1.
Man braucht sich nur an all die lästigen Unannehmlichkeiten von Damals erinnern: an das Stanzen von Lochstreifen, an die Fernschreibgeräte und dann an Prozessoren (Central Processing Units - CPU), die gerade einmal Speicher von 16 KB aufwiesen.
Abbildung 1. 50 Jahre Computer. Links: Einer der ersten Computer in Österreich war das mit 1.600 Elektronenröhren ausgestattete Burroughs 205 Datatron, an dem ich ab 1962 für meine Doktorarbeit rechnete (links unten die Stromversorgung). Das , was damals einen großen Raum füllte, enorme Wärme entwickelte und überaus störanfällig war, brachte unvergleichlich weniger Rechenleistung als (rechts) heute ein kleiner, moderner Laptop. (Bilder links: https://zid.univie.ac.at/chronik , rechts: https://www.wired.com/2013/01/samsung-chromebook-3/; Lizenz cc-by)
In diesem damaligen Szenario gab die Prophezeiung Hoffnung , dass die Computer-Leistungsfähigkeit eine exponentielle Steigerung erfahren werde. Diese Voraussage machte Gordon Moore, der ursprünglich ein Doktorat in Chemie, Nebenfach Physik, an der Caltech-Universität erworben hatte, als Postdoc in die angewandte Physik wechselte und schließlich ein führender Wissenschafter und Unternehmer in der Halbleiter-Technologie wurde. In seiner Funktion als Direktor von Forschung & Entwicklung des Fairchild Halbleiter Unternehmens wurde er - anlässlich des 35 jährigen Bestands des Jorurnals Electronics im Jahre 1965 gebeten einen Artikel zu schreiben. Er sollte darstellen, wie sich seiner Meinung nach die Halbleiter-Industrie in den nächsten zehn Jahren entwickeln werde.
Moore's Vorhersage der exponentiellen Steigerung der Leistungsfähigkeit von Computern basierte auf der überaus erfolgreichen Miniaturisierung der Komponenten in dichte integrierte Schaltkreise. Diese Extrapolation aus der beobachteten Entwicklung in der Vergangenheit in die Zukunft - üblicherweise als Moore'sches Gesetz bezeichnet, obwohl es sich augenscheinlich weder um ein physikalisches noch um ein ökonomisches Gesetz handelt und damit besser als Moore'sche Regel gelten sollte - wurde zum Leitprinzip für das Design von Computerspeichern und Mikroprozessoren. Die zur Verdopplung der Leistung nötige Zeit schätzte Moore vorerst auf ein Jahr und korrigierte dies 10 Jahre später auf 2 Jahre. Damals war er bereits Vizepräsident der NM Electronics (später Intel Cooperation), die er 1968 zusammen mit Robert Noyce gegründet hatte.
Exponentielles Wachstum kann nicht ewig fortdauern
Meiner Ansicht nach grenzt es geradezu an ein Wunder, dass das Moore'sche Gesetz über 50 Jahre gelten konnte. Nach Ansicht des eingangs zitierten Waldrop hat dies teilweise mit dem Forschungs- und Entwicklungsplan - der Road Map - der Halbleiterforschenden Industrie zu tun, die seit den 1990er Jahren alle zwei Jahre die Agenda ihrer Hersteller und Zulieferer koordinierte, nach dem Motto "More Moore". Moore's Gesetz wurde damit zur selbsterfüllenden Prophezeiung und bis jetzt betrachtete die Semiconductor Industry Association (SIA) diese Regel als Grundlage ihrer Strategien für die Zukunft. Abbildung 2.
Abbildung 2. Das Moore'scheGesetz: Die Zahl der Rechenoperationen steigt exponentiell und wird immer billiger. Laut Waldrop sollte ab 2020 eine Stagnation des Wachstums eintreten (rote, gestrichelte Linie; Bild modifiziert nach: https://www.flickr.com/photos/jurvetson/3656849977).
Miniaturisierung stößt an Grenzen
Exponentielles Wachstum wird erwartungsgemäß bald an seine Grenzen stoßen. Dasselbe gilt für die Miniaturisierung. Wenn die Zahl an Transistor-Elementen auf einem Chip zunimmt, sinkt der Abstand in dem Halbleitereigenschaften zum Tragen kommen. Abbildung 3. Die Grenze ist bei etwa atomaren Abständen erreicht, wo bereits Quanteneffekte von Bedeutung werden. Daher wurde vielfach die Ansicht vertreten, dass es der physikalische Abstand ist, der die Grenze der Miniaturisierung und damit das Ende der Moore'schen Extrapolation bestimmt. Es zeigte sich allerdings, dass zuvor eine andere Beschränkung, nämlich die Wärmeentwicklung, bestimmend ist.
Abbildung 3. Ein Mikroprozessor (Intel i486DX2) für einen Personal Computer 1992. Nach Öffnen des Gehäuses des Chips sieht man rund 1,2 Millionen Transistoren auf einer Fläche von etwa 76 mm2 untergebracht. Heute sind es bereits Milliarden Transistoren. (Bild: cc-by-sa. Englische Wikipedia).
Bereits der Computer-Pionier Rolf Landauer hatte auf Basis grundlegender thermodynamischer Überlegungen und der Irreversibilität der Rechenvorgänge das Problem einer unvermeidbaren Wärmeentwicklung erkannt. Die Alternative - unendlich langsames Rechnen und kein Löschen von Daten - würde zwar zu reversiblen Vorgängen führen, aber nicht den Anforderungen an einen Computer entsprechen können.
Der Anstieg der Leistungsfähigkeit der Rechner war bis 2002 teilweise auf das Steigen der Taktfrequenzen zurückzuführen. Seitdem blieben diese aber annähernd konstant - üblicherweise unter 3 GHz, während die Zahl der Transistoren auf einem Chip weiterhin exponentiell anstieg. Früher brachte ein Verkleinern automatisch Vorteile: die Elektronen hatten geringere Distanzen zurückzulegen, die Chips arbeiteten schneller und die Energieaufnahme sank. Als aber zur Jahrhundertwende die Abstände auf den Chips sich unter 90 nm verringerten und der rasche Elektronenfluss mehr Hitze erzeugte als abgeführt werden konnte, wurden dir Chips zu heiß. Die Lösung dieses Problems bestand in der Etablierung von Multiprozessor CPU's - im Prinzip erreicht man mit 4 CPU's, die bei 250 MHz arbeiten, dieselbe Leistung, wie mit einem 1 GHz-Rechner.
Der Rekord im Miniaturisieren von Schaltkreisen liegt derzeit bei einem Durchmesser von 14 nm, entsprechend dem Moore'schen Gesetz könnten 2 - 3 nm in den 2020er Jahren erreicht werden. Dies bedeutet dann aber eine nicht mehr überwindbare Grenze. Mit nur zehn oder weniger Atomen Distanz zwischen den Einheiten kommt man in den Bereich von Quanteneffekten - die Transistoren würden dann hoffnungslos unverlässlich werden. Dieser Quanten-bedingten Grenze steht aber noch eine ökonomische Grenze im Weg. Die Kosten für Chips-Produzenten steigen mit der Zahl der auf einem Chip befindlichen Transistoren exponentiell an - eine experimentelle Beobachtung, die gerne auch als 2. Moore'sches Gesetz bezeichnet wird. Wir stehen damit eines Tages vor der Situation, dass die erforderlichen Investitionen höher werden, als dass sie auch von den größten Unternehmen getragen werden könnten.
Anforderungen des Markts
Ein anderes Faktum, das die Industrie zum Aufgeben des Moore'schen Gesetzes veranlassen wird, wird durch die Forderungen des Markts diktiert. Bis zur Jahrtausendwende dominierten Chips, die in Großrechnern, Minicomputern, Personalcomputern und Laptops eingesetzt wurden. Danach hat sich das Spektrum der Anwendungen enorm erweitert: Smartphones und Tablets benötigen zwar unterschiedliche Prozessoren, die Chips sind aber den früheren Chips aber durchaus vergleichbar. Mit dem Einsatz in Anlagen und Geräten des täglichen Lebens änderte sich die Situation gewaltig. Prozessoren in einer Waschmaschine, einem Geschirrspüler, einem Auto, einer Klimaanlage, etc. müssen ja nicht auf einem "Allzweck"-Chip lokalisiert werden und sie benötigen im allgemeinen auch keine wesentlich höhere Leistungsfähigkeit als derzeit vorhanden ist. Ganz im Gegenteil: auf die spezielle Anwendung getrimmte Geräte erfüllen die Anforderungen fast immer besser und sind, wenn sie in großen Zahlen produziert werden, auch billiger. Die Halbleiter-Industrie geht also in Richtung Spezialisierung und wird damit den Pfad des Moore'schen Gesetzes verlassen.
Eine neue Moore-Ära?
Was wird nun mit den restlichen Firmen, die der Moore'schen Road Map folgen, wenn in den frühen 2020er Jahren eine weitere Miniaturisierung auf Grund störender Quanteneffekte nicht mehr stattfinden kann? Es gibt hier eine Reihe von Ideen wie, um nur zwei Beispiele zu nennen, den Quantencomputer oder neuromorphes Rechnen. Bis jetzt haben diese nur wenig erreicht und es besteht eine Menge an Skepsis. Ungeachtet der Probleme, die mit grundlegend neuen Rechenmethoden zu lösen sein werden - welche deshalb weiter verfolgt werden müssen - erscheint es unwahrscheinlich, dass damit eine neue, ein weiteres halbes Jahrhundert dauernde " Moore Ära" der ComputerEntwicklung eingeleitet wird. Wir können zweifellos punktuelle Verbesserungen der Rechneranlagen erwarten aber nichts davon wird eine über Dekaden andauernde Leistungssteigerung erbringen.
Steigerung der Rechnerleistungen = Fortschritt in den Wissenschaften
Es ist überflüssig zu sagen, dass die Verwendung von Rechnern das Stadium praktisch aller wissenschaftlichen Disziplinen ganz wesentlich verändert hat. Zu den zwei Säulen - Theorie und Experiment - auf denen der wissenschaftliche Fortschritt beruht, ist als dritte Säule die Computersimulation hinzu gekommen.
Dass riesengroße Rechenjobs ausgeführt werden können, hat die Entwicklung neuer, hocheffizienter Algorithmen gefördert , die wiederum maßgeblich zur Steigerung der Rechnermöglichkeiten beigetragen haben. Es ist hier immer wieder zu betonen: für den Fortschritt der Computer-unterstützten Lösung von Problemen ist der Beitrag der numerischen Mathematik mindestens ebenso wichtig wie der Fortschritt in der Hardware.
…in der Mathematik
Um kurz auf den Nutzen gesteigerter Rechnermöglichkeiten für die einzelnen Disziplinen einzugehen: In der reinen Mathematik sind vor allem zwei Auswirkungen zu erwähnen: es gibt nun i) das sogenannte "symbolisches Rechnen", das die Analyse von früher als hoffnungslos kompliziert angesehenen Problemen ermöglicht und ii) mathematische Beweise durch "erschöpfendes Rechnen". Computer-unterstützte Beweise werden zwar nicht von allen Mathematikern akzeptiert , sie tragen aber mehr und mehr zur Lösung alter und neuer offener Probleme bei.
…in der Chemie
Was die Chemie betrifft, so waren vor der Ära der modernen Computer quantenchemische Berechnungen von kleinen Molekülen und Kristallen von sehr ungenauen Näherungen abhängig und verlässliche Resultate gab es nur in außerordentlichen Fällen. Heute bietet die Rechner-Technologie ausreichend Leistung, um sehr genaue Lösungen der stationären Schrödinger-Gleichung für kleine Moleküle zu ermöglichen; die so berechneten Strukturen und Spektren von Molekülen sind häufig genauer als die experimentell bestimmten. Für die Entwicklung von Rechnermethoden in der Quantenchemie wurden Walter Kohn und John Pople 1988 mit dem Nobelpreis ausgezeichnet.
…in den Ingenieurwissenschaften
Hier sind die Erfolge der rechnerunterstützten Anwendungen überaus beeindruckend. Die äußerst genaue „Methode der finiten Elemente“ - grundsätzlich handelt es sich um den Einsatz numerischer Lösungsmethoden für Differentialgleichungen - kann für verschiedenste physikalische Fragestellungen angewandt werden. Beispielsweise sind Berechnungen der Strömungsdynamik bereits so verlässlich geworden, dass sie in ernsthafte Konkurrenz mit Versuchen im Windkanal getreten sind. Rechnergestützte Mechanik zur Stabilität von Beton ist aus den Planungsunterlagen im Tunnel- und Brückenbau nicht mehr wegzudenken, ebenso wie auch Berechnungen zur präzisen Demolierung von Gebäuden. Es könnten hier noch viele andere Beispiele angeführt werden, die interdisziplinäre, komplexe, von vielen Variablen abhängige Optimierungsprobleme lösen. Zu all diesen Anwendungen gibt es bereits Übersichtsartikel.
…in biologisch/medizinischen Wissenschaften
In all den vorher genannten Disziplinen wäre eine weitere Steigerung der Rechnerleistungen im Sinne des Moore'schen Gesetzes zwar wünschenswert, aber - wenn man Berechnung und Experiment in Hinblick auf Genauigkeit und Verlässlichkeit vergleicht - kaum notwendig. Es gibt allerdings Disziplinen, die ein Mehr an Computerleistung erfordern: Dies trifft für die Lösung von Problemen in der molekularen Dynamik zu, für bestimmte Gebiete der theoretischen Biologie, wie beispielsweise der Systembiologie, für die Bioinformatik, deren Ziel das Verwalten und Analysieren von Big Data ist oder auch für die rechnerunterstützte Medizin. Im letzteren Fall würde es wohl einer zweiten, mindestens 50 Jahre anhaltenden Steigerung der Rechnerkapazitäten bedürfen um die Standards einigermaßen erfolgreicher Berechnung zu erreichen. Schon jetzt wird intensiv an verlässlichen Vereinfachungen gearbeitet. Eine Stagnation im weiteren Anstieg der Computerleistung wird diese Entwicklungen entscheidend vorantreiben und könnte damit einen durchaus positiven Impuls auf die Methodenentwicklung und die Implementierung effizienterer Berechnungen haben.
Fazit
Betrachtet man die Chip-erzeugende Industrie und die sich ändernden Anforderungen des Markts, so kommt man zu dem Schluss, dass das Moore'sche Gesetz nun seinEnde findet. Zukünftige Steigerungen der Computer-Leistung werden wohl punktuelle sein, nicht jedoch - wie in den vergangenen 50 Jahren - das ganze System betreffen. Auch, wenn damit kein wesentliches Weiterkommen in der Leistung der Hardware verbunden ist, können wir dennoch einen enormen Fortschritt in der numerischen Mathematik und der Entwicklung von Algorithmen erwarten, die zukünftige Berechnungen noch erfolgreicher machen werden. Es gibt also keinen Grund für Pessimismus!
[1] Waldrop, M.M. More than Moore. Nature 2016, 530:145-147
Der vorliegende Essay ist die deutsche Fassung des Artikels „The end of Moore’s law. Living without an exponential increase in the efficiency of computational facilities?“, der in Kürze im Journal Complexity 21 (1) erscheinen wird und eine komplette Liste von Literaturzitaten enthält.
Weiterführende Links
zu diesem Themenkreis sind im ScienceBlog erschienen:
von Peter Schuster
- 28.03.2013: Wie Computermethoden die Forschung in den Naturwissenschaften verändern
- 03.01.2014: Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften
- 28.03.2014: Eine stille Revolution in der Mathematik
- 20.02.2015: Beschreibungen der Natur bei unvollständiger Information
von Gerhard Weikum:
- 20.06.2014: Der digitale Zauberlehrling
Meilenstein der Sinnesphysiologie: Karl von Frisch entdeckt 1914 den Farbensinn der Bienen
Meilenstein der Sinnesphysiologie: Karl von Frisch entdeckt 1914 den Farbensinn der BienenFr, 12.08.2016 - 09:22 — Redaktion
Der aus Wien stammende Karl von Frisch (1886 - 1982) war einer der bedeutendsten deutschsprachigen Verhaltensforscher. Seine Untersuchungen betrafen die Sinnesphysiologie und das Verhalten insbesondere von Fischen und Bienen. Er wies deren Fähigkeit nach Farben zu sehen, den Geruchs- und Geschmacksinn der Bienen, das Hörvermögens der Fische und entdeckte die Tanzsprache der Bienen. Diese nehmen die Schwingungsrichtung des polarisierten Himmelslichtes wahr, nützen diese zu ihrer Orientierung und geben durch bestimmte Tanzformen die Information an andere Bienen weiter. 1973 wurde von Frisch - zusammen mit dem Österreicher Konrad Lorenz und dem Holländer Nikolaas Tinbergen - mit dem Nobelpreis für "Entdeckungen zur Organisation und Auslösung von individuellen und sozialen Verhaltensmustern" ausgezeichnet.
Abbildung 1. Karl von Frisch, als Professor an der Universität Breslau (Bild um 1923 -1925: http://www.7cudow.eu/en/eksponaty/noblisci) "Es war mir stets daran gelegen, die Ereignisse wissenschaftlicher Forschung in allgemein verständlicher Form auch dem Laien nahezubringen" — Karl von Frisch, 1980 [1]
Karl von Frisch war nicht nur ein außergewöhnlicher, kreativer Forscher, er verstand es auch seine "Wissenschaft" in einfacher, jedem Laien verständlicher Sprache zu vermitteln. Auch als ein noch recht junger Forscher. Davon zeugt der Vortrag „Über den Farbensinn der Fische und der Bienen“ , den er am 27. November 1918 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehalten hat und der im Jahrbuch 1919 des Vereins veröffentlicht wurde [2]. Auf Grund der Länge dieses Textes, beschränken wir uns im Folgenden nur auf den Teil "Farbensehen der Bienen", den wir ungekürzt und geringfügig für den Blog adaptiert wiedergeben (ergänzt mit einigen Untertiteln und Abbildungen aus dem 1914 erschienenen Buch "Der Farbensinn und Formensinn der Biene" von Karl von Frisch [3]).
Wer mehr über Karl von Frisch erfahren möchte: ein 1980 von ihm selbst verfasster Lebenslauf findet sich unter [1].
Karl von Frisch: Über den Farbensinn der Bienen
Es wird das Folgende besser verständlich machen, wenn ich einige Worte über den Farbensinn des Menschen vorausschicke.
Das normale, farbentüchtige Menschenauge vermag zahlreiche Farbennuancen zu unterscheiden. Es gibt aber auch gar nicht wenige Menschen, deren Farbensinn einen gewissen Defekt hat, deren Unterscheidungsvermögen für Farbtöne stark beschränkt ist. Es gibt ferner als seltene Ausnahmen auch Menschen, die überhaupt keine Farben wahrnehmen können. Sie sehen die Welt so, wie sie uns Farbentüchtigen in farblosen Photographien erscheint; sie sehen alle Gegenstände grau, nur je nach ihrer Farbe und Beleuchtung in verschiedener Helligkeit. Sie haben also keinen Farbensinn, sie sind „total farbenblind".
Können niederer organisierte Tiere Farben sehen?
Es wäre möglich, dass totale Farbenblindheit, die uns beim Menschen als seltene pathologische Erscheinung begegnet, bei so viel niederer organisierten Tieren, wie es etwa die Fische sind, der normale, allen Individuen gemeinsame Zustand ist. Doch war man bis vor wenigen Jahren allgemein der Ansicht, dass die meisten Tiere mit gut entwickelten Augen Farbensinn besitzen. Gewisse Experimente schienen den Beweis dafür zu liefern. So hat man Fischen in einem Bassin durch längere Zeit hindurch das Futter stets an einem roten Stäbchen dargeboten. Zeigte man ihnen dann ein rotes und ein grünes Stäbchen, so schossen sie nur auf das rote los und ließen das grüne unbeachtet. Oder: einer Hummel wurde auf blauem Papier Honig dargeboten. Bei ihrer Wiederkehr wurde ihr ein blaues und ein rotes Papier vorgelegt. Sie ließ das rote unbeachtet und flog direkt zum Blau.
Erst der Münchner Ophthalmologe Carl v. Hess hat mit Nachdruck darauf hingewiesen, dass solche und ähnliche Versuche keineswegs als Beweise für einen Farbensinn gelten können. Auch ein total farbenblinder Mensch ist leicht imstande, z. B. einen roten von einem blauen Gegenstand zu unterscheiden, und zwar dadurch, dass ihm die Farben in ganz verschiedener Helligkeit erscheinen. Er sieht Rot sehr dunkel, nahezu schwarz, Blau dagegen sieht er wie ein helles Grau. So könnte auch die Hummel das Blau vom Rot an der Helligkeit und nicht an der Farbe unterschieden haben.
Von Hess hat im letzten Jahrzehnt den Farbensinn zahlreicher Tierarten untersucht und ist zu dem Resultat gekommen, dass die Wirbeltiere mit Ausnahme der Fische, also die Lurche und Kriechtiere, die Vögel und Säugetiere einen Farbensinn haben, der dem des Menschen gleich oder ähnlich ist, dass dagegen die Fische, ferner die Insekten, Krebse und anderen wirbellosen Tiere total farbenblind seien.
Sind Blumenfarben für Insekten also bedeutungslos?
Es würde unsere altgewohnte Auffassung von der Bedeutung der Blumenfarben von Grund aus umgestürzt, wenn es sich bewahrheiten würde, dass die Insekten total farbenblinde Tiere seien. Es dürfte Ihnen ja bekannt sein, wie wichtig die Tätigkeit der Insekten, vor allem der Honigbienen, für die Befruchtung der Blüten ist. Nicht aller Blüten. Es gibt solche in nicht geringer Zahl, bei welchen die Übertragung des Blütenstaubes von den Pollenblättern auf die Narben durch den Wind geschieht (Gräser, Nadelhölzer u. a.). Die Blüten dieser Pflanzen pflegen wir nicht als „Blumen" zu bezeichnen; sie sind unscheinbar und duftlos; sie produzieren auch keinen Nektar, denn eine Anlockung von Insekten liegt nicht in ihrem Interesse. Anders sind die Blüten eingerichtet, welche auf Insektenbesuch angewiesen sind. Sie sondern im Blütengrunde einen süßen Saft ab, eben den Nektar, der von Insekten als Nahrung gesammelt wird. Beim Besuch solcher Blüten bepudern sich die nektarsaugenden Insekten mit Blütenstaub, und indem sie dann zu einer andern Blüte der gleichen Pflanze oder der gleichen Pflanzenart fliegen, übertragen sie den Blütenstaub auf deren Narbe und befruchten sie.
Solche Blüten sind in der Kegel durch große, auffallend gefärbte Blumenblätter, oft auch durch einen weithin wahrnehmbaren Duft ausgezeichnet, um, wie man annimmt, die Blüten den Insekten schon von weitem kenntlich zu machen und ihr Auffinden zu erleichtern, zu beiderseitigem Nutzen. Die Blumenpracht wäre ein völliges Rätsel, wenn sie nicht mehr als Anpassung an den Insektenbesuch gedeutet werden könnte.
Ein einfaches Experiment zum Nachweis des Farbensinns
Darum ist es von besonderem Interesse, zu wissen ob unsere eifrigste Blütenbestäuberin, die Biene, Farbensinn hat oder nicht. Darüber lässt sich durch ein einfaches Experiment Aufschluss gewinnen.
Ein Tisch im Freien soll unser Versuchsplatz sein. Nun müssen wir zunächst für die Versuchstiere sorgen und eine Anzahl Bienen herbeilocken. Zu diesem Zwecke stellen wir auf den Tisch eine große, flache Schale mit Honig. Eine Biene, die zufällig vorbeifliegt, findet den duftenden Süßstoff, nimmt von dem Honig auf, soviel sie kann, fliegt heim und kehrt nach wenigen Minuten wieder, von einigen anderen Bienen ihres Stockes begleitet. Bieten wir reichlich Honig, so nimmt die Zahl der Tiere rasch zu und nach 1 — 2 Stunden verfügen wir über mehrere Dutzend Bienen, die den Honig einsammeln und in regelmäßigem Fluge zwischen der neu entdeckten Futterquelle und ihrem Heimatstocke verkehren.
Wir nehmen nun eine Serie grauer Papiere, die, von Weiß angefangen, in feinen Abstufungen bis zu Schwarz führt, und legen diese Papiere auf den Tisch, in mehreren Reihen nebeneinander, nicht nach ihrer Helligkeit geordnet, sondern in beliebigem Wechsel. An irgendeiner Stelle fügen wir in diese Reihen ein farbiges, z. B. ein gelbes Papier ein, welches den grauen Papieren in Form und Größe genau gleicht und nur durch die Farbe von ihnen verschieden ist. Da das Gelb einem total farbenblinden Wesen wie ein Grau von bestimmter Helligkeit erscheint, und da bei unseren grauen Papieren jede Helligkeit von Grau vertreten ist, müssen die Bienen, wenn sie total farbenblind sind, das Gelb mit wenigstens einem der grauen Papiere verwechseln. Wenn sie es von allen Grauabstufungen mit Sicherheit unterscheiden; sagen sie uns hiermit, dass sie Farbensinn haben. Aber wie können sie es sagen?
Sagen können sie es freilich nicht. Wir müssen sie dazu veranlassen, es auf andere Weise zu verraten. Den Honig entfernen wir jetzt, da sein Duft den Versuch stören könnte, und geben statt dessen Zuckerwasser, welches auch gierig genommen wird. Wir bieten aber das Futter von jetzt ab ausschließlich auf dem gelben Papier, indem wir ein mit Zuckerwasser gefülltes Uhrschälchen daraufstellen. Damit nicht das Uhrschälchen an sich schon den Bienen verrät, wo das Futter zu finden ist, setzen wir auf alle grauen Papiere ebensolche Uhrschälchen, aber diese lassen wir leer. So ist die gelbe Farbe wohl das Einzige, was die Bienen als auffälliges Merkzeichen des Futterplatzes verwerten können. Und in der Tat scheinen sie dies rasch erfasst zu haben, denn schon nach kurzer Zeit sehen wir die vom Stock zurückkehrenden Tiere aus einer Entfernung von mehreren Metern direkt auf das Gelb losfliegen.
Aber haben sie sich nicht etwa, bei ihrem ausgezeichneten Ortsgedächtnis, einfach den Platz in unseren Papierreihen gemerkt, wo das Futter zu finden ist? Das lässt sich leicht prüfen. Wir geben das Futterschälchen samt dem gelben Papier an eine andere Stelle und legen ein graues Papier auf den früheren Platz des gelben. Abbildung 2, links oben.
Abbildung 2. Nachweis des Farbensinns (von der Redaktion aus [3] eingefügt). Links oben: Das Futterschälchen samt dem farbigen Papier (hier in blau*) wird an eine andere Stelle gegeben. Die Bienen versammeln sich nahezu ausschließlich dort. Links unten: den auf Farbe dressiertenBienen wurde ein leeres farbiges Blatt in einer Serie von grauen Blättern vorgelegt. Rechts: Die detaillierte, 222 Seiten starke Publikation [3] verfasste von Frisch im Alter von 28 Jahren. (* "Es lag mir daran, das Versuchsergebnis auch photographisch festzuhalten. Da sich die dunklen Bienenkörper auf den Photographien vom gelben Untergrund schlecht abhoben, dressierte ich sie nun in gleicher Weise auf Blau."[3].)
Die Bienen lassen sich nicht beirren und fliegen wieder direkt zum Gelb. Ihr feiner Ortssinn war also nicht der maßgebende Faktor. Aber vielleicht riecht das gelbe Papier schon nach Bienen? Vielleicht haben sie einen sehr viel schärferen Geruchsinn als wir, vielleicht riechen sie sogar aus einiger Entfernung das Zuckerwasser im Schälchen, obwohl es für uns geruchlos ist?
Wir müssen also den Versuch noch anders gestalten. Wir entfernen das gelbe und alle- grauen Papiere und ebenso alle Schälchen vom Versuchstisch. Statt dessen legen wir eine andere, ebensolche Serie grauer Papiere und ein neues gelbes Papier (an einem vom letzten Futterplatz abweichenden Ort) auf den Tisch und setzen auf jedes Papier ein neues Uhrschälchen. Keiner der Gegenstände war mit Bienen je in Berührung, in keines der Uhrschälchen, auch nicht in das auf dem gelben Papier, geben wir Zuckerwasser. Was tun die Bienen jetzt? Abbildung 2, links unten.
Sie fliegen in Scharen nach dem gelben Papier und suchen dort nach dem gewohnten Zuckerwasser, die grauen Papiere beachten sie gar nicht.
Immer noch wäre ein Einwand gegen die Beweiskraft des Versuches denkbar, wenn er auch schon recht weit hergeholt werden muss. Die Bienen könnten einen so feinen, einen von dem unsrigen so abweichenden Geruchsinn haben, dass das gelbe Papier, welches für uns so geruchlos ist wie die grauen Papiere, für sie einen deutlichen, spezifischen Geruch hat. Vielleicht sehen sie also das Gelb doch farblos grau und erkennen es nur mit Hilfe ihres Geruchsinnes!
Wir müssen den Versuch noch einmal modifizieren. Wieder legen wir ein gelbes und alle grauen Papiere auf den Tisch, dann decken wir über die ganze Anordnung eine große Glasplatte. Ein etwaiger Geruch kann durch das Glas nicht wahrnehmbar sein. Trotzdem benehmen sich die Bienen genau so wie beim früheren Versuch. Sie sammeln sich auf der Glasplatte über dem Gelb in Scharen an und lassen die grauen Papiere ganz unbeachtet. So können wir nicht mehr daran zweifeln, dass sie das Gelb anders sehen als jedes beliebige Grau, dass sie Farbensinn haben.
Bienen lassen sich auch auf andere Farben dressieren
Wie wir bei diesem Versuch die Bienen durch Verabreichung von Futter auf Gelb „dressiert" haben, damit sie zum Aufsuchen des Gelb veranlasst werden und uns zeigen, ob sie das Gelb von jedem Grau zu unterscheiden vermögen, so können wir sie auch auf jede andere Farbe zu dressieren versuchen. Abbildung 3.
Abbildung 3. Die untersuchte Farbpalette (von der Redaktion aus [3] eingefügt)
Ausgedehnte Versuchsreihen in dieser Richtung führten zu einem interessanten Ergebnis. Die Dressur gelingt einwandfrei bei Verwendung von Orangerot, von Gelb, von einem gelblichen Grün, Blau, Violett oder Purpurrot. Alle diese Farben werden von grauen Papieren jeder beliebigen Helligkeit mit Sicherheit unterschieden. Füttern wir aber die Bienen auf einem rein roten Papier, welches kein Blau und möglichst wenig Gelb enthält, und legen ihnen dann ein solches Rot und die Grauserie vor, so werden sie, wenn nur das Rot unbeschmutzt und das Schälchen darauf ohne Zuckerwasser ist, von schwarzen und sehr dunkelgrauen Papieren ebenso stark angelockt wie von dem Rot: Ein reines Rot verwechseln die Bienen mit Schwarz. In analoger Art lässt sich zeigen, dass sie ein gewisses Blaugrün von einem Grau mittlerer Helligkeit nicht unterscheiden können. Der Farbensinn einer Biene ist also gegenüber dem eines farbentüchtigen Menschen beschränkt.
Dies offenbart sich auch noch auf andere Weise. Stellen wir den auf eine bestimmte Farbe dressierten Bienen die Aufgabe, die Dressurfarbe aus einem bunten Gemisch der verschiedensten Farben herauszufinden, so machen sie regelmäßig Verwechslungen zwischen gewissen Farben, die für ein farbentüchtiges Menschenauge voneinander sehr verschieden sind. Ein Grün, das auch nur schwach gelblich ist, aber auch Orangerot wird mit reinem Gelb, Blau wird mit Violett und Purpurrot verwechselt. Dagegen werden die „warmen" Farben einerseits, die „kalten" Farben anderseits ebenso sicher voneinander unterschieden wie von farblos grauen Papieren.
h
Sehr ähnliche Verhältnisse finden wir. bei einer bestimmten Art von Farbensinnstörung- des Menschen, nämlich bei einer Form der sogenannten „Rot-Grün-Blindheit". Solche Menschen sind für reines Rot unempfindlich, sie verwechseln ein gewisses Blaugrün mit einem Grau von mittlerer Helligkeit und haben innerhalb der „warmen" Farben einerseits, der „kalten" Farben anderseits kein Unterscheidungsvermögen für die Farbennuancen. Die Bienen sind also, wie manche Menschen, rotgrünblind.
Durch diese Erkenntnis wird eine blütenbiologische Erscheinung verständlich,
die, seit langem bekannt, bisher der Erklärung harrte: die auffallende Seltenheit rein roter Blütenfarben bei unseren heimischen Blumen. Was wir gewöhnlich „rote" Blumen nennen, hat fast durchwegs purpurrote Farben, die reichlich Blau enthalten. So die Eriken, Zyklamen, die roten Klee- und Orchideenarten usw. Solche Blüten sehen die Bienen „blau". Scharlachrote Blüten sind bei uns seltene Ausnahmen. Ich sage bei uns, denn in den Tropen sind sie weit verbreitet, aber auch dort — und das ist eben das Auffällige — nicht bei Blüten, die auf Insektenbestäubung eingerichtet sind, sondern nur bei solchen Blüten, welche durch Kolibri und Honigvögel bestäubt werden. Jetzt, da wir wissen, dass die Bienen (und wahrscheinlich auch alle anderen Insekten) ein reines Rot nicht farbig sehen, verstehen wir, warum sich diese Farbe nicht als Anpassung an Insektenbesuch entwickeln konnte. Mit um so größerer Gewißheit dürfen wir die tatsächlichen Blütenfarben der insektenblütigen Pflanzen als Anpassung an die Blumengäste auffassen.
„Blumenstetigkeit" der Bienen
Doch dürfen wir bei der biologischen Deutung der Blumenfarben nicht die Beschränkung des Farbensinnes der Biene vergessen, von der eben die Rede war. Die Fülle von Farbennuancen, die uns auf einer blumenreichen Wiese entgegenleuchtet, besteht nicht für das Bienenauge. Und gerade diese Fülle von Nuancen schien eine notwendige Voraussetzung, für die bekannte „Blumenstetigkeit" der Bienen zu sein. Beobachtet man Bienen beim Blütenbesuch, so sieht man fast immer ein und dasselbe Individuum nur Blüten ein und, derselben Pflanzenart befliegen. Diese „Blumenstetigkeit" ist für beide Seiten von Nutzen: Die Blüte erhält so den ihr zugehörigen Blütenstaub, die Biene aber trifft überall auf die gleiche Blüteneinrichtung, mit der sie schon vertraut ist, und spart Zeit. Sie kann natürlich nur blumenstet sein, wenn sie die Blüten, die sie sucht, von den vielen andersartigen Blüten der Umgebung zu unterscheiden vermag. Dass sie dies rasch und sicher trifft, sehen wir, und was lag näher, als die vielen Farbtöne, durch welche die Blüten verschiedener Pflanzen für unser Auge schon aus der Ferne voneinander abstechen, damit in Beziehung zu bringen! Nun haben wir aber gesehen, dass den Bienen ein feineres Unterscheidungsvermögen für Farbennuancen abgeht Daher müssen sie neben der Farbe auch andere Merkmale der Blüten beachten, um die Sorten so sicher voneinander zu unterscheiden.
Tatsächlich lässt sich experimentell nachweisen, dass auch die Form der Blüten und ihr so verschiedenartiger Duft von den Bienen als Merkzeichen verwertet wird. Sie lassen sich auf blumenartige Formen und auf blumige Düfte ebenso gut dressieren wie auf Farben.
Der Mechanismus der Farbanpassung hat biologische Bedeutung
Auch bei anderen wirbellosen Tieren, z. B. bei niederen Krebsen, hat man sich in jüngster Zeit durch Versuche, die in ihrer technischen Durchführung an die Lebensgewohnheiten der betreffenden Tiere angepasst waren, davon überzeugt, dass sie Farbensinn besitzen. Doch hat dieser Befund wohl in keinem anderen Falle so weittragende Konsequenzen für unsere Auffassung biologischer Vorgänge wie gerade bei Insekten und bei Fischen.
Der Mechanismus der Farbenanpassung, die wir bei einer Reihe von Fischarten kennen, wäre unverständlich, ihr buntes Hochzeitskleid eine Laune der Natur — wenn sich die These von ihrer totalen Farbenblindheit bestätigt hätte.
Und wieviel mühevolle Untersuchungen, wieviel sorgfältige Beobachtungen waren es, auf Grund deren uns Christian Konrad Sprengel, Charles Darwin, Hermann Müller und andere hochgeschätzte Forscher lehrten, die Blumenfarben als Anpassung an den Blütenbesuch der Insekten zu betrachten! Beobachtungen in freier Natur, Statistik und Experiment haben vereint diese Überzeugung bei den älteren Untersuchern begründet und gefestigt. Kämen wir jetzt zu der Erkenntnis, dass das Insektenauge die Farben gar nicht sieht, so müssten wir resigniert zugeben, dass allgemein übliche Methoden naturwissenschaftlicher Forschung in den besten Händen hier völlig versagt hätten.
Dass wir zu diesem traurigen Eingeständnis nicht veranlasst sind, glaube ich Ihnen gezeigt zu haben.
[1] Lebenslauf von Karl von Frisch, den er im Alter von 94 Jahren selbst verfasst hat: http://www.vbio.de/der_vbio/landesverbaende/baden_wuerttemberg/karl_von_... (abgerufen 11.8.2016)
[2] Karl von Frisch (1918): Über den Farbensinn der Fische und der Bienen, Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 59: 1-22. http://www.zobodat.at/pdf/SVVNWK_59_0001-0022.pdf (abgerufen 11.8.2016)
[3] Karl von Frisch (1914): Der Farbensinn und Formensinn der Biene (Verlag Gustav Fischer, Jena) https://ia800203.us.archive.org/19/items/derfarbensinnund00fris/derfarbe... (abgerufen 11.8.2016)
Weiterführende Links
Nobel Vortrag von Karl von Frisch (in Deutsch) 12 Dezember 1973, Video 43 min, Copyright © Karolinska Institutet 2011, http://www.nobelprize.org/mediaplayer/index.php?id=1586
Der Forscher, der auf Bienen flog (Max Planck Forschung 1/10) https://www.mpg.de/786131/W006_Kultur-Gesellschaft_076-082.pdf
Geruchssinn der Bienen” by Karl von Frisch (1927) Video 5:37 min. https://vimeo.com/98312381
Wie die Schwangere, so die Kinder
Wie die Schwangere, so die KinderFr, 05.08.2016 - 06:27 — Susanne Donner
Schon Einflüsse im Mutterleib prägen das ungeborene Kind, zum Teil lebenslang. Stress der Mutter führt dazu, dass ihr Kind schneller und oft gestresst ist, andererseits aber unter Stress auch vergleichsweise gute Leistungen erbringt. Ängstliche Schwangere haben tendenziell eher vorsichtige Babys - u.U. ein Vorteil, um Gefahren blitzschnell zu erkennen, aber auch ein Nachteil in einer sicheren Welt. Eine der neuesten Hypothesen besagt, pränataler Stress könnte den geistigen Abbau im Alter bedingen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner fasst den gegenwärtigen Stand der Forschung zu diesem ungemein wichtigen Thema zusammen*.
Wie der Vater, so der Sohn, heißt es. Besser wäre: Wie die Schwangere, so ihr Kind. Denn was eine werdende Mutter isst, wie gestresst und ängstlich sie sich fühlt, prägt sich in Gene und Gehirn ihres Babys ein – und beeinflusst es zeitlebens.
Es klingt eigentlich zu platt, um wahr zu sein: Glückliche Schwangere gebären glückliche Kinder. Wer in den Umständen cool bleibt, bekommt ein gelassenes Baby und wer überängstlich durch die zehn Monate schlingert, hat auch ein unausgeglichenes Kind. Kann das stimmen?
Abbildung 1. Fetale Entwicklung. Grafik: MW/AL
Fragt man Neonatologen, Geburtsmediziner und Neurowissenschaftler nach den Zusammenhängen zwischen der Zeit im Mutterleib und dem späteren Charakter des Kindes, erstaunt die Antwort: „Vieles ist zwar noch Gegenstand der Grundlagenforschung, aber es ist naheliegend, dass eine glückliche Mutter tendenziell eher ein glückliches Kind bekommt“, sagt Andreas Plagemann, Geburtsmediziner an der Charité (Berlin). Während der zehn Monate werden zentrale Regelkreise im Gehirn und in den Genen kalibriert. Dieser Vorgang der fetalen Programmierung prägt ein Leben lang das Verhalten. „Das ist wie ein Stempel, den ich in eine Knetmasse drücke“, sagt Plagemann. (Abbildung 1).
Der Stempel „Stress“
Ein solcher Stempel zum Beispiel ist der Stress, den eine werdende Mutter während der Schwangerschaft empfindet. Unter Stress wird im Körper Cortisol ausgeschüttet. Etwa zehn Prozent des Hormons passieren die Plazentaschranke und erreichen das kindliche Gehirn. Die Auswirkungen von Cortisol auf Kinder sind sehr gut erforscht – auch deshalb, weil etwa jede zehnte Schwangere vorzeitig Wehen bekommt und die Ärzte dann Stresshormone spritzen, um die Lunge des Babys schneller heranreifen zu lassen. Der pharmakologische Stresslevel lässt sich messen und mit dem Verhalten des Kindes in Beziehung setzen.
Ein bisschen scheint zu genügen, um das Verhalten dauerhaft zu verändern: Wenn Schwangere nur an zwei Tagen Stresshormone bekamen, waren ihre Kinder noch mit acht Jahren wesentlich stressempfindlicher, zeigte Matthias Schwab, Neurologe vom Universitätsklinikum Jena, in einer noch unveröffentlichten Untersuchung. Er machte bei den entsprechenden Kindern auch häufiger ein Aufmerksamkeitsdefizitsyndrom aus: Die Betroffenen können sich dabei schlechter konzentrieren und seltener ruhig verhalten als andere Altersgenossen. Selbst der Intelligenzquotient lag niedriger. Auch eine Frühgeburt könnte solche Auffälligkeiten erklären. Schwab macht die Stresshormone verantwortlich.
Gene und Gehirn reagieren
Stress wird im Gehirn vornehmlich von Hippocampus und Hypothalamus reguliert. Ist beim Baby während der Schwangerschaft der Cortisolspiegel dauerhaft erhöht, wird dies als Normalzustand festgelegt. Die körpereigenen Stresssysteme werden so justiert, dass das Kind schneller und auch häufiger gestresst ist – was es aber auch braucht, um zur Höchstform aufzulaufen. Die Stressachse, also die Aktivierungskette innerhalb der Stresssysteme, wird hyperaktiv, erläutert Schwab. Für einen einmaligen Beziehungsstreit oder eine Auseinandersetzung auf der Arbeit hat aber bisher niemand eine solche Veränderung des Verhaltens beim Nachwuchs beobachtet. Die Wirkungen werden vielmehr bei jenen Personen festgestellt, die sich fast immer sehr gestresst und nervös fühlten.
Einen detaillierten Einblick in die Mechanismen dieser frühen Justierung der Stressempfindsamkeit geben Tierversuche von Forschern um Tracy Bale von der University of Pennsylvania School of Veterinary Medicine. Sie konnten in einer Studie zeigen, dass mütterlicher Stress die Synthese eines Enzyms namens OGT – ortho-N-Acetylglucosamintransferase - vermindert, wodurch das Gehirn ihrer Feten vor der Geburt reprogrammiert wird. OGT verändert die Übersetzung vieler Gene in Proteine und bedingt eine energetische Unterversorgung der Zellen im Hypothalamus, wie man sie auch bei Autismus und Schizophrenie beobachtet hat.
Dement durch pränatalen Stress?
Schon bei Geburt auf Stress geeicht zu sein, ist dennoch nicht per se schlecht. „Evolutiv ist das von Vorteil“, betont Schwab, „weil diese Menschen schneller auf der Hut sind und sich kaum leichtfertig in Gefahr begeben.“ Doch für die Nervenzellen ist die ständige Alarmbereitschaft auf lange Sicht ungünstig. Cortisol fördert den Zelltod, hemmt das Zufriedenheitshormon Serotonin und bedingt einen erhöhten Blutdruck. Deshalb bekommen Dauergestresste auch häufiger Schlaganfälle und haben eine kürzere Lebenserwartung.
Und damit der Nachteile nicht genug, vermutet Schwab: Weil das Stresshormon den Zelluntergang antreibt, erwartet er, dass Stress im Mutterleib den geistigen Abbau im Alter vorzeichnet. Rührt die Epidemie der Demenzen in den Industrienationen also vom Dauerstress der Schwangeren? Diesem Verdacht geht Schwab zurzeit im EU-Projekt BrainAging auf den Grund. Entsprechende Langzeituntersuchungen am Menschen fehlen noch. Doch Tierversuche deuten in diese Richtung, findet Schwab: Pränataler Stress führe zu einer vorzeitigen Alterung des Gehirns bei Mäusen und auch bei Primaten. „Wir sehen eine frühere Atrophie. Das Gehirn wird vereinfacht gesprochen runzliger.“
Nicht nur Stress, sondern sogar spezifische Emotionen wie die Angst der Mutter in der Schwangerschaft hinterlassen Spuren im Kind. Das legen nicht nur, aber vor allem die Untersuchungen der Psychologin Bea van den Bergh von der Tilburg University in Belgien nahe. Diese erhob schon 1989 anhand eines standardisierten psychologischen Tests die Angst von 86 Schwangeren zu verschiedenen Zeitpunkten. Ihr fiel auf, dass Kinder von Müttern, die zwischen der 12. und 22. Schwangerschaftswoche sehr furchtsam waren, in den ersten sieben Lebensmonaten viel schrien und besonders unregelmäßig schliefen und aßen.
In der ersten Schwangerschaftshälfte werden nahezu alle Nervenzellen im Gehirn angelegt und, so vermutet van den Bergh, das limbische System, die Stressachse und verschiedene Neurotransmittersysteme im Gehirn der Babys auf den erlebten Angstlevel hin geeicht. Zumal Angst in den grauen Zellen ähnlich verarbeitet wird wie Stress. War die Mutter sehr besorgt, produzieren die Kleinen später beim kleinsten Anlass schnell und viele Stresshormone, um auf ihren Normwert zu kommen.
Immer alarmiert
Solche Erfahrungen im Mutterleib würden sich bestimmt herauswachsen, könnte man meinen. Doch dem widersprechen van den Berghs Arbeiten. Mit acht bis neun Jahren beurteilten Lehrer und Mütter jene Kinder häufiger als besonders schwierig, unkonzentriert und rastlos, die von einer überängstlichen Frau ausgetragen wurden. Diese Mütter hatten in einem standardisierten Test zur Ermittlung der Ängstlichkeit besonders hohe Werte erzielt, weil sie beispielsweise angaben, sehr oft nervös, rastlos, besorgt, unruhig zu sein und sich vor einem Unglück fürchten würden. Dieser seelische Dauerzustand wirkte sich auf ihre Kinder nachhaltig aus. Auch als Jugendliche im Alter von vierzehn bis fünfzehn sind sie in Tests noch immer impulsiver. Etwa antworten sie schneller, aber machen mehr Fehler als andere Kinder. Auch mit knapp zwanzig Jahren blieben die Unterschiede zu van den Berghs Überraschung bestehen: „Sie sind in den kognitiven Tests nicht unbedingt schlechter. Sie sind beispielsweise kreativer und reagieren viel stärker auf Lob“, betont sie. „Aber in Settings mit wenig Reizen, etwa einer langweiligen Schulstunde, fallen sie häufig in ihrem Verhalten aus dem Rahmen. Sie können sich nicht konzentrieren. Nur unter Stress – ihrem Normalzustand - kommen sie gut klar.“
In den vergangenen Jahren konnte van den Bergh ergründen, wie die Angst der Mutter sich auf das Baby niederschlägt. Über die Maßen besorgte Frauen haben besonders wenig von einem spezifischen Enzym, dass dafür sorgt, dass das Stresshormon Cortisol abgebaut wird, ehe es die Plazenta passiert. Das Gehirn und die Gene des Ungeborenen werden deshalb besonders hohen Werten von Cortisol ausgesetzt.
Das wirkt sich auf ganz spezifische Verhaltensweisen aus. Babys ängstlicher Schwangerer reagierten etwa einer Studie zufolge auf einen harmlosen da-da-dada-Ton im Alter von neun Monaten fortwährend mit innerer Alarmbereitschaft. Gewöhnlich lernen die Säuglinge, wenn sie das Geräusch einige Male gehört haben, dass es nichts bedeutet und beachten es nicht weiter. „In einer sicheren Umwelt ist diese sensible Reaktion von Nachteil und begünstigt Angsterkrankungen und andere psychische Auffälligkeiten“, glaubt van den Bergh.
Die Kleinen reagierten in einem standardisierten Test aber auch stärker auf panische Frauenstimmen und schenkten ihnen verglichen mit heiterem Geplauder mehr Aufmerksamkeit. Sie sind also nicht nur ängstlicher, sondern filtern auch angsterzeugende Informationen viel stärker aus ihrer Umwelt. Für Kinder, die in einem Krisengebiet geboren werden, ist das von Vorteil. Sie spüren sofort, wenn Gefahr droht.
Krank gegessen
Nicht nur die emotionale Lage, auch das Essverhalten der Mutter beeinflusst das Kind, das sie austrägt. Wie stark dieser Einfluss sein kann, fiel Forschern schon vor Jahren bei der Krankheit Diabetes mellitus auf. Sie wird zwei bis drei Mal häufiger über die mütterliche Linie weitergegeben. Warum, war lange nicht klar. Heute ist die Antwort bekannt: Das Überangebot an Nahrung und Blutzucker während der Schwangerschaft macht die Stoffwechselschieflage auch beim Baby zur Norm. Gewöhnlich helfen die Hormone Leptin und Insulin die Zuckerflut zu bewältigen und vermitteln auch das Signal fürs Sattsein. Doch das Gehirn der Babys von Diabetikerinnen spricht auf diese Stoffe kaum an. Das wirkt sich zeitlebens auf ihr Essverhalten aus. Sie brauchen viele Kalorien, um ihren Hunger zu stillen.
Sogar Hinweise auf eine mögliche Suchtgefährdung durch die Ernährung der Mutter fanden Forscher – zumindest bei Tierversuchen. So berichtet die Psychiaterin Nicole Avena von der University of Florida 2013, dass Rattenweibchen, die während der Schwangerschafts- und Säugezeit viel Zucker und Fett fraßen, eher einen Wurf zur Welt brachten, der später mehr von einer Alkohollösung trank und auch schlechter von Amphetaminen lassen konnte.
Abhängig geboren?
Zucker und Alkohol sprechen im Gehirn die gleichen Belohnungssysteme an. Kinder, in deren Familien Alkoholmissbrauch vorkommt, verzehren oft auch besonders viele Süßwaren. Vierzehn Teelöffel in einem Glas Wasser sind ihnen gerade Recht – doppelt so süß wie handelsübliche Cola. Andere Kinder sind dagegen schon mit zehneinhalb Löffeln zufrieden, belegt eine Studie der amerikanischen Entwicklungsbiologin Julie Mennella aus dem Jahr 2010.
Werden im Mutterleib also schon die Weichen für eine spätere Sucht gestellt, wenn die Schwangere viel Süßes isst? Die Meinungen der Forscher darüber gehen auseinander. „Die weißen Kristalle machen süchtig“, sagt der Epidemiologe Simon Thornley vom Auckland Regional Public Health Service. Doch Avena, die die bedenklichen Befunde erhob, schreckt davor zurück, Zucker als pränatale Einstiegsdroge einzuordnen. Sie will weitere Studien abwarten.
Schwanger und nicht krank
Die Forschung zur fetalen Programmierung kann, so erhellend sie ist, leider auch einen bestehenden, unguten Trend verschärfen: die Pathologisierung der Schwangerschaft. Werdende Mütter sehen sich mit einer Fülle von Vorsorgeuntersuchungen konfrontiert und müssen so oft wie sonst nie zum Arzt. „Das trägt wenig zur Entspannung und zur Ermutigung der Frauen bei, die doch an sich am besten wissen, was ihnen guttut“, kritisiert van den Bergh. Sie hofft, dass sich Schwangere aller Entdeckungen zum Trotz weder von Spezialisten noch von populärer Ratgeberliteratur beirren lassen und auf ihr Gespür vertrauen.
Mozart etwa hört das Kleine im Bauch sowieso nicht, weil die Musik nicht bis zu ihm durchdringt, dafür den Verkehrslärm von der Hauptstraße. Aber jedes Lied, das die werdende Mutter mag und sie entspannt, tut schon deshalb gewiss auch dem Baby gut. Also Led Zeppelin, Buena Vista Social Club oder Bach – wie es ihr gefällt.
*Der Artikel ist der Webseite www.dasgehirn.info entnommen: https://redaktion.dasgehirn.info/entdecken/kindliches-gehirn/wie-die-sch... er ist dort am 1.4.2016 erschienen und steht unter einer CC-BY-NC Lizenz.
www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe
Weiterführende Links
Prof.Dr. Bea van den Bergh: https://www.tilburguniversity.edu/webwijs/show/bea.vdnbergh.htm
Impact of Prenatal Stress on brain ageing, EU-Project BrainAge: http://www.brain-age.eu/
Prof. Dr. Matthias Schwab: Leiter AG Fetale Hirnentwicklung und Programmierung von Krankheiten (Univ.Klin, Jena) http://www.neuro.uniklinikum-jena.de/Forschung/AG+Fetale+Hirnentw_-p-252...
Susanne Donner im ScienceBlog: Mikroglia: Gesundheitswächter im Gehirn. http://scienceblog.at/mikroglia-gesundheitsw%C3%A4chter-im-gehirn#.
Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt
Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führtFr, 29.07.2016 - 07:49 — Christian Körner
Das Pflanzenwachstum beruht auf dem Prozess der Photosynthese . Entgegen der weitverbreiteten Vorstellung, dass dieser Vorgang durch Trockenheit oder Kälte limitiert wird und dies die Versorgung der Pflanzen mit den, für ihr strukturelles Wachstum essentiellen Kohlehydraten begrenzt, ist das Gegenteil der Fall. Univ.Prof. Christian Körner (Botanisches Institut, Univ. Basel) zeigt hier auf, dass es die zellulären Vorgänge der Gewebebildung sind, die zuerst von einem Mangel an Wasser und Nährstoffen und von Kälte betroffen sind und damit die Rate des Wachstums bestimmen. In der freien Natur, wo Pflanzen um die meist knappen Ressourcen konkurrieren, bestimmt die Gewebebildung den Bedarf an den Produkten der Photosynthese (und deren Generierung). Dies demonstriert Körner in einer einzigartigen Langzeitstudie an einem naturbelassenen Wald: ein vermehrtes CO2-Angebot führt nicht zu einem verstärktem Wachstum der Bäume.Unsere belebte Welt basiert auf dem Element Kohlenstoff. Anders als alle anderen Elemente kann Kohlenstoff auf Grund seiner einzigartigen Chemie eine ungeheure Mannigfaltigkeit an Biomolekülen bilden und bleibt darin auch die Hauptkomponente. Dementsprechend besteht die gesamte Biomasse (bezogen auf ihr Trockengewicht) zu rund 50 % aus Kohlenstoff.
Der Kohlenstoff durchläuft einen globalen Kreislauf; für die Biosphäre sind darin zwei grundlegende Funktionen bestimmend:
- die Input-Funktion - die Aufnahme (Assimilation) von Kohlenstoff in seiner oxydierten Form CO2 aus der Luft durch die Ökosysteme der Pflanzenwelt via Photosynthese - und
- die Output Funktion, d.i. der Prozess der Atmung, über den alle Organismen CO2 an die Atmosphäre wieder abgeben (Abbildung 1):
Abbildung 1. Input von CO2 via Photosynthese und Output via Atmung sind grundlegende Funktionen im globalen Kohlenstoffkreislauf.
Die Input-Funktion (grüne Kurve in Abbildung 1) zeigt, dass die Kohlenstoffaufnahme von vorhandenem Licht und CO2 abhängt und steigt, wenn diese zunehmen, schließlich aber in eine Sättigung übergeht . Die rote Kurve gibt eine grundsätzliche Charakteristik physiologischer Vorgänge wieder, dass nämlich (bio)chemische Prozesse - die Atmung mit eingeschlossen - mit steigender Temperatur schneller werden und damit auch wieder mehr CO2 freigesetzt wird.
An die mit zunehmendem CO2 steigende Inputfunktion knüpft sich eine weitverbreitete Hoffnung, dass mehr CO2 in der Atmosphäre auch ein Mehr an Pflanzenwuchs und damit einen Vorteil für das Leben auf unserem Planeten bewirken sollte.
Wodurch wird das Pflanzenwachstum gesteuert?
Das Pflanzenwachstum nur als Funktion von Input und Output zu behandeln, ist zweifellos zu kurz gegriffen. Ob der Kohlenstoffpool in der Biosphäre steigt oder sinkt wird tatsächlich durch die Wechselwirkungen zwischen Input- und Output bestimmt und diese hängen von Umweltbedingungen und verfügbaren Ressourcen ab. Ausreichend Licht vorausgesetzt sind dies
ausreichend Wasser, adäquate Temperaturen und das Vorhandensein von Nährstoffen.
Für die Existenz von Leben sind außer Kohlenstoff ja noch 24 weitere chemische Elemente essentiell. Während Kohlenstoff und Stickstoff in der Atmosphäre theoretisch unbegrenzt für den Bedarf der Pflanzenwelt zur Verfügung stehen, ist das Vorkommen anderer Ressourcen, wie etwa das von Phosphor, Kalium, Magnesium, Mangan, Molybdän, Selen, u.a. limitiert und von der Gegend und dem jeweiligen Boden abhängig.
Pflanzenwachstum als Baustelle betrachtet
Wenn man ein Haus bauen will, braucht man natürlich Bausteine, die in einer Fabrik (ich benutze dafür den Term "Quelle") hergestellt werden, und Maurer, die das Haus bauen. Die Schnelligkeit mit welcher an der Baustelle (für die ich den Term "Senke" verwende) der Hausbau erfolgt, hängt von vielen Umständen ab: vom Arbeitseinsatz der Maurer, vom Vorhandensein benötigter Materialien, von den Wetterbedingungen, etc. - zweifellos aber kaum von der Zustellrate der Bausteine zur Baustelle. Diese erfolgt dem Baufortschritt entsprechend, nach Bedarf. Abbildung 2.
Abbildung 2. Das Wachstum einer Pflanze gleicht dem Bau eines Hauses. Ausgangsstoffe werden in der Photosynthese/Fabrik - d.i. an der Quelle – in Baumaterial (Zucker, Ziegel) umgewandelt, an die Baustelle geschafft und dort (von Biokatalysatoren, Maurern) zum Aufbau des Baumes/Hauses verwendet. Wie schnell an dieser Senke dann der Aufbau erfolgt, wird zumeist durch limitierende "Umweltbedingungen" und nur selten durch den Antransport der Baustoffe bestimmt (aus C. Körner (2012) Biologie in unserer Zeit 42:238-243)
Dass Bausteine nach Bedarf zugestellt werden, gilt ebenso für das Pflanzenwachstum, für die Produktivität im Ackerbau und insgesamt für die Produktivität der Biosphäre. Die Fabrik (Quelle) ist hier die Photosynthese, die den Rohstoff des Lebens - Zucker - herstellt und dieser wird dann in das Wachstum der Pflanze investiert. Wie schnell das Wachstum aber erfolgt, ist von der Aktivität der der teilungsfähigen Bildungsgewebe (Meristeme) und damit von der Verfügbarkeit benötigter Ressourcen abhängig. Der Zucker wird nach Bedarf über das Leitungssystem (Phloem) der Pflanze bezogen.
Ein Paradigmenwechsel
Wir alle sind mit der Vorstellung aufgewachsen, dass die Assimilation von CO2 - die Photosynthese - der entscheidende Treiber für das Pflanzenwachstum ist. (Das ist gerade so als ob wir annehmen würden, dass der Baufortschritt eines Hauses von der Produktionsrate der Baustoffe abhängt.) Die Quelle - die Aufnahme von CO2 aus der Atmosphäre - würde die Aktivitäten der Senken - der Stellen, an denen es zur Bildung neuer Zellen, zum Wachstum der Pflanze, zur Bildung neuer Wurzeln, kommt - bestimmen und die Aufnahme anderer benötigter Ressourcen regulieren. Die Versorgung mit CO2 würde also das Wachstum kontrollieren.
Genau das Gegenteil ist der Fall:
Die auf der Verfügbarkeit anderer Ressourcen basierende Aktivität des Meristems zur Gewebebildung steuert je nach Bedarf an Zucker die Photosynthese, reguliert also die Aktivität dieser Quelle. Abbildung 3.
Abbildung 3. Die Aktivität der Gewebebildung (Senke) reguliert den Bedarf an Zucker und damit die CO2-Aufnahme (C. Körner (2015) Curr.Opinion in Plant Biology 25:107-114).
Limitierende Bedingungen
Im allgemeinen wird das Pflanzenwachstum durch den Mangel an anderen Ressourcen als an CO2 begrenzt, das in der Atmosphäre ja reichlich vorhanden ist. Dies möchte ich in der Folge an den limitierenden Bedingungen Trockenheit und Kälte aufzeigen.
Betrachten wir vorerst den Wassermangel,
so kommt es bei zunehmender Trockenheit zu einer raschen Reduzierung des Wachstums und schließlich zu dessen völligem Erliegen. Die Photosynthese wird dagegen erst bei wesentlich höherem Trockenheitsstress verringert. Diese Charakteristik zeigt sich bei allen bis jetzt untersuchten Pflanzensystemen: Wassermangel äußert sich zuerst durch reduzierte Leistungsfähigkeit der Senken, d.i . der Gewebeneubildung und erst viel später in der Beschränkung der CO2-Aufnahme. Abbildung 4.
Abbildung 4. Wassermangel bremst primär das Wachstum (rote Kurven) und erst bei viel höherem Wassermangel die Photosynthese(grüne Kurven). Wassermangel ist hier auf das Gewebe (Blattwasserpotential) bezogen und nimmt nach negativen Werten hin zu. (nach Muller et al. 2011, J Exp Bot 62:1715-1729).
Für die Folgen von Wassermangel entsteht damit ein neues, völlig anderes Bild:
Nach der alten Lehrmeinung dachte man, dass Blätter bei Trockenheit ihre kleinen Poren ("Stomata") schließen, um dem Wasserverlust vorzubeugen. Dies würde aber um den Preis einer limitierten CO2-Aufnahme erfolgen -somit die Bereitstellung von Zucker durch die Photosynthese- einschränken und als Folge zu einem "Hungern" der Pflanzen führen.
Dieses Bild erweist sich nun als völlig falsch. Tatsächlich geht die Wachstumsreduktion nicht von der Quelle - der Photosynthese - aus, sondern von den Senken: die Produktion neuer Zellen (d.i. vor allem die Bildung der Zellwand aus vornehmlich Zellulose, der auf unserer Erde am häufigsten vorkommenden biochemischen Verbindung) wird stillgelegt, die empfindliche Balance zwischen dem Innendruck (Turgor) der Pflanzenzelle und der Expansion von Zellwand und Zelle gestört. Die Photosynthese läuft indes noch weiter. Es werden Kohlehydrate erzeugt, die allerdings nicht für strukturelles Wachstum eingesetzt werden können, sondern als Zucker und Stärke gespeichert werden. Der Trockenheit ausgesetzte Pflanzen enthalten also tatsächlich mehr und nicht weniger Kohlehydrate, wie die alte Vorstellung von der Hunger leidenden Pflanze glauben machte.
Auch Kälte wirkt sich primär auf die Senken aus
und führt zuerst zur Reduktion des Pflanzenwachstums. Abbildung 5. Zur Verdopplung der Zellzahl - als Maß für das Wachstum genommen - braucht es bei warmer Temperatur rund 10 Stunden, bei Abkühlung auf 10 °C sind es bereits 60 Stunden , bei 5 °C rund 120 Stunden und bei 2 °C geht die Verdopplungszeit gegen unendlich - es findet kein Wachstum mehr statt. Dagegen arbeitet die Photosynthese bereits bei 0 °C mit 30 % und bei 5 °C mit 70 % ihrer maximalen Leistung. Bei weiter steigender Temperatur erreicht die Photosynthese ein breites Maximum zwischen 10 °C und 28 °C und sinkt dann bei noch wärmeren Temperaturen wieder ab.
Dass das Wachstum bei 5 °C aufhört, dürfte für alle Pflanzen gelten, für winterhartes Getreide ebenso wie für andere an Kälte adaptierten Pflanzen und Bäume der Waldgrenze. Welche Mechanismen für diesen universellen Stopp verantwortlich gemacht werden können, ist zur Zeit noch nicht völlig verstanden (es kommen die Proteinsynthese, Energieproduktion in den Mitochondrien, Synthese von Lignin und/oder Zellulose in Betracht). Da die Photosynthese aber noch weiter arbeitet, sollte der Gehalt an niedermolekularen Kohlehydraten in den Pflanzen erwartungsgemäß steigen. Dies wird tatsächlich in der Pflanzenwelt kalter Klimazonen beobachtet.
Abbildung 5. Das Pflanzenwachstum wird durch Kälte in viel stärkerem Ausmaß beschränkt als die Photosynthese. Während bei 0 °C kein Wachstum mehr erfolgt, läuft die Photosynthese (grüne Kurve) dagegen noch mit 30 % ihrer maximalen Leistung. Wachstum (blaue Kreise) wurde an Hand der Verdopplungsrate von Kohorten von Zellen gemessen(nach Körner C (2003) Alpine Plant Life. Springer, Berlin).
Nach dem alten Paradigma würde die Photosynthese in der Kälte zum Wachstums-limitierenden Prozess. Tatsächlich reduziert Kälte die Aktivität der Senke, sodass die Rohstoffe der Photosynthese nicht mehr in die Neubildung von Geweben eingesetzt werden können.
Experimentell untersucht: Wie wirkt sich ein Mehr an CO2 auf das Ökosystem Wald aus?
Wälder speichern den überwiegenden Anteil (> 80 %) des in der Biomasse gebundenen Kohlenstoffs unserer Biosphäre. Welchen Effekt ein erhöhtes CO2-Angebot auf das Wachstum der Bäume hat , wurde bisher im wesentlichen nur unter "gestörten Bedingungen untersucht: auf jungen Böden mit ausreichend Nährstoffen, an jungen Bäumen, die oft ohne Konkurrenz zu Nachbarn aufwuchsen. Unter diesen Bedingungen- einem nicht limitierendem Angebot an Ressourcen - kann CO2 einen stimulierenden Effekt von auf das Wachstum haben.
Welchen Effekt hat ein erhöhtes CO2-Angebot aber unter realen Wald-Bedingungen?
In einem bis jetzt einzigartigem Versuchsdesign ("Swiss Canopy Crane Project") haben wir in einem naturbelassenen, artenreichen Mischwald bei Basel das CO2 der Luft rund um die Wipfel von 110 Jahre alten Bäumen auf einen Stand angereichert, der dem voraussichtlichen CO2-Pegel des Jahres 2080 entspricht (530 ppm). Die ausgewählten Bäume waren bis zu 40 m hoch und die CO2 Anreicherung der Luft erfolgte über poröse, feine Schläuche, die von einem 50 m hohen Baukran aus in die Kronen der Bäume (rund 1 km Schlauch pro Baum) gelegt wurden. Abbildung 6.
Das stabile 13C-Isotop als Indikator
Das Experiment lief über 8 Jahre, in denen wir täglich 2 Tonnen CO2 verströmten. Es handelte sich dabei um ein kommerziell erhältliches, auf Lebensmitteltauglichkeit gereinigtes Abfallprodukt der Industrie. Eine Besonderheit dieses CO2 liegt darin, dass es im Vergleich zum atmosphärischen CO2 ein unterschiedliches Verhältnis der beiden natürlich vorkommenden, stabilen Isotope des Kohlenstoffs – 12C und 13C - aufweist: kommen in der Atmosphäre 13C : 12C im Verhältnis von rund 1 : 99 vor, so enthält das aus fossilen Pflanzenresten (Erdöl, Kohle) stammende CO2 Gas etwas weniger 13C. Nach Aufnahme des angereicherten CO2-Gemisches über die Blätter lässt sich die veränderte Isotopensignatur in den pflanzlichen Geweben mittels Massenspektrometrie bestimmen. Damit kann nicht nur bewiesen werden, dass das "neue" CO2 assimiliert wird, sondern, dass - und auch wie rasch - das 13C -Signal tatsächlich in alle Teile des Baumes sickert, in den hölzernen Stamm (Abbildung 6), ebenso wie in die Wurzeln. Der gesamte Weg von der Photosynthese bis zur Verteilung ihrer Produkte und schließlich der Freisetzung im Boden kann so verfolgt werden.
Abbildung 6. Das Swiss Canopy Crane Project: Experimentelle Anreicherung von CO2 in den Kronen hoher Bäume in einem naturbelassenen Mischwald. Oben: Schematische Versuchsanordnung. Die Besprühung mit CO2 erfolgt über poröse Schläuche, die von einem hohen Kran aus in die Kronen der Bäume verlegt wurden, Unten links: Nach Beginn der Besprühung (im Jahr 2000) sinkt der relative 13C-Gehalt in in den Baumringen auf einen konstanten Level, um nach Ende der Behandlung (2008) wieder auf den Anfangswert zu steigen. Unten rechts: Die Dicke der Jahresringe ist unabhängig davon ob Bäume mit CO2 besprüht wurden (grün) oder unbehandelt blieben (blau). (C. Körner et al. 2005 Science 309:1360-1362 und unveröff Daten)
Die Produktivität der Bäume
– von Laubbäumen ebenso wie von Nadelbäumen – wurde mittels mehrerer Methoden bestimmt: u.a. durch Quantifizierung des jeweiligen gesamten Abfalls – Laub oder Nadeln, Zapfen, etc. – oder auch durch Messung der Breite der Jahresringe (Abbildung 6). Weder das Ausmaß des Abfalls noch die Breite der Jahresringe ließen einen Effekt der CO2–Anreicherung auf das Wachstum erkennen . Wir haben solche Versuche auch in anderen Lebensräumen, so zum Beispiel in alpinen Rasen durchgeführt - mit dem gleichen Ergebnis.
Es gibt also keinen Hinweis darauf, dass in naturbelassenen Ökosystemen CO2 in seinem gegenwärtigen Pegel eine für das Wachstum limitierende Ressource darstellt. Ein Mehr an atmosphärischem CO2 wirkt sich daher nicht wie ein Dünger auf das Pflanzenwachstum aus.
Austausch von Kohlenstoff zwischen den Bäumen
Innerhalb von 3 Monaten nachdem wir die CO2-Begasung der Baumkronen begonnen hatten, war das 13C-Signal bereits in den im Umfeld wachsenden Pilzen angelangt. Es war über die feinen Wurzeln der besprühten Bäume dorthin gelangt. Ein völlig unerwartetes Ergebnis war aber, dass sich das Signal auch in den Wurzeln der umliegenden, unbehandelten Bäume ausbreitete. Es hatte offensichtlich den Weg über die verzweigten Myzelien der in Symbiose lebenden Mycorrhizapilze - Täublinge, Schleierlinge, Milchlinge und Ritterlinge - genommen. Rund 40 % der Photosyntheseprodukte in den Wurzeln eines Baums waren so in das Wurzelgeflecht des Nachbarn übergetreten (Klein et al. 2016, Science 352:342-344).
Dies eröffnet eine neue Dimension in dem komplexen Ökosystem Wald: Bäume konkurrieren nicht nur um Licht, Wasser und andere Ressourcen, sie treiben auch ausgedehnten Handel von Baum zu Baum mit den Produkten der Photosynthese. In Hinblick auf den Kohlenstoffhaushalt – Input versus Output – kann ein Baum also nicht mehr als unabhängiges Einzelwesen behandelt werden.
Fazit
Der Kohlenstoffkreislauf wird vom Nährstoffkreislauf und anderen das Pflanzenwachstum begrenzende Bedingungen gesteuert. Die am meisten mangelnde Ressource und die am stärksten limitierenden Umweltbedingungen kontrollieren primär die Prozesse der Gewebeneubildung und diese wiederum bestimmen den Bedarf an Photosyntheseprodukten und damit die Assimilation von CO2.
Erhöhtes CO2 kann das Pflanzenwachstum nur dann steigern, wenn auch ausreichend Nährstoffe zur Verfügung stehen. Wie in Untersuchungen über die Auswirkungen von angereichertem CO2 auf das Pflanzenwachstum gezeigt wurde, ist dies in naturbelassenen Wäldern kaum der Fall. Dass erhöhtes CO2 in der Atmosphäre zu einem nachhaltigen Anstieg der Kohlenstoffspeicherung in der Biomasse führt, ist demnach unwahrscheinlich .
Weiterführende Links
Webseite von Christian Körner: https://plantecology.unibas.ch/koerner/index.shtml
Der Wald in einer CO2-reichen Welt http://www.waldwissen.net/wald/klima/wandel_co2/wsl_wald_co2/index_DE (abgerufen am 19.7.2016)
Interview mit Christian Körner (28.10.2014) http://www.basellandschaftlichezeitung.ch/basel/basel-stadt/die-pflanzen... (abgerufen am 19.7.2016)
Kohlenstoffhandel von Baum zu Baum (15.4.2016) http://www.arboristik.de/baumpflege_wissen_15042016.html (abgerufen am 19.7.2016)
Swiss Plant Science Web: Ecosystem function and biodiversity under global change. https://swissplantscienceweb.ch/nc/research/home/portfolio/koerner/ (abgerufen am 19.7.2016)
Videos (in Englisch)
Christian Körner: On Plants and Carbon. Special Lecture in commemoration of Professor Kurt Komarek (6.6.2016). 43:12 min. https://www.youtube.com/watch?v=i56VcHoBvjE
Christian Körner: Is the biosphere carbon limited? (23.6.2015). 34:14 min. https://www.youtube.com/watch?v=Cav2czzjDFQ
Christian Körner: What carbon cyclists can learn from bankers (BES Science Slam 2015). 10:37 min. British Ecological Society https://www.youtube.com/watch?v=O5kQHw23VbY
Artikel zum Themenkomplex Kohlenstoffkreislauf - Kohlenstoffspeicherung im Scienceblog
Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb
Walter Kutschera, 22.01.2016: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän
Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher
Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen
Knut Ehlers, 01.04.2016: Der Boden - ein unsichtbares Ökosystem
Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel
Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um
Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)
Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)
Antje Boetius, 13.05.2016: Mikrobiome extremer Tiefsee-Lebensräume
Christa Schleper, 19.06.2015: Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea
Gerhard Herndl, 21.10.2014: Das mikrobielle Leben der Tiefsee
Gottfried Schatz, 27.09.2012: Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt
Gottfried Schatz, 23.02.2012: Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte
Kann Palmöl nachhaltig produziert werden?
Kann Palmöl nachhaltig produziert werden?Fr, 22.07.2016 - 06:06 — IIASA
Eine neue Studie [1] zeigt auf wo und in welchem Umfang Palmölplantagen ausgeweitet werden können, ohne dass eine weitere Entwaldung von naturbelassenen, kohlenstoffreichen tropischen Wäldern erfolgt*
Laut einer eben im Journal "Global Environmental Change" erschienenen Untersuchung [1] könnten die Landflächen zur Produktion von Palmöl nahezu verdoppelt werden, ohne dass dafür geschützte oder sehr artenreiche Wälder geopfert werden müssten. Zum ersten Mal wird in dieser Studie eine globale Karte des für die Palmölproduktion geeigneten Landes erstellt, wobei gleichzeitig auch Auswirkungen auf Umwelt und Klima berücksichtigt werden. (Abbildung 1)
"Es gibt Raum, um die Palmölproduktion auszuweiten und dies auch in nachhaltiger Weise zu tun" sagt der Leiter dieser Studie, der IIASA-Forscher Johannes Pirker.
Die Palmölproduktion ist enorm angestiegen: von 6 Millionen Hektar Plantagen im Jahr 1990 auf 16 Millionen Hektar im Jahr 2010 - eine Fläche, die insgesamt der Größe Uruguays entspricht. Das Öl, das für's Kochen und als Nahrungsmittelzusatz verwendet wird, macht rund 30 % aller weltweit verbrauchten Pflanzenöle aus.
Abbildung 1. Ölpalmenplantage in Malaysia und Ölfrüchtein Kamerun (Bild:Links Wikipedia, public domain; rechts: credit IIASA, Aline Soterroni)
Palmöl wird kontroversiell gesehen, insbesondere, weil seine gesteigerte Erzeugung ja auf Kosten artenreicher tropischer Wälder erfolgte, die geschlägert wurden, um Raum für neue Plantagen zu schaffen. Andererseits hat der Anbau von Palmen aber Millionen Menschen in Indonesien und Malaysia - den Hauptproduzenten von Palmöl - aus der Armut herausgeführt. Ein bedeutender Teil der Öl-Produzenten sind ja Kleinbauern, deren primäres Einkommen von dieser Ware herrührt. Palmöl ist in Asien die Nummer 1 beim Kochen und mit der dort steigenden Bevölkerungszahl wird auch der Bedarf an Palmöl weiter zunehmen. Viele Entwicklungsländer trachten daher danach ihre Ölproduktion auszuweiten. Allerdings war bis jetzt nicht klar, wie viel Land dafür zur Verfügung steht. In der neuen Untersuchung [1] haben die Forscher nun eine globale Karte geschaffen - basierend auf Temperaturen, Niederschlägen, Geländeeigenschaften und Bodentypen -, die anzeigt, wodie Bedingungen für Palmölplantagen geeignet sind. Von einer rein biophysikalischen Betrachtungsweise aus gesehen fanden sie, dass prinzipiell nahezu 1,37 Milliarden Hektar Landfläche für Ölpalmenplantagen in Frage kommen, es sind Flächen in Afrika, Zentral- und Südamerika und Asien (Abbildung 2: oben).
Von dieser Gesamtfläche zogen sie dann die Gebiete ab, die bereits für andere Zwecke genutzt werden wie beispielsweise für Landwirtschaft, Wohnsitze und Städte. Dabei stützten sie sich auf die "hybrid land cover maps", die IIASA unter Zuhilfenahme von Crowdsourced Daten entwickelte.
Abbildung 2. Geeignete Flächen für Palmölplantagen und Ausschnitte von drei Regionen: Amazonas, Zentralafrikanische Küste und Borneo. Oben: Gesamtflächen.Unten: nach Abzug bereits genutzter oder geschützter Gebiete, unter Berücksichtigung von Nachhaltigkeits-Kriterien. (Bilder aus [1], cc-license).
Schließlich schlossen die Forscher gesetzlich geschützte Flächen aus und ebenso Wälder, die hinsichtlich ihres Artenreichtums oder ihrer Kohlenstoffspeicherung als besonders schätzenswert schienen. Nach Abzug all dieser Flächen enthielt die Karte nun 19,3 Millionen Hektar geeignetes Land, das für eine zukünftige Ölproduktion zur Verfügung stehen könnte (Abbildung 2: unten). Das ist etwas mehr als die gegenwärtige Gesamtfläche – 18,1 Millionen Hektar – der Ölproduktion. Diese Karte kann heruntergeladen werden. Allerdings ist rund die Hälfte der neuen Flächen mehr als zehn Stunden Fahrt von der nächsten Stadt entfernt, sodass die Ölproduktion ökonomisch unrentabel erscheint.
"Diese Analyse wird sich gut eignen, um Landflächen für künftige Ölpalmenplantagen zu identifizieren und dies unter Berücksichtigung einiger grundlegender Umweltstandards. Die Pläne sind den Akteuren zugänglich und diese können sie mit lokalen Informationen verbinden, sodass es zu einer nachhaltigen Entwicklung kommt", meint Aline Mosnier, die an dieser Studie mitgearbeitet hat. Eine wachsende Aufmerksamkeit richtet sich auf das, wegen der Palmölproduktion erfolgende, Roden von Wäldern. Viele Firmen beginnen daher eine Zertifizierung der Nachhaltigkeit ihrer Lieferungen anzustreben.
Verbraucher und Firmen sollten nach Meinung der Forscher aber noch einen Schritt weiter gehen. Pirker sagt: "Es ist ein Irrtum, Palmöl verbieten zu wollen. Was wir statt dessen machen sollten, ist auf die Herkunft des Öls zu schauen: wer ist der Produzent und wo wird es produziert. Eine Zertifizierung ist der erste Schritt in die richtige Richtung. Firmen, die sich der Nachhaltigkeit verpflichten, sollten genauer auf ihre Lieferanten sehen, und Konsumenten können dies von ihnen auch verlangen."
[1] Pirker, J., Mosnier, A., Kraxner, F., Havlik, P. and Obersteiner, M. (2016) What are the limits to oil palm expansion? Global Environmental Change 40, 73-81 doi:10.1016/j.gloenvcha.2016.06.007
*Der Blogartikel basiert auf der IIASA-Presseaussendung “Can Palm Oil be Sustainable?“ vom 21. Juli 2016. (http://www.iiasa.ac.at/web/home/about/news/160722-Palm_Oil.html ) . Diese wurde von der Redaktion aus dem Englischen übersetz, geringfügig für den Blog adaptiert und mit Abbildungen versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.
Weiterführende Links
Homepage IIASA: http://www.iiasa.ac.at/
Artikel von IIASA im ScienceBlog
- 11.03.2016: Saubere Energie könnte globale Wasserressourcen gefährden
- 08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung
- 25.09.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima
- 07.08.2015: Ab wann ist man wirklich alt?
- 10.07.2015: Die großen globalen Probleme der Menschheit
Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis
Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das GedächtnisFr, 15.07.2016 - 11:01 — Francis S. Collins
Bewegung ist für einen starken und gesunden Körper wichtig aber offensichtlich ebenso für einen starken gesunden Geist. Francis Collins, Direktor der US National Institutes of Health, fasst hier eine neue Studie zusammen, die überzeugend demonstriert, dass eine Muskel - Hirn Verbindung existiert: während des körperlichen Trainings geben Muskelzellen das Enzym Cathepsin B in die Blutbahn ab, das über die Blut-Hirnschranke ins Gehirn gelangt und regenerierend wirkt.*
Wir alle wissen es: Bewegung ist wichtig für einen starken und gesunden Körper wichtig. Weniger beachtet wird aber, dass körperliche Aktivität anscheinend auch für einen starken gesunden Geist wichtig ist, dass sie Gedächtnis und Lernen stärkt und dabei vielleicht auch ein altersbedingtes Nachlassen der kognitiven Fähigkeiten hinauszögert. Wie kann man sich das vorstellen?
Forscher finden immer mehr Bestätigung dafür, dass Muskelzellen während des Trainings Proteine und andere Faktoren (sogenannte Myokine; Anm Red,) in die Blutbahn sezernieren, die regenerierend auf das Gehirn wirken.
Eine aktuelle NIH-unterstützte Untersuchung hat nach derartigen Proteinen gesucht, die von Muskelzellen sezerniert und ins Hirn transportiert werden können. Dabei wurde das Enzym Cathepsin B identifiziert, als ein neuer Kandidat, der helfen kann die Verbindung Muskel-Hirn zu erforschen. Die Ergebnisse der von Hyo Youl Moon und Henriette van Praag (NIH’s National Institute on Aging) geleiteten Untersuchung sind eben im Journal Cell Metabolism erschienen [1].
Die Suche nach einem Training-induzierten Muskelfaktor
Das Forscherteam begann mit Muskelzellen in der Laborschale, die man mit einer AICAR genannten chemischen Verbindung behandelte. AICAR (ein Analogon des Adenosinmonophosphat mit Doping-Eigenschaften; Anm. Red.) imitiert die Wirkung, die ein Training auf Muskeln hat und kann bei untrainierten Mäusen die Ausdauer beim Laufen erhöhen. AICAR verbessert auch die Gehirnfunktion bei Mäusen in ähnlicher Weise wie ein Training.
Die Suche führte zu einer kurzen Liste, die potentiell wichtige Proteine enthielt. Diese Liste wurde mit bereits existierenden Daten zu sezernierten Proteinen und veränderten Genexpressionen verglichen, wie sie nach Training oder AICAR-Behandlung erhalten wurden. Dabei stach ein Protein hervor: Cathepsin B. Dies ist kleines Enzym (eine sogenannte Protease, Anm. Red.), das primär in der Zelle eine Rolle im Abbau und Umsatz von Proteinen und Peptiden spielt. Cathepsin B wird aber auch von einigen Zellen sezerniert - welche Wirkung es im extrazellulären Raum zeigt, ist nur wenig bekannt.
Cathepsin B steigt in trainierten Mäusen…
Um mehr über Cathepsin B Im Zusammenhang mit körperlichem Training zu erfahren, gingen die Forscher zu Tierversuchen an Mäusen über. Sie sahen, dass die Konzentrationen von Cathepsin B im Blut anstiegen, wenn die Tiere regelmäßig 2 Wochen oder länger im Laufrad rannten. Sie zeigten auch, dass dieses Protein im Muskel zunahm, nicht aber in anderen Organen und Geweben. In Summe ließen die Ergebnisse darauf schließen, dass das Lauftraining spezifisch zur Produktion von Cathepsin B im Muskel führte und zu dessen Abgabe in den Blutstrom.
Die Forscher setzten die Mausversuche fort. In einem nächsten Schritt untersuchten sie genmanipulierte (knockout) Mäuse, die unfähig waren Cathepsin B zu produzieren. Während normale erwachsene Mäuse nach dem Training im Laufrad neue Neuronen im Gyrus dentatus, einem Teil des Hippocampus, der mit dem Erinnerungsvermögen verknüpft ist, bildeten (Abbildung), gab es bei den genmanipulierten Tieren nach dem Training keine Neurogenese. Das Training erbrachte auch keine Verbesserung der räumlichen Orientierung und der Fähigkeit in einer für Mäuse typischen Weise aus einem Labyrinth herauszufinden.
Abbildung. Erwachsene Mäuse bilden nach dem Training im Laufrad neue Neuronen (grün) im Gyrus dentatus (Credit: Henriette van Praag and Linda Kitabayashi)
Wurden die Hirnzellen direkt mit Cathepsin B behandelt, so reagierten sie mit molekularen Änderungen, verbunden mit der Bildung neuer Neuronen.
…und gelangt aus dem Blut ins Gehirn
Damit Cathepsin B Vorgänge im Gehirn beeinflussen kann, muss es aus dem Blut ins Hirn gelangen. Es muss die Blut-Hirnschranke überwinden, eine Barriere, die den Eintritt von Proteinen blockiert, die zu groß sind oder eine falsche Biochemie haben. Die Forscher injizierten Cathepsin B in Mäuse, die selbst kein Cathepsin B produzieren konnten. Innerhalb von 15 Minuten sahen sie, dass das Protein über die Blut-Hirnschranke in das Gehirn gelangt war. Die Wirkung von Cathepsin B auf Hirnzellen war aus Genexpressionsdaten ersichtlich, die die Bildung neuer Neuronen anzeigte.
Cathepsin B steigt in trainierten Personen
Um herauszufinden ob die Ergebnisse auch jenseits von in vitro- und Mausversuchen Gültigkeit haben, folgten Untersuchungen an Menschen. Es wurden nun Cathepsin B-Spiegel von Personen nach 4 Monaten regelmäßigem Training mit solchen von untrainierten Personen verglichen. Diese Studie lief in Deutschland und 40 junge (19 - 34 Jahre) gesunde Erwachsene nahmen daran teil; etwa gleich viele Frauen und Männer. . Tatsächlich demonstrierte diese Studie einen signifikanten Anstieg des Cathepsin B im Blut bei regelmäßigem Training. Man fand auch eine Korrelation zwischen dem Anstieg des Cathepsin B und der Fähigkeit der Studienteilnehmer sich an eine komplexe Zusammenstellung von Linien und geometrischen Formen zu erinnern und diese genau nachzuzeichnen - ein Test der häufig für das visuelle Erinnerungsvermögen verwendet wird.
Ausblick
Die beschriebenen Entdeckungen zu Cathepsin B sind durchaus überraschend. Bis jetzt wurden erhöhte Cathepsin B-Werte mit einer weiten Palette von Krankheiten - von Krebs bis hin zur Epilepsie - in Verbindung gebracht. Es gibt auch widersprüchliche Befunde zur Rolle von Cathepsin B in der Entwicklung der Alzheimer-Krankheit. Arzneimittel, die Cathepsin B blockieren, wurden neben vielen anderen Defekten zur Behandlung von Schädel-Hirn Traumata vorgeschlagen.
Dennoch: Substanzen, die in Mausmodellen der Alzheimerkrankheit Cathepsin B erhöhen, haben sich als neuroprotektiv erwiesen . Dies erscheint auch in Einklang mit Tierversuchsdaten, die zeigen, dass körperliche Aktivität Alzheimer verhindern oder den Ausbruch verzögern kann.
Zweifellos sind viele Fragen zur Rolle von Cathepsin B im Gehirn und im restlichen Körper offen. Wenige, frühere Studien haben sich mit der Funktion dieses Proteins in Personen befasst, die im allgemeinen gesund waren. Die Forscher der aktuellen Studie hoffen kontinuierlich fortzusetzen, zu verstehen, wie Cathepsin B seinen Weg ins Gehirn findet und, dort angelangt, die Entwicklung neuer Nervenzellen beeinflusst. Was immer dann herauskommen mag, eines ist sicher:
Es zahlt sich aus körperlich aktiv zu sein!
[1] Running-induced systemic cathepsin B secretion is associated with memory function. Moon HY, Becke A, Berron D, Becker B, Sah N, Benoni G, Janke E, Lubejko ST, Greig NH, Mattison JA, Duzel E, van Praag H. Cell Metabolism. 2016 June 23. [Epub ahead of print]
* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Exercise Releases Brain-Healthy Protein" zuerst (am. 28. Juni 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/06/28/exercise-releases-brain-healthy... Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).
Mit Ausnahme der Veröffentlichung von HY Moon et al., ([1], s..)sind keine weiteren, im Original vorhandenen, Literaturzitate angegeben. Diese können dort nachgesehen und auf Verlangen zugesandt werden.
Weiterführende Links
National Institutes of Health (NIH). https://www.nih.gov/
Francis Collins: Creative Minds: The Muscle-Brain Connection https://directorsblog.nih.gov/2014/09/23/creative-minds-the-muscle-brain...
Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen
Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende MikroorganismenFr, 08.07.2016 - 13:58 — Tim Lämmermann
Wenn Krankheitserreger in den Körper eindringen, vermitteln Zellen der angeborenen Immunantwort eine schnelle Abwehrreaktion, um schädliche Mikroorganismen zu eliminieren und unsere Gewebe zu schützen. Der Immunologe Tim Lämmermann (Forschungsgruppenleiter am Max-Planck Institut für Immunbiologie und Epigenetik) untersucht, wie verschiedene Immunzellen ihr Verhalten am Ort einer Entzündung aufeinander abstimmen, um eine optimale Immunantwort zu gewährleisten. Mittels spezieller Mikroskopie konnten bereits diejenigen Signale entschlüsselt werden, die Fresszellen zu großen Schwärmen zusammenschließen lassen, um Erreger im infizierten Gewebe gemeinsam zu attackieren.*
Ein Verbund aus Wächter- und Fresszellen als angeborener Immunschutz
In unserem täglichen Leben begegnen wir einer Vielfalt von Bakterien, Viren, Pilzen und anderen Mikroorganismen. Weil uns einige davon schädlich werden können, hat der menschliche Körper zu seinem Schutz eine mehrschichtige Immunabwehr entwickelt.
- Als erste Verteidigungslinie verhindern natürliche Körperbarrieren, zum Beispiel die Haut und Schleimhäute, ein einfaches Eindringen von Erregern in unseren Körper.
- Werden diese Barrieren durchbrochen, beispielsweise durch Verletzungen, versuchen Zellen der angeborenen Immunabwehr, krankheitserregende Eindringlinge abzufangen und diese zu eliminieren. Dabei kooperieren mehrere Zelltypen, die sich durch unterschiedliche Fähigkeiten auszeichnen, um gemeinsam das Gewebe zu schützen (Abbildung 1).
Abbildung 1: Mehrere verschiedene Zelltypen der angeborenen Immunantwort (gelb, blau, rot) stimmen sich am Ort einer Entzündung (hier: Fettzellen, grau) ab, um mögliche Eindringlinge gemeinsam zu attackieren. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann
Um Erreger schnell in unserem Körper aufzuspüren, sind bereits mehrere Arten von Wächter- und Fresszellen - Makrophagen, Dendritische Zellen, Mastzellen - in den Geweben unserer Organe verteilt. Weitere Typen von Fresszellen - neutrophile Granulozyten und Monozyten - zirkulieren ständig durch die Blutgefäße und patrouillieren durch unseren gesamten Körper. Sie verlassen die Gefäße nur, wenn im Laufe einer Entzündung oder Infektion die gewebsständigen Zellen nach ihrer Hilfe und Unterstützung rufen. Die Prozesse der angeborenen Immunantwort sind schnell und richten sich unspezifisch gegen Mikroorganismen aller Art. Ziel dabei ist es, binnen Stunden eine mögliche Verbreitung von schädlichen Erregern zu unterbinden. Gleichzeitig stößt das angeborene Immunsystem die Reaktionen des adaptiven Immunsystems - T und B Lymphozyten - an, die dann über den Zeitraum von mehreren Tagen eine spezifische Immunantwort auf einen einzelnen Erreger anpassen.
Auf der Basis jahrzehntelanger Forschung sind mittlerweile die verschiedenen Typen von Immunzellen und deren spezielle Funktionen gut charakterisiert. Ebenso sind viele der immunaktivierenden Substanzen und Signalstoffe des angeborenen Immunsystems bekannt. Allerdings versteht man bisher nur bedingt, wie diese zusammenspielen, um das Verhalten von verschiedenen Zelltypen in der Komplexität eines entzündeten Gewebes zu koordinieren. Untersucht werden daher jetzt diejenigen Voraussetzungen, die Immunzellen benötigen, damit sie sich in entzündeten und infizierten Geweben orientieren und fortbewegen können. Des Weiteren studieren die Wissenschaftlerinnen und Wissenschaftler, wie einzelne Immunzellen miteinander kommunizieren, um zusammen eine optimale Immunantwort zu gewährleisten. Die Forscher nutzen dazu eine spezielle Methode, die sogenannte Zwei-Photonen-Mikroskopie, die es erlaubt, das Verhalten von Immunzellen am Ort einer realen Entzündung oder Infektion in Echtzeit zu beobachten. Basierend auf diesen Erkenntnissen werden Methoden entwickelt, um das komplexe Milieu einer Entzündung und dessen Einfluss auf die Dynamiken von Immunzellen in der Zellkulturschale nachzustellen. Aus den daraus resultierenden Ergebnissen erhoffen die Wissenschaftler die Identifizierung von Molekülen, die das Verhalten von angeborenen Immunzellen regulieren, was wiederum die Erkennung potenzieller therapeutischer Angriffspunkte für die Beeinflussung von entzündlichen Zuständen, Infektionen und überschießenden Immunreaktionen mit sich ziehen wird.
Neutrophile Granulozyten bekämpfen Eindringlinge im Schwarm
Einer der Forschungsschwerpunkte im Labor liegt auf der Betrachtung des Wanderungsverhaltens neutrophiler Granulozyten, kurz Neutrophile genannt, einer speziellen Art von Fresszellen, die besonders für die Bekämpfung von Bakterien und Pilzen wichtig sind. Neutrophile werden im Knochenmark gebildet und mit dem Blutstrom im Körper verteilt. Am Ort einer lokalen Entzündung oder Infektion treten sie aus den Gefäßen und gehen dann im Gewebe auf die Jagd nach möglichen Erregern. Dort finden sich große Schwärme dieser Fresszellen zusammen, die gemeinsam die Eindringlinge bekämpfen ([1]; Abbildung 2).
Abbildung 2: Echtzeit-Aufnahmen aus einem entzündeten Gewebe mittels Zwei-Photonen-Mikroskopie. Spezielle Fresszellen der angeborenen Immunantwort, sogenannte Neutrophile (rot), bilden am Ort einer lokalen Hautwunde (Kollagenfasern des Bindegewebes, grau) innerhalb von Minuten große Schwärme. Auf der rechten Seite sind die Bewegungsverläufe der einzelnen Zellen dargestellt. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann
Wie sich Neutrophile im Gewebe orientieren und diese imposanten Zell-Schwärme bilden, war lange Zeit unbekannt. Mittels Zwei-Photonen-Mikroskopie gelang es Wissenschaftlern des Lämmermann-Labors in Zusammenarbeit mit Kollegen aus den National Institutes of Health (NIH, USA), die molekularen Grundlagen dieses Schwarmverhaltens zu entschlüsseln. Nach diesen Ergebnissen sind mehrere verschiedene Moleküle an der Zusammenballung zu einem Schwarm beteiligt [2]:
Eine Schlüsselrolle kommt hierbei dem Lipid Leukotrien B4, kurz LTB4, zu. Bei LTB4 handelt es sich um einen Botenstoff, der Entzündungsreaktionen des Körpers einleitet und aufrechterhält. Wie die Forscher beweisen konnten, schütten Neutrophile selbst das LTB4 aus, das wiederum von weiteren Neutrophilen erkannt wird und ihnen das Signal gibt, sich dem Schwarm anzuschließen. Damit wiesen die Forscher erstmals nach, dass Neutrophile in der Tat miteinander kommunizieren können.
Neutrophile besitzen in ihrem Zellinneren Substanzen, die für Mikroorganismen schädigend sind und sie töten können. Die Wissenschaftler vermuten, dass die Zusammenballung zu einem Schwarm wahrscheinlich eine sehr hohe lokale Konzentration der antimikrobiellen Wirkstoffe ermöglicht und somit der Verbreitung von Erregern erfolgreich entgegenwirkt. Kommt es jedoch zu einer unkontrollierten Ausschüttung dieser sehr reaktiven Substanzen, so kann auch das umliegende Gewebe einen Schaden davon tragen. Solch überschießende Antworten von Neutrophilen können am Ende negative Folgen für einen Organismus haben und einen Nährboden für chronische Entzündungen oder nicht-heilende Wunden bieten.
Ausblick
In weiteren Arbeiten wollen wir nun herausfinden, wie genau sich die Neutrophilen-Schwärme wieder auflösen und nachfolgend sich die Entzündungsstelle regeneriert. Von diesen Arbeiten erhoffen wir neue grundlegende Erkenntnisse über diejenigen molekularen Prozesse der angeborenen Immunantwort, die eine optimale Balance zwischen Schutz vor Erregern und unerwünschten Gewebeschäden gewährleisten.
[1] Lämmermann, T. In the eye of the neutrophil swarm – navigation signals that bring neutrophils together in inflamed and infected tissues. Journal of Leukocyte Biology (ePub ahead of print: pii:jlb.1MR0915-403)
[2] Lämmermann, T.; Afonso, P.V.; Angermann, B.R.; Wang, J.M.; Kastenmüller, W.; Parent, C.A.; Germain, R.N. Neutrophil swarms require LTB4 and integrins at sites of cell death in vivo. Nature 498, 371-375 (2013). DOI: 10.1038/nature12175
* Der unter dem Titel "Im Rampenlicht: Zellen der angeborenen Immunantwort erstrahlen in Freiburg" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9907852/MPIIB_JB_20161?c=10583665) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.
Weiterführende Links
Max-Planck Institut für Immunbiologie und Epigenetik: http://www.ie-freiburg.mpg.de/de
Tim Lämmermann: Infektion und Entzündung: Wie Immunzellen ihren Weg zur Wunde finden. Video 36: 29 min. (Standard-YouTube-Lizenz)
Unspezifische Immunabwehr - Immunsystem. Video 4:47 min (2015). (Standard-YouTube-Lizenz)
T. Boehm & J. Swann: Evolution der Immunsysteme der Wirbeltiere.
Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum
Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt CarnuntumFr, 01.07.2016 - 06:50 — Wolfgang Neubauer
Was verbirgt sich unter dem Boden auf dem wir leben? Welche Spuren haben unsere fernen Vorfahren dort hinterlassen? Modernste naturwissenschaftlich-technologische Methoden - Fernerkundungsverfahren aus der Luft und geophysikalische Verfahren am Boden - revolutionieren die Archäologie, ermöglichen erstmals große Areale im Untergrund systematisch und zerstörungsfrei zu untersuchen und abzubilden. Der Archäologe, Mathematiker und Computerwissenschafter Wolfgang Neubauer ( Direktor des neu gegründeten Ludwig Boltzmann Instituts für Archäologische Prospektion* und Virtuelle Archäologie (LBI ArchPro)) steht an der Spitze eines internationalen Teams, das derartige Verfahren entwickelt und damit die Grundlagen für eine effiziente Dokumentation gesamter archäologischer Landschaften erstellt. Eine umfassende Bestandsaufnahme Carnuntums, der größten archäologischen Landschaft Österreichs, hat bereits zu sensationellen Entdeckungen geführt.
Das römische Carnuntum ist die größte archäologische Landschaft Österreichs und ein bedeutender Teil des europäischen Kulturerbes. Beinahe die gesamte römische Stadt, die einst über 10 Quadratkilometer bedeckte, ist bis heute unter den Feldern und Weingärten der Orte Petronell-Carnuntum und Bad Deutsch-Altenburg, 40 km östlich von Wien, in der Erde erhalten (Abbildung 1).
Der bis heute vergleichsweise gute Erhaltungszustand der antiken Bodendenkmäler und die großflächige Ausdehnung von Carnuntum in einer sich dynamisch entwickelnden Region führen immer wieder zu Spannungsfeldern zwischen Denkmalschutz und notwendiger gesellschaftlicher und wirtschaftlicher Entwicklung. Insbesondere die natürliche Erosion, beschleunigt durch modernen Ackerbau und Flurbereinigungen, aber auch Rohstoffabbau, Straßen- und Eisenbahnbau, die Errichtung von Industriearealen und Windparks, Siedlungserweiterungen und der Ausbau der modernen Infrastruktur bedrohen das im Boden verborgene kulturelle Erbe.
Wurden in der Vergangenheit großflächige archäologische Ausgrabungen vorgenommen, um den Gesamtplan der römischen Stadt zu rekonstruieren und die archäologische Landschaft Carnuntum zu erkunden, nutzt die moderne Archäologie in immer höherem Ausmaß zerstörungsfreie, nicht invasive Methoden zur Auffindung und Kartierung des im Boden verborgenen archäologischen Erbes (Abbildung 1).
Abbildung 1 . Das Gebiet des römischen Carnuntum, das sich über mehr als 10 km² erstreckt, am orographisch rechten Ufer der Donau. Oben: aktuelle Ansicht des Gebietes. Wien liegt rund 40 km westlich. Mitte: vollständige geomagnetische Prospektion des Gebietes (graue Flächen mit weißen bereits visualisierten Bereichen, im Text erwähnte Entdeckungen sind eingezeichnet.) Unten: Virtuelle Rekonstruktion von Carnuntum zur Römerzeit. (Quelle: © 7reasons / IKAnt / LBI ArchPro)
Archäologie ohne Spaten
Verglichen mit traditioneller Feldarchäologie bieten Prospektionsmethoden eine außerordentlich kostengünstige Möglichkeit, um rasch und detailliert Information über den Untergrund zu gewinnen. Diese, für die zukünftige archäologische Forschung immens wichtigen, zerstörungsfreien Verfahren wurden seit 1990 in Österreich durch die interdisziplinäre Forschungsgruppe Archeo Prospections® (eine interdisziplinäre Kooperation der Zentralanstalt für Meteorologie und Geodynamik - ZAMG - mit VIAS - Universität Wien) intensiv weiterentwickelt und sowohl national wie auch international auf zahlreichen archäologischen Fundstellen zum Einsatz gebracht.
Die Gründung des Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) im Jahr 2010 hat zu grundlegenden technologischen Fortschritten geführt. Diese haben die Gesamtprospektion des römischen Carnuntum logistisch und technisch mit der notwendigen Auflösung erst möglich und mit vertretbarem finanziellem Aufwand realisierbar gemacht. Für die Kartierung und Detaildokumentation von römischen Städten haben sich die luftbildarchäologische und die geophysikalische Prospektion neben weiteren Fernerkundungsverfahren hervorragend bewährt.
Fernerkundung aus der Luft
Die Luftbildarchäologie basiert auf Senkrechtaufnahmen und auf Schrägaufnahmen aus Kleinflugzeugen oder Hubschraubern, die photogrammetrisch ausgewertet und archäologisch interpretiert werden. Mit flugzeuggetragenem (Airborne) Laser- Scanning (ALS) und Airborne Imaging Spectroscopy (AIS) lässt sich die Erdoberfläche in kurzer Zeit vermessen und aus den Messdaten digitale Geländemodelle erzeugen, in denen sich alle in der Topographie noch erhaltenen archäologischen Strukturen erkennen lassen. Dies ist auch in bewaldeten Bereichen möglich, da sich mit speziellen, durch das LBI ArchPro entwickelte und verbesserte Verfahren die Vegetation wegfiltern lässt.
Bodenbasierte geophysikalische Prospektion
Zur Verdichtung der aus der Luft gewonnenen Information werden am Boden verschiedene sich ergänzende Methoden der geophysikalischen Prospektion eingesetzt. Am effektivsten für archäologische Anwendungen sind Magnetometer- und Bodenradarmessungen.
Die Magnetometermethode beruht auf der hochauflösenden Messung geringster Abweichungen im Erdmagnetfeld. Diese Abweichungen oder Anomalien beruhen zum einen auf der Veränderung der magnetischen Eigenschaften des Oberbodens durch Verwendung von Feuer in der Vergangenheit und die Füllung von Gruben, Pfostenlöchern und Gräben mit magnetisch angereichertem Material. Aber auch Feuerstellen, Eisenverhüttungsplätze und Ziegel- wie auch Kalksteinmauern verursachen Anomalien und lassen sich dadurch unter geeigneten Umständen kartieren (Abbildung 2).
Abbildung 2. Erkundung mit Magnetometern. Links: motorisiertes Multisensor-Magnetometer. In Reihen angebrachte Magnetfeldsensoren werden von einem Quad-Bike nachgezogen, das mit 20 - 40 kmh flächendeckend das Untersuchungsgelände abfährt. Rechts: Anomalien im Boden (beispielsweise ehemalige Feuerstellen) verursachen eine detektierbare Veränderung des Magnetfeldes. (LBI ArchPro/Geert Verhoeven, Immo Trinks; Screenshots: Magnetometry at Stonehenge: LBI ArchPro, https://www.youtube.com/watch?v=7ippAA86Bdc. )
Die Bodenradarmethode gleicht im Prinzip einem Echolot für Anwendung an Land: Eine Senderantenne schickt ein kurzes elektromagnetisches Signal in den Boden, welches von Schichtgrenzen oder Objekten, wie zum Beispiel vergrabenen Steinen, reflektiert und von einer Empfängerantenne aufgezeichnet wird. (Abbildung 3). Die in engem Raster erfassten Radardaten ergeben ein dreidimensionales Messergebnis, vergleichbar mit einem Computertomogramm.
Das Abbild des Untergrundes in diesem Radardatenblock kann scheibchenweise oder mithilfe spezieller virtueller Werkzeuge dreidimensional von den Archäologen ohne einen einzigen Spatenstich erkundet werden. Aus den Messdaten lassen sich Gebäude bis in kleinste Details ableiten und die im Boden verborgenen Strukturen in 3D am Computer rekonstruieren. Mauern, Türschwellen, Treppen, Fundamente von Säulen und Statuen, Wasserleitungen, Abwasserkanäle, Kellerräume, Wasserbecken, Fußbodenheizungen, Estrichböden, Sarkophage und vieles mehr können deutlich erkannt werden. Sie bieten dem Archäologen einen Einblick in die Reste der versunkenen Römerstadt, wie er bisher nur über langjährige Ausgrabungen möglich war. Abbildung 3. Dreidimensionale Erkundung mittels Bodenradar. Elektromagnetische Signale, die von Radarantennen emittiert werden, dringen in den Boden und werden von den Schichten reflektiert. Mit 400MHz-Antennen wird eine enorm hohe Auflösung von 8 x 8 x 2 cm erzielt mit der Gebäude bis ins kleinste Detail erkundet und am Computer rekonstruiert werden.(Bild links: Erich Nau; Bild rechts: Immo Trinks; screenshot "Ground Penetrating Radar at Stonehenge"LBI ArchPro, https://www.youtube.com/watch?v=VDgwWpftatw ).
Integrierte Auswertung der Big Data
Die Auswertung der hochauflösenden magnetischen, elektrischen und elektromagnetischen Daten, der Messaufnahmen aus der Luft und am Boden erfolgt mit speziell entwickelter Software durch die Umsetzung der Messwerte in digitale Bilder oder in Form von dreidimensionalen Datenblöcken. Die erfassten digitalen Daten werden innerhalb angepasster Spezialprogramme oder mittels eines Geographischen Informationssystems (GIS) mit allen weiteren zur Verfügung stehenden Informationen (digitale Geländemodelle, Grabungsinformationen, geographischen Daten, terrestrischen Laserscans, Katasterkarten, geologischen Karten) kombiniert.
Das GIS bildet die Grundlage für die Erstellung spezifischer Karten und Visualisierungen, dient als Informationssystem zum römischen Carnuntum und sichert die langfristige Verfügbarkeit der Daten für ein nachhaltiges Kulturmanagement und Raumplanung. Auf der Grundlage dieser Karten, Pläne und dreidimensionalen Interpretationsmodelle können digitale Rekonstruktionen erstellt werden, welche die römische Landschaft im virtuellen Raum, zum Beispiel im Wikitude World Browser, für Besucher wieder auferstehen lassen.
Eine einzigartige archäologische Landschaft
Carnuntum diente über mehrere Jahre hinweg als eine der wesentlichsten Testflächen für die Entwicklung von hochauflösenden geophysikalischen Prospektionsmethoden durch das bereits erwähnte interdisziplinäre Team Archeo Prospections®.
Unter der Leitung des neugegründeten LBI ArchPro wurde dann im Rahmen des von 2012 bis 2015 laufenden Projektes „ArchPro Carnuntum“ das 10 km2 große römisch Stadtgebiet von Carnuntum vollständig prospektiert (Abbildung 1).
Zu den spektakulärsten Entdeckungen, die mit Hilfe der zerstörungsfreien Methoden gemacht wurden, gehören das Forum der Zivilstadt Carnuntum (2001), die Gladiatorenschule (2011), das früheste Militärlager Carnuntums (2014) und Kasernen, in denen die Garde des Statthalters untergebracht war (2016).
Das Forum der Zivilstadt von Carnuntum
Bereits vor 15 Jahren gelang eine der bisher bedeutendsten Entdeckungen innerhalb eines Gebiets, in dem die Luftbilder nur wenige Strukturen erkennen ließen. Mit einer Bodenwiderstandsmessung (d.i. Messung der Varianz der elektrischen Leitfähigkeit des Erdbodens aufgrund von Einschlüssen) wurde der monumentale Gebäudekomplex um einen offenen Platz entdeckt (Abbildung 4). Abbildung 4. Forum der Zivilstadt Carnuntum. Von der zerstörungsfreien geophysikalischen Prospektion zur virtuellen Visualisierung. Lage des Forums: Abbildung 1. (LBI ArchPro/Wolfgang Neubauer, Klaus Löcker, 7reasons)
Die Entdeckung einer Gladiatorenschule (Ludus)
Außerhalb der Zivilstadt von Carnuntum liegt das in der ersten Hälfte des zweiten Jahrhunderts gebaute Amphitheater. Es wurde in den Jahren 1923 bis 1930 ausgegraben (Lage: siehe Abbildung 1). Nach zeitgenössischen Inschriften war es das viertgrößte Amphitheater des gesamten römischen Reiches, fasste bis zu 13.000 Zuschauer und war Schauplatz zahlreicher Gladiatorenspiele. Das davon westlich gelegene Areal, in dem nun die Gladiatorenschule entdeckt wurde, fand zuvor nur wenig Beachtung. Luftbildaufnahmen zeigen hier eine deutliche Anomalie; Mauerstrukturen wurden jedoch erst im Frühling 2011 auch aus der Luft ausgemacht. Bei einer Untersuchung mithilfe eines hochauflösenden Bodenradarsystems konnten 2010 in nur wenigen Stunden Messeinsatz die Reste einer in ihrer Vollständigkeit und Größe international einzigartigen Gladiatorenschule detailliert erkundet werden (Abbildung 5). Abbildung 5. Die Gladiatorenschule (Ludus). Von der Lufterkundung zur Bodenradarmessung und Visualisierung. Lage des Ludus und des benachbarten Amphitheaters: Abbildung 1. (li oben, re oben: LBI ArchPro/Mario Wallner; li unten: LBI ArchPro/Mario Wallner 7reasons; re unten: LUDUS SW/NW, 7reasons; unten Mitte: LUDUS W/O 7reasons)
Aus den über 20 Gigabyte umfassenden Rohdaten wurden dreidimensionale Visualisierungen der im Untergrund verborgenen archäologischen Strukturen erstellt und archäologisch interpretiert:
Die Gladiatorenschule liegt in einer 11.000 m2 großen, von einer Mauer umgebenen Parzelle. An deren südlichem Ende befindet sich ein abgeschlossener Gebäudekomplex mit einem Ausmaß von, 2800 m2, der um einen großen Innenhof angelegt ist. In diesem haben Radarmessungen eine kreisrunde Trainingsarena mit einem Durchmesser von 19 m nachgewiesen und Fundamentreste der hölzernen Zuschauertribünen. Hinsichtlich der Gebäudeteile können in den detailreichen Radarbildern deutlich die Fundamente einer beheizbaren Trainingshalle erkannt werden, einer daran anschließenden ausgedehnten Badeanlage, eines großen Verwaltungstraktes/Wohnbereiches und zweier länglicher Trakte, die durchschnittlich 5 m2 große Wohnzellen der Gladiatoren beherbergten. Aber auch die notwendige Infrastruktur - Wasserleitungen, Fußbodenheizungen, Abwasserkanäle - sowie Zugangswege, Portale oder die Fundamente von Gedenksteinen und schließlich ein Gräberfeld direkt hinter der Gladiatorenschule sind in den hochauflösenden Radardaten klar feststellbar.
An Deutlichkeit der erfassten Baustrukturen ist die Gladiatorenschule von Carnuntum derzeit nur mit der großen Gladiatorenschule, dem LUDUS MAGNUS, hinter dem Kolosseum in Rom zu vergleichen. In seiner Vollständigkeit und Dimension ist dieser sensationelle archäologische Befund derzeit weltweit einzigartig.
Frühes römisches Militärlager durch Bodenradar entdeckt
Am West-Ausgang der römischen Stadt hat sich entlang der römischen Straße nach Vindobona (Wien) ein ausgedehntes Straßendorf entwickelt. Unter den Resten dieses Dorfes - in den tieferen Datenschichten verborgen - entdeckten 2014 die Forscher des LBI ArchPro einen typischen Befestigungsgraben eines direkt an der Donau gelegenen römischen Zeltlagers im Ausmaß von ca. 6 Fußballfeldern (57.600 m2). Aufgrund der späteren Überbauung gehen die Wissenschaftler davon aus, dass es sich bei diesem Zeltlager um eines der frühesten Militärläger im Rahmen der römischen Okkupation des Raumes von Carnuntum handeln dürfte. Abbildung 6.
Abbildung 6. Das frühe Militärlager in Carnuntum. Bodenradarmessungen. Screenshots .Die ersten Römer in Carnuntum https://www.youtube.com/watch?v=glr-vCcNKc4&feature=youtu.be (techlab 7reasons) und Idealrekonstruktion Marschlager in Carnuntum7reasons
Die Garde des Statthalters
Im März 2016 wurde eine weitere außergewöhnliche Entdeckung vorgestellt: westlich des Legionslagers und unmittelbar an den Statthalterpalast und auf der Gegenseite an den Campus (Legionsübungsplatz) angrenzend konnten die Kasernen der Leibgarde des Statthalters - Castra Singularium – identifiziert werden (Abbildung 7). In diesem rund 1,8 ha großen, von einer massiven Mauer umschlossenen Areal ließen sich sechs bis sieben Mannschaftsbaracken, Offiziersunterkünfte, ein Zentralgebäude und weitere Gebäude erkennen. Es ist dies bislang der einzige in dieser Eindeutigkeit und Dimension nachweisbare Fund im gesamten Gebiet des ehemaligen Imperium Romanum.
Abbildung 7. Castra Singularium - die Unterkünfte der Leibgarde des Statthalters lagen zwischen Statthalterpalast und Campus, westlich des Legionslagers. Von der zerstörungsfreien geophysikalischen Prospektion (GPR) zur Interpretation und virtuellen Rekonstruktion. (LBI ArchPro/Mario Wallner, 7reasons / IKAnt / Christian Gugl/ LBI ArchPro.)
Ausblick
Hochauflösende naturwissenschaftlich-technische Methoden zur Prospektion ganzer Landschaften ermöglichen die Auffindung, Erkundung ,Visualisierung und Interpretation archäologischer Stätten. Das Fallbeispiel Carnuntum hat dabei Vorbildcharakter: es zeigt, wie rasch, kostengünstig und zerstörungsfrei eine außergewöhnliche Fülle an detaillierten räumlichen Befunden generiert werden kann - einerseits zur Klärung archäologischer Fragen, anderseits aber auch als Grundlage zur wirtschaftlichen Planung und Nutzung des Kulturerbes.
Prospektionsmethoden, wie sie das LBI ArchPro entwickelt und mit Partnern national und international erfolgreich anwendet, sind zur Zeit noch ungebräuchlich, besitzen aber ein sehr hohes Potential für die Zukunft der Archäologie. Schließlich ist es eine Forderung der Valletta-Konvention der Europäischen Union zum Schutz und Erhalt des archäologischen Kulturerbes (Council of Europe 1992), dass zerstörungsfreie Prospektionsmethoden aus der Luft und am Boden vor jeder archäologischen Ausgrabung eingesetzt werden.
*Prospektion: Erkundung und Erfassung von archäologischen Stätten in Landschaften
Weiterführende Links
Ludwig Boltzmann Institute for Archaeological Prospection and Virtual Archaeology – http://archpro.lbg.ac.at
Zentralanstalt für Meteorologie und Geodynamik – http://www.zamg.ac.at
Institut für Kulturgeschichte der Antike – http://www.oeaw.ac.at/antike
Römerstadt Carnuntum (Archäologische Kulturpark Niederösterreich Betriebsges.m.b. – http://www.carnuntum.at
7reasons Medien GmbH – http://www.7reasons.net
Entdeckungen ohne Spaten
Die Garde des Statthalters. Sensationsfund in Carnuntum. Pressemitteilung. http://www.7reasons.net/wp-content/uploads/2016/03/pr_car_30_03_2016.pdf
Carnuntum - Die Garde des Statthalters. Video 2:56 min. https://www.youtube.com/watch?v=S5JMvmOymkg&feature=youtu.be (Quelle: techlab7reasons, Standard YouTube Lizenz)
Archäologischer Park Carnuntum: Die ersten Römer in Carnuntum . http://carnuntum.7reasons.net/TXT/2014_PA_Carnuntum_Frueheste_Marschlage...
Die ersten Römer in Carnuntum. Video 3:27 min. https://www.youtube.com/watch?v=glr-vCcNKc4&feature=youtu.be (Quelle: techlab7reasons, Standard YouTube Lizenz)
Reconstruction of a roman city - Carnuntum 2011 - Making of the scale model. Video 11:21 min https://www.youtube.com/watch?v=HMjiWlvSsSc (Quelle: techlab7reasons, Standard YouTube Lizenz)
Gladiatorenschule
LBI ArchPro 05.09.2011 Video 5:25 min https://www.youtube.com/watch?v=5IZ99v14aaU (Quelle: techlab7reasons, Standard YouTube Lizenz)
Gladiatoren Schule Video 3:07 min https://www.youtube.com/watch?v=aJFH3TCVzTk
RGZM Gutachten Dr. Scholz Video (deutsch) 7:17 min. Archäologisches Gutachten zum Befund eines ludus beim Amphitheater Carnuntum. https://www.youtube.com/watch?v=bWTLa8rJrJU (Quelle: techlab7reasons, Standard YouTube Lizenz)
Über das römische Carnuntum
Carnuntum (im Austria-Forum). http://austria-forum.org/af/AEIOU/Carnuntum
Municipum Aelium Carnuntum = Colonia Septimia Aurelia Antoniniana Carnuntum – Petronell. (ausführliche Darstellung des Römisch-Germanischen Zentralmuseums) http://www2.rgzm.de/Transformation/Noricum/Carnuntum/Pannonia_Carnuntum.htm
Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.
Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.Fr, 24.06.2016 - 06:03 — Inge Schuster
Vor wenigen Tagen ist in der Fachzeitschrift "Aging" ein Artikel erschienen, der einen neuen Therapieansatz für die Alzheimer-Krankheit beschreibt, mit dem bei einem (allerdings) kleinen Patientenkollektiv ein noch nie dagewesener Erfolg erzielt wurde [1]. Der Ansatz beruht auf den Forschungsergebnissen von Dale Bredesen, einem international renommierten Experten auf dem Gebiet der Mechanismen neurodegenerativer Erkrankungen. Er strebt dabei eine Optimierung der Signale von Nervenzellen an, die hinsichtlich Bildung und Abbau von Synapsen in ein Ungleichgewicht geraten sind.
Erfreulicherweise werden wir immer älter. Aktuell haben in der Eurozone Knaben bei Geburt bereits eine Lebenserwartung von 79,2 Jahren und Mädchen von 84,7 Jahren [2]. In allen Regionen der Welt sinkt die Mortalitätsrate der 60+ Bevölkerung, die Lebenserwartung steigt. Österreich betreffend zählt die Statistik Austria 2016 rund 770 000 Personen, die 75 Jahre und älter sind - dies sind schon um etwa 100 000 mehr als es 2010 gewesen sind; dabei gibt es 1290 Personen, die mindestens 100 Jahre alt sind [3].
Demenz-Erkrankungen
Die Kehrseite der Medaille: die "zusätzlichen" Jahre sind oft mit chronischen Erkrankungen, Schmerzen und einem Verlust an Fähigkeiten verbunden. Zu diesen Defekten trägt auch der jeweilige Lebensstil maßgeblich bei. Ein besonderes Problem ist dabei die mit dem Lebensalter weltweit steigende Tendenz an Demenz zu erkranken (Abbildung 1). In allen untersuchten Regionen ist dabei die Zugehörigkeit zum weiblichen Geschlecht mit einem erhöhten Demenz-Risiko verbunden: von den über 90-jährigen Frauen in SO-Asien, N-Amerika und insbesondere Lateinamerika sind über 50 % von Demenz betroffen.
Abbildung 1. Die Häufigkeit der Demenzerkrankungen nach Altersgruppen und Geschlecht (m, w). Daten aus: World Alzheimer Report 2015. The Global Impact of Dementia[4]
Wie viele Demenzerkrankte gibt es?
Aktuelle Schätzungen gehen davon aus, dass weltweit 46,8 Millionen Menschen an Demenz leiden und, dass deren Zahl 2030 bereits auf 74,5 und 2050 auf 131,5 Millionen angestiegen sein wird [3]. In Österreich gibt es etwa 100.000 Demenz-Kranke, bis 2050 rechnet man mit einem Anstieg auf etwa 230.000 [5]. In Deutschland leben nach Schätzungen der Deutschen Alzheimer Gesellschaft derzeit etwa 1,5 Millionen Demenzkranke, bis 2050 wird diese Zahl auf rund 3 Millionen ansteigen.
Neben dem physischen und psychischen Leid der Betroffenen und deren Betreuer, die in den späteren Phasen der Erkrankung ja die Patienten versorgen und ihnen in allen Verrichtungen des täglichen Lebens Hilfestellung leisten müssen, kommen auch die sozialen und ökonomischen Konsequenzen zum Tragen. Global rechnet man für das Jahr 2018 mit Kosten von 1 000 Mrd US $ [4]. In Österreich waren es 2014 rund 1 Mrd €, die zum überwiegenden Teil für nicht-medizinische Leistungen ausgegeben wurden.
Der Großteil der Demenz-Fälle, nämlich 60 - 70 %, sind auf die Alzheimer-Krankheit zurückzuführen.
Was ist die Ursache der Alzheimer-Krankheit?
In ihrem, im April 2016 herausgegebenen Factsheet schreibt die WHO:
"Derzeit ist keine Therapie verfügbar, die Demenz heilen oder ihr Fortschreiten verzögern könnte. Zahlreiche neue Behandlungsmöglichkeiten werden in den verschiedenen Phasen der klinischen Testung untersucht"[6].
Tatsächlich wird seit Jahrzehnten intensiv nach wirksamen Medikamenten gegen Alzheimer gesucht. Diese Forschungen richt(et)en sich im Wesentlichen auf eine Reduktion der unlöslichen Proteinablagerungen, welche die Krankheit charakterisieren, nämlich die beta-Amyloid Plaques außerhalb und die verklumpten Tau-Protein Fibrillen innerhalb der Nervenzellen des Gehirns. Bis jetzt blieb dieser Suche der Erfolg versagt. Der US-amerikanische Forscher Dale E. Bredesen, ein international anerkannter Experte auf dem Gebiet der Neurodegeneration, geht von einem anderen Ansatz aus. (Bredesen ist Leiter des Mary S. Easton Center for Alzheimer's Disease Research, University of California, Los Angeles (UCLA) und Gründungsdirektor und CEO des Buck Institute for Age Research, Novato, CA).
Bredesen versucht die Krankheit zu verstehen. Er fragt nach der Chemie, welche die veränderten Fähigkeiten des Lernens und Erinnerns bewirkt, wendet die modernsten Methoden der Molekularbiologie und Informatik an. Basierend auf seinen Forschungsergebnissen postuliert er, dass Störungen nicht eines einzelnen Stoffwechselweges sondern erst mehrerer Wege zur Entstehung von Alzheimer führen. Die bis jetzt versuchten Monotherapien, die auf ein einziges definiertes Biomolekül, einen einzigen Mechanismus abzielten, mussten seiner Meinung nach deshalb erfolglos bleiben.
Vereinfacht und kurz dargestellt: Bredesen charakterisiert Alzheimer als einen metabolischen Defekt, als eine Störung im Stoffwechselnetzwerk der Nervenzellen und eine Vielfalt an Modulatoren, die diese Störung beeinflussen können. Im Gegensatz zur gegenwärtigen Anschauung, dass Alzheimer durch die Ablagerung unlöslicher, toxischer Proteinplaques bewirkt wird, postuliert Bredesen, ein Ungleichgewicht der von den Nervenzellen ausgehenden Signalwege als Ursache:
Während Nervenzellen in einem normal funktionierenden Hirn laufend neue Erinnerungen speichern und dafür irrelevante Erinnerungen löschen, kann diese Balance zwischen Bildung neuer Nervenverbindungen -Synapsen - ("synaptoblastische Aktivität") versus Abbau bestehender Synapsen ("synaptoclastische Aktivität") mit zunehmendem Alter in Richtung Abbau verschoben werden. Erinnerungen werden dann gelöscht, neue Inhalte nicht mehr gespeichert.
Bildung von Synapsen < Abbau von Synapsen
Das in der Alzheimer Krankheit Plaque-bildende Amyloid-beta-Peptid hat im normalen Hirn eine essentielle Funktion, nämlich in dem Gleichgewicht zwischen Bildung und Abbau das "Löschen" von Synapsen einzuleiten. Der Vorläufer des Peptids, das Amyloid-Precursor-Protein APP, übt hier mit seinen Spaltprodukten eine physiologische Schalterfunktion aus. Eine Vielzahl an Faktoren kann diese Balance modulieren, ihr Mangel oder Überschuss kann das Gleichgewicht stören. Es sind viele, für Alzheimer bereits bekannte Risikofaktoren, die hier eingreifen: das Apolipoprotein E4, Hormone wie Östradiol, Testosteron, Thyronin/Thyroxin, Melatonin, körperliches Training, Schlaf, u.v.a.m.
Eine gesteigerte Bildung des Amyloid-beta Peptids führt zur Verlagerung des Gleichgewichts in Richtung Abbau von Nervenverbindungen.
Paradigmenwechsel in der Alzheimertherapie - die MEND Strategie
Ausgehend von dem gestörten Stoffwechsel-Gleichgewicht der Nervenzellen und dessen Modulierung durch unterschiedlichste Effektoren hat Bredersen eine neuen Ansatz zur Alzheimer Therapie entwickelt, den er " metabolic enhancement for neurodegeneration (MEND)" nennt.
Es ist ein systembiologischer Ansatz.
Ein Dach mit 36 Löchern
Aus seinen Untersuchungen hat Bredesen 36 hauptsächliche Faktoren (inklusive beta Amyloid) identifiziert, die zum Ungleichgewicht zwischen synaptoblastischen und synaptoklastischen Prozessen führen, dieses verstärken können. Eine Therapie, welche die Optimierung nur eines oder nur weniger dieser Ursachen anpeilt, hält Bredesen für wenig sinnvoll:
Er erklärt Demenz mit der Metapher eines Daches, das 36 Löcher aufweist: Eine Monotherapie, also das Abdichten eines Loches wird das darunterliegende Gebäude kaum vor einem starken Regen schützen können.
Um Demenz zielführend zu behandeln, ist es also notwendig möglichst viele - 10, 20 und mehr - dieser 36 Löcher zu schließen. Um welche es sich dabei handelt, ist individuell verschieden, basiert auf der Analyse einer Vielzahl an metabolischen Laborwerten und deren Einfluss auf das Stoffwechselgleichgewicht der Nervenzellen. Es wird dabei das genetische, metabolische, hormonelle Profil und Verhalten des Patienten berücksichtigt und daraus ein personenbezogenes therapeutisches Programm - "Therapeutic System 1" - erstellt, das vom Optimieren der Ernährung und deren Timing, über Stressreduktion, Optimieren von Schlafdauer und - Qualität, regelmäßigem körperlichen und geistigen Training bis hin zur Optimierung von Hormonspiegeln, Wachstumsfaktoren, Antioxidantien, Vitaminen u.a. reicht. Die physiologischen Auswirkungen der einzelnen Programmpunkte sind experimentell verifiziert. Insgesamt gesehen führen sie zu einer Änderung der Lebensführung, die auch bei anderen chronischen Erkrankungen positive Auswirkungen haben sollte.
Ein Durchbruch in der Alzheimer-Therapie
Die MEND-Strategie wurde bis jetzt an einer kleinen Gruppe von 10 Personen, Frauen und Männern im Alter von 49 - 74 Jahren, angewandt, die an Alzheimer im Frühstadium, am sogenannten MCI (Mild Cognitive Impairment), oder SCI (Subjective Cognitive Impairment) litten. Die Behandlungsdauer war 5 - 24 Monate und brachte ein beispiellos erfolgreiches Ergebnis: Alle Patienten, deren Angehörige und Kollegen berichteten von eindeutigen, anhaltenden kognitiven Verbesserungen, die auch objektiv in neuropsychologischen Tests bestätigt wurden. 6 Patienten, die zu arbeiten aufgehört hatten oder bereits große Schwierigkeiten in ihrem Beruf hatten, konnten wieder ihren Beruf ausüben oder verbesserten ihre Leistung. Quantitative MRI Analysen bei einem der Patienten zeigten, dass auch das anfänglich geschrumpfte Volumen des Hippocampus - des Lernzentrums im Gehirn - sich unter der Therapie dramatisch vergrößert hatte.
Fazit
Die Alzheimer Krankheit ist komplex und multifaktoriell, Monotherapien, die sich nur auf ein gestörtes Zielmolekül/einen defekten Mechanismus richteten, haben bis jetzt keinen therapeutischen Erfolg erbracht.
Wenn bislang auch nur wenige Patienten nach der MEND-Strategie behandelt wurden, zeigt der bislang beispiellose Erfolg, dass metabolische Prozesse die Treiber der Alzheimerkrankheit - zumindest in ihrer Frühform - sind. Der mit der Krankheit einhergehende Prozess des Abbaus kognitiver Fähigkeit konnte nicht nur nachhaltig aufgehalten, sondern erstmals umgekehrt werden.
Bei den Schlüsselfaktoren der MEND-Strategie, handelt es sich dabei um Faktoren, die von jedem angewandt werden können und die - abgesehen von ihrem Effekt auf den Stoffwechsel der Nervenzellen - insgesamt auch zu einem gesünderen Lebensstil führen.
Es ist offensichtlich, dass der, in diesen Pilot-Untersuchungen zutage tretende, Durchbruch nun in ausgedehnten klinischen Untersuchungen bestätigt werden muss. Das Problem dabei: die lange Behandlungsdauer und die kostspielige Testung und Beobachtung der Patienten vor, während und nach Ende der Untersuchung. Pharmazeutische Konzerne werden wohl kaum Interesse daran haben derartige, bis zu 1 Mrd US $ teure klinische Untersuchungen zu beginnen, wenn sie keine Möglichkeit zur Patentierung des Verfahrens zu haben. Überdies sind sie darauf ausgerichtet klinische Versuche mit einem einzigen, völlig definierten Entwicklungskandidaten und nicht mit einer Palette unterschiedlichster Faktoren zu unternehmen.
Derartige Untersuchungen müßten meiner Ansicht nach von großen nationalen und übernationalen Einrichtungen - wie beispielweise der WHO - in die Wege geleitet und finanziert werden.
[1] Dale E. Bredesen et al., Reversal of cognitive decline in Alzheimer’s disease. Aging, June 2016, 8: 1-9.
[ [2] Lebenserwartung, Stand: 2014. http://wko.at/statistik/eu/europa-lebenserwartung.pdf
[3] STATISTIK AUSTRIA, Volkszählungen, Statistik des Bevölkerungsstandes (erstellt am 14.06.2016) und http://www.statistik.at/web_de/presse/108135.html
[4] World Alzheimer Report 2015. The Global Impact of Dementia. An analysis of prevalence, incidence, cost and trends. https://www.alz.co.uk/research/WorldAlzheimerReport2015.pdf
[5] Österreichischer Demenzbericht 2014. http://www.bmg.gv.at/cms/home/attachments/6/4/5/CH1513/CMS1436868155908/...
[6] Dementia. Fact sheet, April 2016. http://www.who.int/mediacentre/factsheets/fs362/en/
Weiterführende Links
Reversal of Cognitive Decline. Vortrag von Dale E. Bredesen (at 56 th Annual Conference Am. College of Nutrition) Nov. 2015 Video 45:05 min. https://www.youtube.com/watch?v=QqQ_X3mD16U
STEM-Talk Episode 12 Dale Bredesen discusses the metabolic factors underlying Alzheimer’s Disease. Video 1:25:39 min. https://www.youtube.com/watch?v=HS7VZydS8HI
Relevante Artikel in Scienceblog.at
Francis S. Collins, 27.05.2016. Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts. http://scienceblog.at/die-alzheimerkrankheit-tau-protein-zur-fr%C3%BChen....
Susanne Donner, 08.04.2016. Mikroglia: Gesundheitswächter im Gehirn. http://scienceblog.at/mikroglia-gesundheitsw%C3%A4chter-im-gehirn#.
Gottfried Schatz, 03.07.2015. Die bedrohliche Alzheimerkrankheit — Abschied vom Ich. http://scienceblog.at/die-bedrohliche-alzheimerkrankheit#.
Der Dunklen Materie auf der Spur
Der Dunklen Materie auf der SpurFr, 17.06.2016 - 12:58 — Josef Pradler
Zu den prioritären Zielsetzungen der modernen Teilchenphysik zählt die Entschlüsselung der sogenannten Dunklen Materie, welche die dominierende Form der Materie im Universum darstellt. Bis jetzt konnte Dunkle Materie noch nicht direkt detektiert werden, ihre mikrophysikalischen Eigenschaften sind weitgehend unbekannt. Der Teilchenphysiker Josef Pradler (Juniorforschungsgruppenleiter am Institut für Hochenergiephysik - HEPHY - der ÖAW) entwickelt Modelle zur Dunklen Materie und überprüft diese auf ihre Konsistenz mit experimentellen Daten, die mittels hochsensitiver Detektoren und auch mittels hochenergetischer Kollisionen von Protonen (am Large Hadron Collider des CERN) erhalten werden.*
Scherzend meinte noch der sowjetische Physiker Lev Landau (1908-1968) in der ersten Hälfte des 20. Jahrhunderts: “Kosmologen sind oft im Irrtum, aber nie im Zweifel.” Auch wenn die Arbeiten Landaus zu den großen Errungenschaften der theoretischen Physik zählen und seine Buchserie dazu beinahe biblisch verehrt wird, hat sich das von ihm gezeichnete Bild praktizierender Kosmologen grundlegend überholt. Der Urknall, einst Hypothese philosophischer Natur, ist heute Faktum der Wissenschaft.
Das Universum dehnt sich aus
Zwei Entdeckungen des letzten Jahrhunderts die Kosmologie betreffend werden wohl für immer zu den bemerkenswertesten der Menschheit zählen dürfen.
Die erste Entdeckung der späten 1920er Jahre, dass sich das Universum ausdehnt, ist heute weithin bekannt. Im Umkehrschluss folgt daraus allerdings, dass der Kosmos sich einst in einem Zustand extremer Dichte und Temperatur befunden haben musste. Selbst wenn es noch keine gesicherte Theorie zum “wie” des Ursprungs gibt, sehen wir den Beweis dafür heute in der kosmischen Mikrowellenhintergrundstrahlung; bildlich gesprochen: das Nachglühen des Urknalls (Abbildung 1).
Die zweite Entdeckung wurde erst 1998 gemacht: der Kosmos dehnt sich nicht nur aus, in jüngster kosmischer Vergangenheit tut er das sogar in beschleunigter Weise (Saul Perlmutter, Adam Riess, Brian Schmidt erhielten dafür 2011 den Nobelpreis).
Abbildung 1. Nachglühen des Urknalls: das Licht der kosmischen Hintergrundstrahlung, aufgenommen durch den Planck-Satelliten. Es war 13.7 Milliarden Jahre unterwegs zur Erde. Die hellen und dunklen Bereiche zeigen in mehr als 10.000-facher Kontrastverstärkung die winzigen Dichte-Schwankungen aus der mit Hilfe Dunkler Materie alle Struktur im Universum entstand: die Sterne und Galaxien von heute. (Quelle: http://www.esa.int/spaceinimages/Images/2013/03/Planck_and_the_cosmic_microwave_background )
Das Universum steckt also voller Dynamik - nicht nur was Sterne und Galaxien betrifft, sondern auch auf den größten beobachtbaren Skalen. Diese Dynamik unterliegt zunächst Einstein’s Allgemeiner Relativitätstheorie. Aus ihr lässt sich die Expansionsrate des Kosmos als Funktion des in ihm befindlichen Energie- und Materiegehalts ableiten. Aus der Beobachtung der kosmischen Hintergrundstrahlung ergibt sich folgende einfache Rezeptur:
5% Atome, 26% dunkle Materie, und 69% dunkle Energie.
Die fehlende Masse
Betrachten wir nur den Materiegehalt des Universums, schließen wir also, dass 84% (das relative Verhältnis von dunkler zu normaler Materie) nicht verstanden sind. Das Problem der Dunklen Materie ist also ein Problem der fehlenden Masse.
Dieses Problem manifestiert sich nicht nur in den Präzisionsmessungen der kosmischen Hintergrundstrahlung, sondern setzt sich auf praktisch allen astronomischen Beobachtungen jenseits unseres Sonnensystems fort. Die ersten Hinweise auf dunkle Materie finden sich bereits seit den 1930er Jahren in den Beobachtungen der Bewegungen von Galaxien in Galaxienhaufen und wurden in den 1970er Jahren durch die Messung von Rotationsgeschwindigkeiten von Spiralgalaxien wie unserer eigenen Milchstraße verschärft. Das Phänomen Dunkle Materie ist also seit über 80 Jahren bekannt.
Man könnte zunächst vermuten, dass Dunkle Materie aus noch unentdeckten astronomischen Objekten, wie braunen Zwergen oder schwarzen Löchern besteht. Solche Objekte würden sich allerdings gelegentlich, während ihres Transits vor Sternen am Himmel, zeigen, ganz so, wie man heutzutage tatsächlich Planeten in fernen Sonnensystemen entdeckt. Sogenannte “microlensing” Beobachtungen schliessen mittlerweile die Möglichkeit aus, dass Dunkle Materie aus solchen makroskopischen Objekten besteht. Eine zweite Möglichkeit ist, dass die Gravitation selbst auf astronomischen Skalen anderen Gesetzen unterliegt, als wir sie auf der Erde und im Sonnensystem beobachten. Während eine (sehr schwache) Modifikation in der Tat theoretisch bestehen könnte, kann man heute eine hinlänglich stark modifizierte Gravitationstheorie als Ursprung für das augenscheinliche Phänomen der fehlenden Masse mit ziemlicher Sicherheit ausschliessen.
Die einzige überzeugende Lösung des Problems der fehlenden Masse liegt in der Form einer oder mehrerer noch unentdeckter Teilchenart(en). Trotz der Vielzahl astronomischer Beobachtungen sind uns - bis dato - die konkreten mikroskopischen, teilchenphysikalischen Eigenschaften weitgehend unbekannt. Wir können mit Bestimmtheit sagen, dass Dunkle Materie, wenn überhaupt, nur sehr schwach elektromagnetisch wechselwirkt—ansonsten würde sie Licht aussenden, wir hätten sie bereits beobachtet, und sie wäre nicht “dunkel”. In der Tat gibt es aber guten Grund zur Annahme, dass dieser uns noch verborgene Sektor mit “uns”, dem sogenannten Standardmodell der Teilchenphysik, wechselwirkt. Dieser Grund ist u.A. kosmologisch motiviert.
Das 1:5 Verhältnis aus beobachtbarer und dunkler Materie kann ein Zufall sein, jedoch darf man durchaus hoffen, dass beide Komponenten mehr verbindet. Das Verhältnis könnte ohne weiteres um Größenordnungen verschieden sein. Dass es jedoch im scheinbar engen Verhältnis steht, deutet darauf hin, dass dunkle und normale Materie im frühen, heißen Universum im engen Wechselspiel agiert haben. Die Wechselwirkung beider Sektoren impliziert, dass selbst, wenn man mit einem Universum ohne Dunkle Materie beginnt, diese sich durch Kollisionen von Standardmodellteilchen wie von selbst erzeugt (et vice versa). Man sagt: beide Sektoren kommen ins thermodynamische Gleichgewicht. Theoretische Teilchenphysiker haben in so einer Situation attraktive Szenarien entwickelt, die anschließend jenes 5:1 Verhältnis dynamisch in der weiteren Ausdehnung und Abkühlung des Universums erklären. Die Modelle beruhen auf Teilchensorten mit einer Masse eines Vielfachen der Masse von Wasserstoff (z.B. genau einen Faktor 5, aber auch ein bis zu tausendfaches davon).
Die Erwartungshaltung der Theoretiker zur Masse und nicht-gravitativen Wechselwirkung der Dunklen Materie-Teilchen lässt gleichzeitig das Herz der experimentellen Teilchenphysiker höher schlagen. Es eröffnet nämlich die Möglichkeit zum experimentellen Nachweis im Labor und damit zum Test dieses Paradigmas und damit zur Entschlüsselung eines der akutesten ungelösten Fragestellungen der modernen Teilchenphysik.
Suche nach Dunkler Materie
Es gibt zwei prinzipielle Methoden, die die experimentelle Suche nach Dunkler Materie im Labor dominieren. An beiden ist das Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften aktiv beteiligt (www.hephy.at).
- Erstere betrifft die sprichwörtliche Erzeugung Dunkler Materie am Large Hadron Collider (LHC) am CERN in Genf. Man erhofft sich—ähnlich wie im frühen Universum—durch hochenergetische Kollisionen von Protonen Dunkle Materie in Paarproduktion zu erschaffen. Auch wenn Dunkle Materie-Teilchen nicht direkt beobachtet werden können und sie dem Detektor geisterartig "entfleuchen", liefern das augenscheinliche Energieungleichgewicht sowie die Beiprodukte in der Produktion genügend Information, um Rückschluss auf die Natur der erzeugten Teilchen zu ziehen. Die Suche nach Dunkler Materie am LHC bleibt eine der zentralen Aufgaben des Teilchenbeschleuniger-Programms am CERN.
- Die zweite experimentelle Methode versucht, die Dunkle Materie-Teilchen, die unsere Galaxis wie eine homogene Wolke füllen (der sogenannten “Halo”), direkt zu beobachten. Aus der Bewegung von Sternen ums Zentrum der Milchstraße sowie einer Vielzahl anderer Beobachtungen können wir heute relativ genau auf die durchschnittliche lokale Massendichte Dunkler Materie zurück schließen. Pro Kubikzentimeter entspricht diese ca. einem Drittel der Masse eines Protons. Ist Dunkle Materie also so schwer wie ein Proton, ergibt sich damit ein Teilchenfluss von ungefähr zehn Millionen Teilchen pro Sekunde und Quadratzentimeter Oberfläche. Ständig werden wir—und unsere Detektoren—durchdrungen von einer Vielzahl von sehr schwach-wechselwirkenden Teilchen.
Der erwartete Teilchenfluss klingt zunächst dramatisch, ist es aber nicht: der lokale Fluss von Neutrinos, der als Beiprodukt nuklearer Kernreaktionen im Zentrum der Sonne entspringt, ist um ein tausendfaches größer. Tatsächlich hat es Jahrzehnte großen experimentellen Aufwandes bedurft, die schwache Wechselwirkung von Neutrinos zu kartographieren. (Anmerkung: Neutrinos wurden einst als Dunkle Materie-Kandidaten gehandelt, deren mittlerweile bekannte fast verschwindende Masse schließt dies jedoch aus.) Es verwundert also nicht, dass die direkte Suche nach Dunkler Materie eine experimentelle Herausforderung darstellt und hochsensitiver Detektoren bedarf. Konkret hält man bei der direkten Suche Ausschau nach Rückstoßstreuprozessen von Dunkler Materie an den Atomkernen des Detektors. Dieser Prozess ist extrem selten, und diese Experimente operieren daher in Untergrundlabors, abgeschirmt von kosmischer Strahlung. Das Institut für Hochenergiephysik ist mit dem CRESST -Experiment an der direkten Suche nach Dunkler Materie beteiligt (Abbildung 2).
Abbildung 2. Mit hochsensiblen Detektoren wie dem CRESST-Detektor ist man der galaktischen Dunklen Materie auf der Spur. Das Institut für Hochenergiephysik der Akademie der Wissenschaften ist an dem Experiment beteiligt. http://www.cresst.de/pictures/img_1860.jpg
Heute wird in einer Vielzahl solcher direkter Detektionsexperimente nach der Dunklen Materie gesucht. Neben diesen und den Teilchenbeschleunigerexperimenten befindet sich ein drittes Fenster zur Natur der Dunklen Materie in der Astrophysik. Hier wird z.B. nach den Endprodukten von Dunkler Materie-Paarvernichtung (z.B. Gammastrahlung) in den Zentren von Galaxien gesucht. Beispielsweise zu nennen sind hier das Satellitenexperiment FERMI oder die H.E.S.S. Teleskope (mit Beteiligungen der Universität Innsbruck).
Modelle zur Dunklen Materie
Aufgabe der theoretischen Teilchenphysik ist es, Modelle zur Dunklen Materie zu entwickeln, die sich einerseits in die kosmologischen Messungen einreihen und sich andererseits im Experiment oder in astrophysikalischen Beobachtungen überprüfen lassen. Theoretiker treffen Vorhersagen für die oben angesprochenen Experimente, verbinden die verschiedenen Stoßrichtungen oder arbeiten deren Komplementarität heraus, bzw. suchen nach völlig neuen Signaturen und Nachweismöglichkeiten. Selbst wenn es keine Garantie dafür gibt, dass Dunkle Materie mit unserem Sektor in nicht-gravitativer Wechselwirkung steht (die Voraussetzung für einen direkten Nachweis), so gibt es doch starke theoretische Argumente dafür, dass diese durchaus signifikant sein kann.
Die Erwartungshaltung der Experten im Feld geht sogar soweit, dass man sich ein definitives Signal in den nächsten zwei Dekaden erhofft. Die Erwartung gründet u.a. auf einer Erklärung der möglichen Entstehungsgeschichte der Dunklen Materie im frühen Universum, auf einer möglichen Auflösung einer noch unverstandenen Hierarchie zwischen fundamentalen in der Natur beobachteten Massenskalen (siehe z. Bsp. “Hierarchieproblem” und/oder “Supersymmetrie”) und nicht zuletzt auf dem signifikanten experimentellen Fortschritt seit den frühen 1990er Jahren, in denen man erstmals begann, die Suche systematisch voranzutreiben.
Outlook
Das theoretische Spektrum an Möglichkeiten zur Teilchennatur der Dunklen Materie ist breit. Es gilt als wahrscheinlich, dass die Lösung dieses Jahrhundert-Problems der fehlenden Masse im tiefen Zusammenhang zwischen Astrophysik, Kosmologie und fundamentaler Teilchenphysik zu finden ist. In der Grundlagenforschung gibt es keine Garantien, aber die Entschlüsselung der mikrophysikalischen Eigenschaften dunkler Materie wäre ein Erkenntnisgewinn von monumentaler Signifikanz.
Sie ist nicht zuletzt die im Universum alles dominierende Form der Materie und damit u.a. verantwortlich dafür, dass Sterne, Galaxien, und vielleicht damit das Leben selbst im Universum überhaupt erst entstehen kann. Einhergehend mit den technologischen Entwicklungen, die die experimentellen Suchen abwerfen, wäre ein besseres Verständnis des uns noch verborgenen Sektors nicht zuletzt ganz einfach und ergreifend: ein Kulturgut.
Eine Analogie sei hier zum Schluss noch angebracht: vor 100 Jahren hatte Einstein das Phänomen der Gravitationswellen vorhergesagt. Der direkte Nachweis gelang schließlich im Februar, nach 40 Jahren experimenteller Suche. Das Higgs-Boson wurde 1964 vorhergesagt. Gefunden wurde es fast 50 Jahre später 2012 am CERN. Die experimentelle Suche nach Dunkler Materie ist kaum zwei Dekaden alt und könnte - so die Hoffnung - ein im Vergleich kurzweiliges Unterfangen bleiben.
* Der Beitrag ist in Zusammenarbeit mit dem Hochenergiephysiker Doz. Dr. Wolfgang Lucha entstanden. Lucha leitet am Institut für Hochenergiephysik - HEPHY - der ÖAW eine Forschungsgruppe, die sich der Beschreibung der starken Wechselwirkung widmet, d.i. der Kräfte die Quarks und Gluonen zu Protonen und Neutronen und schließlich zu Atomkernen verbinden.
Weiterführende Links
Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften (HEPHY) http://www.hephy.at/
HEPHY-Broschüre: wir gehen Teilchen auf den Grund. http://www.unserebroschuere.at/hephy/MailView/
CRESST - Die Suche nach der Dunklen Materie. Video 5:38 min. Was habe ich davon? Spinoffs der Teilchenphysik. Video: 3:57 min.
Biofilme - Zur Architektur bakterieller Gemeinschaften
Biofilme - Zur Architektur bakterieller GemeinschaftenFr, 10.06.2016 - 10:45 — Knut Drescher
Viele bakterielle Spezies besiedeln Oberflächen und bilden dicht gepackte Gemeinschaften, die als Biofilme bezeichnet werden. Solche Biofilme sind resistent gegen Antibiotika und machen einen Großteil der globalen bakteriellen Biomasse aus. Der Biophysiker Knut Drescher (Univ. Prof. und Forschungsgruppenleiter am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg) untersucht den Entstehungsprozess von Biofilmen, über den bisher nur wenig bekannt ist. Dieser Prozess beginnt mit der Oberflächenhaftung einer einzigen Zelle und führt nach vielen Zellteilungen zur Bildung von turmförmigen Strukturen. Wie kürzlich entdeckt wurde, ändert sich dabei die Biofilmarchitektur in einigen kritischen Phasen dramatisch.
Bakterielle Biofilme
Bakterien können Gemeinschaften bilden, in denen die Zellen von einer Polymermatrix umschlossen und eingebettet sind. Diese dreidimensionalen bakteriellen Gemeinschaften werden als Biofilme bezeichnet. Biofilme beschichten häufig die Oberflächen zwischen harten Materialien und wässrigen Lösungen sowie die Oberflächen zwischen wässrigen Lösungen und Luft.
Einige Biofilmgemeinschaften sind vorteilhaft für die menschliche Gesundheit, zum Beispiel als Teil der gesunden Haut- und Darmflora. Andere können jedoch dramatische Probleme in der Mundhöhle als Plaque hervorrufen, chronische Infektionen auslösen oder Katheter und Prothesen besiedeln. Zusätzlich können Biofilme erhebliche Kosten durch das Verfaulen von industriellen Flusssystemen und Rohren verursachen. In allen diesen Bereichen, von der Industrie bis zur Klinik, ist das Biofilmwachstum sehr schwer zu kontrollieren oder zu verhindern, da Biofilme resistent gegen diverse Arten von chemischen und physikalischen Stressen sowie gegen Antibiotikabehandlung sind.
Seitdem in den 1980er Jahren erkannt wurde, dass Biofilme allgegenwärtig sind, wird das Biofilmwachstum intensiv erforscht, wobei besonders die essentiellen Gene und die genregulatorischen Mechanismen viel Aufmerksamkeit der Forscher auf sich gezogen haben. Diese Arbeiten haben zu der Entdeckung von neuen regulatorischen Schaltkreisen und wichtigen Matrixkomponenten geführt, die beim Biofilmwachstum zentrale Rollen übernehmen. Dennoch sind viele grundlegende physikalische, chemische und biologische Faktoren, die während des dynamischen Selbstorganisationsprozesses der Biofilmentwicklung mitwirken, noch unbekannt.
Die interne und externe Architektur von Biofilmen ist vermutlich das Resultat von Wechselwirkungen zwischen dem Wachstum von einzelnen Zellen, physiologischer Differenzierung der Zellen, sekretierten Proteinen, Botenstoffen und Heterogenität in der mikroskopischen Umgebung einzelner Zellen. Versuche, diese einzelnen Faktoren und deren Interaktionen zu untersuchen, stützen sich zunehmend darauf, bakterielle Gemeinschaften in mikrofluidischen Kanälen ("haarfeine", transparente Kanäle, Anm. Red.) mikrosopisch zu untersuchen, in denen zentrale Eigenschaften der natürlichen Habitate von Biofilmen nachgebildet werden können. Seitdem ausgereifte Methoden für die Herstellung von mikrofluidischen Kanälen durch Fortschritte in der Lithographieforschung nun auch der biologischen Forschung zur Verfügung stehen, ist die größte methodische Hürde für die Erforschung der Biofilmentstehung, dass bislang keine Methoden verfügbar waren, um einzelne Zellen und deren Genexpression in Biofilmen zu untersuchen. Die meisten Biofilmstudien konnten bisher Biofilme nur als dreidimensionale „Wolken“ aus bakterieller Biomasse untersuchen – mit Ausnahme wiederum von elektronenmikroskopischen Studien, die fixierte, aber nur tote Biofilme mit hoher Auflösung beschreiben konnten. Eine Auflösung einzelner lebender Zellen innerhalb der Bakteriengemeinschaft war dadurch nicht möglich und daher ist bisher wenig über die Prinzipien der zellulären Organisation bekannt, die am Ende aus dem Wachstum von einzelnen bakteriellen Zellen makroskopische Biofilme entstehen lassen.
Globale und interne Biofilmarchitektur
Um die Architektur der Biofilme während ihrer Entstehung zu verstehen, wird eine neuartige mikroskopische Methode benötigt, um alle einzelnen Zellen in Biofilmen zu beobachten. Daher wurde für diese Aufgabe vom Leiter der Forschungsgruppe ein an die speziellen Bedürfnisse der Biofilmforschung angepasstes Mikroskop (ein konfokales Spinning-Disk Mikroskop) entwickelt, das die Einzelzellauflösung in Biofilmen und gleichzeitig nur eine schwache Photobleichung der Fluoreszenzfarbstoffe (mit denen die Zellen markiert wurden, Anm.Red.) hervorruft.
Abbildung 1 zeigt Bilder, in denen die einzelnen Zellen von Vibrio cholerae (Erreger der Cholera) Biofilmen zu sehen sind, die auf Glasoberflächen gewachsen und einem permanenten Strom von Nährmedium für 24 Stunden ausgesetzt worden sind.
Abbildung 1:Die mikroskopische Auflösung von allen einzelnen Zellen in Vibrio cholerae Biofilmen zeigt eine charakteristische interne Architektur, in der Zellen, wie bei einer Asternblüte, eine hohen Grad an Ordnung in der Orientierung aufweisen.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher
Um alle einzelnen Zellen automatisch zu erkennen und Merkmale wie Position, Größe, Form und Genexpression zu messen, wurde eine Bildverarbeitungssoftware entwickelt, deren Resultat eine automatisierte Zellsegmentierung darstellt (Abbildung 2).
Wachstum des Biofilms durch Zellteilung
Nach Anwendung der neuartigen Mikroskopietechnik wurde in Untersuchungen von einzelnen Zellen, die sich an Oberflächen angeheftet hatten und verschiedenfarbige Fluoreszenzproteine produzierten, entdeckt, dass sich Biofilmwachstum von V. cholerae hauptsächlich durch Zellteilung vollzieht und nicht durch das Zusammenkommen und Anheften von externen Zellen an schon existierende Biofilme. Dieses Resultat steht im Einklang mit Studien von V. cholerae Infektionen, die zur Cholera-Erkrankung führen können. In diesen wurde gezeigt, dass wenn die Versuchstiere - junge Hasen - mit V. cholerae Zellen, die verschiedene Fluoreszenzproteine exprimieren, infiziert wurden, die infektionsverursachenden Biofilme im Tierdarm hauptsächlich aus Zellen mit jeweils dem gleichen Fluoreszenzprotein bestehen.
Abbildung 2: Segmentierung und Rekonstruktion von allen einzelnen Zellen des Biofilms aus Abbildung 1. Jede Zelle ist mit einer Farbe koloriert, die die Höhe des Zellzentrums (z: in micrometer) über der Glasoberfläche, auf der der Biofilm wächst, widerspiegelt.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher
Dank der mikroskopischen Einzelzellauflösung und Bilderkennungssoftware konnten auch grundlegende Prozesse während des Biofilmwachstums untersucht werden. Für V. cholerae wurde entdeckt, dass das Wachstum von einzelnen Biofilmkolonien einen sehr heterogenen Zeitverlauf aufweist, obwohl eine Konstanz der mikroskopischen Umgebung innerhalb der bereits erwähnten mikrofluidischer Kanäle gewährleistet werden konnte. Anstelle der Wachstumszeit als Kontrollparameter für Biofilmdynamik konnte eine sehr genaue Korrelation der Biofilmarchitektur mit der Anzahl der Zellen in Biofilmen nachgewiesen werden. Die Zellzahl in Biofilmen erscheint also der natürliche Kontrollparameter der Biofilmdynamik zu sein.
Phasen des Biofilmwachstums von Vibrio cholerae
Durch die Erkennung und Vermessung von allen einzelnen Zellen in V. cholerae Biofilmen in verschiedenen Entwicklungsstadien konnten die grundlegenden Phasen des Biofilmwachstums entdeckt werden (Abbildung 3). Zwischen diesen Phasen erfolgen teils dramatische architektonische Veränderungen.
In Phase I wachsen die Zellen in einer eindimensionalen Linie durch Zellwachstum an den jeweiligen Zellpolen und darauffolgender mittiger Zellteilung.
Dieses eindimensionale Wachstum geht anschließend, wenn die Oberflächenadhäsion der Zellen stärker wird als die Zellpol-zu-Zellpol-Adhäsion, in ein zweidimensionales Wachstum (Phase II) über. In Phase II wachsen dann alle Zellen in einer ungeordneten zweidimensionalen Schicht.
Wenn die Oberflächenadhäsion der Zellen kleiner wird als die Kraft, die die Zellen durch ihr Wachstum aufeinander ausüben, faltet sich die zweidimensionale Zellschicht, was zu einem dreidimensionalen Wachstum des Biofilms mit zueinander ungeordneten Zellen führt. Diese Phase wird als Phase III bezeichnet.
Durch Zellwachstum innerhalb der Polymermatrix erhöht sich die Zellkonzentration erheblich und bewirkt bei Biofilmen mit mehr als 2000 Zellen einen Übergang zu einem Zustand mit hoher Ordnung in der Zellorientierung. Diese Ordnung der Zellen innerhalb größerer V. cholerae Biofilme ist in Abbildung 3, Phase IV, zu sehen: Die Zellen sind radial orientiert, zeigen in der untersten Ebene des Biofilms horizontal nach außen und im Zentrum des Biofilms vertikal nach oben.
Abbildung 3: Die vier verschiedenen Wachstumsphasen von Vibrio cholerae Biofilmen. Phase I erfolgt wenn Biofilme von einer Zellzahl N = 1 bis ca. N = 6 wachsen. Phase II beschreibt das räumlich zweidimensionale Wachstum von Biofilmen mit Zellzahlen zwischen 20 und 100. Phase III beschreibt Biofilme mit 200-1000 Zellen und in Phase IV befinden sich Biofilme mit mehr als 2000 Zellen. Die räumlichen Koordinaten werden durch x, y, z dargestellt, wobei z die Höhe über der Glasoberfläche (in Mikrometer) angibt. Die Orientierung jeder Zelle wird durch die z-Komponente des Einheitsorientierungsvektors dargestellt und als nz bezeichnet. Der Mittelwert von nz von vielen Zellen an der gleichen räumlichen Position in verschiedenen Biofilmen wird als (nz) bezeichnet. Der Radius eines Biofilms in der xy-Ebene wird als ρ bezeichnet.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher
Schlussfolgerung
Die äußeren und inneren Biofilmarchitekturen durchlaufen starke Veränderungen während des Entwicklungsprozesses von einzelnen Zellen zu großen und reifen Biofilmgemeinschaften. Physikalische Mechanismen, die auf Wachstumsmechanik und Adhäsion basieren, können die architektonischen Veränderungen teilweise erklären. Wie sich jedoch die Biofilmmatrix, in der die Zellen während des Biofilmwachstums eingebettet sind, im Laufe des Entwicklungsprozesses verändert und welchen Einfluss die sich ändernde zelluläre Architektur und Matrix auf die Wirksamkeit beispielsweise von verschiedenen Antibiotikabehandlungen haben, werden zukünftige Experimente zeigen. Deren Ergebnisse versprechen die bessere Behandlung von durch Biofilmen hervorgerufenen Krankheiten.
*Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016, https://www.mpg.de/9864442/mpi_terr_Mikro_JB_2016?c=10583665 . Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne die zugrundeliegenden, nicht frei zugänglichen Literaturstellen. Diese können im Forschungsbericht nachgelesen und auf Anfrage zugesandt werden.
Weiterführende Links
Max Planck Institute for Terrestrial Microbiology, Forschungsgruppe: Bakterielle Biofilme (Knut Drescher) http://www.mpi-marburg.mpg.de/drescher
Science Action: How is bacterial quorum sensing influenced by microfluidics? (Drescher) Video (englisch) 4:46 min. https://www.youtube.com/watch?v=vKwQceN4qDE (1st Place "Science Mechanic" prize: Discover how the cell-to-cell communication between bacteria can be studied with unprecedented detail inside microfluidic chambers, in order to inhibit formation of sticky biofilms on medical devices such as catheters and stents. Produced by Team Microfluidics: Zach Donnell, David Harris, and Carey Nadell)
How bacteria form a biofilm. Video (englisch) 2:35 min. https://vimeo.com/30571458 (Andrew Dopheide , animations produced for the Centre for Microbial Innovation, at the University of Auckland, New Zealand.
Biofilm formation. Video (englisch) 4:36 min. (Banu Prakash, GIMS; (Standard YouTube Lizenz) https://www.youtube.com/watch?v=FfY19rpnbew
Microfluidics: The laboratory in the palm of your hand. Video (englisch) 3:22 min (Standard YouTube Lizenz) https://www.youtube.com/watch?v=e9eKZ3lNK-E
Von Elementarteilchen zu geordneten Strukturen
Von Elementarteilchen zu geordneten StrukturenFr, 03.06.2016 - 17:42 — Redaktion
Themenschwerpunkt: Aufbau der Materie Woher stammt die Materie auf unserer Erde, was ist Materie überhaupt, woraus besteht sie und durch welche Kräfte wird sie zusammengehalten?
Diese Fragen beschäftigen seit jeher die Menschheit. Das "Woher" überstieg jedes Vorstellungsvermögen - dafür wurden (und werden auch heute noch) übernatürliche Kräfte bemüht. Es entstanden folglich Schöpfungsmythen und diese entsprachen naturgemäß den jeweiligen Lebensumständen der einzelnen Kulturen. Geradezu modern wirkt hier aber bereits der Vorsokratiker Anaxagoras (der allerdings auch wegen Gottlosigkeit angeklagt wurde). Anaxagoras lebte im 5. vorchristlichen Jahrhundert, übte großen Einfluss auf die Zeit des Perikles und danach aus und formulierte für die Anfangssituation ein "Apeiron" - ein Grenzenloses:
"Alle Dinge waren anfänglich zusammen, grenzenlos was ihre Zahl betraf, ebenso wie ihre kleinen Ausmaße. Auch die Kleinheit war unbegrenzt (Abbildung 1, frei übersetzt: Redn.)
Abbildung 1. Das Apeiron des Anaxagoras (aus Fragments and Commentary. The First Philosophers in Greece. K. Paul et al., 1898: Hanover Historical Texts Project)
Dass Materie aus Grundbausteinen besteht, die nicht mehr teilbar sind, ist in schriftlichen Fragmenten des griechischen Philosophen Demokrit (460 - 371 v. Chr.) postuliert:
"Nichts existiert, als die Atome und das Leere. Alles andere sind Anschauungen."
Vom griechischen Wort für unteilbar "atomos" leitet sich unser Begriff der Atome ab, auch wenn sich deren Unteilbarkeit als überholt herausgestellt hat. Die Vorstellung eines leeren Raums, in dem die Atome umherschwirren, wurde von den nachfolgenden Kulturen und philosophischen Richtungen kategorisch abgelehnt. Man hat vielmehr die Welt auf der Basis der vier Elemente - Feuer, Wasser, Luft und Erde - zu erklären versucht.
Erst rund 2200 Jahre später sollte der Atombegriff wieder aktuell werden.
Abbildung 2. Elemente verbinden sich miteinander in ganzzahligen Verhältnissen zu Verbindungen. Erste Seite von John Dalton's "A New System of Chemical Philosophy" (1808; Bild: Wikipedia). Es waren Chemiker - Joseph L. Proust und John Dalton - die am Beginn des 19. Jahrhunderts herausfanden, dass die chemischen Elemente sich nur in ganzzahligen Verhältnissen miteinander zu Molekülen verbinden. Dalton folgerte:
„Elemente bestehen aus für das jeweilige Element charakteristischen, in sich gleichen und unteilbaren Teilchen, den Atomen“
(Abbildung 2). Bei chemischen Reaktionen handelte es sich dementsprechend darum, dass sich die Atome der Ausgangsstoffe neu anordneten.
Atome sind nicht unteilbar
Dass Atome weiter zerlegt werden können, wurde im 20. Jahrhundert eindrucksvoll demonstriert:
- Ionisation führt zur Abspaltung der negativ geladenen Elektronen,
- der Atomkern lässt sich in Protonen mit elektrisch positiver Ladung und ungeladene Neutronen teilen.
Chemische Elemente werden durch eine jeweils idente Zahl von Protonen im Kern -die "Ordnungszahl" -definiert und besitzen (im elektrisch ungeladenen Zustand) eine jeweils gleiche Zahl an Elektronen in der Elektronenhülle. Die Atome eines Elements können aber eine unterschiedliche Zahl an Neutronen aufweisen - es sind dies dies die Isotope eines Elements.
Radioaktivität: das Verhältnis von Protonen zu Neutronen im Kern ist für dessen Stabilität verantwortlich. Isotope eines Elements mit relativ zu vielen oder zu wenigen Neutronen sind radioaktiv, d.h. unter Emission von Teilchen/Stahlung - radioaktiver Strahlung - wandelt sich der Kern in einen anderen Kern um oder ändert seinen Energiezustand.
Elementarteilchen
Elektronen gelten als - unteilbare - Elementarteilchen, Protonen und Neutronen sind dagegen intern strukturiert, aus jeweils drei Elementarteilchen, den Quarks, zusammengesetzt (Abbildung 3).
Abbildung 3. Grundbausteine der Materie- Elementarteilchen (stark vereinfachte Chronologie)
In der Folge wurden weitere Arten von Elementarteilchen entdeckt, Teilchen, die beim Zerfall von radioaktiven Atomen oder bei Zusammenstößen hochenergetischer anderer Teilchen erzeugt werden können. Das Letztere geschieht auf natürliche Weise, wenn hochenergetische Teilchen aus der kosmischen Strahlung (Höhenstrahlung) auf die Atome in der Erdatmosphäre treffen. Ebenso entstehen sie in den Experimenten an großen Teilchenbeschleunigern, wo auf enorm hohe Geschwindigkeit - annähend Lichtgeschwindigkeit - gebrachte Teilchen - zumeist Protonen aber auch ganze Atome - zur Kollision gebracht werden. Eine schier unendliche Vielfalt an Teilchen wurde so entdeckt - man spricht von einem Teilchenzoo. Derartige Versuche, wie sie vor allem am größten Beschleuniger Forschungszentrum CERN (Europäische Organisation für Kernforschung) bei Genf durchgeführt werden, haben fundamentale Erkenntnisse erbracht, wie die Materie aus Elementarteilchen aufgebaut ist und wie diese miteinander wechselwirken
Auf dem Weg zur Weltformel: das Standardmodell
Das Standardmodell der Elementarteilchenphysik ist die bis jetzt umfassendste Theorie zum Aufbau unserer Welt. Auf Basis der nun bekannten Elementarteilchen - zusammengefasst in die Gruppen Leptonen (dazu gehören Elektron und Neutrino), Quarks und Kraftteilchen (Photon, Gluon, W-, Z-Boson) - und 3 der 4 fundamentalen Wechselwirkungen zwischen diesen (starke, schwache und elektromagnetische Wechselwirkungen) lässt sich die uns bekannte Materie beschreiben. Die Gültigkeit des Standardmodells wird an Hand experimenteller Bestätigungen von Voraussagen des Modells erhärtet. Eine zentrale Voraussage war hier die Existenz eines Feldes (Higgs-Feld), das das Universum durchzieht, mit dem die Elementarteilchen wechselwirken und daraus ihre Masse beziehen. 2012 konnte in Experimenten am Large-Hadron-Collider (LHC) des CERN ein neues Teilchen entdeckt werden, dessen detektierte Eigenschaften dem des postulierten Higgs-Teilchens entsprechen.
Das Standardmodell ist ein grandioser Meilenstein auf dem Weg zu einer Weltformel, hat aber noch Schwächen. Insbesondere wird die 4. fundamentale Kraft, die besonders schwache Gravitation noch nicht erfasst, das Modell ist auch nicht in der Lage "Dunkle Materie" zu beschreiben. Mit der seit dem Vorjahr wesentlich erhöhten Energie des Teilchenbeschleuniger LHC am CERN und neuen hochpräzisen Analysemethoden erwarten die Forscher Abweichungen im Standardmodell zu entdecken, die zu dessen Weiterentwicklung führen könnten. Aus diesen Experimenten gibt es aktuell einen Hinweis darauf, dass ein neues, superschweres Materieteilchen existieren könnte, das mit den bisherigen Theorien nicht erklärbar ist.
Aufbau der Materie im ScienceBlog
Die Hauptgewicht dieses Schwerpunkts erstreckt sich von (der Entstehung der) Elementarteilchen über Atome und Moleküle bis zu geordneten Strukturen (Abbildung 4). Es sind dies Gebiete, die überwiegend der Physik und der physikalischen Chemie zuzuordnen sind.
Abbildung 4. Von Elementarteilchen zum Atom zum Molekül zur geordneten Struktur (Kristallstruktur) am Beispiel von Wasserstoff und seiner Verbindung Wasser dargestellt. (Die Eisstruktur stammt aus Wikimedia: https://commons.wikimedia.org/wiki/File:Liquid-water-and-ice.png; CC BY-SA 3.0 )
In Hinblick auf fundamentale Erkenntnisse der Teilchenphysik liegt naturgemäß ein besonderer Fokus auf dem größten und leistungsstärksten Teilchenbeschleuniger der Welt, dem LHC am CERN.
Folgende Artikel sind bereits erschienen:
Teilchen im Weltall:
- Peter Christian Aichelburg. 16.08.2012. Das Element Zufall in der Evolution.
- Peter Christian Aichelburg 25.12.2015. Vom Newtonschen Weltbild zur gekrümmten Raumzeit – 100 Jahre Allgemeine Relativitätstheorie.
- Siegfried J. Bauer. 28.06.2012. Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener.
- Wolfgang Baumjohann 29.09.2011 Menschen in der Weltraumforschung – mehr als bessere Roboter?
- Franz Kerschbaum. 24.11.2011. Leben am Mars, Neutrinos und ein schmaler Grat….
- Josef Prader 17.06.2016. Der dunklen Materie auf der Spur
- Gottfried Schatz. 25.09.2012. Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt.
Elementarteilchen:
- Manfred Jeitler. 07.02.2013 Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen.
- Manfred Jeitler. 21.02.2013 . Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?
- Manfred Jeitler. 23.08.2013. CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?
- Manfred Jeitler. 06.09.2013. CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu braucht man das?
- Manfred Jeitler . 13.11. 2015. Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.
- Inge Schuster. 26.09.2014. Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1.
- Inge Schuster. 10.10.2014. Woraus besteht alle Materie? ScienceBlog besuchte das Cern – Tag 2.
Radioaktivität
- Helmut Rauch. 04.08.2011. Ist die Kernenergie böse?
- Lore Sexl. 20.09.2012. Lise Meitner – weltberühmte Kernphysikerin aus Wien.
- Walter Kutschera. 04.10.2013. The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks.
Vom Molekül zur Struktur
- Christan Noe. 15.11.2013. Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle.
- Redaktion. 27.02.2015. Hermann Mark und die Kolloidchemie. Anwendung röntgenographischer Methoden.
- Klaus Müllen. 05.09.2014. Graphen – Wunderstoff oder Modeerscheinung?
- Bernhard Rupp 20.03.2014. Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag.
- Bernhard Rupp 20.03.2014. Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika.
- Redaktion. 04.09.2015. Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen.
Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts
Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des GedächtnisverlustsFr, 27.05.2016 - 15:18 — Francis S. Collins
Lange vor den ersten Anzeichen von Gedächtnisproblemen erfolgen bei Alzheimerkranken bereits Veränderungen im Gehirn. Charakteristisch dafür sind zwei Typen unlöslicher Proteinablagerungen: beta-Amyloid Plaques ausserhalb und verklumpte Tau-Protein Fibrillen innerhalb der Nervenzellen des Gehirns. Francis Collins, Direktor der US National Institutes of Health, weist hier auf eine neue Studie hin, die Kartierungen dieser Ablagerungen mittels bildgebender Verfahren (PET- und MRI-Scans) ausgeführt hat. Die Anreicherung des Tau-Proteins im Schläfenlappen korreliert dabei eng mit den Symptomen des Gedächtnisverlustes. Demnach könnten PET-Scans der Tau-Protein Verteilung bereits frühzeitig Aussagen über das Stadium der Krankheit und Prognosen über deren Fortschreiten erlauben und das Ansprechen auf Therapien kontrollieren.
Viele Jahre bevor noch erste Anzeichen von Gedächtnisproblemen auftreten, setzen bei Menschen mit Alzheimerkrankheit bereits Veränderungen im Gehirn ein. Zu derartigen Veränderungen zählt eine allmähliche Ansammlung von beta-Amyloid Peptiden und Tau-Proteinen, die Plaques (unlöslichen Proteinablagerungen außerhalb der Nervenzellen, Anm. Red.) und verklumpte Tau-Fibrillen (innerhalb der Zellen, Anm. Red.) bilden und allgemein als Erkennungszeichen der Krankheit gelten. Während Amyloid-Plaques breite Aufmerksamkeit als frühe Anzeiger der Erkrankung erlangt haben, gab es bis vor Kurzem keine Möglichkeit die Zunahme von unlöslichem Tau-Protein im Gehirn eines lebenden Menschen zu bestimmen. Dementsprechend weiß man viel weniger über den Zeitablauf und die Verteilung der Tau-Protein Fibrillen und wie dies mit dem Gedächtnisverlust zusammenhängt.
Kartierung von Tau-Protein und beta-Amyloid
In einer eben erschienenen Untersuchung hat ein vom National Institute of Health (NIH) unterstütztes Forscherteam eine Reihe erster Kartierungen erstellt, die zeigen wo sich in frühen Stadien der Alzheimerkrankheit Tau-Proteine in den Gehirnen ansammeln [1]. Abbildung 1. Diese neuen Befunde weisen darauf hin, dass beta-Amyloid zwar ein verlässliches frühes Anzeichen der Alzheimerkrankheit darstellt, dass Tau-Protein aber wesentlich bessere Vorhersagen über das Nachlassen des Gedächtnisses eines Patienten und sein mögliches Ansprechen auf eine Therapie erlauben könnte.
Abbildung 1. Positronen-Emissions-Tomographie (PET) zeigt die Verteilung von Tau-Protein (obere Reihe) und beta-Amyloid (untere Reihe) im Gehirn in einer frühen Phase der Alzheimerkrankheit. Rot: höchste Konzentration von Protein-gebundenem Diagnostikums, blau: niedrigste Konzentration, gelb. orange: mittlere Konzentrationen.(Credit: Brier et al., Sci Transl Med)
Ziel der von Beau Ances und Matthew Brier (Washington University, St. Louis) geleiteten Studie war es zu erkunden wie die Anhäufung von Tau-Proteinen und beta-Amyloid Plaques - auch wenn diese mit unterschiedlichen pathologischen Prozessen zusammenhängen - klinisch mit dem Fortschreiten der Alzheimerkrankheit korrelieren. Sie wandten dazu bildgebende Verfahren für beta-Amyloid und Tau-Protein an, wobei sie ein neu erhältliches Diagnostikum für das Tau-Protein anwandten: wenn dieses Diagnostikum intravenös injiziert wird, bindet es an das Tau-Protein und kann mittels Positronen-Emissions-Tomographie (PET) im Gehirn sichtbar gemacht werden.
Die Forscher untersuchten insgesamt 46 Personen mit einem Durchschnittsalter von 75 Jahren - 36 Personen dienten als gesunde Kontrolle, 10 litten laut Diagnose an einer leichten Form der Alzheimerkrankheit. Die Verteilung von beta-Amyloid und Tau-Protein im Gehirn wurde an den Studienteilnehmern jeweils mittels der bildgebenden Verfahren Magnetresonanz-Tomographie (MRI) und Positronen-Emissions-Tomographie visualisiert. Alle Teilnehmer unterzogen sich auch standardisierten Gedächtnistests auf Demenz. Zusätzlich erfolgten bei den meisten Teilnehmern die Bestimmung von beta-Amyloid und Tau-Protein in der Rückenmarksflüssigkeit und eine neuropsychologische Testung.
Verglichen mit den gesunden Kontrollen ließen die Gehirnaufnahmen der Patienten mit leichter Alzheimerkrankheit deutlich gestiegene Gehalte an Tau-Proteinen erkennen. Abbildung 2. Die Unterschiede waren insbesondere im Schläfenlappen zu beobachten, einer Gehirnregion, deren Rolle für das Gedächtnis bekannt ist. Die Forscher beobachteten auch Anstiege des beta-Amyloid an Personen mit Alzheimer, aber ebenso auch in einigen kognitiv nicht beeinträchtigten Personen. Derartige Amyloid-Plaques entwickelten sich besonders ausgeprägt in den Frontal- und Scheitellappen des Gehirns - Regionen, die für die Integration von Sinneswahrnehmungen und höhere kognitive Prozesse von zentraler Bedeutung sind, Gedächtnis und operative Funktionen miteingeschlossen.
Abbildung 2. Zusammengesetztes PET-Scan Bild. (Zunehmende Intensität der Rotfärbung bedeutet mehr Tau-Protein.) Links: mittlere Tau-Proteinkonzentrationen von Personen mit normalen kognitiven Fähigkeiten, Rechts: gemittelte Tau-Proteinkonzentrationen von Personen mit milden Symptomen der Alzheimerkrankheit. (Credit: Matthew R. Brier, Washington University, St. Louis)
Anreicherung von Tau-Protein korreliert mit Symptomen des Gedächtnisverlustes
Obwohl beta-Amyloid und Tau-Protein tendenziell in unterschiedlichen Regionen des Gehirns akkumulieren, fanden die Forscher, dass die Anreicherung des Tau-Protein im Schläfenlappen eng mit den Symptomen des Gedächtnisverlustes korrelierte, die mit Hilfe standardisierter schriftlicher Tests für kognitive Fähigkeiten erhoben wurden. Die beta-Amyloid Aufnahmen zeigten dagegen nicht dieselbe Aussagekraft für die kognitiven Eigenschaften einer Versuchsperson.
Die auf PET-Imaging basierende Bestimmung der Gesamtbelastung mit Tau-Protein spiegelte genau die auf Grund von Analysen der Rückenmarksflüssigkeit erhaltenen Werte wider. Die Bilder bieten darüber hinaus aber mehr an Information: wo Tau-Protein zu akkumulieren ansetzt, wenn sich das Gedächtnis zu verschlechtern beginnt. Zweifellos sind weitere Untersuchungen an einer größeren Zahl von Probanden über einen größeren Zeitraum nötig.
Auf Grund ihrer Daten vermuten Ances und seine Kollegen, dass beta-Amyloid sich vorerst in diffuser Weise im ganzen Hirn anreichert. Gedächtnisprobleme tauchen erst später auf, dann wenn beide Typen von Ablagerungen - von Amyloid und Tau-Proteinen - in bestimmten Regionen des Gehirns vorliegen.
PET-Verfahren zur Diagnose, Prognose des Krankheitsverlaufs und Kontrolle der Wirksamkeit von Therapien
Die Amyloid-Visualisierung ist ein vielversprechendes Verfahren, um die Alzheimerkrankheit bereits in einer frühen Phase zu diagnostizieren. Menschen suchen den Arzt aber häufig erst dann auf, wenn bereits Probleme mit ihrem Gedächtnis begonnen haben. Hier kann die Visualisierung des Tau-Proteins ein wichtiges Mittel sein, um das Stadium der Erkrankung zu bestimmen. Mit dem Fortschritt in der Entwicklung neuer Alzheimer-Therapien - inklusive solcher, die gegen beta-Amyloid und Tau-Protein gerichtet sind - könnten PET-Verfahren sich sehr nützlich erweisen, um eine für den Patienten möglichst günstige Therapie auszuwählen und deren Wirksamkeit auf den weiteren Verlauf der Erkrankung zu kontrollieren.
Inzwischen unterstützt die Forschungsförderung des NIH gezielt PET-Imaging des Tau-Proteins in klinischen Studien. Ein wichtiges Beispiel dafür ist das Projekt "The Accelerating Medicines Partnership-Alzheimer’s Disease (AMP-AD) Biomarkers Project", das vom National Institute on Aging des NIH überwacht wird. Diese Projekt stellt ein Konsortium von drei klinischen Studien (in Phase II/III) dar, in welchen anti-Amyloid Therapien zur Prävention oder Verzögerung der Alzheimerkrankheit getestet werden. Das Imaging des Tau-Protein ist bereits in diese Studien aufgenommen. Der Fortschritt im Visualisieren von Tau-Protein und Prognostizieren von kognitivem Abbau könnte eine Hilfe für die rund 5 Millionen Amerikaner darstellen, die schon an der Alzheimerkrankheit leiden [2, 3 ]. Darüber hinaus wird diese Entwicklung den Forschern ein wichtiges Instrument in die Hand geben, um eine Reihe neuer präventiver Therapien zu testen, deren Entwicklung höchste Priorität hat.
[1] Tau and Aβ imaging, CSF measures, and cognition in Alzheimer’s disease. Brier MR, Gordon B, Friedrichsen K, McCarthy J, Stern A, Christensen J, Owen C, Aldea P, Su Y, Hassenstab J, Cairns NJ, Holtzman DM, Fagan AM, Morris JC, Benzinger TL, Ances BM. Sci Transl Med. 2016 May 11;8(338):338ra66.
[2] Alzheimer disease in the United States (2010–2050) estimated using the 2010 census. Hebert LE, Weuve J, Scherr PA, Evans DL.Neurology. 2013 May 7;80:1778-1783.
[3] Alzheimer’s Disease. Centers for Disease Control and Prevention. 2016 March 5.
* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien zuerst (am. 24. Mai 2016) im NIH Director’s Blog, https://directorsblog.nih.gov/2016/05/24/alzheimers-disease-tau-protein-... . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).
Im Artikel angeführte Links:
- Alzheimer’s Disease Fact Sheet (National Institute on Aging/NIH) https://www.nia.nih.gov/alzheimers/publication/alzheimers-disease-fact-s...
- Beau Ances (Washington University School of Medicine, St. Louis) https://neuro.wustl.edu/research/research-labs-2/ances-laboratory/
- Accelerating Medicines Partnership (NIH) https://www.nih.gov/research-training/accelerating-medicines-partnership.... NIH Support: National Institute on Aging; National Institute of Neurological Disorders and Stroke; National Center for Advancing Translational Science
Weiterführende Links
National Institutes of Health (NIH). https://www.nih.gov/
Alzheimer: Eine dreidimensionale Entdeckungsreise. Video 6:28 min. https://www.youtube.com/watch?v=paquj8hSdpc
Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust
Planet Wissen - Diagnose Alzheimer .Video 58:17 min, https://www.youtube.com/watch?v=mp9A2esKt-A
Francis Collins: Wir brauchen bessere Medikamente – und zwar sofort (TEDMED 2012) Video 14:33 min. https://www.ted.com/talks/francis_collins_we_need_better_drugs_now?langu...
Artikel im ScienceBlog
Gottfried Schatz: 03.07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich. http://scienceblog.at/die-bedrohliche-alzheimerkrankheit.
Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und Armut
Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und ArmutFr, 20.05.2016 - 12:35 — Bill and Melinda Gates Foundation
Kriegerische Konflikte und Verfolgung, ebenso wie Armut, Hunger und ein Fehlen von Zukunftsperspektiven veranlassen Menschen aus ihrer Heimat zu flüchten, in der Hoffnung anderswo ein menschenwürdiges Auskommen zu finden. Steigende Flüchtlingsströme sind insbesondere aus afrikanischen Staaten zu erwarten, die zudem ein enormes Bevölkerungswachstum aufweisen. Eine Chance die Migration abzuschwächen birgt die "Alliance for a Green Revolution in Africa" (AGRA), die auf der Überzeugung basiert, dass Investitionen in die Landwirtschaft das beste Mittel zum Kampf gegen Armut und Hunger darstellen. In die landwirtschaftliche Entwicklung - eine der wichtigsten Initiativen der Bill & Melinda Gates-Stiftung - wurden bis jetzt mehr als 2 Milliarden US-Dollar investiert. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung [1] und dem Jahresbrief 2015 [2] entnommen.
Zwischen 1960 und 1980, während der sogenannten „Grünen Revolution“ in Asien und Lateinamerika, wurde die Nahrungsmittelproduktion verdoppelt und es wurden Hunderte von Millionen Menschenleben gerettet. Diese „Grüne Revolution“ veränderte Bewirtschaftungsmethoden und verbesserte den Anbau von Hauptgetreidesorten, wie Mais, Weizen und Reis.
Daran anschließend verlagerten zahlreiche Regierungen und Spender ihre Aufmerksamkeit auf andere Problembereiche, weil sie der Meinung waren, dass das Problem unzureichender Nahrungsmittelversorgung in den Entwicklungsländern gelöst worden war. Das war allerdings nicht der Fall in Afrika südlich der Sahara, wo einige der Ansätze der Grünen Revolution erprobt wurden, aber scheiterten.
Seither haben Bevölkerungswachstum, steigendes Einkommen, nachlassende natürliche Ressourcen und der Klimawandel dazu geführt, dass die Nahrungsmittelpreise gestiegen sind und die landwirtschaftliche Produktivität erneut an der Kapazitätsgrenze ist.
Probleme der Kleinbauern
Viele der Betroffenen sind Kleinbauern. Drei Viertel der Ärmsten der Welt sind für ihre Nahrungsmittel und ihr Einkommen auf kleine Landflächen angewiesen, die nicht größer als ein Fußballfeld sind. Die meisten von ihnen kommen nur schlecht über die Runden und müssen gegen unproduktive Böden, Pflanzenkrankheiten, Ungeziefer und Dürre kämpfen. Ihre Nutztiere sind häufig schwach oder krank. Zuverlässige Märkte für ihre Produkte und zuverlässige Informationen zur Preisbildung sind schwer zu finden und die Regierungen handeln selten in ihrem Interesse.
Aufgrund dieser Faktoren leiden Millionen von Familien unter Armut, Hunger und Mangelernährung, die zu den weltweit schwersten Krankheiten führen und wesentlich zur Kindersterblichkeit beitragen. Gleichzeitig betont eine der Folgen der ersten Grünen Revolution, nämlich der übermäßige Einsatz von gewässerverschmutzenden Düngemitteln, wie wichtig Nachhaltigkeit für den Schutz der Umwelt und die Gesundheit des Menschen ist.
Geringe Ernteerträge…
In Afrika südlich der Sahara arbeiten 70% der Menschen in der Landwirtschaft. (Im Vergleich zu nur 2% in den Vereinigten Staaten). Trotzdem ist Afrika zum Überleben auf Importe und Nahrungsmittelhilfe angewiesen. Obwohl der afrikanische Kontinent der ärmste der Welt ist, gibt er pro Jahr ca. 50 Milliarden US-Dollar aus, um Nahrungsmittel aus reichen Ländern zu kaufen.
Das liegt weitgehend daran, dass afrikanische Bauern nur einen Bruchteil des Ernteertrags amerikanischer Bauern haben. Der durchschnittliche Maisertrag in Afrika liegt zum Beispiel bei 30 Bushel pro Acre Land (ca 1,9 t/ha, Anm. Red.) In den Vereinigten Staaten ist der Ertrag fünfmal so hoch (Abbildung 1).
Abbildung 1. Afrikanische Bauern haben einen fünfmal niedrigeren Maisertrag als die USA (Source: United Nations Food and Agriculture Organization )
…und Mangelernährung
Ein weiteres damit verbundenes Problem ist, dass die Nahrungsmittel in Afrika nicht nahrhaft oder abwechslungsreich genug sind, um eine gesunde Ernährungsgrundlage zu bieten. Zahlreiche Afrikaner ernähren sich fast hauptsächlich von stärkehaltigen Grundnahrungsmitteln—Mais, Reis oder Maniok. Daher herrscht Mangelernährung auf einem Kontinent mit viel Landwirtschaft, die sich auf die kognitive und physische Entwicklung von Kindern auswirkt und letztendlich die Kindersterblichkeitsrate, Lernerfolge in der Schule und die Produktivität von Arbeitnehmern in den Städten beeinträchtigt.
Das Ziel der Gates Foundation
Wir wollen diesen Bauernfamilien dabei helfen,
- mehr Nahrungsmittel zu produzieren und
- ihr Einkommen zu erhöhen und gleichzeitig
- das Land für zukünftige Generationen zu erhalten.
Wenn Bauern mehr Nahrungsmittel anbauen und mehr verdienen, können sie ihre Kinder ausreichend ernähren, sie auf eine Schule schicken, sich um die Gesundheit ihrer Familie kümmern und in ihre landwirtschaftlichen Betriebe investieren. Dadurch werden ihre Gemeinschaften wirtschaftlich stärker und stabiler.
Bauern bei der Erhöhung des Ernteertrags zu helfen, erfordert einen umfassenden Ansatz, einschliesslich des Einsatzes von Samen, die widerstandsfähiger gegenüber Krankheiten, Dürre und Überschwemmungen sind; Informationen von zuverlässigen lokalen Quellen über produktivere Landwirtschaftsmethoden und –Technologien; besseren Zugang zu den Märkten und eine Regierungspolitik im Interesse der Bauernfamilien.
Wir konzentrieren uns besonders auf Bäuerinnen, weil Frauen einen Großteil der landwirtschaftlichen Arbeiten ausführen und sich ihr Wohlbefinden auf die ihr Wohlbefinden auf die Gesundheit, das Wohlergehen und die Ausbildung ihrer Kinder auswirkt (Abbildung 2). Abbildung 2. Frauen unterstützen. Über ein lokales Landwirtschaftsprogramm hat die fünffache Mutter Maria Mtele (grünes T-Shirt) gelernt, wie sie das Einkommen für ihre Familie erhöhen kann, um ein neues, stabileres Haus zu bauen
Die Strategie der Gates Foundation
Landwirtschaftliche Entwicklung ist eine der wichtigsten Initiativen der Bill & Melinda Gates-Stiftung. Bisher haben wir mehr als 2 Milliarden US-Dollar in die landwirtschaftliche Entwicklung investiert, hauptsächlich in Afrika südlich der Sahara und in Südasien. Unser Ansatz basiert auf den folgenden Prinzipien:
- Wir hören den Bauern zu und gehen auf ihre jeweiligen Bedürfnisse ein. Wir sprechen mit den Bauern über das Getreide, das sie anbauen und essen möchten und über ihre speziellen Herausforderungen. Wir arbeiten mit Organisationen zusammen, die diese Herausforderungen verstehen und darauf eingehen können, und wir investieren in Forschung, um relevante und günstige Lösungen zu finden, die von den Bauern gefordert und eingesetzt.
- Erhöhung der landwirtschaftlichen Produktivität. Wir unterstützen ein Gesamtkonzept, um Kleinbauern zum Erfolg zu verhelfen. Dazu gehören Zugang zu gesünderen Samen, wirksamere Werkzeuge und landwirtschaftliche Managementverfahren, lokal relevantes Wissen, neue digitale Technologie und zuverlässige Märkte. Wir setzen uns auch für Landwirtschaftspolitik ein, die den Bauern dabei hilft, sich und ihre Gemeinschaften besser zu ernähren.
- Die Unterstützung von nachhaltigen landwirtschaftlichen Verfahren. In einer Ära von zunehmend knapper werdenden Ressourcen und zunehmenden Auswirkungen des Klimawandels fordern wir Bauern dazu auf, nachhaltige Verfahren zu akzeptieren und einzusetzen, die es ihnen ermöglichen, den Anbau auf weniger Land, mit weniger Wasser, Düngemitteln und anderen teuren Aufwendungen zu erhöhen und gleichzeitig die natürlichen Ressourcen für zukünftige Generationen zu schützen.
- Mehr Einfluss mit Partnern erreichen. Wir werden unsere Strategie effektiver den Fördergelder-Empfängern und anderen Partnern, wie Regierungen, Nicht-Regierungsorganisationen, traditionellen und neuen Spendern und dem privaten Sektor mitteilen und mit ihnen das Gelernte teilen. Wir verfügen zwar über signifikante Ressourcen, aber diese sind nur ein Teil dessen, was wirklich benötigt wird. Wenn wir wirksam mit anderen zusammenarbeiten können wir Bauernfamilien wesentlich besser helfen.
Unsere Fokusbereiche
Wir investieren in die folgenden strategischen Bereiche, mit deren Hilfe wir auf die Herausforderungen und die Realtitäten der Bauernfamilien in Entwicklungsländern eingehen können:
Forschung und Entwicklung
Wir unterstützen Forschung, um produktivere und nahrhaftere Sorten von Hauptgetreiden zu entwickeln, die von Bauernfamilien angebaut und konsumiert werden. Dazu gehören Sorten, die den jeweiligen Bedingungen vor Ort angepasst sind und den Bauern Vorteile, wie höhere Erträge, mehr Nährwert sowie Widerstandsfähigkeit gegenüber Dürre, Überschwemmungen und Ungeziefer bieten. Wir finanzieren Forschungsprojekte, um bessere Möglichkeiten für den Umgang mit Boden- und Wasserressourcen zu finden sowie Ernteverluste durch Verderb, Unkraut, Ungeziefer, Krankheiten und andere Bedrohungen zu reduzieren.
Landwirtschaftspolitik
Rechtzeitige, relevante und genaue Informationen sind für Bauern sehr wichtig. Politische Entscheidungsträger in Entwicklungsländern benötigen auch gute Daten, die ihnen bei der Entscheidungsfindung helfen. Wir unterstützen das Erfassen von Daten, sowie Forschungsprojekte und die Analyse landwirtschaftlicher Politik, um die Auswirkungen verschiedener Ansätze zu bewerten, die Bauern mit richtigen Informationen zu versorgen und die Auswirkungen nationaler und internationaler Landwirtschaftspolitik zu beurteilen. Bei unseren Forschungsprojekten messen wir auch den Forschritt unserer Fördergelder, um sicherzugehen, dass die Bauernfamilien auch wie geplant davon profitieren.
Nutztiere
Nutztiere sind ein wichtiger Teil der Landwirtschaft in Entwicklungsländern und wichtig für das Leben von mehr als 900 Millionen Menschen in Afrika südlich der Sahara und in Südasien. Wir unterstützen Projekte zur Verbesserung der Gesundheit und der Produktivität der Nutztiere, insbesondere von Hühnern, Ziegen und Kühen, durch die Verbesserung des genetischen Materials der Tiere und ihre tierärztliche Versorgung. Um sicherzugehen, dass Bauern von den Technologien für Tiergesundheit und Genetik profitieren, testen wir Modelle, um Bauern mit dem erforderlichen Wissen und den Werkzeugen auszustatten, die ihnen eine Produktionserhöhung und Zugang zu stabilen Märkten ermöglichen. Unsere Arbeit zielt insbesondere darauf ab, einkommenschaffende Chancen für Frauen zu schaffen, die möglicherweise nur wenig Kontrolle über produktive Ressourcen wie Land haben, die aber gelegentlich Nutztiere besitzen, besonders Geflügel und Ziegen.
Zugang und Marktsysteme
Wir unterstützen Projekte, um neue und angemessene Werkzeuge und landwirtschaftliche Verfahren zu den Bauern zu bringen. Dazu gehören verbesserte Samen und Zugang zu besserem Boden, mehr Wasser und Tierhaltungslösungen. Wir suchen nach Möglichkeiten, wie wir den Wissensaustausch mithilfe von Technologien, wie Mobiltelefonen und Funkgeräten, stärken können. Wir arbeiten auch mit Bauernverbänden zusammen, um Bauern dabei zu helfen, ihre betriebswirtschaftlichen Kenntnisse zu verbessern, ihre Kaufkraft und Marketingwirkung zu erhöhen und um ihre Anbau- und Ressourcen-Managementfähigkeiten zu verbessern. Weitere Prioritäten sind, den Bauern dabei zu helfen, die Lagerung des Getreides nach der Ernte zu verbessern, die nachgefragte Qualität und Quantität zu liefern, Zugang zu großen und zuverlässigen Märkten zu haben und Partnerschaften mit Käufern, Verarbeitungsunternehmen und Bauernverbänden aufzubauen.
Strategische Partnerschaften und Fürsprache
Um das Ziel, nachhaltiger landwirtschaftlicher Produktivität zu erreichen, müssen wir uns bei unserer Strategie auf starke Partnerschaften mit Spenderländern, multilateralen Institutionen, privaten Stiftungen und anderen Organisationen verlassen können. Wir stärken existierende Partnerschaften und bauen neue mit Ländern wie Brasilien und China auf, die ihre eigenen Landwirtschaftssektoren mithilfe technologischer und politischer Innovationen entwickelt haben und in den Regionen, in denen wir tätig sind, immer wichtiger für das landwirtschaftliche Wachstum werden. Durch unsere Fürsprache und Investitionen suchen wir innovative Lösungen für agrarpolitische Herausforderungen und arbeiten daran, den politischen Willen und die öffentliche Unterstützung zu nutzen, um uns diesen Herausforderungen zu stellen. Wir wollen sicherstellen, dass Investitionen und die Politik in den Spender- und Entwicklungsländern die Produktivität von Kleinbauern nachhaltig unterstützen.
[1] Landwirtschaftliche Entwicklung: http://www.gatesfoundation.org/de/What-We-Do/Global-Development/Agricult...
[2] Bill Gates Jahresbrief 2015: https://www.gatesnotes.com/2015-annual-letter?lang=de&page=0
Weiterführende Links
Alliance for a Green Revolution in Africa (AGRA) http://www.gatesfoundation.org/How-We-Work/Resources/Grantee-Profiles/Gr...
Mikrobiome extremer Tiefsee-Lebensräume
Mikrobiome extremer Tiefsee-LebensräumeFr, 13.05.2016 - 13:00 — Antje Boetius
Die Tiefsee birgt eine astronomisch hohe Zahl von Mikroorganismen mit einer bisher kaum erschlossenen genetischen Vielfalt. Sie zu kennen ist wichtig für das Verständnis des Erdsystems und seiner Stoffkreisläufe. Di e prominente Meeresbiologin Antje Boetius (Prof. für Geomikrobiologie, Univ. Bremen und Leitung der HGF-MPG Brückengruppe für Tiefsee-Ökologie und -Technologie) untersucht das Mikrobiom extremer Lebensräume der Tiefsee mit dem Ziel Antworten auf Fragen zur Entstehung und zu den Grenzen des Lebens sowie zu Anpassungsmöglichkeiten an eine dynamische Umwelt zu erhalten.*
Volkszählung der Meere
Die Vielfalt an Mikroorganismen auf der Erde – Bakterien, Archaea und einzellige Eukaryonten - kann man bisher kaum beziffern. Das internationale Programm "Volkszählung der Meere" (Census of Marine Life, 1990-2000) hat geschätzt, dass die Ozeane eine Milliarde unerforschter Bakterien und Archaeen-Arten enthalten. Sie werden im Folgenden „Typen“ genannt, weil der Artbegriff bei Mikroorganismen umstritten ist und gerade der Tiefseeboden besonders reich an nahe verwandten, unbekannten Mikroorganismen ist (Abbildung 1; [1]). Abbildung 1. Leben am Meeresboden. (a) Algenklumpen dienen als Nahrungsquelle für Tiefseetiere (hier: Seegurken), denen eine Vielfalt von Bakterien bei der Verdauung hilft. (b) Schema von Mikroorganismen des Tiefseebodens und der Vielfalt ihrer Stoffwechselleistungen. Tiefsee-Mikroben recyclen über 99% des abgelagerten organischen Materials und speisen Nährstoffe und gelöstes organisches Material ins Meerwasser zurück. © Max-Planck-Institut für marine Mikrobiologie/Boetius
Man stellt sich die Tiefsee zumeist als einen Ort der Dunkelheit, Kälte und des Nahrungsmangels vor, an dem sich das Leben ausschließlich von herabsinkenden Algenflocken ernährt. Doch die Entdeckungen von so verschiedenen Tiefsee-Lebensräumen wie heiße schwarze Raucher, kalte Methanquellen und riesige Korallenriffen mittels Tauchbooten und Unterwasser-Robotern sowie von der kilometertiefen Biosphäre unter dem Meeresboden durch Bohrschiffe revolutionierte unsere Kenntnis von den Grenzen des Lebens auf der Erde und seinen Anpassungen. Immer mehr Bakterien und Archaeen werden gefunden, die durch Nutzung von Energie aus dem Meeresboden bunte Lebensgemeinschaften von Tieren ernähren. Sie verwenden dafür reduzierte Moleküle wie Wasserstoff, Methan, Schwefelwasserstoff und Eisen und fixieren ganz ohne Sonnenlicht Kohlendioxid. Dieser Vorgang wird als Chemosynthese bezeichnet. Da Tiere selbst keine Chemosynthese betreiben können, bilden sie in solchen Ökosystemen oft Symbiosen mit Bakterien, die sie mit Nährstoffen versorgen. Chemosynthetische Ökosysteme findet man an kalten und heißen Quellen, aber auch dort wo große Mengen von organischem Kohlenstoff auf den Tiefseeboden fallen. So können die Kadaver verendeter Wale, aber auch abgesunkene Baumstämme der nahrungsarmen Tiefsee auf einen Schlag so viel organisches Material zuführen, dass die Zersetzungsprozesse durch Mikroorganismen die nähere Umgebung für Jahrzehnte verändert [2].
Neben den Tiefseerobotern, mit denen solch extreme Lebensräume erkundet werden können, erlauben noch ganz andere Maschinen Tauchgänge in die molekulare Vielfalt des Lebens selbst: Hochdurchsatz-Sequenzierer, die riesige Bibliotheken genetischer Information aus wenigen Gramm Tiefseeboden erzeugen. Dabei wird die gesamte mikrobielle DNA oder RNA - das sogenannte Mikrobiom - aus einer Probe extrahiert, vervielfältigt und sequenziert. Mittels bioinformatischer Methoden können dann die Gene der Mikroorganismen aus den Sequenzabschnitten rekonstruiert werden und uns einen Einblick in die vorhandene Diversität und Stoffwechselkapazität der dort lebenden Organismen geben. Zellzählungen an Bodenproben aus verschiedenen Ozeanregionen und Wassertiefen zeigen dabei, dass jedes Gramm Meeresboden durchschnittlich eine Milliarde Zellen enthält. Die Sequenzanalysen aus einer solchen Probe ergeben im Durchschnitt über 1000 Typen von Bakterien und um die 100 Archaeen-Typen. Keine zwei Bodenproben enthalten dabei die gleichen Mikroorganismen [3], auch wenn die Proben nur wenige Meter voneinander entfernt sind. Jede Probe enthält Sequenzen, die bis dato noch nie woanders entdeckt wurden. Und jeder einzelne Typ Mikrobe birgt dabei wiederum Tausende von Genen, die Stoffwechsel, biologische Interaktion und Anpassung an die Umwelt steuern. Diese Gene tragen die Information zur Herstellung von Eiweißen, Fettsäuren, Vitaminen, Pigmenten, Klebstoffen, Giftstoffen, antimikrobiellen Substanzen, Oberflächen, chemischen Rezeptoren und vieles mehr, doch die meisten Funktionen bleiben bisher unbekannt. Aufgrund der ungeheuren Ausdehnung des Lebensraums Tiefseeboden und der Mächtigkeit der von Bakterien und Archaeen belebten Schichten ergeben Hochrechnungen, dass die Mikroorganismen des Meeresbodens mindestens ein Zehntel der gesamten lebenden Biomasse auf der Erde ausmachen, und dazu aufgrund ihrer genomischen Verschiedenheit auch einen Großteil der genetischen Ressourcen unseres Planeten beherbergen. Und noch ist nur eine Handvoll solcher Tiefsee-Mikroorganismen kultiviert.
Woher kommt diese enorme Vielfalt? Mikrobielle Populationen nehmen Nischen in der marinen Umwelt ein, die durch Temperatur, Druck, pH-Wert, Salinität, durch die Verfügbarkeit von Nährstoffen und Elektronenakzeptoren, aber auch durch verschiedene Mortalitätsfaktoren bestimmt werden. Die Tiefsee umfasst zwar einen riesigen Raum, birgt dabei aber kleinräumig extreme Unterschiede, zum Beispiel zwischen kaltem Polarwasser und heißen Quellen, zwischen Grundwasseraustritten und tiefen Salzseen, zwischen sauren und basischen Fluiden, zwischen Bodenschichten mit und ohne Sauerstoff. Auch die Zusammensetzung der anorganischen und organischen Stoffe im Porenwasser des Meeresbodens kann sich stark unterscheiden. Von allen Bewohnern am Meeresgrund sind die Einzeller zwar die unscheinbarsten, doch sind sie wichtig für die Stoffkreisläufe der Erde, denn sie führen die Nährstoffe aus abgesunkenem Algendetritus ins Meer zurück [4] und kontrollieren den Austritt von giftigen oder klimaschädlichen Substanzen aus dem Meeresboden, wie zum Beispiel von Methan [5]. Dabei gibt es fantastische Anpassungen des Lebens zu entdecken, von denen im Folgenden ein paar Beispiele genannt sein sollen.
Holzabbau in der Tiefsee
In der Tiefsee wachsen keine Bäume, und doch kann aus einem abgesunkenen Baumstamm am Meeresgrund eine Oase des Tiefseelebens werden – zumindest bis das Holz vollständig zersetzt ist. Alle helfen sich gegenseitig: Schiffbohrwürmer (Xylophaga-Muscheln) zerkauen die Holzfasern in Späne, Bakterien des Tiefseebodens können dann die schwerverdauliche Cellulose aus dem Holz weiter zersetzen, andere fixieren dabei Stickstoff und verbessern so die Nahrungsqualität des Holzes. Der Umsatz von Holz verbraucht Sauerstoff und ermöglicht dann die Produktion von Schwefelwasserstoff durch sulfatreduzierende Mikroorganismen. So können von Schwefel als Energiequelle abhängige Muschelarten, die sonst nur an kalten oder heißen Quellen vorkommen, das Holz vorübergehend besiedeln [2]. Die zufälligen Holzeinträge begünstigen also nicht nur die Verbreitung seltener Tiefseetiere, sondern bilden auch Hotspots des Lebens am Meeresgrund (Abbildung 2). Abbildung 2. Leben von Holz: Besiedlung von Holz in der Tiefsee und die Ausbildung sulfidischer Nischen am Meeresboden. Nähere Erläuterungen im Text. © Max-Planck-Institut für marine Mikrobiologie/aus [2]
Methanzehrende Mikroorganismen im Meeresboden
In methanreichen Tiefseeböden leben Archaea in Symbiose mit sulfatreduzierenden Bakterien. Sie wandeln das durch Fäulnis organischer Materie gebildete Methan zu Kohlendioxid und Sulfid um und verhindern die Entgasung in den Ozean und die Atmosphäre. Der hohe hydrostatische Druck bedingt, dass sich in der Tiefsee wesentlich mehr Methan im Wasser lösen kann als unter den Bedingungen an Land. Die Energie des Methans wird durch die Mikroorganismen ins Nahrungsnetz gespeist und bildet die Grundlage reichhaltiger Ökosysteme [6].
Einige wenige dieser methanotrophen Mikroorganismen kommen in allen Tiefseeböden vor [7] und wirken dem Treibhauseffekt des Methans also entscheidend entgegen. Würde alles Methan, das im Meeresboden entsteht, auch in die Atmosphäre gelangen, zeigten sich das Erdsystem und das Klima völlig anders, als wir es heute kennen. Kürzlich wurde entdeckt, dass für die Umwandlung von Methan zu Kohlendioxid und Sulfide die Archaeen und sulfatreduzierenden Bakterien winzige Kabelnetzwerke zwischen den Zellen bilden, vermutlich, um direkt Elektronen austauschen zu können (Abbildung 3; [6]).
Abbildung 3. Leben von Methan. (a) Mikroskop-Aufnahmen verschiedener methanotropher Mikroorganismen vom Tiefseeboden. (b) Elektronenmikroskopie von Nano-Drähten zwischen methanotrophen Archaeen und Bakterien. Die Länge des weißen Balkens entspricht einem Mikrometer. Die Pfeile verweisen auf die im Text erwähnten Kabelnetzwerke (Nano-Drähte). (A=ANME-Archaeen, H=HotSeep-1 Partnerbakterien).© Max-Planck-Institut für marine Mikrobiologie/Knittel, Ruff und Max-Planck-Institut für biophysikalische Chemie/nach [8], verändert
Leben in Säure
Eine viel diskutierte technische Lösung, den zunehmenden Kohlendioxidgehalt der Atmosphäre in den Griff zu kriegen, ist, das bei industriellen Prozessen entstehende CO2 abzuscheiden und im Meer in tiefe Bodenschichten einzuleiten – zum Beispiel in entleerte Erdöl-Speicher. Doch was, wenn es Lecks gäbe und das CO2 auslaufen würde? Kohlendioxid löst sich nämlich gut in Meerwasser und könnte dieses stark ansäuern, besonders unter den hohen Drücken der Tiefsee. Ein niedriger pH-Wert und hoher CO2-Gehalt könnten sich sehr schädlich auf die Tiefseeumwelt auswirken. Daher wird derzeit in einer Reihe von internationalen Projekten erforscht, wie die Meeresumwelt reagieren könnte – eine Frage, die sich zusätzlich aus der zunehmenden CO2-Lösung im Meer ergibt, genannt Ozeanversauerung. Forschung an natürlichen heißen CO2-Quellen im Meer zeigt, dass der Säuregehalt einen erheblichen Einfluss auf die biogeochemischen Funktionen sowie die Verteilung und Zusammensetzung der Mikroorganismen an sauren Quellen hat [9]. Bei Übersäuerung kommen manche Funktionen gar und ganz zum Erliegen, eine Anpassung scheint für die meisten Lebewesen nur bei geringen Säuregraden möglich. Einige wenige Arten können sich wiederum - bei hoher Energieverfügbarkeit - an ein Leben in Säure anpassen (Abbildung 4), doch welche zellulären Prozesse sie dabei nutzen, ist noch nicht bekannt.
Abbildung 4. Leben in Säure: Wenige Arten können die sauren Fluide der heißen CO2-Quellen des Yonaguni Mounds (Okinawa-Trog) überleben, dazu gehört eine Krabbenspezies, auf deren Panzer Schwefelbakterien leben. © MARUM, Zentrum für Marine Umweltwissenschaften der Universität Bremen: FS SONNE Expedition SO196; ROV QUEST
Ausblick
Auch wenn die Wissenschaft erst ganz am Anfang steht, die Vielfalt und Funktionen unbekannter Mikroorganismen am Meeresboden zu erfassen, so ist dieses Wissen wichtig, um Fragen zur Vergangenheit, Gegenwart und Zukunft der Erde zu beantworten. Es wird genutzt, um zu beurteilen, wie der Klimawandel Leben in der Tiefsee der Arktis verändert, ob Bakterien nach Erdölunfällen in der Tiefsee die Verschmutzung beseitigen können oder ob ein möglicher Tiefseebergbau die Recycling-Funktionen des Meeresbodens verringern könnte. Es stehen neue Technologien zur Verfügung, das Leben am Meeresboden zu beobachten und seine Interaktion mit der Umwelt zu untersuchen. Dabei sind einige der kürzlich entdeckten Meeresumwelten so fremdartig, dass sie als Parallelen zu möglichen Lebensräumen auf anderen Himmelskörpern gelten – zum Beispiel Leben im und unter dem Eis [10], im Gashydrat, in CO2-Seen, in Salzlaken und im tiefen Untergrund. Besonders faszinierend ist die neue Erkenntnis, dass trotz der enormen Vielfalt des Lebens in der Tiefsee einige wenige Typen von Mikroorganismen dominieren, die eine bisher ungeahnte Rolle in globalen Stoffkreisläufen spielen.
* Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 https://www.mpg.de/9910224/MPI_MM_JB_2016 . Der Artikel wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.
Literaturhinweise
[1] Zinger, L.; Amaral-Zettler, L.A.; Fuhrman, J.A.; Horner-Devine, M.C.; Huse, S.M.; Welch, D.B.; Martiny, J.B.H.; Sogin, M.; Boetius, A.; Ramette, A. Global patterns of bacterial beta-diversity in seafloor and seawater ecosystems. PLOS ONE: e24570 (2011). DOI
[2] Bienhold, C.; Pop Ristova, P.; Wenzhöfer F.; Dittmar, T., Boetius, A. How Deep-Sea Wood Falls Sustain Chemosynthetic Life. PLOS ONE 8: e53590 (2013) DOI
[3] Jacob, M.; Soltwedel, T.; Boetius, A.; Ramette, A. Biogeography of benthic bacteria at regional scale in the deep Fram Strait (LTER HAUSGARTEN, Arctic). PLOS One 8: e72779 (2013) DOI
[4] Boetius, A., Albrecht, S.; Bakker, K.; Bienhold, C.; Felden, J.; Fernández-Méndez, M.; Hendricks, S.; Katlein, C.; Lalande, C.; Krumpen, T.; Nicolaus, M.; Peeken, I.; Rabe, B.; Rogacheva, A.; Rybakova, E.; Somavilla, R.; Wenzhöfer F.; and the RV Polarstern ARK27-3-Shipboard Science Party. Export of algal biomass from the melting Arctic sea ice. Science 339, 1430-1432 (2013) DOI
[5] Feseker, T.; Boetius, A.; Wenzhöfer, F.; Blandin, J.; Olu, K.; Yoerger, D.R.; Camilli, R.; German, C.R.; de Beer, D. Eruption of a deep-sea mud volcano triggers rapid sediment movement. Nature Geosciences 5: 5385 (2014) DOI
[6] Boetius, A.; Wenzhöfer, F. Seafloor oxygen consumption fuelled by methane from cold seeps Nature Geoscience 6. 725-734 (2013). DOI
[7] Ruff, S.E.; Biddle, J.; Teske, A.; Knittel, K.; Boetius, A.; Ramette, A. Global dispersion and local diversification of the methane seep microbiome. Proceedings of the National Academy of Sciences USA 112, 4015-4020 (2015). DOI
[8] Wegener, G.; Krukenberg, V.; Riedel, D.; Tegetmeyer, H.E.; Boetius, A. Intercellular wiring enables electron transfer between methanotrophic archaea and bacteria. Nature 526, 587-590 (2015). DOI
[9] de Beer D.; Haeckel, M.; Neumann, J.; Wegener, G.; Inagaki, F.; Boetius, A. Saturated CO2 inhibits microbial processes in CO2-vented deep-sea sediments. Biogeosciences 10, 5639–5649 (2013) DOI
[10] Boetius, A.; Anesio, A.M.; Deming, J.W.; Mikucki, J.A.; Rapp, J.Z. Microbial ecology of the cryosphere: sea ice and glacial habitats. Nature Reviews Microbiology 13, 525 (2015)
Weiterführende Links
Antje Boetius in Videos
Planet Wissen - Expedition in die Tiefsee. Video 58:36 min. https://www.youtube.com/watch?v=7sG8nJoeMOg (Standard-YouTube-Lizenz)
Die geheime Welt der Ozeane: Erforschung des Lebensraums Tiefsee (Vortrag). Video 49:52 min. Tiefseeforscherin Prof. Dr. Antje Boetius über ihre Ziele und Ideen für Wissenschaft im Dialog . Video 3:46 min.
Artikel zu verwandten Themen im ScienceBlog:
Christa Schleper, 19.06.2015 Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea.
Gerhard Herndl , 21.02.2014: Das mikrobielle Leben in der Tiefsee
Gottfried Schatz, 22.09.2011: Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten
Proteinmuster chronischer Schmerzen entziffern
Proteinmuster chronischer Schmerzen entziffernFr, 06.05.2016 - 11:39 — Manuela Schmidt
Schmerz ist ein Hauptsymptom vieler Krankheiten und weltweit der häufigste Grund für Menschen, medizinische Hilfe zu suchen. Während akuter Schmerz ein Warnsignal darstellt, bergen chronische Schmerzen große Herausforderungen sowohl für Patienten als auch für behandelnde Ärzte. Für die Entwicklung nebenwirkungsarmer und effizienter Schmerztherapien wäre die Entzifferung von Proteinen, die ausschließlich an chronischen Schmerzen beteiligt sind, von enormer Bedeutung. Die Neurowissenschafterin Manuela Schmidt ( Max-Planck Institut für experimentelle Medizin, Göttingen) arbeitet an den molekularen Grundlagen der Schmerzentstehung und -weiterleitung.*
Stellen Sie sich vor Sie begegneten einer guten Fee, die Ihnen verspricht, dass Sie von heute an schmerzfrei leben könnten. Sie würden sicher, ohne mit der Wimper zu zucken, der Erfüllung dieser Verheißung zustimmen. Wie würde allerdings Ihr Leben ohne Schmerzen in Alltagssituationen aussehen? Sie stehen morgens auf, trinken Ihren Kaffee und würden nicht bemerken, dass er zu heiß ist und sich daher die Zunge verbrennen; im Sportverein würden Sie der Knieverletzung keine Beachtung schenken, weiterspielen und dadurch möglicherweise langanhaltende Gewebeschäden hervorrufen; die Entzündung des Blinddarms würden Sie aufgrund fehlender Schmerzen erst sehr spät bemerken, was potenziell lebensgefährliche Konsequenzen nach sich zöge ... Dies sind nur wenige Beispiele, die die enorme Schutzfunktion von Schmerzen als Warnsignal widerspiegeln. Besonders prägnante Beispiele liefert die Betrachtung von Menschen, deren Schmerzempfindung durch Mutationen in ihrem Erbgut beeinträchtigt ist. Deren Alltag ist gezeichnet von zahlreichen, oft schwerwiegenden Verletzungen und Entzündungen, welche im Allgemeinen zu einer verringerten Lebenserwartung führen.
Während allerdings dieser akute oder sogenannte nozizeptive Schmerz als überlebenswichtiges Warnsignal für schädliche Bedingungen fungiert, stellen chronische Schmerzen eine Fehlanpassung des Nervensystems dar. Chronische Schmerzen bergen essenzielle Herausforderungen, weil sie mit heute bekannten Schmerzmedikamenten nicht adäquat therapierbar sind. Patienten mit chronischen Schmerzen sind aus diesem Grund hohem Leiden und überdies starken Nebenwirkungen der Therapien ausgesetzt. Letzteres resultiert größtenteils daraus, dass heutige Schmerztherapeutika Proteine angreifen, die im gesamten Organismus vorkommen.
Um also die positive Seite der Verheißung auf ein schmerzfreies Leben genießen zu können, müsste man von der guten Fee verlangen, nur chronische Schmerzen zu verhindern. Zur Erfüllung dieses Wunsches ist ein besseres Verständnis der molekularen Mechanismen, die spezifisch für chronische Schmerzen sind, unabdingbar.
Schmerz und Membranproteine
Schmerz ist ein Hauptsymptom vieler Krankheiten und weltweit der häufigste Grund für Menschen, medizinische Hilfe zu suchen. Wirbeltiere, einschließlich des Menschen, besitzen spezialisierte somatosensorische Nerven, deren Zellkörper in den Hinterwurzelganglien parallel zum Rückenmark gruppiert sind. Mittels dünner zellulärer Fortsätze innervieren diese somatosensorischen Nervenzellen die Haut und innere Organe. Um sowohl normale als auch schmerzhafte Reize unterschiedlicher Qualität (mechanisch, thermisch und chemisch) zu erkennen, sind diese Nervenzellen mit Proteinen ausgestattet, welche als primäre molekulare Signaldetektoren fungieren. Dabei handelt es sich um Membranproteine (d.h. sie sind in der Plasmamembran der Nervenzellen exprimiert), welche die einzigartige Fähigkeit zur Erkennung und Weiterleitung normaler und schädlicher Reize besitzen – von einer sanften Berührung bis zur schmerzhaften Wahrnehmung eines spitzen Nagels.
Bahnbrechende Forschungsergebnisse haben vor erst 15 bis 20 Jahren die molekulare Identität wichtiger Signaldetektoren entschlüsselt und damit die Erforschung der molekularen Grundlagen von Schmerzentstehung maßgeblich vorangebracht. Eine prominente Gruppe dieser Signaldetektoren bilden sogenannte Transient Receptor Potential (TRP)-Ionenkanäle. Vertreter der TRP-Ionenkanalfamilie werden durch verschiedenste pflanzliche Substanzen aktiviert, wie z. B. die „brennende“ Substanz aus feurigen Chilischoten, das Capsaicin. Arbeiten aus dem Labor von David Julius (UCSF, USA) konnten an Mäusen zeigen, dass Capsaicin einen bestimmten TRP-Ionenkanal (sogenannte TRPV1-Kanäle) in sensorischen Nervenfasern aktiviert. Dieser Prozess löst das feurig-brennende Gefühl aus, welches wir auch mit dem Essen von Chilischoten verbinden. Interessanterweise wird derselbe Ionenkanal auch durch noxische Hitze, also Temperaturen über 42°C, aktiviert, was gleichermaßen zu einem feurig-brennenden Hitzegefühl führt. Im Gegensatz dazu wurde im Labor von Ardem Patapoutian (Scripps Research Institute, USA) ein anderer TRP-Kanal, TRPA1, kloniert und charakterisiert, der sowohl durch noxische Kälte (Temperaturen unter 15°C), als auch durch verschiedenste pflanzliche und chemische irritierende Substanzen aktiviert wird, wie z. B. Senföle, die sich in Senf- und Wasabi-Produkten finden, aber auch Tränengase, die Atemwegsirritationen auslösen.
Diese Beispiele zeigen, dass molekulare Sensoren ein unglaubliches Repertoire von schmerzhaften Reizen detektieren können, wobei diese sowohl exogener als auch endogener Natur (z. B. Substanzen, die während Entzündungen freigesetzt werden) sein können. Die Aktivierung der Signaldetektoren erzeugt einen elektrischen Impuls, der durch weitere Membranproteine in ein sogenanntes Aktionspotenzial in der Nervenzelle umgewandelt wird. Wiederum mittels bestimmter Membranproteine löst das Aktionspotenzial komplexe Signalweiterleitungskaskaden im Rückenmark und daraufhin in verschiedenen Gehirnarealen aus, die letztendlich für die Empfindung von Schmerz verantwortlich sind (Abbildung 1).
Abbildung1: Schematische und stark vereinfachte Darstellung der „Schmerzachse“ in Wirbeltieren. Die Aktivierung molekularer Signaldetektoren wie z. B. TRP-Kanäle in der Membran peripherer sensorischer Nerven durch noxische oder irritierende Reize erzeugt einen elektrischen Impuls, der in ein sogenanntes Aktionspotenzial in der Nervenzelle umgewandelt wird. Wiederum mittels bestimmter Membranproteine löst das Aktionspotenzial komplexe Signaltransduktionskaskaden im Spinalganglion und daraus folgend im Rückenmark aus. Daraufhin wird die Information zu verschiedenen Gehirnarealen weitergeleitet, die letztendlich für die Empfindung von Schmerz verantwortlich sind.© Max-Planck-Institut für experimentelle Medizin/Schmidt
Das Konzept der „molekularen Maschinen“
Bereits diese kurze Beschreibung der generellen Grundlagen zur Schmerzdetektion, -weiterleitung und -empfindung veranschaulicht die enorme Bedeutung von Membranproteinen, welche in der „Schmerzachse“ exprimiert werden. Gemeint sind damit die Regionen des peripheren (PNS) und des zentralen Nervensystems (ZNS), die an der Verarbeitung von Schmerzsignalen beteiligt sind. Aufgrund vieler technischer Hürden in der Analyse von Membranproteinen wissen wir bisher nur relativ wenig darüber, welche Membranproteine für bestimmte Schmerzformen relevant sind und vor allem wie diese im Detail reguliert sind. Würde man allerdings Membranproteine oder deren Regulationsmechanismen identifizieren, die selektiv nur während chronischer Schmerzen zum Einsatz kämen, könnte man diese als Angriffspunkte für zukünftige Therapien heranziehen, um Schmerzbehandlungen wirksamer zu machen und Nebenwirkungen zu reduzieren .
Allerdings erfolgte die Erforschung der Pathomechanismen chronischer Schmerzen bisher vor allem auf der genomischen oder der Transkriptom-Ebene, das heißt vor der Umsetzung der Nukleinsäuren in Proteine. Da Proteine die funktionellen Einheiten einer Zelle bilden und nur bedingt vom Trankriptom auf das Proteom, also die Gesamtheit der Proteine einer Zelle, geschlossen werden kann, ist eine detaillierte Proteomanalyse unverzichtbar. Auf welche Art und Weise wird die Aktivität von Membranproteinen während der Schmerzen gesteuert? Um die Frage zu beantworten, ist es wichtig, assoziierte oder auch interagierende Proteine zu identifizieren. Kern dieses Denkansatzes ist das Konzept der „molekularen Maschinen“, welches besagt, dass die Funktion einzelner Proteine durch deren Interaktion mit anderen Proteinen in sogenannten Multi-Proteinkomplexen dynamisch moduliert werden kann. Konsequenterweise sollte die Aufklärung der Komponenten solcher Proteinkomplexe Aufschluss über die Funktion und Regulation eines Proteins geben können. Die Gültigkeit dieses Konzepts wurde bereits anhand vieler Beispiele gezeigt, allerdings wurde es nur spärlich zur Erforschung der molekularen Grundlagen von Schmerzen angewandt.
Das erklärte Ziel der Max-Planck-Forscher ist es daher, die Regulation von Membranproteinen und assoziierten Proteinnetzwerken während nozizeptiver und chronischer Schmerzen vergleichend zu untersuchen. Mit diesem Ansatz konnte die Forschungsgruppe um Manuela Schmidt bereits zeigen, dass die Aktivität von TRPA1-Kanälen in Mäusen durch ein interagierendes Protein, Annexin A2, sowohl während nozizeptiver als auch chronischer Schmerzen gebremst wird. Diese Arbeit wurde mit dem Förderpreis für Schmerzforschung der Deutschen Schmerzgesellschaft e. V. ausgezeichnet. In einem nächsten Schritt weiteten die Max-Planck-Forscher Ihre Arbeit auf die ungleich schwierigere Aufgabe aus: Sie suchten mithilfe modernster quantitativer Massenspektrometrie nach solchen Proteinkomplexen, die spezifisch während chronischer Schmerzen mit TRPA1-Kanälen assoziiert sind (in Kollaboration mit Dr. Olaf Jahn, MPIem, und Dr. Henning Urlaub, MPIbpc). Tatsächlich lassen die daraus resultierenden Ergebnisse darauf schließen, dass TRPA1-Kanäle mit unterschiedlichen Proteinen einen Komplex bilden, je nach angewandten Schmerzparadigmen, d. h. je nachdem, ob zuvor im Mausmodell nozizeptive oder chronische Schmerzen ausgelöst wurden (Abbildung 2). Ähnliche Ergebnisse haben die Forscher auch für die eingangs erwähnten TRPV1-Kanäle erhalten.
Abbildung 2: Schematische und stark vereinfachte Darstellung der Regulation von TRPA1-Kanälen (hellgrün) in der neuronalen Membran durch assoziierte Proteine (farbige Formen) in Abhängigkeit vom Schmerzparadigma. Diese Unterschiede können unter anderem zu erhöhter Aktivität von TRPA1 während chronischer Schmerzen führen (dargestellt durch erhöhte Anzahl von Kalziumionen (Ca+2). © Max-Planck-Institut für experimentelle Medizin/Schmidt
Ausblick
Aktuelle Projekte in der Forschungsgruppe "Somatosensorische Signaltransduktion und Systembiologie" am Max-Planck-Institut für experimentelle Medizin beschäftigen sich nun mit der Charakterisierung der neuen und bisher unbeschriebenen Komponenten dieser TRP-Kanal-Proteinkomplexe sowie ihrer pathologischen Relevanz für chronische Schmerzen am Mausmodell. Zusätzlich zu dem hier dargestellten Kandidaten-fokussierten Ansatz, d. h. Studien, die sich mit bestimmten TRP-Kanälen beschäftigen, untersucht die Forschungsgruppe nun auch die differenzielle Regulation mehrerer tausend Proteine während verschiedener Schmerzformen in einem systembiologischen Ansatz. Diese Arbeit wurde mit dem Max von Frey-Preis 2015 der Deutschen Schmerzgesellschaft e. V. ausgezeichnet. Möglich wurde dieser Fortschritt durch die Kombination von Mausmodellen, biochemischen Arbeiten und neuesten Entwicklungen in der massenspektrometrischen Proteomanalyse.
Derartige Studien gewähren neue Einblicke in die molekulare Signatur der Schmerzentstehung auf Proteinebene – Wissen, das unabdingbar für die Entwicklung effizienter und spezifischer Schmerztherapien ist.
*Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 (DOI 10.17617/1.E) h https://www.mpg.de/9873897/MPIEM_JB_2016. Der Artikel wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne die zugrundeliegenden, nicht frei zugänglichen Literaturstellen. Diese können im Forschungsbericht nachgelesen und auf Anfrage zugesandt werden.
Weiterführende Links
Arvid Leyh: Reiz und Rezeptor. Interaktive Darstellung : Schmerz, Temperatur, Berührung – Reize wie diese werden von unterschiedlichen Rezeptoren der Haut verarbeitet. Von dort aus geht es über das Rückenmark ins Gehirn, ein langer Weg, der doch nur drei Neurone umfasst. https://www.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rezeptor/(Lizenz: cc-by-nc)
Christian Büchel: Schmerz und Schmerzwahrnehmung. Vorlesung Video 55:26 min. (© 2013 www.dasGehirn.info; Lizenz: cc-by-nc)
Artikel im ScienceBlog
Gottfried Schatz (30.08.2012): Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält. http://bit.ly/1SPdpr5
Infektionen mit Noroviren - ein enormes globales Problem
Infektionen mit Noroviren - ein enormes globales ProblemFr, 29.04.2016 - 10:19 — Redaktion
Noroviren sind hochansteckend und verursachen Brechdurchfall. Die meisten Menschen infizieren sich damit mehrmals in ihrem Leben. Die gravierendsten Folgen - Hospitalisierung und Tod - betreffen hauptsächlich Kinder und alte Menschen, vor allem in Ländern mit niedrigem Einkommen. Jedes Jahr verursachen Noroviren mehr als 200 000 Todesfälle. In dem open access Journal PLOS - the Public Library of Science - ist vor drei Tagen eine Sammlung von Artikeln über Noroviren erschienen, in denen Experten den gegenwärtigen Stand des Wissens darlegen mit dem Ziel eine so dringend benötigte Vakzine zu entwickeln [1]. Der folgende Blog-Beitrag basiert auf dem Artikel "Norovirus – a tragedy of being common" [2] und wurde von der Redaktion in Deutsch übersetzt. Der Autor Ben Lopman* ist auch der führende Autor der PLOS Kollektion.
Eine überaus häufige Erkrankung
Noroviren gehören zu den häufigsten Krankheitserregern im Menschen. Weltweit sind sie die Hauptursache von Gastroenteritis (bei uns üblicherweise als Magen-Darmgrippe bezeichnet ; Anm. Redaktion) und diese wiederum gehört zu unseren häufigsten Beschwerden. Noroviren sind in bestimmten Risikogruppen eine verbreitete Krankheitsursache. Historisch gesehen waren es früher hauptsächlich Rotaviren, die schwere Gastroenteritiden bei Kindern verursachten und medizinische Behandlung nötig machten. Jetzt, wo in Industrieländern routinemäßig gegen Rotaviren geimpft wird, sind Infektionen mit diesen Viren stark zurückgegangen und Noroviren an deren Stelle getreten. Auch in den Entwicklungsländern stellen Norovirus-Infektionen ein massives Problem dar. Dies zeigt eine gut geplante und ausgeführte Multizentren Studie an Kindern in Afrika und Asien: in deren ersten Lebensjahren rangieren Noroviren gleich hinter Rotaviren, an zweiter Stelle, als Verursacher von Durchfallerkrankungen.
Global betrachtet werden Noroviren als Hauptursache lebensmittelbedingter Krankheiten gesehen.
Die Häufigkeit der Erkrankung birgt eine Tragödie in sich: Schätzungen zufolge verursachen Noroviren jährlich 200 000 Todesfälle, davon die allermeisten in den Entwicklungsländern - Noroviren tragen dort wesentlich zur Kindersterblichkeit bei. In den Industrieländern kommt es zu den meisten Ausbrüchen von Norovireninfektionen in Gesundheitseinrichtungen, wie etwa in Pflegeheimen (nein, nicht auf Kreuzfahrtschiffen, wie uns Zeitungsberichte glauben machen). In solchen Einrichtungen leben krankheitsanfällige Personengruppen - eine Infektion kann zu schwerer Krankheit, Hospitalisierung oder sogar zum Tod führen.
Wenn Sie sich an Ihre letzte Norovirus Infektion erinnern können, werden Sie vermutlich gegen deren alte Beschreibung als "leichte und sich selbst limitierende Erkrankung" protestieren - auch , wenn Sie ansonsten kerngesund sind. Erbrechen, Durchfall und daraus resultierend Dehydrierung mögen zwar nur kurz dauern, sind aber sehr heftig. Man kann sich leicht vorstellen, wie stark ein mangelernährtes Kind von einer Norovirus Infektion betroffen sein kann, das in einer Gemeinschaft mit nur begrenztem Zugang zu einer Gesundheitsversorgung lebt oder auch ein älterer Mensch, der bereits an anderen Grunderkrankungen leidet.
Was sind Noroviren?
Noroviren sind sehr stabile, hochansteckende RNA-Viren. Sie besitzen keine äußere Umhüllung, die einzelsträngige RNA (ssRNA) ist von einem Capsid aus 180 gleichen Proteinen umgeben (Abbildung 1). Eine ganz wesentliche Charakteristik ist die genetische Diversität und eine sehr rasche Evolution- neue Typen treten all 2 - 4 Jahre auf und verdrängen die vorher dominierenden.
Abbildung 1. Noroviren haben einen Durchmesser von ca. 38 nm und besitzen keine äußere Hülle. Das genetische Material - eine einzelsträngige RNA - wird von einem Capsid aus 180 gleichen Proteinmolekülen umgeben (rechts oben und unten). Der Kontakt des Capsid-Proteins mit dem Wirt ist der Beginn der Infektion (Bilder: http://collections.plos.org/norovirus, Elektronenmikroskopie: US Center of Disease Control, Virusmodell: New Mexico State University Learning Games Lab., Standard YouTube License)
Mangelnde wissenschaftliche Kenntnisse, unzureichende Mittel der Bekämpfung
Nach Meinung des auf Infektionskrankheiten spezialisierten US-amerikanischen Epidemiologen Benjamin Lopman gibt es zwei enorme Barrieren, die einem wesentlichen Fortschritt zur Bekämpfung des Norovirus im Wege stehen.
- Das erste Hindernis besteht aus einer Reihe technischer Probleme, die das Vorankommen verlangsamt haben - vor allem das Problem Noroviren in Zellkultur effizient wachsen zu lassen. Ohne ein solches Zellkultur-System war es aber schwierig diagnostische Verfahren, Infektionstests und Vakzinen zu entwickeln. Zum Glück hat es im letzten Jahrzehnt hier wichtige Fortschritte gegeben - darunter die Erstellung einer sensitiveren Diagnostik und es ist auch gelungen das Norovirus in Zellkultur zu bringen; diese Erfolge sollten die Bemühungen zur Bekämpfung des Virus beschleunigen.
- Das zweite Hindernis liegt darin, dass das Norovirus in so vielen unterschiedlichen Sparten eine wesentliche Rolle spielt. Ist das Norovirus nun als ein Problem der Kindersterblichkeit einzuordnen oder der Nahrungssicherheit oder einer mit Gesundheitseinrichtungen assoziierten Infektion? Alles davon trifft zu - dies mag die Gemeinschaft unserer Forscher und die im öffentlichen Gesundheitswesen Beschäftigten gehindert haben rund um dieses zentrale Problem zusammenzuwachsen.
Fortschritt
Im vergangenen Jahr haben sich das US Center for Disease Control and Prevention (CDC), die Gates Foundation und andere Partner in Atlanta getroffen und Vertreter aus Regierung, Akademie, Industrie und philanthropischen Einrichtungen zusammengebracht. Diese Gruppe wurde beauftragt die aktuellen Forschungsergebnisse über Noroviren kritisch durchzusehen, wesentliche Wissenslücken darin zu identifizieren und diesbezügliche, notwendige Untersuchungen vorzuschlagen. Ziel des Zusammentreffens war es den Weg zur Entwicklung einer Norovirus Vakzine anzustreben, die größtmöglichen Nutzen bringen sollte: nämlich den Kindern in den Entwicklungsländern zu helfen. Dabei wurde klar, dass Noroviren ein sehr großes globales Problem darstellen und auf viele Fragen noch keine wissenschaftlich fundierten Antworten gegeben werden können. Zumindest wissen wir jetzt, dass sich das globale Problem der Noroviren mit einem jährlichen Verlust von rund 60 Milliarden $ beziffern lässt.
Das Ergebnis der Tagung in Atlanta ist zum Teil in der PLOS-collection ( (http://collections.plos.org/norovirus; open access) nachzulesen.
[1] PLOS Collection: The Global Burden of Norovirus & Prospects for Vaccine Development. http://collections.plos.org/norovirus und Video (20:11 min) https://www.youtube.com/watch?v=SkayAf2RNos
[2] Ben Lopman: Norovirus – a tragedy of being common http://blogs.plos.org/collections/norovirus-a-tragedy-of-being-common/
* Zum Autor:
Ben Lopman, PhD ist ein Epidemiologe, der auf Infektionskrankheiten spezialisiert ist. Er hat an der London School of Hygiene and Tropical Medicine studiert (MSc), und den PhD-Grad in Epidemiologie an der Health Protection Agency erworben. Als Postdoc am Department of Infectious Disease Epidemiology des Imperial College London arbeitete er an der HIV-Epidemiologie in der Subsahara Region (Afrika). Er wurde dann Leiter der Viral Gastroenteritis Epidemiology Gruppe an der UK Health Protection Agency und Senior Lecturer an der London School of Hygiene and Tropical Medicine.
Seit 2009 arbeitet Lopman im Team Virale Gatroenteritis in der Abteilung für Viruserkrankungen der US Centers for Disease Control and Prevention (CDC) und ist auch Adjunct Assistant Professor in den Departments of Global Environmental Health and Epidemiology an der Emory University. Die Forschungsinteressen Lopman's richten auf die Epidemiologie von viralen Gastroenteriden (hervorgerufen vor allem durch Rotaviren und Noroviren) und ebenso auf wirksame Methoden zu deren Bekämpfung. Seine Ergebnisse sind in mehr als hundert peer-reviewed Arbeiten und zusätzlichen Buchkapiteln publiziert.
Weiterführende Links
Bill and Melinda Gates Foundation 29.08.2014: Der Kampf gegen Darm- und Durchfallerkrankungen.
WHO Durchfallerkrankungen: http://www.who.int/mediacentre/factsheets/fs330/en/
Norovirus. Video (englisch) 3:02 min. Transmission of Norovirus Video (englisch) 3:35 min. Orientation to the Molecular Structure of Norovirus Video (englisch) 2:36 min.
Neuronale Netze mithilfe der Zebrafischlarve erforschen
Neuronale Netze mithilfe der Zebrafischlarve erforschenFr, 22.04.2016 - 09:44 — Ruben Portugues
Eine Hauptfunktion unseres Gehirns ist es, Sinneseindrücke zu verarbeiten, um das optimale Verhalten zu wählen. Die Berechnungen, mit denen das Gehirn Sinneseindrücke und Verhalten verbindet, sind kaum verstanden. Um diese komplexen Vorgänge zu verstehen, untersucht Ruben Portugues, Forschungsgruppenleiter am Max-Planck-Institut für Neurobiologie (Martinsried), einfachere Modellorganismen, nämlich die transparente Larve des Zebrafisches. Diese ermöglicht es, mit neuesten optischen Methoden dem gesamten Gehirn und selbst einzelnen Nervenzellen bei der Arbeit zuzuschauen und hilft zu verstehen, wie neuronale Netzwerke Sinneseindrücke in Verhalten übersetzen.*
Eine der größten Herausforderungen der Neurowissenschaften ist es zu verstehen, wie die Aktivität von Milliarden miteinander verbundener Nervenzellen die Planung und Auswahl passender Verhaltensmuster entsprechend den äußeren Umständen beeinflusst. Bis jetzt haben Wissenschaftler nur ein sehr eingeschränktes Verständnis von der Funktion solcher neuronalen Netzwerke. Dies liegt vor allem daran, dass diese Netzwerke hochkomplex sind und es kaum passende Methoden gibt, um ihre Aktivität präzise in Zeit und Raum zu erfassen. Durch die einzigarten Eigenschaften der Zebrafischlarve können Forscher einige dieser Einschränkungen bewältigen, sodass Nervenzellverbände detailliert erforscht werden können.
Die Larve des Zebrafisches (Abbildung 1), ursprünglich als Zebrabärbling bekannt, ist ein zirka vier Millimeter langes Wirbeltier. Sie besitzt rund 100.000 Nervenzellen. Im Vergleich zum menschlichen Gehirn hat die Larve gut eine Million Mal weniger Nervenzellen. Sie kann jedoch damit immer noch komplexe Verhaltensmuster abrufen. Der größte Vorteil für die Forschung ist jedoch, dass die Larve durchsichtig ist. Dieser entscheidende Vorteil ermöglicht es, das komplette Gehirn mit einer Einzelzellauflösung zu beobachten. Das Beste ist, dass alles am wachen und sich verhaltenden Tier beobachtet werden kann und keine invasiven Arbeiten nötig sind. Mit Hilfe der neuesten bildgebenden Verfahren können die Wissenschaftler am Max-Planck-Institut für Neurobiologie so gewisse Aktivitätsmuster der Nervenzellen mit spezifischen Sinneseindrücken und Verhaltensmustern korrelieren. Ein essenzieller Schritt, um zu verstehen, wie das eine ins andere übersetzt wird.
Abbildung 1. (Oben) Eine Zebrafischlarve. Das grüne Viereck im oberen Bild ist im unteren Bild vergrößert dargestellt. (Unten) Das Gehirn der Zebrafischlarve leuchtet grün, da hier in allen Nervenzellen ein fluoreszierender, genetisch-kodierter Kalzium-Sensor vorhanden ist. Das blaue Viereck gibt die Ansicht in Abbildung 3 wieder.© Max-Planck-Institut für Neurobiologie / Portugues
Visuell gesteuerte Verhaltensmuster
Zebrafischlarven können spezifische Verhaltensmuster abrufen, wenn sie mit verschiedenen Klassen von visuellen Reizen konfrontiert werden (Abbildung 2). Ein Beispiel für eine solche Klasse ist die
- optokinetische Reaktion: Mit gezielten Augenbewegungen versucht die Larve den Bewegungen von Objekten im visuellen Feld zu folgen. Auf diese Weise bleibt der Blick der Larve möglichst stabil und die Netzhaut nimmt weniger Bildbewegung wahr.
- Ein weiteres, stereotypes Verhaltensmuster ist die optomotorische Reaktion. Hier versucht die Zebrafischlarve in die Richtung der wahrgenommenen Bewegung des kompletten Sichtfeldes zu schwimmen. Im Labor kann dieses Verhalten nachgestellt werden, indem der Larve von unten schwarz-weiße Balken gezeigt werden, die sich von ihr weg bewegen. Dies gaukelt der Larve vor, dass sie durch den Strom des Wassers weggerissen wird. Durch Schwimmen versucht sie, die wahrgenommene Umwelt zu stabilisieren.
Abbildung 2. Die Larve schwimmt in einer transparenten Schale mit dem visuellen Stimulus darunter. Zwei Verhaltensmuster sind illustriert: (Oben rechts) Bewegt sich das visuelle Feld nach vorne (hier: schwarz-weiße Balken), versucht die Larve nach vorne zu schwimmen – was nicht gelingt, da der Kopf fixiert ist. (Unten rechts) Rotiert ein visueller, zentrierter Stimulus am Kopf des Fisches (hier ein Windmühlenstimulus), versucht die Larve ihn mit Augenbewegungen zu verfolgen. In diesem Experiment ist der Körper fixiert. © Max-Planck-Institut für Neurobiologie / Portugues
Dieses Verhaltensmuster können die Neurobiologen auch dynamisch regeln: Sie fixieren den Kopf der Larve temporär in einem Gel. Der Schwanz ist dabei frei und kann sich bewegen. Die Forscher nehmen dann die Schwanzbewegungen durch eine Hochgeschwindigkeitskamera auf und analysieren die spezifischen Schwimmcharakteristiken. Durch das Modulieren der Geschwindigkeit der schwarz-weißen Balken kann eine geschlossene, künstliche Realität gestaltet werden, in der beispielsweise die Geschwindigkeit der Balken von den Bewegungen der Larve abhängt: Je schneller oder stärker die Larve schwimmt, desto langsamer bewegen sich die Balken. Mit diesem Trick wird der Larve vorgegaukelt, dass sie sich frei bewegen kann. Mit Hilfe dieses Versuchsaufbaus können die Martinsrieder Forscher auch die Regeln ändern, nach denen die virtuelle Realität funktioniert. Beispielsweise können sie die Larve künstlich stärker oder schwächer machen, je nachdem ob die Geschwindigkeit der Balken schneller oder stärker programmiert wird. Die Larve versucht daraufhin ihr Verhalten an die neuen Regeln anzupassen. Erscheint die Larve zum Beispiel schwächer, versucht sie länger und stärker zu schwimmen um an Ort und Stelle zu bleiben. Diese einfachen aber sehr präzisen Manipulationen können Hinweise darauf geben, wie die Larve lernt, eine alte Erwartungshaltung durch eine neue zu ersetzen und sich den neuen Gegebenheiten anzupassen.
Funktionelle Bildgebung von neuronalen Netzwerken
Mit Hilfe der im Martinsrieder Labor etablierten Verhaltensmuster können die Wissenschaftler die Aktivität involvierter Nervenzellen aufnehmen. Diese werden dann mit spezifischen Parametern korreliert, die Eigenschaften von Sinneseindrücken oder Bewegungsabläufen darstellen. Die Aktivität der Nervenzellen kann anhand von transgenen Tieren erforscht werden, die in bestimmten Nervenzellen einen genetisch-codierten Kalziumsensor exprimieren. Potenziell ist es sogar möglich, diesen Sensor in alle Nervenzellen des Gehirns zu bringen. Diese Sensoren erlauben es, die Nervenzellaktivität live zu beobachten: Sie fluoreszieren unterschiedlich stark, je nachdem, wieviel Kalzium in der Nervenzelle vorhanden ist. Ist eine Zelle aktiv, ist die Kalziumkonzentration in der Zelle hoch, der Sensor fluoresziert stark und die Zelle ist hell. Damit können die Forscher erkennen, welche Nervenzellen welche Eigenschaften eines Sinneseindruckes verarbeiten. Beispielsweise können sie auf diese Weise erkennen, welche Nervenzellen die Geschwindigkeit der schwarz-weißen Balken codieren bzw. verarbeiten. Interessant ist dabei natürlich auch, wie sich die Aktivität dieser Nervenzellen verändert, wenn sich die Geschwindigkeit ändert. Es wäre möglich, dass die Geschwindigkeit von einer gewissen Anzahl an Nervenzellen codiert wird. Diese würden aktiver, wenn sich die Geschwindigkeit erhöht. Eine alternative Hypothese wäre, dass Geschwindigkeit durch die Anzahl aktiver Nervenzellen codiert ist: Je höher die Geschwindigkeit, desto mehr Nervenzellen sind aktiv.
Am Modell des Zebrafisches können die Wissenschaftler verfolgen, wie diese Codierung auf Sinnesebene die Bewegungsabläufe beeinflusst, indem sie die Aktivität der Nervenzellen mit dem resultierenden Schwimmverhalten korrelieren. So können sie untersuchen, welche Nervenzellen direkt Muskelzellen kontrollieren und welche die Schwimmgeschwindigkeit der Larve regulieren. Wie oben beschrieben, können die Regeln der virtuellen Realität geändert werden, um neuronale Korrelate der motorischen Anpassung zu finden. Wird die Reaktion des visuellen Stimulus auf das Verhalten der Larve geändert, kann die Larve eventuell die neuen Regeln erlernen und ihre Bewegungen darauf einstellen. Ein Vergleich zwischen den Nervenzellaktivitäten bei verschiedenen Bedingungen kann Hinweise auf die Gehirnregionen geben, die an Lernen und Adaption beteiligt sind. Beispiele hierfür sind das Kleinhirn (Cerebellum) und die untere Olive, eine ovale Struktur im Hirnstamm. Für beide wurde bereits eine funktionelle Rolle in der Adaption bestätigt [1].
Abbildung 3 zeigt die aktiven Nervenzellen, wenn eine Larve mit ihren Augen einer Rotationsbewegung folgt. Die Farbe entspricht der Bewegungsphase. © Max-Planck-Institut für Neurobiologie / Portugues
Interessanterweise zeigt ein Vergleich von Wiederholungen des gleichen Verhaltensmusters in einigen Fällen, dass es in einem hohen Grad ähnliche Aktivitätsmuster gibt. Beispielsweise erfolgt die zugrundeliegende Nervenzellaktivität der optokinetischen Reaktion in einem stereotypen, geordneten Muster. Auch fanden die Wissenschaftler weitere neuronale Module, die mit Sinneseindrücken und Bewegungssignalen korrelieren (Abbildung 3), [2]. Zudem können mithilfe eines Referenzgehirns verschiedene individuelle Larven kartiert werden. So können die Forscher Unterschiede und Ähnlichkeiten zwischen Larven analysieren. Die daraus entstehenden Karten geben detaillierte Einsicht in die funktionelle Anatomie des Gehirns einer Zebrafischlarve. Solche funktionellen Daten können beispielsweise erklären, welcher Anteil des Gehirns bei einer untersuchten Verhaltensweise aktiv ist und welche Aktivitätsmuster sich bei gleichem Stimulus zwischen den Individuen unterscheiden.
Wie sich Änderungen der Nervenzellaktivität auf das Verhalten auswirken
Funktionelle Bildgebung kann Aufschluss darüber geben, welche Gehirnstrukturen mit welchen Sinneseindrücken oder Bewegungsmustern korrelieren. Um jedoch festzustellen, welche Gehirnstrukturen wirklich notwendig und welche für ein gewisses Verhaltensmuster ausreichend sind, ist es zwingend notwendig, die Aktivität des Gehirns zu beeinflussen. Es ist möglich, eine Gehirnstruktur "stummzuschalten" und so ihre Beteiligung an einem Verhalten zu untersuchen: Zeigt die Larve immer noch das gleiche Verhaltensmuster?
Dieses „Stummschalten“ kann auf verschiedene Arten erreicht werden. Beispielsweise können die Forscher Nervenzellen mithilfe von Laserlicht aus dem Zellverband herausnehmen. Werden die Nervenzellen, die zur Gruppe der unteren Olive gehören, aus dem Schaltplan entfernt, kann die Larve sich nicht an verschiedene Geschwindigkeiten visueller Stimuli anpassen (im Falle der optomotorischen Reaktion). Die Larve schwimmt immer gleich, egal wie stark sie die Geschwindigkeit kompensiert [1]. Ein weiterer Weg, um die Notwendigkeit einer Gehirnstruktur zu überprüfen, ist ihre direkte Aktivierung. Die Wissenschaftler können die Stärke der Aktivierung in einer Gehirnregion verändern und so überprüfen, wie dies das Verhalten beeinflusst. Solch eine Strategie ermöglichte es ihnen, eine Nervenzellgruppe im Mittelhirn zu identifizieren, die die Geschwindigkeit der Fortbewegung steuert [3].
Zukünftige Schritte
Obwohl die Fortschritte deutlich sind, gibt es noch immer eine Vielzahl an dringenden Fragen:
- Welche präzisen Stimulus-Eigenschaften verursachen ein bestimmtes Verhalten?
- Wie können Änderungen in diesen Eigenschaften verschiedene Verhaltensweisen hervorrufen?
- Was macht das Gehirn, wenn mehrere Sinneseindrücke gegensätzliche Informationen vermitteln?
- Welche Gehirnstrukturen sind verantwortlich in der Wahl des optimalen Verhaltens und wie ist diese Wahl im Gehirn repräsentiert?
- Was passiert im Gehirn, wenn ein neues Verhaltensmuster gelernt wurde?
Mit dem breiten Angebot an Geräten, Methoden und etablierten Verhaltensmodellen in der Zebrafischlarve wollen die Martinsrieder Wissenschaftler Schritt für Schritt Antworten auf die genannten Fragen finden. Jede Antwort bringt sie ihrem Langzeitziel näher, besser zu verstehen, wie auch unser Gehirn durch Berechnungen Sinneseindrücke in ein geeignetes Verhalten übersetzt.
* Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 https://www.mpg.de/9834158/MPIN_JB_2016 . . Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.
Literaturhinweise
1. Ahrens, M. B.; Li, J. M.; Orger, M. B.; Robson, D. N.; Schier, A. F.; Engert, F.; Portugues, R. Brain-wide neuronal dynamics during motor adaptation in zebrafish. Nature 485(7399), 471-477 (2012)
2. Portugues, R.; Feierstein, C. E.; Engert, F.; Orger, M. B. Whole-brain activity maps reveal stereotyped, distributed networks for visuomotor behavior. Neuron 81(6), 1328-1343 (2014)
3. Severi, K. E.; Portugues, R.; Marques, J. C.; O'Malley, D. M.; Orger, M. B.; Engert, F. Neural control and modulation of swimming speed in the larval zebrafish. Neuron 83(3), 692-707 (2014)
Weiterführende Links
Max Planck Institut für Neurobiologie (Martinsried, München), Forschungsüberblick: http://www.neuro.mpg.de/forschung
Zebrafische in der Matrix (zeigt die im Artikel beschriebenen Versuche; Gruppe um F. Engert in Harvard -R. Portugues hat dort 6 Jahre geforscht). Video 2:47 min.
-------------------------------------------------------------- Videos vom Janelia Farm Research Campus, Howard Hughes Medical Institute, Ashburn, Virginia, USA:
- Zebrafish Brain: Video 0:53 min.
- Flashes of Insight: Whole-Brain Imaging of Neural Activity in the Zebrafish (Howard Hughes Medical Institute, October 2015) Video 4:48 min
Big Pharma - ist die Krise schon vorbei?
Big Pharma - ist die Krise schon vorbei?Fr, 15.04.2016 - 14:38 — Inge Schuster
Seit den späten 1990er Jahren war es nicht mehr wegzudiskutieren: die Pharmazeutische Industrie war in eine tiefe Krise geraten. Trotz geradezu explodierender Kosten ihrer Forschung und Entwicklung (F&E) erreichten immer weniger neue Arzneimittel den Markt. Dazu liefen die Patente der umsatzstärksten Medikamente aus und billige Generika traten an ihre Stelle. In den letzten Jahren kommt es nun zu einem Anstieg der Neuzulassungen - allerdings hat sich das Produktespektrum verändert, der Anteil an "Nischenprodukten" wird immer größer. Ist die Krise nun vorbei?
----------------------------------------------------------------------------- ----------------------
"Trotz der beeindruckenden Durchbrüche in den biomedizinischen Wissenschaften hat sich der Strom neuer Arzneimittel zu einem Tröpfeln verlangsamt. Dies beeinträchtigt die therapeutischen Fortschritte ebenso wie die kommerziellen Erfolge der Pharmaunternehmen. Die verringerte Produktivität der Pharmabranche wird hauptsächlich durch eine Firmenpolitik verursacht, die Innovation entmutigt. " Pedro Cuatrecasas, 2006 [1]
-------------------------------------------------------------------------------------------------------
Nach wie vor wächst die Pharmabranche. Die Zahl der Firmen, die aktiv Forschung und Entwicklung (F&E) von Therapeutika betreiben, hat sich in den letzten 15 Jahren verdreifacht (von 1198 auf 3687), fast ebenso stark sind die globalen Umsätze gestiegen. 2014 wurde die Marke 1000 Mrd US $ bereits überstiegen. Dabei ist rund ein Drittel des globalen Umsatzes auf die 10 größten Pharmakonzerne (Novartis, Pfizer, Roche, Sanofi, Merck & Co, Johnson & Johnson, GlaxoSmithKline, Astra Zeneca, Gilead, AbbVie) zurückzuführen.
F&E sind Voraussetzung für Innovation, sie sind unabdingbar für das Auffinden neuer wirksamer Therapeutika für den Großteil der Krankheiten, die heute noch nicht zufriedenstellend behandelt werden können. Die Pharmaindustrie hat in den letzten Jahren im globalen Durchschnitt über 14 % ihres Umsatzes in F&E investiert (die Top 10 Unternehmen bis zu 21 %) - damit liegt Pharma als forschungsintensivste Branche an der Spitze weit vor allen anderen Industriezweigen.
Woran lag es nun, dass trotz der großen Fortschritte in der Biomedizin und immenser Investitionen in F&E über lange Zeit immer weniger neue Therapeutika auf den Markt gekommen sind (Abbildung 1)?
Abbildung 1. Neue, vom CDER (Center for Drug Evaluation and Research) der FDA zugelassene Arzneimittel (links).Nach einer langen Phase sinkender Neuzulassungen ist seit 2011 ein Aufwärtstrend zu beobachten.(NCE (new chemical entity): kleine (niedermolekulare) synthetisch hergestellte Verbindungen, NBE (new biological entity): neue biotechnologisch produzierte Therapeutika.) Die F&E-Kosten sind enorm gestiegen:um ein neues Medikament auf den Markt zu bringen, werden im Mittel bereits mehr als 1,5 Mrd US $ ausgegeben (rechts). (Daten: CDER, Nature www.nature.com/nrd 15 (2016 und http://www.efpia-annualreview.eu))
Explodierende F&E-Kosten
Die Kosten um ein neues Medikament auf den Markt zu bringen wurden immer höher (Abbildung 1). Dazu hat zweifellos das enorm zunehmende biochemisch/biologische Wissen beigetragen, das eine Flut neuer Untersuchungsmethoden ermöglichte. Dementsprechend verlangten die Zulassungsbehörden mehr und mehr Testungen. Vor allem waren die Phasen der klinischen Entwicklung davon betroffen: Multi- Center Studien und riesige Patientenkollektive an denen die therapeutische Wirksamkeit eines neuen Produktes bei gleichzeitig vernachlässigbaren Nebenwirkungen bestätigt werden musste, führten zu einer drastischen Verlängerung und Verteuerung des F&E Prozesses. (Der F&E Prozess wurde bereits früher im ScienceBlog dargestellt [2,3]).
Von der Entdeckung bis zur Einführung eines neuen Medikaments dauerte es nun im Durchschnitt 14 - 15 Jahre. Das ohnehin hohe Risiko aus dem F&E Prozess auszuscheiden - die Ausfallsrate - war dabei noch größer geworden: von 100 Kandidaten, die nach der positiv abgeschlossener Präklinik - d.i. nach etwa 6 Jahren F&E-Dauer - in die klinische Prüfung eintraten, schieden um die 94 aus - die meisten in der Phase 2 auf Grund mangelnder Wirksamkeit und/oder nicht tolerierbarer Nebenwirkungen, ebenso häufig jetzt aber auch auf Grund merkantiler Interessen.
Warum aber sank die Produktivität?
Das am Anfang des Artikels stehende Zitat (es stammt aus dem 2006 publizierten Artikel Drug discovery in jeopardy [1] ) gibt darauf kurz und präzise Antwort: infolge verfehlter Firmenpolitik. Der Autor Pedro Cuatrecasas wusste wovon er schrieb; er war ein Leben lang überaus erfolgreich gewesen: als akademischer Forscher (u.a. gehen die Affinitätschromatographie und bahnbrechende Arbeiten zu Membranrezeptoren und Signaltransfer auf ihn zurück) ebenso wie als Präsident/Direktor großer Pharmakonzerne (Warner-Lambert, Parke-Davis, Glaxo, Burroughs Wellcome), wo er maßgeblich an Forschung, Entwicklung und Registrierung von rund 45 neuen Medikamenten beteiligt war.
Nach Cuatrecasas Meinung lag der Grund für die sinkende Produktivität in einem überhand nehmenden Missmanagement der Pharmakonzerne, die alle nach demselben Schema agierten:
Ehemals hervorragend funktionierende Strukturen wurden zerschlagen, in die Führungspositionen traten moderne Manager, die häufig aus anderen Branchen kamen und wenig oder gar keine Erfahrung in Pharma-relevanter F&E hatten. Marketingleute, nicht aber fachlich kompetente Wissenschafter, definierten und kontrollierten nun die Forschung , das essentielle, eigenliche Kernstück der Pharma. Anstelle langfristiger therapeutischer Planungen wurden schnelles Wachstum der Umsätze und die Zufriedenheit der Anleger vorrangige Ziele. Profitmaximierung wollte man vor allem durch sogenannte Blockbuster erreichen. (Unter Blockbuster versteht man Arzneimittel, die gegen sehr häufige Erkrankungen bei sehr vielen Patienten angewandt werden - also einen sehr großen Mark haben und jährliche Umsätze von mindesten 1 Milliarde US $ garantieren.) Das Marketing diktierte die Prioritäten: da ja nicht unbegrenzte F&E-Budgets zur Verfügung standen, wurden zu Gunsten der Entwicklung potentieller Blockbuster "kleinere" Produkte häufig aufgegeben - auch, wenn deren Entwicklung schon weit fortgeschritten war und erfolgversprechend schien.
Dass diese "Strategien" zweifellos zu vielen Fehleinschätzungen führten, weiss jeder, der in Pharma gearbeitet hat: "Nearly all drugs that have become blockbusters had early histories of major disinterest and skepticism" schreibt Cuatrecasas . Dies kann ich an Hand meiner Erfahrungen bei Novartis voll bestätigen: Blockbuster wie Cyclosporin, Parlodel oder das (aus Wien stammende) Antimykotikum Lamisil wären unter den jetzigen Bedingungen bereits sehr früh vom Marketing gestoppt worden.
Die Merger-Manie
Ein wesentlicher Schritt zur Profitmaximierung war (und ist auch weiterhin) der Trend zur Fusionierung mit anderen Pharmaunternehmen oder deren mehr oder weniger feindliche Übernahme. Man erweiterte so sein eigenes Portfolio durch neue, als wichtig erachtete Gebiete und hatte sofort das nötige Know-How und eine repräsentative "pipeline" an Entwicklungsprodukten in möglichst fortgeschrittenem Stadium zur Verfügung. Innerhalb eines Jahrzehnts entstanden so aus 50 bereits sehr großen Pharmakonzernen 10 Megakonzerne.
Die Zusammenschlüsse brachten den Konzernen Synergien - in anderen Worten: Doppelgleisigkeiten wurden eliminiert, Standorte geschlossen und insgesamt viel, viel Personal abgebaut. Dass dabei aber auch wertvolles, über lange Zeit aufgebautes Know-How verlorenging, braucht wohl nicht erwähnt zu werden Dass sich Zusammenschlüsse nicht unbedingt positiv auf die Produktivität auswirken mussten, zeigt das Beispiel des amerikanischen Pharmamultis Pfizer.
Pfizer - Merger am laufenden Band
Mit Jahresumsätzen von mehr als 50 Mrd US$ und rund 100 000 Beschäftigten führte Pfizer bis 2012 das Ranking der Top 10 Pharmaunternehmen an (dann wurde es von Novartis überholt). Zwischen 2000 und 2009 hatte Pfizer mehrere andere große Konzerne akquiriert, die selbst aus Fusionen und Übernahmen anderer Konzerne entstanden waren [3].
Der erste Mega- Deal mit Warner-Lambert im Jahr 2000 (um US $ 111,8 Mrd.) brachte Pfizer u.a. den Cholesterinsenker Lipitor, der zum bis dato bestverkauften Medikament wurde und bis zum Auslaufen des Patents über 120 Mrd US $ erlöste. 2 Jahre später erwarb Pfizer um 60 Mrd US $ Pharmacia (und damit auch u.a. das Arthritismittel Celebrex), sieben Jahre danach Wyeth, das Biologika und Vakzinen in das Portfolio von Pfizer einbrachte.
In den letzten Jahrzehnten vor diesen Zusammenschlüssen hatte Pfizer im Durchschnitt jährlich 1 neues Arzneimittel auf den Markt gebracht. Weder der Erwerb von Warner-Lambert noch von Pharmacia oder Wyeth (oder viele kleinere weitere Deals) konnten diesen Output steigern (Abbildung 2).
Abbildung 2. Die Übernahme mehrerer großer Konzerne (samt deren Produktespektrum) änderte nichts daran, dass Pfizer im Schnitt jährlich nur 1 Medikament auf den Markt brachte.
Was sich aber massiv änderte, war die Zahl der Beschäftigten und der Standorte: Mit der Übernahme der drei großen Konzerne hatte Pfizer insgesamt auch 134 000 Beschäftigte übernommen - bis Ende 2013 waren allerdings 107 000 Posten wegrationalisiert und viele kleinere und größere Standorte aufgelassen. Synergien eben!
Der bisher größte Deal - die Übernahme des in Irland ansässigen Botox-Herstellers Allergan um 160 Mrd US $ - sollte Pfizer eine massive Ersparnis der in den US fälligen Steuer bringen. Dieser Deal scheiterte letzte Woche wegen einer Verschärfung der US-Steuergesetzgebung.
Ein Aufwind mit Biologika - "Nischenbusters"
Die Jahresbilanz für 2015 fiel erfreulich aus: Die weltweit wichtigste Zulassungsbehörde für Arzneimittel -die amerikanische FDA (Food and Drug Administration) - hatte insgesamt 45 neue Arzneimittel registriert (Abbildung 1). Auch das europäische Pendant EMA (European Medicines Agency) hat 39 neue Produkte zugelassen - mit Ausnahme von 3 Therapeutika waren dies Produkte, die im selben Jahr oder im Vorjahr von der FDA zugelassen worden waren.
Damit setzte sich ein 2011 begonnener Aufwärtstrend fort, nachdem zuvor ein Jahrzehnt lang die jährlichen Zulassungen bei etwa der Hälfte der Therapeutika dahingedümpelt waren. Viele der neuen Präparate haben neue Wirkmechanismen, zeigen u.a. eine Stimulierung er körpereigenen Abwehr, Wirksamkeit gegen multiple Sklerose und vor allem Heilung von Hepatitis C bei nahezu allen Patienten. Das Spektrum der in diesen letzten Jahren eingeführten Produkte unterscheidet sich wesentlich von dem früherer Jahre:
- ein beträchtlicher Teil der Neuzulassungen sind nun Biologika, biotechnologisch hergestellte große Moleküle (hauptsächlich Antikörper(fragmente), Enzyme und andere Proteine), Vakzinen, Blutprodukte bis hin zu modifizierten Organismen. Ein Beispiel für die letzteren ist Imlygic (Talimogen) aus dem Biotechkonzern AMGEN, das für die Indikation Melanom zugelassen wurde. Imlygic ist ein modifiziertes Herpesvirus, das sich in den Tumorzellen vermehrt und diese abtötet. Darüber hinaus bewirkt seine Modifizierung eine Stimulierung des Immunsystems, das seinerseits dann zur Vernichtung der Tumorzellen beiträgt.
- etwa die Hälfte der Neuzulassungen sind nicht mehr wie früher auf die Therapie häufiger Krankheiten ausgerichtet, sondern auf seltene Krankheiten, sogenannte orphan diseases (Inzidenz je nach Land unterschiedlich: von 1 - 7,5 Erkrankte je 10 000 Menschen), von denen es sehr viele verschiedene gibt. Um die Entwicklung entsprechender (im Prinzip unrentabler)Therapeutika zu fördern, bieten die Behörden Erleichterungen hinsichtlich deren Registrierung und Vermarktung.
Biologika machen auch am globalen Umsatz einen immer größeren Anteil aus, ersetzen frühere Blockbuster - synthetische Arzneimittel, deren Patente in den letzten Jahren ausgelaufen sind (zwischen 2009 und 2013 bedeutete dies einen Umsatzrückgang von rund 120 Mrd US $ ). Von den Top 10 Arzneimitteln im Jahr 2014 waren bereits sechs Biologika (Gesamtumsatz 55 Mrd US $ ). 2016 sollen schon 8 der Top 10 Präparate Biologika sein mit einem geschätzten Umsatzvolumen von rund 68 Mrd US $ [4].
Ist die Krise nun vorbei?
Die Pharmalandschaft hat sich stark verändert. Viele Patente umsatzstärkster Medikamente - synthetisch hergestellter Arzneimittel - sind ausgelaufen und wesentlich billigere Generika an ihre Stelle getreten. Der Umsatzrückgang war beträchtlich, die Firmen haben dies teilweise durch massive Preiserhöhungen ihrer Produkte kompensiert. Zur Erhöhung der Rentabilität fanden Fusionen und Übernahmen von Unternehmen am laufenden Band statt - das vergangene Jahr brachte einen richtigen Tsunami an Zusammenschlüssen - und ein Ende ist nicht abzusehen.
Auch die Forschungsrichtung hat sich verändert. Anstatt wie früher Medikamente für breite Bevölkerungsschichten zu entwickeln, geht der Trend nun in Richtung Nischenprodukte zur spezifischen Behandlung seltener Krankheiten, zu einer personenbezogenen Medizin. Dies klingt natürlich vielversprechend.
Einige der Nischenprodukte - vorwiegend Biologika - haben sich auch bereits zu Blockbustern entwickelt (s.o.). Da die Zahl der Anwender definitionsgemäss niedrig ist, sind die Preise für derartige Produkte sehr hoch angesetzt -man will ja die enormen Entwicklungskosten einigermaßen hereinbekommen.
Beispielsweise hat Gilead mit seinem Produkt Solvadi einen echten Durchbruch in der Therapie von Hepatitis C erreicht: bis zu 95 % der damit behandelten Patienten sind geheilt. Die Heilung kostet bis zu 80 000 €. Von solchen Erfolgen kann man in der Onkologie nur träumen: wenn die neuen Biologika z.B. zur Behandlung von Leber- oder Pankreaskrebs eingesetzt werden, bedeutet das eine Lebenserlängerung von vielleicht 2 - 3 Monaten gegenüber Standardtherapien allerdings um den Preis von mehreren Tausend € im Monat.
Die Frage ist, wer für derartige Kosten aufkommt. Im Falle der Hepatitis C, an der rund 0,4 % der Bevölkerung leiden, erscheint die Übernahme durch die Gesellschaft vertretbar - es bedeutet ja hier die Heilung von einer schweren chronischen Erkrankung. Ist es noch aber noch finanzierbar 5 % der Bevölkerung mit exorbitant teuren Nischenprodukten zu behandeln, die möglicherweise nur mäßige Erfolge bringen? (Nach einer Milchmädchenrechnung müßten dafür bereits 10 % des BIP aufgewendet werden). Oder noch größere Teile der Gesellschaft?
Kann daher der nun eingeschlagene Weg zu Nischenprodukten eine langfristig profitable Option für die Pharma darstellen?
[1]Pedro Cuatrecasas (2006) Drug discovery in jeopardy. J Clin Invest 116 (11) 2838-2842
[2] Inge Schuster (2012) Zur Krise der Pharmazeutischen Industrie http://scienceblog.at/zur-krise-der-pharmazeutischen-industrie#.
[3] Peter Seeberger (2014) Rezept für neue Medikamente. http://scienceblog.at/rezept-fuer-neue-medikamente#.Vw44gXr95pM
[4] Looking Ahead: Pharma Projections for 2016 - And Beyond. http://www.drugs.com/slideshow/looking-ahead-pharma-projections-for-2016...
Sofern nicht gesondert angeführt, stammen die Daten in diesem Essay aus:
Efpia.The Pharmaceutical Industry in Figures. Key Data 2015 http://www.efpia.eu/uploads/Figures_2015_Key_data.pdf
statista http://www.statista.com/statistics/258022/top-10-pharmaceutical-products...
FiercePharma http://wwwfiercepharma.com
Forbes http://www.forbes.com/search/?q=pharma
Weiterführende Links
Die Phasen der Arzneimittelforschung und Entwicklung Der F&E Prozess verläuft weltweit in allen Pharmaunternehmen auf die gleiche Weise.
Francis Collins: We need better drugs -- now Video (englisch) 14:40 min. (Der Genetiker Collins war u.a. Leiter des Human Genome Projects und ist derzeit Direktor des National Institute of Health (NIH))
Der Boden - ein unsichtbares Ökosystem
Der Boden - ein unsichtbares ÖkosystemFr, 01.04.2016 - 10:58 — Knut Ehlers
Wie fruchtbar Böden sind, wird von vielen Faktoren bestimmt: vom Alter, vom Ausgangsgestein, vom Humusgehalt, von den Klimaverhältnissen und den Menschen. Der Agrarwissenschaftler Dr. Knut Ehlers (Umweltbundesamt, Dessau-Roßlau, Deutschland) gibt eine prägnante Übersicht, die von den Bodenorganismen bis hin zu den globalen Beschaffenheiten und Eigenschaften der Böden reicht.*
Mindestens Jahrhunderte, eher Jahrtausende und Jahrmillionen vergehen, bis das entstanden ist, was wir Boden nennen. So viel Zeit wird gebraucht, damit Gestein an der Erdoberfläche verwittert und eine mehrere Meter mächtige Schicht bildet. Sie besteht etwa zur Hälfte aus mineralischen Partikeln wie Sand und Ton, zu jeweils grob 20 Prozent aus Luft und Wasser und zu etwa 5 bis 10 Prozent aus Pflanzenwurzeln, Lebewesen und Humus, der den Lebensraum und die Nahrungsquelle für weitere Organismen darstellt.
Der Lebensraum Boden
Der Humus verleiht dem Boden nahe der Oberfläche eine dunkle, braunschwarze Farbe. Dieser Oberboden wimmelt von Leben: Neben Regenwürmern, Asseln, Spinnen, Milben und Springschwänzen leben in einer Hand voll Boden mehr Mikroorganismen (etwa Bakterien, Pilze oder Amöben) als Menschen auf der Erde (Abbildung 1). Diese Lebewesen zersetzen abgestorbene Pflanzenteile, bauen sie in Humus um und verteilen diese fruchtbare Substanz im Boden. Humus speichert Nährstoffe und Wasser und sorgt dafür, dass der Boden eine stabile Struktur mit vielen Poren erhält. Zudem enthält er viel Kohlenstoff, der ursprünglich von Pflanzen im Form des Klimagases CO2 aus der Luft aufgenommen wurde. Der Boden ist einer der bedeutendsten Kohlenstoffspeicher überhaupt: Er bindet mit etwa 1.500 Milliarden Tonnen allein im Humus fast dreimal mehr Kohlenstoff als die gesamte lebende Biomasse, also alle Lebewesen inklusive Bäumen, Sträuchern und Gräsern. Abbildung 1. Der Boden lebt: es gibt wesentlich mehr Organismen in als auf dem Boden. Der Lebensraum Boden birgt noch viele Geheimnisse, nur ein Bruchteil der vielen Arten, die in ihm leben, ist bisher erforscht. (Urheber: Heinrich-Böll-Stiftung u.a. Das Bild steht unter der Creative Commons Lizenz CC-BY-SA)
Die Poren des Bodens
Beim Boden ist es wie beim Käse: Das beinahe Wichtigste sind die Löcher. Die Poren des Bodens, also die Hohlräume zwischen den festen Bestandteilen wie Mineralien und Humuspartikeln, sorgen dafür, dass der Boden durchlüftet und so die Pflanzenwurzeln und Bodenlebewesen ausreichend mit Sauerstoff versorgt werden. Wasser wird durch Adhäsions- und Kapillarkräfte gegen die Schwerkraft gehalten – ein Boden kann bis zu 200 Liter pro Kubikmeter speichern und Pflanzen auch dann noch mit Flüssigkeit versorgen, wenn es länger nicht mehr geregnet hat. Das Porenvolumen eines Bodens ist abhängig von der Größe der mineralischen Bodenpartikel, dem Humusgehalt und der Durchwurzelung sowie der Aktivität der Bodenlebewesen.
Insbesondere Regenwürmer haben hier eine wichtige Funktion, denn ihre Gänge sind wichtige Wasserleitbahnen, die bei starken Niederschlägen die Aufgabe haben, das Wasser von der Oberfläche in den Unterboden zu transportieren. Dieser enthält weniger Humus und Lebewesen als der Oberboden und ist heller, durch unterschiedliche Eisenverbindungen häufig gelblich-ockerfarben oder auch rötlich. Ein tiefgründiger, gut durchwurzelbarer Unterboden spielt für die Bodenfruchtbarkeit eine große Rolle. Die Pflanze kann sich über ihre Wurzeln auch dann noch mit Wasser versorgen, wenn der Oberboden bereits trocken ist.
Die geografische Lage ist häufig entscheidend dafür, über welchen Zeitraum die Böden entstanden sind. In Mitteleuropa kamen zum Beispiel in den Eiszeiten immer wieder Gletschermassen dazwischen. Sie machten Tabula rasa, indem sie neue Sedimente ablagerten und bereits entstandene Böden umwühlten. Die typischen braunen Böden in Mitteleuropa sind daher mit etwa 10.000 Jahren im internationalen Vergleich recht jung und wenig verwittert. Häufig enthalten sie noch viele Minerale, aus denen sich Pflanzennährstoffe wie Kalium und Phosphor langsam herauslösen. Die typischen roten Böden der Tropen hatten dagegen Millionen Jahre Zeit für die Verwitterung, mit der die Mineralien aufgelöst, umgebildet und teilweise ausgewaschen wurden. Der freigesetzte Phosphor wurde dabei von ebenfalls frei gewordenen Eisen- und Aluminiumoxiden fest gebunden, sodass die Pflanzenwurzeln ihn nun kaum mehr aufnehmen können. Diese Böden sind daher nährstoffarm. Die Nährstoffe für die reiche Vegetation sind statt im Boden in den lebenden Pflanzen gespeichert, denn abgestorbene Pflanzenteile werden sehr schnell zersetzt und die freigewordenen Nährstoffe sofort wieder aufgenommen.
Wertvoll sind auch wenig fruchtbare Böden
Welche Eigenschaften sie herausbilden, ist maßgeblich abhängig von dem Ausgangsgestein. Ist es quarzreich, entstehen leichte, eher grobkörnige und sandige Böden, die gut durchlüftet sind, aber nur wenig Wasser und Nährstoffe speichern können. Ist das Ausgangsgestein dagegen reich an Feldspat, entsteht aus den immer feiner werdenden Partikeln ein schwerer, tonreicher Boden, der viel Nährstoffe und Wasser speichert, aber schlechter durchlüftet ist. Auch ist das Wasser hier so stark im Boden gebunden, dass die Pflanzenwurzeln es nur zum Teil nutzen können. Optimal für die Landwirtschaft sind daher weder die sandigen leichten noch die tonreichen schweren Böden, sondern solche, die lehmig und reich an Schluff sind. Schluffpartikel sind kleiner als Sand und größer als Ton. Sie verbinden die Vorteile von beiden: gute Durchlüftung und gutes Wasser- und Nährstoffspeichervermögen. Einen Überblick über die unterschiedlichen Bodengruppen auf unserer gibt Abbildung 2. Abbildung 2. Forscher sortieren die Böden nach Eigenschaften, etwa dem Grad der Verwitterung oder der Bedeutung des Wassers. (Urheber: Heinrich-Böll-Stiftung u.a. Dieses Bild steht unter einer CC-BY-SACreative Commons Lizenz.)
Besonders fruchtbare Böden sind interessante Ackerflächen; eingeschränkt fruchtbare Böden eignen sich noch für die Wiesen- und Weidennutzung oder als Waldfläche. Auch weniger fruchtbare Böden können wertvoll sein, etwa als Lebensräume seltener Arten. Moorböden wiederum sind für eine intensive landwirtschaftliche Nutzung zu feucht, speichern aber besonders viel Kohlenstoff.
Wenn der Boden falsch und zu intensiv genutzt wird, verliert er seine Funktionsfähigkeit und degradiert. Schätzungsweise 20 bis 25 Prozent aller Böden weltweit sind bereits davon betroffen, und jedes Jahr verschlechtern sich weitere 5 bis 10 Millionen Hektar. Das entspricht in der Größenordnung der Fläche Österreichs (8,4 Millionen Hektar). Dabei gibt es durchaus Böden, etwa im Auenbereich von Euphrat und Tigris oder im Hochland von Neuguinea, die seit 7.000 Jahren unter ganz unterschiedlichen Bedingungen genutzt werden – und nach wie vor fruchtbar sind.
* Der dem Bodenatlas - Daten und Fakten über Acker, Land und Erde entnommene Artikel wurde geringfügig für den Blog adaptiert und erscheint mit freundlicher Zustimmung des Autors. Der Bodenatlas war ein Kooperationsprojekt zum internationalen Jahr des Bodens von der Heinrich-Böll-Stiftung, IASS, BUND, Le Monde diplomatique, 2015. (Alle Grafiken und Texte stehen unter der offenen Creative Commons Lizenz CC-BY-SA ) https://www.bund.net/fileadmin/bundnet/publikationen/landwirtschaft/1501...
Literatur
UBA, Verlust der Biodiversität im Boden: http://www.umweltbundesamt.de/themen/boden-landwirtschaft/bodenbelastung...
Thomas Caspari/ISRIC; World Reference Base for soil resources 2014, Annex 1, S. 135-172 (PDF) http://www.fao.org/3/a-i3794e.pdf
Weiterführende Links
Zum Thema Boden sind bereits einige Artikel im ScienceBlog erschienen, die im Themenschwerpunkt Biokomplexität unter der Überschrift ›Ökosysteme‹ zusammengefasst sind.
Mikroglia: Gesundheitswächter im Gehirn
Mikroglia: Gesundheitswächter im GehirnFr, 08.04.2016 - 08:07 — Susanne Donner
Mikrogliazellen sind die erste Linie des Verteidigungssystems im Gehirn. Sie wachen mit ihren mobilen Fortsätzen dauernd über den Gesundheitszustand unseres Denkorgans. Bei Krankheit oder Verletzung begeben sie sich sofort zum Katastrophenherd. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner beschreibt wie Mikroglia andere Immunzellen zu Hilfe rufen und Bakterien beseitigen, aber auch bei ganz gewöhnlichen Denkvorgängen, wie sie zum Lernen und Umdenken nötig sind, helfen.*
Man muss sich das einmal bildhaft vorstellen: Da oben in der Denkzentrale werkeln nicht nur Milliarden Nervenzellen, also Neuronen, sondern auch so genannte Mikrogliazellen. Diese scannen fortlaufend mit haarfeinen Ärmchen das Gewebe – in etwa wie ein ruhender Tintenfisch, der mit seinen Tentakeln dauernd um sich greift. Gibt es einen Notfall, verwandelt sich die Zelle in eine Art Amöbe und begibt sich flott zum Katastrophenherd. Ja, da oben in der Denkzentrale bewegen sich wirklich ganze Zellen: kein Fleckchen ohne umherschwirrende Wächter mit mobilen Ärmchen. (Abbildung 1)
Abbildung 1. Mikrogliazellen (grün) in der Gehirnrinde einer adulten Maus bilden stark verzweigte Ausläufer, mit denen sie ihre Umgebung abtasten. Benachbarte Neurone sind violett angefärbt, Zellkerne anderer Zellen des Hirngewebes erscheinen blau. / © Marina Matyash
Kein Wunder also, dass die kuriosen Mikroglia – die zu den Gliazellen gehören – hunderte Forscher weltweit in ihren Bann ziehen: Wie machen diese Zellen das bloß?
Immunsystem des Gehirns
Im Groben ist seit vielen Jahren klar: Die mobilen Wächter bilden das Verteidigungs- und Immunsystem des Gehirns. Die Mikroglia wehren an vorderster Front gefährliche Keime - etwa die von Zecken übertragenen Borrelien - ab, wenn diese ins Zentralnervensystem eindringen. Schon 1919 entdeckte Pio del Rio Hortega die Wächterzellen. Aber erst heute weiß man, dass die Mikroglia äußerst wandelbar in ihrer Gestalt und ihren Funktionen sind.
Wächter auf Streife und auf ihrem Beobachtungsposten
Im gesunden Gehirn kommt die Mikrogliazelle zu Hunderttausenden vor und bleibt mit ihrem Zellkörper an einer Stelle im Gewebe. Sie hat jedoch sehr feine Tentakel, mit denen sie ständig das Gewebe ringsum abtastet. Mit ein bis zwei Mikrometern je Minute schieben sich diese Ausläufer voran. An Synapsen, den Verknüpfungen zwischen Nervenzellen, verweilen sie aber mehrere Minuten. Sie scannen also ihre Umgebung und kontrollieren jeweils ein Gebiet mit einem Radius von 15 bis 30 Mikrometern. Dabei hat jede Mikrogliazelle ihr eigenes Territorium. Sie arbeiten sozusagen wie Wächter auf einem Beobachtungsposten. Das Gehirn wird von diesen Aufpassern alle paar Stunden einmal komplett durchforstet, haben Forscher ausgerechnet.
„Es ist die sich am schnellsten bewegende Struktur in unserem Gehirn“, sagt Helmut Kettenmann, Neurowissenschaftler am Max-Delbrück-Centrum für molekulare Medizin in Berlin.
Woher man das so genau weiß? Seit 2005 kann man die Mikrogliazellen sogar bei der Arbeit beobachten. Zumindest in Mäusen. In einer genetisch modifizierten Variante stellen die Zellen ein fluoreszierendes Protein her und leuchten unter dem Laser-Mikroskop. Axel Nimmerjahn, Frank Kirchhoff und Fritjof Helmchen (damals an den Max-Planck-Instituten für Medizinische Forschung in Heidelberg und für Experimentelle Medizin in Göttingen) waren die ersten Forscher, die auf diese Weise den Wächtern beim Tagesgeschäft zuschauten.
Neben der sesshaften Form kann die Mikroglia aber auch ganz anders: Verwundet man das Gehirn punktuell, zum Beispiel in einem Experiment mit einem Laser, dann verwandeln sich die umliegenden Mikrogliazellen zu Amöben. Sie ziehen ihre Tentakel teilweise oder komplett ein, dehnen ihren bis dahin runden Zellkörper aus und sind dabei so flexibel, dass sie bildlich gesprochen in jede Nische schlüpfen können. In dieser Gestalt begeben sie sich auf Streife und wandern dann zu einer Wunde. Einige Mikrogliazellen vermehren sich, sodass die Zahl der Einsatzkräfte vor Ort steigt. Sie können andere Immunzellen zu Hilfe rufen, indem sie entsprechende Signalstoffe ausschütten. Und indem sie Sauerstoff- und Stickstoff-Radikale freisetzen, können sie auch eigenmächtig Bakterien und Zellen abtöten. Nicht zuletzt wird an Ort und Stelle aufgeräumt: Bakterien-Bestandteile oder abgestorbene Zellen nehmen die Mikrogliazellen zu diesem Zweck in ihr Inneres auf.
Frühe Geburt der Wächter
Deswegen dachten Wissenschaftler bis vor kurzem, dass die Mikroglia mit den Fresszellen unmittelbar verwandt sind, also jenen Abwehrzellen, die im Blut schwimmen. Auch diese nehmen Bakterien, Viren und andere Krankheitserreger in ihr Inneres auf und machen sie so unschädlich.
Trotz der Ähnlichkeit besteht aber nur wenig Verwandtschaft, wie Neuropathologen um Marco Prinz von der Universität Freiburg nachweisen konnten. Die Mikroglia entstünden vielmehr ganz früh in der Embryonalentwicklung aus embryonalen Stammzellen – die Fresszellen unter den weißen Blutkörperchen hingegen aus Stammzellen des Knochenmarks. Deswegen seien die Mikroglia eine eigenständige Zellklasse, schrieb Prinz 2013 im Journal Nature Neuroscience. „Das weist einmal mehr auf die Bedeutung dieser Zellen hin. Das Zentralnervensystem hat also ein ganz eigenständiges, sich getrennt entwickelndes Immunsystem“, kommentiert Kettenmann.
Nur, woher wissen Mikroglia eigentlich, was sie tun sollen? Diese Frage beschäftigt Kettenmanns Team besonders. Längst geht die Zahl der Signalstoffe, auf die Mikrogliazellen reagieren, in die Hundert. Auf der Oberfläche der Wächterzellen findet man immer neue Andockstellen für solche Substanzen. Interessanterweise ist auch der Energielieferant Adenosintriphosphat (ATP) darunter, der Zellen im Körper generell mit Energie versorgt und nur Experten als Signalmolekül bekannt ist. An Wunden und Entzündungsherden wird es in größerer Menge bereitgestellt und bietet womöglich so den energieintensiven, weil beweglichen Mikroglia reichlich Nahrung für ihre Arbeit. Auch wenn Hirngewebe in einem Experiment mit einem Laser punktuell verletzt wird, sei es vermutlich ATP, das die Mikroglia herbeigerufen hat, schrieb Sharon Haynes von der University of California in San Francisco 2005.
Hunderte Signalstoffe
Die Forscher unterteilen die Fülle der Signalstoffe, auf die die Mikroglia reagieren, in „On-Signale“ und „Off-Signale“. On-Substanzen sind für gewöhnlich nicht oder nur in geringer Menge im Gehirn zu finden. Bei Erkrankungen nimmt dann ihre Konzentration zu und aktiviert die Mikroglia. Dazu zählen die Amyloid-Plaques bei der Alzheimer-Erkrankung, aber auch Zellwandbestandteile von eingedrungenen Bakterien und Entzündungsstoffe wie Zytokine. Off-Substanzen sind hingegen solche Stoffe, die im Gehirn selbst vorkommen. Wenn ihre Konzentration abfällt, dann ist das ein Zeichen für die Mikroglia, sich auf den Weg zu machen zu einem Entzündungsherd. Dazu zählen beispielsweise Chemokine, die von den Nervenzellen gebildet werden.
Forscher gehen derzeit davon aus, dass die Mikrogliazellen wohl bei Krankheiten des Gehirns mit von der Partie sind – ob bei Alzheimer oder Autismus, ob bei Parkinson, nach einem Schlaganfall oder bei Schizophrenie. Und da sie als Wächter fähig sind, Bakterien und sogar andere Zellen umzubringen, vermuteten Forscher lange Zeit, dass sie bei einigen dieser Leiden außer Rand und Band geraten und massenhaft Zellen umbringen. So könnten sie den Untergang Tausender Neuronen bei einer Demenz zu verantworten haben. Bei einer Multiplen Sklerose richten sie sich nachweislich gegen Myelin, die schützende Hüllsubstanz der Nervenzellfortsätze. Die Mikrogliazellen sind vom Immunsystem so fehlgesteuert, dass sie das körpereigene Myelin als etwas Körperfremdes ansehen und wie einen Eindringling in ihr Inneres aufnehmen. Sie präsentieren sogar Myelin-Fragmente auf ihrer Zelloberfläche als Antigen und rufen somit andere Immunzellen herbei, zunächst T-Zellen und diese dann wiederum Makrophagen, die Fresszellen. „Damit bringen die Mikroglia die Körperabwehr gegen das Schutzmaterial für Nervenfasern auf und begründen womöglich die Autoimmunerkrankung“, sagt Mathias Heikenwälder, Virologe vom Helmholtz Zentrum München. Indem Mikroglia Antigene präsentieren, lenken sie das Immunsystem.
Geschwächte Wächter
Doch mittlerweile geht man davon aus, dass die Mikroglia bei vielen Erkrankungen nicht übereifrig sind, sondern – im Gegenteil – ihren Aufgaben aus den verschiedenen Gründen nicht richtig nachkommen können. „Einige Arbeiten weisen nach, dass eine Verminderung der Mikroglia schlecht für den Gesundheitszustand ist“, schildert Heikenwälder. Die Mikroglia könnten insofern sogar ein Ansatzpunkt für Therapien sein. Darauf deuten Experimente an Mäusen mit einer Form des Autismus hin, dem Rett-Syndrom. Die Tiere haben Bewegungsstörungen und leben kürzer. Auch ihre Mikroglia sind gestört. Die Zellen nehmen nicht mehr genug defekte Zellen und Bakterien in ihr Inneres auf, um diese so unschädlich zu machen. Wird nur diese Fähigkeit durch einen Eingriff ins Erbgut wieder hergestellt, schwinden die Beeinträchtigungen der Mäuse.
Für Gesprächsstoff unter Forschern sorgt auch, dass die Mikroglia, anders als bislang vermutet, bei normalen Gedächtnisfunktionen mit von der Partie sind. So können sie Verknüpfungen zwischen Nervenzellen, so genannte Synapsen, beseitigen. Dieser Vorgang ist für das Lernen, aber auch das Vergessen bedeutsam. Damit wirken die Mikroglia im Guten wie im Schlechten, denn wir müssen vergessen, um Neues zu lernen, aber wir müssen uns auch erinnern, um im Alltag zurechtzukommen. „Die Mikroglia sind nicht nur ein pathologischer Sensor, sondern haben auch im normalen gesunden Gehirn allerhand Funktionen“, bekräftigt Kettenmann.
In dieses Bild passt auch, dass die Mikroglia im alternden Gehirn oft geschwächt sind: Sie bekommen eine andere Form, sie reagieren langsamer oder wandern gar nicht mehr in Schadensgebiete. Der lahme Wächter dürfte also zum altersbedingten Nachlassen der Geisteskraft beitragen.
zum Weiterlesen:
Kettenmann H, Verkhratsky A: Neuroglia, der lebende Nervenkitt. Fortschritte der Neurologie – Psychiatrie. 2011 Oct; 79(10): 588-597 (Abstract: https://www.mdc-berlin.de/1157090/en/research/research_teams/cellular_ne...).
Kettenmann H, Kirchhoff F, Verkhratsky A: Microglia: New Roles for the Synaptic Stripper, Neuron Perspective. 2013 Jan; 77(1): 10-18 (http://www.cell.com/neuron/abstract/S0896-6273%2812%2901162-2?_returnURL...).
Kierdorf K et al.: Microglia emerge from erythromyeloid precursors via PU.1 and IRF-8 dependent pathways. Nature Neuroscience. 2013 Mar;16(3): 273-280 (http://www.ncbi.nlm.nih.gov/pubmed/23334579).
*Der Artikel ist der Webseite www.dasgehirn.info entnommen und steht unter einer CC-BY-NC Lizenz: https://redaktion.dasgehirn.info/entdecken/glia/mikroglia-die-mobilen-un...
www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe
Weiterführende Links der Webseite www.dasGehirn.info:
Arvid Leyh: Die Welt der Gliazellen, Video 3:37 min. (Lizenz: CC-BY-SA ) https://redaktion.dasgehirn.info/entdecken/glia/die-welt-der-gliazellen-...
Arvid Leyh: Gliazellen live. Video 3:30 min (Lizenz: CC-BY-SA-ND) https://redaktion.dasgehirn.info/entdecken/glia/gliazellen-live-1886/
Arvid Leyh: Helmut Kettenmann über Gliazellen. Video 13:07 min. (Lizenz: CC-BY-NC ) https://redaktion.dasgehirn.info/entdecken/glia/helmut-kettenmann-ueber-...
150 Jahre Mendelsche Vererbungsgesetze - Erich Tschermak-Seyseneggs Beitrag zu ihrem Durchbruch am Beginn des 20. Jahrhunderts
150 Jahre Mendelsche Vererbungsgesetze - Erich Tschermak-Seyseneggs Beitrag zu ihrem Durchbruch am Beginn des 20. JahrhundertsFr, 25.03.2016 - 08:29 — Redaktion
Vor 150 Jahren hat der alt-österreichische Biologe und Augustinermönch Gregor Mendel seine epochalen Beobachtungen zur Vererbung bestimmter Farb- und Formeigenschaften in Kreuzungen von Pflanzen veröffentlicht [1]. Diese, später als "Mendelsche Regeln" bekannt gewordenen Hypothesen haben einerseits die bis zur Schwelle des 20. Jahrhunderts rein empirisch vorgehende Pflanzenzüchtung und ebenso auch die Tierzucht revolutioniert und sind andererseits zum Grundpfeiler der molekularen Genetik geworden. Maßgeblich zum Durchbruch der Mendelschen Vererbungslehre hat der Wiener Botaniker und Pflanzenzüchter Erich von Tschermak-Seysenegg beigetragen, der sich selbst als einen der drei Wiederentdecker von Mendels Vererbungsgesetzen sieht und auf diesen basierend Regeln für deren züchterische Verwertung erstellt. Dies unterstreicht er auch in dem hier wiedergegebenem populären Vortrag "Die Mendelschen Vererbungsgesetze", den er 1908 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" [2] gehalten hat.
Abbildung 1. Erich Tschermak-Seysenegg um 1900 (Acta horti bergiani bd. III, no.3 (1905), Gemeinfrei) und Titelblatt der Vorlesung "Die Mendelschen Vererbungsgesetze [2]
Erich Tschermak-Seysenegg (1871 - 1962, Abbildung 1) stammte aus einer Wiener Gelehrtenfamilie. Er war der Sohn des prominenten Chemikers, Mineralogen und Petrographen Gustav Tschermak [3], Enkel des Botanikers Eduard von Fenzl , der Professor an der Universität Wien und Direktor des Botanischen Gartens war, und Bruder des Physiologen Arnim Tschermaks, Rektor der Veterinärmedizinischen Universität Wien. Der vielfach ausgezeichnete Botaniker und Pflanzenzüchter Erich Tschermak war Professor an der Universität für Bodenkultur in Wien und gründete dort den Lehrstuhl für Pflanzenzüchtung. Er gilt als einer der Wiederentdecker von Mendels Regeln*.
Sein am 15. Jänner 1908 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehaltener Vortrag [2] erscheint hier stark gekürzt (er hätte ansonsten die übliche Länge von Blogbeitragen sehr weit üerschritten) und für den Blog adaptiert (d.i. es wurden Untertitel und Abbildungen eingefügt):
Erich Tschermak-Seysenegg: Die Mendelschen Vererbungsgesetze
Das Studium jener Faktoren, welche zur Bildung neuer Formen führen können, ist heute für den modernen Pflanzen- und Tierzüchter eine conditio sine qua non. Die zahlreichen Entdeckungen auf dem Gebiete der Selektion, der Mutation, der direkten Bewirkung der Befruchtung und Vererbung, speziell der Bastardierung (auch als Hybridisierung bezeichnet: Entstehung von Nachkommen mit genetisch verschiedenen Eltern; Anm. Red.) haben auch tatsächlich eine völlige Neugestaltung unserer Vorstellungen über die Entstehung neuer Formen bewirkt.
Wie sehr sich jedoch die normale Lebenslage gerade bei der Züchtung unserer landwirtschaftlichen Kulturpflanzen durch Änderung bezüglich der Düngung, Bodenbearbeitung, des Klimas etc. verschoben hat, ist uns ja allen bekannt. Der Einfluss äußerer Faktoren kann jedenfalls den Anstoß geben zu einem sogenannten Durchbrechen der Vererbung, zu einem Hervortreten latenter Eigenschaften oder zur exzessiven Steigerung vorhandener. Haben doch gerade in jüngster Zeit einige Beobachtungen gelehrt, dass äußere Einflüsse, speziell wachstumstörende wie z. B. Frost, Dürre, Pflanzenkrankheiten, selbst Verletzungen etc. direkt als Ursachen der Mutation anzusprechen sind. Wir sehen also, dass wir die Wirkungen der einzelnen formbildenden Faktoren nur dann richtig beurteilen und studieren können, wenn wir dieselben nach Möglichkeit voneinander trennen.
Die Mendelschen Regeln
Während noch bis vor relativ kurzer Zeit die Neuzüchtung von Pflanzenformen durch künstliche Kreuzung verschiedener Rassen oder auch Arten als ein wenig rationelles Gebiet erschien, auf dem vielmehr Unregelmäßigkeit und Zufall, Unfruchtbarkeit und Rückschlag die Regel sein sollte, sprechen wir seit acht Jahren von einer gesetzmäßigen Gestaltungs- und Vererbungsweise der Mischlinge und Bastarde. Diese Vererbungsgesetze waren, soweit sie die einfachen sogenannt typischen Fälle betreffen, bereits vor 43 Jahren von dem Augustinermönche, dem späteren Prälaten des Augustinerstiftes in Brünn Gregor Mendel formuliert worden (Abbildung 2).
Abbildung 2. Gregor Mendel (1822 - 1884) um 1862 (Quelle: W. Bateson "Mendels Principles of Heredity (1909); https://ia802604.us.archive.org/29/items/mendelsprinciple00bate/mendelsp...)
Doch blieben sie infolge einer merkwürdigen Verkettung ungünstiger Umstände bis zum Jahre 1900 ungekannt und unverwertet. Ihre Wiederentdeckung, welche gleichzeitig und unabhängig von de Vries*, Correns* und mir erfolgte, hat nicht bloß zur Bestätigung der Mendelschen Regeln in einer reichen Fülle von Fällen sowie bereits zu züchterischer Verwertung des Mendelismus geführt. Dazu kommen vielmehr noch als neue Errungenschaften die weitgehende Abstufung und Modifikation der Vererbungsgesetze für die sogenannten atypischen Fälle, ferner die Erkenntnis der Vererbungsweise latenter Merkmale oder die Lehre von der Kryptomerie und endlich das vielerörterte Problem der Reinheit oder Unreinheit der Fortpflanzungszellen bei den Bastarden.
Durch die strenge Durchführung von zwei Prinzipien
brachte Gregor Mendel Ordnung in das bisher noch so dunkle Gebiet der Bastardlehre und erwies die Geltung ganz bestimmter, allgemein bedeutsamer Gesetze für die Bastardbildung.
- Erstens zerlegte er den Gesamteindruck, den sogenannten Habitus jeder zur Kreuzung benutzten Pflanzenform in einzelne elementare Eigenschaften und zergliederte den Unterschied der beiden Elternformen nach einzelnen Merkmalen, die er paarweise einander gegenüberstellte: das Prinzip der biologischen Merkmalsanalyse (Abbildung 3). Die Bedeutung dieses Verfahrens für die Biologie ist eine ganz ähnliche wie die Zerlegung einer chemischen Verbindung in scharf getrennte, selbständige konstante Einheiten
Abbildung 3. Mendel untersuchte 2 Erbsensorten an Hand von 7 Merkmalen (Quelle: Mariana Ruiz LadyofHats - http://de.wikipedia.org/wiki/Datei:Mendel_seven_characters.svg, cc0 )
- Züchterischen Wert gewann jedoch diese exakte Analyse am Einzelindividuum erst durch Hinzufügung eines zweiten Prinzips, des sogenannten Isolationsprinzips, das in der Sonderung von Samenertrag und Deszendenz nach den einzelnen Stammpflanzen besteht. Mit einem Schlage verschwand nun die scheinbare Regellosigkeit und wie von selbst bot sich die Gesetzmäßigkeit dar. Heute bilden die Grundzüge der Individualzüchtung und der methodischen Zerlegung des Pflanzenhabitus, beziehungsweise des Rassenunterschiedes nach Einzelmerkmalen das Fundament der modernen rationellen Pflanzenzüchtung.
Dominanzregel
Machen wir uns nun in aller Kürze mit dem Inhalte der Mendel sehen Vererbungsgesetze vertraut. Der erste Hauptsatz derselben, die sogenannte Dominanzregel sagt uns, dass von zwei gewissermaßen in Konkurrenz tretenden Merkmalen der Eltern das eine sich als „dominierend" oder überwertig erweist, das ändere als „rezessiv" oder unterwertig.
Abbildung 4. Die Kreuzung zweier Pflanzen mit dem unterschiedlichen Merkmal "Farbe": Dominanz der braunen Farbe, Spaltung im gesetzmäßigen Verhältnis 3:1.
Kreuze ich weißsamigen Senf mit braunsamigen, so dominiert die braune Samenfarbe. Das rezessive Merkmal „weiß" ist in der ersten Generation (Filialgeneration 1: F1; Anm. Red.) scheinbar völlig verschwunden. Schütze ich diese Pflanzen gegen Fremdbestäubung, so dass nur Selbstbefruchtung eintreten kann, so gewinne ich wieder Samen, aus denen nun aber — im dritten Versuchsjahre — eine Mehrzahl von braunsamigen, aber auch weißsamige Individuen hervorgehen (Filialgeneration 1: F2; Anm. Red.). Zähle ich die Vertreter beider Gruppen, so erhalte ich — bei genügender Anzahl — sehr genau das Zahlenverhältnis 3 : 1 , d. h. unter durchschnittlich vier Individuen sind drei braunsamig und eines weißsamig, auf hundert gerechnet finden sich 75% braunsamige und 25 % weißsamige (Abbildung 4).
Spaltungsregel
An der zweiten Bastardgeneration ist also eine Aufteilung der elterlichen Merkmale, eine sogenannte Spaltung von ganz gesetzmäßiger Art eingetreten. Diese Erscheinung von Zwiespältigkeit in der zweiten Generation bildet den Inhalt des zweiten Hauptsatzes der Mendelschen Lehre, den Inhalt der sogenannten Spaltungsregel.
Nun lasse ich wieder durch Selbstbefruchtung Samenbildung eintreten und baue die Samen von jedem weiß- und braunsamigen Individuum der zweiten Bastardgeneration auf einem besonderen Beete nach. Da zeigt sich, dass die Nachkommenschaft, die dritte Bastardgeneration (F3), von einigen braunsamigen Individuen gleichförmig braun bleibt; eine Minderzahl der braunsamigen Bastarde zweiter Generation erweist sich also als bereits samenbeständig, als konstant. Und zwar lehrt mich eine genaue Nachzählung, dass dies gerade ein Drittel oder ca. 33 % ist- Die anderen zwei Drittel oder 66 % liefern hingegen braun- und weißsamige Nachkommen; sie „spalten", und zwar im gesetzmäßigen Zahlenverhältnisse 3:1. Die weißsamigen liefern hingegen völlig konstante Nachkommen. Das rezessive Merkmal war also in der ersten Generation zwar verschwunden, in der zweiten kehrte es aber wieder und blieb sofort konstant. Das dominierende Merkmal bezeichnete die ganze erste Generation, ebenso die Mehrzahl der zweiten Generation, blieb aber nur zu einem Drittel der Individuen konstant (Abbildung 4).
Viele Pflanzen und Tiere "mendeln"
Die hiermit geschilderte gesetzmäßige Vererbungsweise wird als der Mendelsche „ Erbsentypus" bezeichnet, da sich sehr viele Eigenschaften, durch welche sich die vielen Erbsenrassen voneinander unterscheiden, genau ebenso verhalten wie das Merkmalpaar: Braun- und Weißsamigkeit beim Senf.
Aber auch von sehr zahlreichen anderen Pflanzen finden wir Merkmale, die typisch „mendeln" — wie man heute schon allgemein zu sagen pflegt. Solche Merkmale konstatierte ich unter anderen an Erbsen und Bohnen, an den Getreidearten, an Rüben, Möhren und Radieschen, an Senfarten, an Levkojen, Verbenen, Primeln, am Löwenmaul, Gauchheil, Leinarten, Petunien. Auch für zahlreiche Tiere gelten die Mendelschen Gesetze. Einschlägige Kreuzungsversuche wurden bisher hauptsächlich an Mäusen, Ratten, Kaninchen, Meerschweinchen, Kühen, Schafen, Pferden, Katzen, Kanarienvögeln, Tauben, Hühnern, Seidenraupen, Schmetterlingen, Schnecken und Axolotln vorgenommen. Eine große Menge solcher Einzeluntersuchungen sind in allen Weltteilen von Botanikern, Landwirten, Zoologen und Tierzüchtern in Angriff genommen worden, auch die wissenschaftlichen Abteilungen zahlreicher landwirtschaftlicher und gärtnerischer Kongresse und Ausstellungen stehen heute schon im Zeichen des Mendelismus.
Auf die Frage, was denn darüber entscheidet, ob ein Merkmal dominiert oder rezessiv ist, kann heute noch keine befriedigende Antwort gegeben werden. Nur für die Mehrzahl der Fälle lässt sich etwa die Regel ableiten, dass das stammesgeschichtlich ältere Merkmal dem jüngeren überlegen ist, ferner die einfachere Ausbildung der komplizierteren, das Normale dem Abnormen — doch steht dieser Regel eine ganze Anzahl entgegengesetzter Fälle gegenüber.
Eine Erklärung des charakteristischen Spaltungsverhältnisses 3 : 1 hat bereits Mendel in scharfsinnigster Weise gegeben. Er machte nämlich die seither mehr und mehr erhärtete Annahme, dass die Bastarde erster Generation ihr sichtbares dominantes und ihr unsichtbares rezessives Merkmal auf die von ihnen gebildeten Fortpflanzungszellen sozusagen verteilen, also zwei Arten von verschieden veranlagten Fortpflanzungszellen, und zwar in gleicher Anzahl bilden.
Die Unabhängigkeitsregel - Vererbung mehrerer Merkmale führt zu "Neuheiten"
Praktische Wichtigkeit haben erst die Fälle, in welchen mehrere Paare von Merkmalen nebeneinander stehen, weil dann neue Kombinationen der in den beiden Eltern gegebenen Merkmale resultieren.
So erhalten wir bei Kreuzung einer niedrigen, grünhülsigen Bohnenrasse mit einer hohen, gelbhülsigen in der ersten Generation durchwegs hohe Individuen mit grünen Hülsen. In der zweiten Generation kehren aber bei der Spaltung nicht bloß die elterlichen Merkmalkombinationen wieder, sondern es treten auch die weiteren zwei möglichen Kombinationen, niedrig mit gelben Hülsen und hoch mit grünen Hülsen, auf. Auch hier gelten wieder gesetzmäßige Zahlen: es verhält sich grünhülsig-hoch zu grünhülsig-niedrig: gelbhülsig-hoch: gelbhülsig-niedrig wie 9:3:3:1. Von jenen 9 ist nur 1 Individuum weiterhin konstant, 8 spalten noch, von den je dreien eines konstant, 2 Spalter, nur die Kombination der beiden rezessiven gelb und niedrig ist sofort und durchwegs samenbeständig. Durch sorgfältige Auswahl nach Individuen können wir also konstante Vertreter von 2 neuen Kombinationen erhalten — also durch Kreuzung sogenannte „Neuheiten" züchten. Benützen wir Elternsamen von dreifacher Verschiedenheit, so erhalten wir gar 8 Kombinationen, bei vier Paaren konkurrierender Merkmale 16 usw.
Intermediärformen
Allerdings müssen wir noch einige weitere komplizierende Zusätze mit in Kauf nehmen. Der Mendelsche Erbsentypus, wie ich ihn früher geschildert habe, besitzt wohl für sehr viele Rassenmerkmale Gültigkeit — es gibt aber doch auch nicht wenige Eigenschaften, für welche andere Vererbungstypen gelten. Ich spreche hier zunächst von solchen, welche dem Mendelschen Schema nahe verwandt sind, indem auch bei ihnen die erste Generation gleichförmig gestaltet ist, die zweite hingegen Spaltung aufweist.
Die Abweichung vom Mendelschen Erbsenschema ist nun dadurch gegeben, daß die Bastarde erster Generation wirkliche Merkmalmischung aufweisen und daß auch die Spaltung in der zweiten Generation Zwischenformen produziert, also als eine unreine zu bezeichnen ist. Der einfachste dieser Vererbungstypen ist der sogenannte „Maistypus", charakterisiert durch Merkmalmischung in der ersten Generation und Spaltung in konstantbleibende Vertreter des einen und des anderen reinen Merkmales einerseits, in weiter spaltende Intermediärformen anderseits nach dem Verhältnis M1 : Intermediäre : M2 = 1 : 2 : 1 . Die Merkmale zeigen eben in diesem Falle keine gegenseitige Exklusion und gleiche Wertigkeit. Ein Beispiel für diesen Typus gibt die Kreuzung einer weißen und einer roten Rasse der Wunderblume.
Die erste Generation ist rosa, die zweite zeigt weiß, rosa und rot im Verhältnisse 1 : 2 : 1 . Die rosafarbigen Individuen sind nicht konstant zu züchten. Besonders häufig scheint dieser Typus für physiologische Merkmale zu gelten, z. B. für Frühreife und Spätreife. Auf eine Reihe ähnlicher, aber komplizierter Fälle kann hier bloß hingewiesen werden.
Für die praktische züchterische Verwertung
der oben skizzierten Mendelschen Vererbungslehre lassen sich, nachstehende Regeln formulieren
- Der Rassenunterschied ist nach einzelnen Merkmalen zu analysieren und für jedes Paar von einzelnen Merkmalen, von denen je eines in eine neue Kombination gebracht werden soll, ist die gesetzmäßige Wertigkeit oder das Vererbungsschema besonders festzustellen. Über die Wertigkeit der einzelnen Charaktere, ob dominierend, rezessiv oder intermediär, belehrt uns das Aussehen der gleichmäßigen ersten Generation, welche in einer verhältnismäßig großen Zahl von Individuen beobachtet werden soll.
- Die mehrgestaltige zweite Generation ist in möglichst großer Zahl anzubauen, um nach Tunlichkeit alle möglichen Merkmalskombinationen behufs Auswahl der gewünschten zu erhalten — eventuell auch, um das Spaltungsverhältnis festzustellen. Die einzelnen Individuen sind, wenn nötig, vor Fremdbestäubung zu schützen — eine allerdings oft schwer zu erfüllende Forderung. Unter den Individuen gleicher Form darf hier nicht sofort eine Auswahl getroffen werden, da die bereits konstanten von den noch nicht samenbeständigen nicht äußerlich unterscheidbar sind.
- Der Samenertrag ist, mit Ausnahme der ersten Generation, nicht promiscue, sondern nur nach einzelnen Individuen gesondert zu ernten und weiter zu bauen, sonst werden die bereits konstanten Individuen nicht herausgefunden oder wieder verunreinigt. Gerade in diesem Punkte hat die ältere Kreuzungszüchtung am meisten gefehlt. Die erste Generation dient wesentlich der primitiven Wertigkeitsbestimmung, die zweite der Produktion neuer Kombinationen, die dritte, eventuell vierte der Prüfung einzelner Individuen von gewünschter Form auf Samenbeständigkeit. Dieser Prüfungsanbau soll in möglichst großer Zahl und wenn nötig unter Schutz vor Fremdbestäubung erfolgen. Es müssen nämlich die einzelnen Individuen der zweiten Generation erst durch gesonderte Beobachtung ihrer Nachkommenschaft, also in dritter Generation auf ihre Samenbeständigkeit geprüft werden. Die konstant befundenen Individuen stellten dann die Stammeltern der neugewonnenen Formen dar. Es ist demnach ohne weiters ersichtlich, um wieviel schwieriger die Züchtung neuer Rassen bei solchen Pflanzen ist, welche ganz oder wenigstens fast selbststeril, also auf Fremdbestäubung angewiesen sind, so z. B. beim Roggen.
Unter Anwendung dieser Grundsätze habe ich seit einer Reihe von Jahren umfangreiche Versuche unternommen, um die Wertigkeit für die einzelnen Merkmale gerade bei landwirtschaftlichen Kulturgewächsen systematisch zu bestimmen und zur Züchtung neuer, wünschenswerter Kombinationen auszunützen.
Die bisher erörterten Gesetzmäßigkeiten betreffen die an zwei Rassen deutlich und konstant ausgeprägten Unterscheidungsmerkmale. Ein ähnliches regelrechtes Verhalten hat sich aber auch für eine ganze Anzahl von eigentlichen Kreuzungsneuheiten ergeben, also für solche neuauftretende Merkmale, welche an der bei Inzucht völlig konstanten Vater- oder Muttersorte nicht sichtbar sind. Allerdings dürfte der eine Elter oder gar beide diese Merkmale vorgebildet im latenten Zustande enthalten.
Die Forschungen der letzten Jahre haben uns eine Reihe solcher Rassen kennen gelehrt, welche bei Inzucht völlig konstant sind, bei Fremdkreuzung jedoch in gesetzmäßiger Weise Nova produzieren, die teils als Atavismus, teils als Kreuzungsnova im engeren Sinne aufzufassen sind. Sie seien „kryptomere" Rassen genannt.
Aber nicht bloß hervortreten kann ein neues Merkmal im Anschluß an Kreuzung, ein bisher manifestes kann auch äußerlich verschwinden. In all diesen Fällen erweist sich die Fremdkreuzung in Analogie zur Spontanmutation und im Gegensatze zur Selektion als imstande, den Zustand der Merkmale entweder in aufsteigender oder in absteigender Richtung zu verändern; die Hybridisation erscheint somit als ein wichtiger Faktor für die Neubildung pflanzlicher und tierischer Formen, für die Erzeugung von Hybridmutation. Die hierher gehörigen Beobachtungen bedeuten eine wesentliche Ergänzung der seinerzeit von Mendel erhobenen Befunde.
Damit ist aber die mögliche und die bereits erwiesene Komplikation auf unserem Gebiete noch immer nicht erschöpft. Schon Mendel konstatierte, daß nicht alle Merkmalspaare spalten, sondern, dass es auch Bastarde gibt, die sofort durchwegs konstant bleiben. Auch gibt es Kreuzungsfälle, in denen die einen Merkmale „mendeln", die anderen jedoch nicht mehr spalten.
So scheint den von Mendel entdeckten Vererbungsregeln auch eine besondere, geradezu differentialdiagnostische Bedeutung für die Unterscheidung von Varietäten und Arten zuzukommen. Für die Lehre von der Abstammung der Pflanzenformen voneinander eröffnet sich damit ein neuer Weg, der exakte Versuche, nicht gewagte Spekulationen erfordert, aber auch zuverlässige, wertvolle Ausbeute verspricht.
*Die sogenannte Wiederentdeckung der Mendelschen Regeln, die angeblich parallel und voneinander unabhängig durch den deutschen Botaniker Carl Correns, den niederländischen Botaniker Hugo deVries und Erich Tschermak erfolgte, wird heute von den Wissenschaftshistorikern bezweifelt. Die Wissenschafter dürften damals sowohl Mendels Arbeit gekannt haben, als auch von ihren jeweiligen Aktivitäten gewusst haben.
[1] Gregor Mendel (1865) " Versuche über Pflanzen-Hybriden" http://www.mendelweb.org/MWGerText.html
[2] Tschermak Erich von Univ.-Prof. Dr. (1908): Die Mendelschen Vererbungsgesetze. — Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 48: 145-164. http://www.zobodat.at/pdf/SVVNWK_48_0145-0164.pdf
[3] siehe: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb. http://scienceblog.at/kreislauf-des-kohlenstoffes.
Weiterführende Links
Mendel s Arbeiten haben den Grundstein zur modernen Genetik gelegt. Mit den Methoden der Molekularbiologie lassen sich die Mendelschen Regeln erklären: von den Genen, die den Genotp prägen zu den davon kodierten Proteinen, die zu den beobachtbaren Merkmalen (dem Phänotyp) führen.
- Die Mendelschen Regeln einfach erklärt Video 5:53 min.
- 054 Meilensteine der Naturwissenschaft und Technik - Gregor Mendel und die klassische Genetik. Video 14:38 min.
Ein Vierteiler:
- Mendelsche Regeln: Einführung und Grundbegriffe - Teil 1. Video 6:58 min.
- Mendelsche Regeln: Uniformitätsregel - Teil 2. Video 4.40 min.
- Mendelsche Regeln: Spaltungsregel - Teil 3. Video 4:36 min
- Mendelsche Regeln: Unabhängigkeitsregel - Teil 4. Video 5:34 min
Störungen und Resilienz von Waldökosystemen im Klimawandel
Störungen und Resilienz von Waldökosystemen im KlimawandelFr, 18.03.2016 - 06:38 — Rupert Seidl
Der Klimawandel setzt Waldökosysteme zunehmend unter Druck und verursacht einen Anstieg von Störungen im Wald. Daher ist es zunehmend wichtig, Mechanismen der Resilienz von Ökosystemen (i.e., deren Fähigkeit, sich von einer Störungen zu erholen) zu identifizieren und in der Waldbewirtschaftung zu berücksichtigen. Rupert Seidl (assoz.Professor für Waldökosystemmanagement, Universität für Bodenkultur Wien) forscht zur Rolle von geänderten Klima- und Störungsregimes in Waldökosystemen und ihren Auswirkungen auf die nachhaltige Waldbewirtschaftung.Wald unter Druck
Wälder sind ein wichtiger Teil der Landschaft – nicht zuletzt besteht Österreichs Landesfläche fast zur Hälfte aus Wald. Große Teile des Alpenraumes wären ohne Wald unbewohnbar, da Wald nicht nur nachwachsende Rohstoffe bereitstellt sondern auch flächig vor Naturgefahren wie Hochwasser, Steinschlag und Lawinen schützt. Global gesehen beherbergen Wälder in etwa drei Viertel der am Land lebenden Arten und sind der größte terrestrische Kohlenstoffspeicher, was sich positiv auf das Klima auswirkt. Wälder und die von ihnen bereitgestellten Ökosystemservices sind daher ein Schlüsselfaktor für eine nachhaltige Entwicklung unserer Gesellschaft.
Wald gerät jedoch zunehmend unter Druck. Die steigende Weltbevölkerung führt vielerorts zu einem zunehmenden Nutzungsdruck auf Wälder. Weiters steigen auch die menschlichen Ansprüche an den Wald, sodass heute oft eine Vielzahl von mitunter konfligierende Leistungen von Wäldern gefordert werden (z.B. nachhaltige Produktion von Holz und Speicherung von Kohlenstoff, Bereitstellung von Trinkwasser und Bioenergie, Rückzugsraum für geschützte Arten und Erholungsraum für Menschen).
Gleichzeitig setzt auch der fortschreitende Klimawandel den Wald zunehmend unter Druck. Die menschlich verursachte Klimaänderung läuft bezogen auf den Wald sehr schnell ab – innerhalb der Lebensdauer von nur einer Baumgeneration könnte sich die Temperatur um zwischen 2°C und 4°C erwärmen [1]. Mit anderen Worten: Ein heute im Gebirgswald in Österreich keimender Baum wird am Ende seines Lebens Umweltbedingungen ausgesetzt sein, wie sie aktuell seine Artgenossen in 300 – 700 Höhenmeter tiefer gelegenen Gebieten vorfinden. Die hohe Geschwindigkeit der Veränderung relativ zur langen Lebensdauer von Bäumen schränkt eine evolutionäre Anpassung an den globalen Wandel stark ein.
Dazu werden die für die Zukunft erwarteten Bedingungen vermehrt zu Störungen führen, also einem Absterben von Bäumen durch Faktoren wie Wind, Borkenkäfer und Waldbrand [2]. Diese Mortalitätsursachen sind grundsätzlich ein natürlicher Teil der Ökosystemdynamik und Wälder sind gut an derartige Prozesse angepasst. Es ist jedoch bereits heute ein starkes Ansteigen von derartigen Störungen beobachtbar (z.B. sind Borkenkäferschäden (Abb. 1) in Europa in den letzten 40 Jahren um +600% angestiegen) und der für die Zukunft erwartete weitere Anstieg könnte mancherorts zu großen ökologischen Veränderungen führen. Schon heute geben 57.7% der in einer Umfrage befragten Waldbewirtschafter in Österreich an, bereits Folgen des Klimawandels im Wald zu beobachten [3], und die Anpassung an geänderte Umweltbedingungen stellt eine große Herausforderung für das Ökosystemmanagement dar
. Abb. 1: Borkenkäferschäden werden auch in Zukunft zunehmen (Foto: R. Seidl)
Resilienz als Schlüssel
Ein Kernproblem in der Klimaanpassung ist, dass die zukünftige Klimaentwicklung mit Unsicherheiten behaftet ist. Während z.B. ein weiterer Temperaturanstieg in den nächsten Jahrzehnter sehr wahrscheinlich ist, ist eine etwaige Niederschlagsänderung vor allem in Gebirgsregionen mit komplexer Topographie noch mit hohen Unsicherheiten behaftet. Darüber hinaus hängt die Klimaentwicklung der nächsten 100 Jahre ursächlich an politischen und individuellen Entscheidungen in Hinblick auf Energieträger und Energieverwendung und kann somit nicht vorhergesagt werden. Auch das konkrete Auftreten von Waldschäden wie Windwürfen oder Borkenkäferausbrüchen ist durch hohe Stochastizität geprägt und nicht präzise in Zeit und Raum vorhersehbar. Diese Unsicherheiten erschweren eine gezielte Risikoreduktion (Abb. 2) und rücken einen zweiten, komplementären Ansatz in den Mittelpunkt: die Resilienz [4].
Abb. 2: Der Grad der Unsicherheit bestimmt den Umgang mit sich ändernden Umweltbedingungen im Ökosystemmanagement (Quelle: [4])
Resilienz beschreibt die Eigenschaft eines Systems, nach einer Störung wieder zu seinem Ausgangspunkt zurückzukehren bzw. auch nach einer Perturbation seine Organisationsweise zu erhalten und die selben Prozesse und Funktionen aufzuweisen [5]. Mit anderen Worten geht es hier als um die Eigenschaft von Ökosystemen, sich nach störenden Einflüssen wieder zu erholen und mit derartigen Störungen umgehen zu können. Grundsätzlich weisen Wälder eine hohe Resilienz auf und sind meist in der Lage, sich nach störenden Einflüssen rasch wieder zu verjüngen und nach einer kurzen Phase der Reorganisation wieder zu einem geschlossenen Waldbestand zurückzukehren. Ein gutes Beispiel hierfür ist der Nationalpark Bayerischer Wald, in welchem in den letzten 20 Jahren mit 65 km² vom Borkenkäfer befallenem Wald eine der größten ökologischen Störungen in Mitteleuropa stattfand. Heute hat sich im Bayerischen Wald vielerorts bereits wieder die nächste Generation des Waldes einstellt [6] – ganz ohne menschliches Zutun. Ob eine derartige hohe Resilienz jedoch auch unter den geänderten Klimabedingungen der Zukunft erhalten bleiben wird, ist eine aktuell intensiv diskutierte Forschungsfrage.
Um dieser Frage nachzugehen werden unter anderem Simulationsmodelle eingesetzt, welche die Ökosystemdynamik von Wäldern im Computer nachbilden. Derartige Modelle sind ein mathematisches Abbild unseres aktuellen Verständnisses von im Wald ablaufenden ökosystemaren Prozessen (ein Beispiel gibt das vom Autor und seinem Team entwickelte Modell iLand – the individual-based forest landscape and disturbance model, http://iland-model.org/startpage ). Nach ausführlichen Tests gegen beobachtete Daten können derartige Modelle dazu eingesetzt werden, die Waldentwicklung unter geänderten Klimabedingungen abzuschätzen. Es kann dabei z.B. ein weiteres Ansteigen der Temperatur unterstellt und dessen Auswirkungen auf die Baumartenzusammensetzung untersucht werden. Weiters kann eine klimabedingt steigende Frequenz von Störungen simuliert werden um zu testen, wie stark dadurch die Verjüngungskapazität und Resilienz einer Waldlandschaft beeinflusst wird. Auch können in Computersimulationen verschiedene Bewirtschaftungsstrategien durchgespielt werden, um deren Potential zur Reduktion von Klimarisiken und zur Steigerung der Resilienz zu quantifizieren.
Ergebnisse und Implikationen für die Waldbewirtschaftung
Ein Kernergebnis dieser Untersuchungen mit wichtigen Implikationen für die Waldbewirtschaftung betrifft die funktionale Rolle von Diversität in Ökosystemen. Mittels Simulationen konnte gezeigt werden, dass eine Erhöhung der Baumartendiversität negative Effekte von Störungen zum Teil abfedern kann (Abb. 3). Der Grund dafür ist, dass verschiedene Baumarten unterschiedlich auf Störungen reagieren, wodurch Mischbestände und ihre „Reaktionsdiversität“ (Englisch: response diversity) eine weite Palette an unterschiedliche Perturbationen besser abfedern können als Monokulturen [7].
Abb. 3: Baumartendiversität (hier: die Anzahl der in einer Waldlandschaft vorkommenden Baumarten) federt die negativen Effekte von Störungen auf Kohlenstoffaufnahme (links) und Kohlenstoffspeicherung in lebender Biomasse (rechts) ab. Quelle: [7]
Ein weiterer Mechanismus der Resilienz von Ökosystemen gegenüber Störungen sind sogenannte „Legacies“, als das Vermächtnis des Systemzustandes vor der Störung. Gemeint sind damit z.B. Bäume die einen Windwurf oder einen Waldbrand überleben, totes Holz aus dem Vorbestand das wiederum günstige Bedingungen für die Etablierung neuer Bäume schafft, oder im Boden überdauernde Baumsamen. Diese Mechanismen tragen signifikant zur Resilienz von Wäldern bei [8] – sie in der Waldbewirtschaftung als „Vorlage“ zu verwenden bzw. gezielt in Bewirtschaftungskonzepte einzubauen kann Wälder also auf steigende Störungen in der Zukunft vorbereiten. Hierbei müssen jedoch wieder die sich ändernden Klimabedingungen proaktiv mitgedacht werden: Simulationen zeigten z.B., dass die Regenerationsfähigkeit von Fichten bei Jahresniederschlägen von unter 700 mm stark zurückgeht. In Gebieten in denen in Zukunft derartige Schwellenwerte unterschritten werden könnten sollten Störungen also eher zum Anlass genommen werden, um neue, zukunftsfähigere Baumarten (wie z.B. trockenheitstolerantere Eichen, Buchen oder Kiefern) einzubringen.
Gerade solche proaktiven, vorausschauenden Handlungen des Menschen können Wäldern helfen, sich an eine rasch ändernde Umwelt anzupassen [9] und dadurch negative Folgen für die Bereitstellung von Ökosystemleistungen abfedern. Es ist also wichtig, schon heute die Wälder fit für die Zukunft zu machen, um die gesellschaftlichen Anforderungen an den Wald auch unter geänderten Umweltbedingungen nachhaltig erfüllen zu können. Dabei ist für die Resilienz eines gekoppelten Mensch – Umwelt – Systems nicht nur die ökologische Resilienz sondern auch die soziale Anpassungsfähigkeit von großer Bedeutung [10]. Eine Herausforderung liegt diesbezüglich in der sehr kleinteiligen Besitzerstruktur im Österreichischen Wald – ca. die Hälfte des Waldes wird von Kleinwaldbesitzern bewirtschaftet. Da diese Waldbesitzer im aussetzenden Betrieb arbeiten und in vielen Fällen nur geringen Bezug zum Wald haben, erschwert sich eine konzertierte Anpassung an geänderte Klimabedingungen. Andererseits kann die hohe soziale Diversität an Waldeigentümern wiederum auch eine hohe „soziale Reaktionsdiversität“ nach sich ziehen und damit zu einer höheren Struktur- und Artendiversität führen, was wiederum positiv für die Resilienz von Wäldern ist [9]. Risiken und Störungen durch den Klimawandel sind also oft auch Chancen – und sollten auch in der Bewirtschaftung von Ökosystemen in Zukunft stärker als solche erkannt und genutzt werden.
Literatur
[1] IPCC (2013) Climate Change 2013: The physical science basis. Working Group I contribution to the IPCC fifth assessment report., Intergovernmental Panel on Climate Change, Cambridge University Press.
[2] Seidl, R. et al. (2014) Increasing forest disturbances in Europe and their impact on carbon storage. Nat. Clim. Chang. 4, 806–810
[3] Seidl, R. et al. (2015) The sensitivity of current and future forest managers to climate-induced changes in ecological processes. Ambio DOI: 10.1007/s13280-015-0737-6
[4] Seidl, R. (2014) The Shape of Ecosystem Management to Come: Anticipating Risks and Fostering Resilience. Bioscience 64, 1159–1169
[5] Gunderson, L. (2000) Ecological resilience - in theory and application. Annu. Rev. Ecol. Syst. 31, 425–439
[6] Zeppenfeld, T. et al. (2015) Response of mountain Picea abies forests to stand-replacing bark beetle outbreaks: neighbourhood effects lead to self-replacement. J. Appl. Ecol. 52, 1402–1411
[7] Silva Pedro, M. et al. (2015) Tree species diversity mitigates disturbance impacts on the forest carbon cycle. Oecologia 177, 619–630
[8] Seidl, R. et al. (2014) Disturbance legacies increase the resilience of forest ecosystem structure, composition, and functioning. Ecol. Appl. 24, 2063–2077
[9] Rammer, W. and Seidl, R. (2015) Coupling human and natural systems: Simulating adaptive management agents in dynamically changing forest landscapes. Glob. Environ. Chang. 35, 475–485
[10] Seidl, R. et al. (2016) Searching for resilience: addressing the impacts of changing disturbance regimes on forest ecosystem services. J. Appl. Ecol. 53, 120–129
Weiterführende Links
Waldsterben. Prof. Seidl zu Gast beim Wissenschaftsgespräch (12.2020). Video: 1:54:24 min.
Institut für Waldbau, Universität für Bodenkultur Wien, zum Thema Waldbewirtschaftung im Klimawandel http://www.wabo.boku.ac.at/waldbau/forschung/fachgebiete/bewirtschaftung...
APCC: Österreichischer Sachstandsbericht Klimawandel 2014
Das Waldökosystemmodell iLand: http://iLand.boku.ac.at
Europäische Wissensplattform zur Rolle der funktionalen Diversität in Wäldern (in Englisch) http://www.fundiveurope.eu/
Resilience Alliance (in Englisch) http://www.resalliance.org/
Rund um das Thema Wald - Artikel im ScienceBlog:
• Gerhard Glatzel; 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren?
• Gerhard Glatzel; 24.01.2013: Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler
• Gerhard Glatzel; 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 - Energiewende und Klimaschutz
• Gerhard Glatzel; 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2 - Energiesicherheit
• Gerhard Glatzel; 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse
• Julia Pongratz & Christian Reick; 18.07.2014: Landwirtschaft pflügt das Klima um
• Gerhard Markart; 16.08.2013: Hydrologie: Über die Mathematik des Wassers im Boden
Saubere Energie könnte globale Wasserressourcen gefährden
Saubere Energie könnte globale Wasserressourcen gefährdenFr, 11.03.2016 - 09:37 — IIASA
In einem vorangegangenen Bericht war davon die Rede, dass die Auswirkungen des Klimawandels auf Fließgewässer die Stromerzeugung erheblich beeinträchtigen könnten [1]. Vice versa könnten aber auch die Anstrengungen zur Reduktion von Treibhausgas-Emissionen im Energiesektor einen massiven Druck auf die Wasserressourcen ausüben, einen Anstieg des Wasserverbrauchs und eine thermische Wasserverschmutzung zur Folge haben. Neue Untersuchungen des IIASA fordern gezielte Anpassungsmaßnahmen, um potentielle Konflikte zu vermeiden, die als Folge der Auswirkungen des Wasser- und Klimawandels auf das Energiesystem entstehen [2].*
Wie eine eben Im Journal Environmental Research Letters erschienene Studie aufzeigt, könnten Klimaschutzbestrebungen im Energiesektor zu einem steigenden Druck auf die Wasserressourcen führen [2]. Diesem Problem könnte laut Studie durch eine Steigerung der Energieeffizienz begegnet werden, wobei der Fokus auf die weniger Wasser verbrauchenden Wind- und Solarenergien läge, oder durch effizientere Kühlwasser Technologien.
Das Ziel dieser neuen Studie war die systematische Ermittlung der Faktoren, die für den Wasserverbrauch im Energiesystem verantwortlich sind. Für das Energiesystem der Zukunft wurden dabei 41 Szenarios durchgespielt, die mit einer Begrenzung des Klimawandels unterhalb des 2oC Ziels kompatibel sein sollten, das 2012 unter Führung des IIASA im Global Energy Assessment [3] festgelegt wurde (Abbildung 1).
Abbildung 1. Komponenten der Szenarios, die mit einer Begrenzung der globalen Erwärmung um 2 °C kompatibel sind. GEA: Global Energy Assessment, CCS: CO2 Capture &Storage. (Bild: Beschriftung der Figure 1 aus der besprochenen IIASA Studie [2], die unter CC BY lizensiert ist, wurde in Deutsch übersetzt).
„Zweifellos gibt es mögliche alternative Wege der Energiewende, die es uns erlauben die globale Erwärmung auf 2oC zu limitieren - viele davon würden aber langfristig zu einer nicht-nachhaltigen Wassernutzung führen“, sagt der IIASA Forscher und Studienleiter Oliver Fricko. „Abhängig davon welcher Weg der Energiewende eingeschlagen wird, kann der daraus entstehende Wasserbrauch Probleme hinsichtlich der Wasserversorgung anderer Sektoren herbeiführen - beispielsweise der Landwirtschaft oder der privaten Nutzung.“
Bereits jetzt zeichnet der Energiesektor für rund 15 % des globalen Wasserverbrauchs verantwortlich; dieser könnte bis 2100 um mehr als 600 % steigen. Der Großteil des Wasserverbrauchs ist auf thermoelektrische Kraftwerke zurückzuführen, die Wasser als Kühlmittel benötigen, d.i. auf Solarkraftwerke, ebenso wie auf Kernkraftwerke und mit fossilen Brennstoffen oder Biomasse betriebenen Kraftwerken. Der Wasserverbrauch stellt aber nicht das einige Problem dar. Werden Fließgewässer oder Meerwasser zur Kühlung eines Kraftwerks verwendet, so treten sie aus diesem mit einer höheren Temperatur wieder in die Umgebung aus. Dieses, als thermische Wasserverschmutzung bezeichnetes Problem kann die im Wasser lebenden Organismen gefährden. Die genannte Studie moniert, dass diese Verschmutzung zunehmen wird, wenn nicht geeignete technologische Maßnahmen zu deren Eindämmung getroffen werden.
Die Studie betont besonders die Bedeutung der Energieeffizienz. Der an der Studie beteiligte IIASA-Forscher Simon Parkinson meint: „der einfachste Weg, um den Druck des Energiesektors auf die Wasserressourcen zu verringern, ist es unseren Energieverbrauch zu reduzieren indem wir die Energieeffizienz erhöhen. Dies trifft im besonderen Maße für Entwicklungsländer zu, in denen der Energiebedarf massiv anzusteigen beginnt“.
Die Studie zeigt, wie wichtig einer integrierte Analyse ist, wenn man miteinander verknüpfte globale Herausforderungen - Wasserressourcen, Klimawandel und Energiebedarf – verstehen will. Sie ist die Fortsetzung einer vor kurzem publizierten IIASA Untersuchung, die klarmachte: die Auswirkungen des Klimawandels auf Fließgewässer können auch die Stromerzeugung erheblich beeinträchtigen [1].
„Unsere Ergebnisse haben erhebliche Folgen auf die Art und Weise wie Strategien zur Abschwächung des Klimawandels konzipiert werden sollten. Energieplaner müssen den Auswirkungen auf die lokalen Wasserressourcen mehr Gewicht beimessen, welche die Entscheidungsmöglichkeiten limitieren können. Schlussendlich brauchen wir integrierte Strategien, die ein Maximum an Synergien erbringen und Konflikte zwischen den auf Wasser , Klimawandel und Energie bezogenen Zielen vermeiden.“ So die Meinung von Keywan Riahl , dem Direktor des Energieprogramms bei IIASA.
Fazit
Die neue Studie baut auf der Forschung des von IIASA koordinierten Global Energy Assessment auf und bietet eine Analyse, die Wasser, Energie und Abschwächung des Klimawandels verknüpft, ein zentraler Gesichtspunkt einiger neuer IIASA -Forschungsprojekte.
*Der Blogartikel basiert auf der IIASA-Presseaussendung “Clean energy could stress global water resources“ vom 4. März 2016. ( http://www.iiasa.ac.at/web/home/about/160304-erl-water-energy.html ). Er wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.
[1] IIASA (08.01.2016) Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung. http://scienceblog.at/klimawandel-und-%C3%A4nderungen-der-wasserressourc....
[2] Fricko O, Parkinson SC, Johnson N, Strubegger M, Van Vliet MTH, Riahi K, (2016). Energy sector water use implications of a 2-degree C climate policy. Environmental Research Letters 11 034011 doi:10.1088/1748-9326/11/3/034011 http://iopscience.iop.org/article/10.1088/1748-9326/11/3/034011
[3] Global Energy Assessment: Energy Pathways for Sustainable Development (Keywan Riahi, IIASA, Convening Lead Author) http://www.iiasa.ac.at/web/home/research/Flagship-Projects/Global-Energy...
Weiterführende Links
Artikel von IIASA im ScienceBlog
08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung
25.09.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima
07.08.2015: Ab wann ist man wirklich alt? 10.07.2015: Die großen globalen Probleme der Menschheit
Artikel zur Kohlendioxid Sequestrierung und Speicherung (CCS) im ScienceBlog
11.12.2015, Rattan Lal: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen
22.05.2015, N.S. Sariciftci (22.05.2015): Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?
Die großen Übergänge in der Evolution von Organismen und Technologien
Die großen Übergänge in der Evolution von Organismen und TechnologienFr, 04.03.2016 - 09:34 — Peter Schuster
Ebenso wie die biologische Evolution verläuft auch die Entwicklung neuer Technologien in großen Sprüngen - „großen Übergängen“. Der theoretische Chemiker Peter Schuster charakterisiert derartige große Übergänge und diskutiert die Voraussetzungen, die zu neuen Organisationsformen in der Biosphäre und zu radikalen Innovationen in der Technologie führen. An Hand eines neuartigen Modells für große Übergänge zeigt er, dass diese nur bei Vorhandensein reichlicher Ressourcen stattfinden können, während Mangel an Ressourcen zur bloßen Optimierung des bereits Vorhandenen taugt.
Im Lauf der biologischen Evolution hat die Komplexität der Organismen zugenommen, ein Prozess der aber nicht graduell sondern in großen Sprüngen ablief. Diese Evolutionssprünge werden als „große Übergänge“ („major transitions“) bezeichnet und sie fallen mit der Entstehung neuer hierarchischer Organisationsebenen zusammen.
Was sind große Übergänge?
In ihrem viel beachteten Buch „The Major Transitions in Evolution“ (1995) haben John Maynard Smith und Eörs Szathmáry erstmals große Übergänge zusammengefasst und mögliche auslösende Mechanismen diskutiert. Die nach ihrer Meinung wichtigsten Übergänge erfolgen:
- von sich replizierenden, unabhängigen RNA-Molekülen einer RNA-Welt zu strukturierten Chromosomen,
- von der RNA in ihrer Funktion als Gen und als Enzym zu DNA und Proteinen,
- von Prokaryoten zu Eukaryoten,
- von asexuellen Klonen zu sexuell sich vermehrenden Populationen,
- von einzelligen eukaryotischen Organismen(Protisten) zu Vielzellern – Pilzen, Pflanzen, Tieren - mit differenzierten Zellen,
- von solitär lebenden Individuen zu Tierkolonien mit Rangordnungssystemen und schließlich
- von den sozialen Gruppen der Primaten zu den menschlichen Gesellschaften.
Ein gemeinsames Prinzip
Auch, wenn in diese Übergänge sehr unterschiedliche molekulare, metabolische und organisatorische Veränderungen involviert sind, ist ihnen doch ein Prinzip gemeinsam:
Vor dem Übergang haben sich die einzelnen Individuen voneinander unabhängig repliziert und entwickelt; in Populationen haben sie entsprechend dem Darwin’schen Selektionsmechanismus miteinander konkurriert.
Nach dem Übergang liegt eine neue Einheit vor, in welcher die vormaligen Konkurrenten integriert und zur Kooperation gezwungen sind. Sie haben ihre Unabhängigkeit verloren - auch, wenn der Grad zu dem sie noch Individualität beibehalten konnten in den unterschiedlichen Übergängen sehr variabel ist. Der natürliche Selektionsvorgang wird durch verschiedene Mechanismen unterdrückt, der einfachste davon ist die katalysierte Reproduktion (wie sie beispielsweise in mathematischen Modellen der Symbiose eingesetzt wird).
In diesem Zusammenhang sollte erwähnt werden, das bereits in den 1970er-Jahren Niles Eldridge und Stephen Gould die Theorie eines sogenannten „punctuated equilibrium“ (gestörten Gleichgewichts) aufgestellt haben. Diese Theorie besagt, dass ein sprunghafter Evolutionsverlauf wesentlich besser mit den Fossilienfunden in Einklang zu bringen ist, als ein gradueller Verlauf. Gradualismus würde bedeuten, dass die Evolution auf langsamen, nahezu kontinuierlichen Veränderungen der Organismen beruht und fehlende Zwischenglieder nur auf eine bis dato unvollständige Sammlung von Fossilien zurückzuführen wären.
Evolutionäre Veränderungen auf der Ebene der Moleküle
Evolutionäre Veränderungen in Biomolekülen – also in Nukleinsäuren und Proteinen - kommen hauptsächlich durch sogenannte Punktmutationen zustande: in einer Nukleinsäure hat dies den Austausch einer Base zur Folge (Abbildung 1), in einem Protein den Austausch einer Aminosäure Eine derartige Modifikation kann eine sehr starke oder auch nur eine minimale Änderung der molekularen Funktionen zur Folge haben, jedenfalls aber nicht zu einem Kontinuum an Eigenschaften führen.
Die zurzeit vorliegenden Daten unterstützen die Vorstellung, dass es eine ungeheure Vielfalt von Entwicklungsschritten – von äußerst kleinen bis zu sehr großen - gibt. Die großen Übergänge entsprechen riesigen Schritten - sie lassen sich nicht bloß durch eine einzelne Mutation erklären.
Wie entstehen neue Technologien?
Mehr denn je zuvor hängen wir davon ab technologische Lösungen für die Probleme unserer Welt zu finden. Wie aber kommt es zu Innovationen, zu neuen Technologien? Brian Arthur, Mathematiker. Techniker und einer der Pioniere der Komplexitätsforschung, hat dazu 2009 ein bahnbrechendes Buch herausgebracht: „The nature of technology: What it is and how it evolves“.
Arthur sieht in der Entstehung neuer Technologien einen evolutionären Mechanismus wirksam werden:
„Neue Elemente bauen auf den bereits existierenden auf und diese bieten sich selbst als mögliche Bausteine für weitere Elemente an.“
Und er argumentiert, dass die soziokulturelle Evolution unserer Gesellschaften eng mit der technologischen Entwicklung verbunden ist. Die Parallelität von biologischer Evolution und Technologie ist zu erwarten, stellt doch die Evolution der Gesellschaften die bis dato letzte Episode der Evolution in der Biosphäre dar.
Technologien bauen aufeinander auf und haben - wie die von ihnen abhängigen Berufe - nur eine beschränkte Lebensdauer. Hier wird häufig das Beispiel von den Hufschmieden und Wagnermeistern strapaziert: Der Niedergang der „Pferdetechnologie“ hat zum Abstieg beider Handwerkszünfte geführt, aus Repräsentanten einstiger Schlüsseltechnologien wurden Zulieferer für Freizeitunterhaltung und Sport. Ein ebenso exzellentes Beispiel für technologische Evolution bietet das Transportsystem. Oder der Buchdruck, der den Schreiber ersetzte. Wobei der gegenwärtige Übergang von Büchern zur online-Speicherung von Information den Beruf des Buchdruckers zu dem eines Hobby-Handwerkers für bibliophile Sammler machen wird (Abbildung 1).
Abbildung 1. Technologien und die mit ihnen verknüpften Berufe haben begrenzte Lebensdauer: vom Schreiber im alten Ägypten, zum Buchdruck im 16. Jahrhundert, zur Digitalisierung (Quellen: Sitzender Schreiber, wohl 4. Dynastie, https://commons.wikimedia.org/w/index.php?curid=7841464; Buchdrucker 1568, Wikipedia, gemeinfrei)
Was ist technologischer und biologischer Evolution gemeinsam?
- Die Lebensdauer: wie bereits erwähnt, Technologien und die davon abhängigen Berufe haben ebenso wie die biologischen Spezies eine begrenzte Lebensdauer.
- Effizienz und Fitness: Effizienz und andere ökomische Kriterien sind essentiell für das Überleben von Technologien; sie spielen hier dieselbe Rolle wie die Fitness in der biologischen Evolution. Das Optimierungsprinzip richtet sich im ersten Fall auf die ökonomische Effizienz aus, im zweiten Fall auf die Zahl der Nachkommen: eine Technologie, die das gleiche Produkt teurer herstellt, als ein anderes Verfahren, wird sehr schnell zum Auslaufmodell. Ebenso, wie eine Variante einer Population, die zu wenige Nachkommen hat.
- Netzwerke: Technologien bilden komplexe Netzwerke gegenseitiger Abhängigkeiten – gerade so, wie die Nahrungsketten der Ökosysteme.
- Prinzip des Bastelns: Dies ist ein weniger augenfälliges gemeinsames Charakteristikum. Innovation baut auf bereits vorhandenen Technologien auf und startet nur ganz selten, in außergewöhnlichen Fällen, von Null. Eine dieser Ausnahmen war die Einführung der Elektrizität. Die Natur selbst ist ein obligatorischer Bastler- tatsächlich wurde das Prinzip des Bastelns ja erstmals im Zusammenhang mit der biologischen Evolution formuliert. Die biologische Evolution kann nur von den Einheiten Gebrauch machen, die bereits existieren; vorhandene Funktionen werden in unterschiedlichen Kombinationen und Zusammenhängen neu verwendet.
- Impulse: nicht –technologische Beiträge können Impulse für technologische Innovationen setzen, neue wissenschaftliche Entdeckungen den Weg zu völlig neuen Technologien öffnen. Die schon erwähnte Elektrizität ist dafür nur ein Beispiel, unschwer lassen sich weitere aufzählen, wie beispielsweise elektromagnetische Wellen, Halbleiter, Kunststoffe, etc. Die Umsetzung von Wissenschaft in Technologien erfolgte bis zum Beginn des 19. Jahrhundert eher selten, dann aber wurde die Zeitspanne zwischen wissenschaftlicher Entdeckung und technologischer Anwendung immer kürzer. Natürlich setzen nicht-biologische Beiträge auch Impulse zur biologischen Evolution. Diese sind von viel generellerer Art, wie beispielsweise der Klimawandel oder die Verfügbarkeit von neuen Habitaten.
Was sind die Voraussetzungen für große Übergänge? Ist die treibende Kraft die Fülle an Ressourcen oder der Mangel?
„Notwendigkeit ist die Mutter der Erfindung“: dies ist eine bei Ökonomen populäre Phrase - sie deutet auf Mangel als Triebkraft hin. Das Problem ist allerdings subtiler – man muss hier zwischen Optimierung und radikaler Innovation unterscheiden.
Optimierungen
Optimierung im Sinne der natürlichen Selektion Darwins beruht auf Variation und Selektion. Die Optimierung verbessert die Funktion und steigert die Effizienz eines Systems, verändert aber nicht seine grundlegende Organisationsform, seine Eigenschaften und Charakteristika.
Optimierung ist nicht kostspielig, beispielsweise in der Molekularen Genetik die Optimierung durch Mutation: Die Replikation von Nukleinsäuren (RNA oder DNA) erfolgt nach demselben Mechanismus ob nun eine korrekte Kopie entsteht oder parallel dazu eine Kopie mit einer Punktmutation; die Kosten für die fehlerfreie und die fehlerhafte Kopie sind gleich (Abbildung 2).
Abbildung 2. Gleichgültig ob korrekt oder mutiert: die Replikation der DNA erfolgt nach demselben Mechanismus.
Die Konsequenz einer vorteilhaften Mutation bringt aber mehr Nachkommen und die natürliche Selektion arbeitet nun ohne Mehrkosten.
Ähnliche Argumente gelten auch für die Technologie: die Erfindung verbesserter Werkzeuge kostet im Allgemeinen kein Vermögen und wird sofort wirksam. Ganz im Sinne von „Notwendigkeit ist die Mutter der Erfindung“ erhöht ein Mangel an Ressourcen den Nutzen, der aus einer Optimierung erzielt wird.
Radikale Innovationen
werden von größeren Änderungen der Organisationsstruktur begleitet. Dies hat die Konsequenz, dass dafür teure Investitionen notwendig werden. Um dies an Hand des alten Beispiels der Mühle, die Getreide zu Mehl vermahlt, verständlich zu machen: es reicht nicht aus nur ein Haus für die Mühle zu errichten. Bevor die Mühle mit der Arbeit beginnen kann, werden weitere (maschinelle) Ausrüstungen wie Mühlengetriebe, Kollergang benötigt und ein Mühlbach muss angelegt werden (Abbildung 3).
Abbildung 3. Investitionen sind notwendig um eine funktionsfähige Wassermühle zu errichten. Im Uhrzeigersinn: Wassermühle von Holxen, Suderburg, Mittelalterliche Darstellung einer Wassermühle (Handschrift British Library, Cotton Manuscript Cleopatra C XI, fol. 10), Kollergang (Molen De Hoop, Oldebroek: Foto Rasbak), Mühlengetriebe (www.limburg-bernd.de), Mühlbach (alte Wassermühle, Luhmühlen). Alle Bilder stammen aus Wikipedia (CC 3.0 license).
Ein triviales Beispiel ist auch das Eisenbahnsystem. Um schnellen und billigen Transport zu ermöglichen, müssen zuvor ein Eisenbahnnetz und Bahnhöfe eingerichtet werden. Es erscheint unmöglich, dass der Übergang des Reisens von der Pferdekutsche zur Eisenbahn in einer Zeit des Mangels passiert wäre.
Auch Übergänge in der Biologie benötigen Investitionen: unterschiedliche funktionelle Einheiten müssen ja an ihren Platz gesetzt werden, bevor eine neue Organisationsebene wirksam wird. Hier sieht sich der Darwin’sche Mechanismus vor ein generelles Problem gestellt: wie kann die Evolution langfristig zu Vorteilen führen, wenn die Strecke dahin über ungünstige Situationen führt. Ein berühmtes Beispiel ist die Evolution von Sex, dessen überlegene Charakteristika - schnellere Evolution und verzögerte Anhäufung schädlicher Varianten – ja erst auf viel längeren Zeitskalen wirksam werden, als der kurzfristige Vorteil der Parthenogenese. Von einer Reihe mehr oder weniger plausibler Erklärungen für dieses Problem, scheint eine praktisch immer zu gelten:
Billige Ressourcen schaffen ein Szenario, das notwendige Investitionen zu verhältnismäßig niedrigen Kosten ermöglicht.
Dies soll an Hand von zwei Beispielen – aus Biologie und Technologie – aufgezeigt werden:
- Der Übergang von Prokaryoten zu Eukaryoten wird als ein Akt von Endosymbiose beschrieben. Ursprünglich unabhängige Organismen – die Vorläufer der Zellorganellen Mitochondrien und Chloroplasten – finden sich in einer Eukaryoten-Vorläuferzelle inkorporiert, die einen Zellkern mit darin umschlossener DNA enthält. DNA ist auch in Mitochondrien und Chloroplasten enthalten. In allen drei Kompartimenten replizieren sich die DNA-Moleküle voneinander unabhängig, sie werden jedoch durch den Prozess der Zellteilung synchronisiert. Voraussetzung für die Entstehung der eukaryotischen Zelle war eine ausreichend hohe Sauerstoff-Konzentration in der Atmosphäre. Die Verfügbarkeit des Sauerstoffs ermöglichte den Stoffwechselweg der oxydativen Phosphorylierung, des „Verbrennungsfeuers“, zu etablieren, die den beim Abbau von Kohlehydraten erzielten Energiegewinn maximierte. Dem Übergang zum eukaryotischen Leben standen also die Ressourcen zur Verfügung, billige Energie an seinem Beginn.
- Die industrielle Revolution wurde ebenfalls mit billiger Energie gestartet. Kohleabbau und die Verrichtung mechanischer Arbeiten mittels Dampfmaschinen ergaben einen sich selbst-verstärkenden industriellen Kreislauf, der durch die nahezu unerschöpflichen Vorräte fossiler Treibstoffe angeheizt wurde. Reiche Kohlelager waren die Voraussetzung für einen Kohleabbau in industriellem Maßstab, der ja hohe Investitionen benötigte.
Reichlich vorhandene Ressourcen scheinen also unabdingbar für alle radikalen Neuerungen zu sein, da ja die Schaffung jeder neuartigen Funktion oder Technologie Kapital erfordert.
Selbstverstärkung
ist ein Charakteristikum aller Arten von Übergängen und scheint auch eine essentielle Eigenschaft der hier diskutierten großen Übergänge zu sein. In der Biologie geht nichts ohne Selbstverstärkung: alle Einheiten, die an einem Übergang beteiligt sind, müssen sich reproduzieren, ansonsten würden sie ja aussterben. Reproduktion auf der Ebene der Population bedeutet Selbstverstärkung oder - um es in der Sprache der chemischen Kinetik auszudrücken – Autokatalyse, die – bei fehlenden Beschränkungen - zu exponentiellem Wachstum führt. Wenn Konkurrenten kooperieren, kommt es zu einer höheren Ordnung von Katalyse: daraus entsteht eine hohe Selbstverstärkung, die Gefahr läuft instabil zu werden, sofern keine Kontrolle ausgeübt wird.
Das Pendant zur Autokatalyse sind in der Ökonomie die steigenden Renditen. Wenn ein Produkt sich einen eigenen Markt schafft und mehr von diesem Produkt mehr Nachfrage erzeugt, ergibt dies einen autokatalytischen Zyklus. Dass steigende Renditen zur Instabilität führen können, hat die Finanzkrise im Jahr 2008 eindrucksvoll belegt.
Ein „Spielzeugmodell“ für biologische Übergänge
Ein einfaches mathematisches Modell für große Übergänge in der biologischen Evolution konnte mittels Computersimulationen erstellt werden. Es ging dabei darum den Einfluss der Ressourcen auf das Kräftespiel von Konkurrenz und Kooperation aufzuzeigen. Entsprechend dem Einstein’schen Prinzip: „jedes Ding sollte so einfach wie möglich dargestellt werden, aber nicht einfacher“ vereinigt dieses Modell direkte Reproduktion – dargestellt durch eine einstufige, autokatalytische chemische Reaktion – mit katalysierter Reproduktion, wie sie in Form der Symbiose (hier: Kooperation von zwei Spezies) oder Hyperzyklen (selbst-replizierende Einheiten, die zusammen einen autokatalytischen Zyklus bilden).
Ohne nun im Detail auf dieses Modell eingehen zu wollen, zeigt es klar: Sind nur geringe Ressourcen vorhanden, so kommt es zu einer natürlichen Selektion (zu einem Optimierungsprozess, s.o.). Sind dagegen Ressourcen reichlich verfügbar, bilden sich kooperative Systeme aus, die als solche Voraussetzung für große biologische Übergänge sind.
Mangel ist also eine Antriebskraft für Optimierung. Für echte Innovation und große Übergänge bedarf es aber reichlicher Ressourcen.
Weiterführende Links
Artikel von Peter Schuster in ScienceBlog.at zu verwandten Themen:
Evolution, Selbstorganisation, „Basteln“, Hyperzyklus, Replikation, Ressourcen
3.11.2011: Gibt es Rezepte für die Bewältigung von Komplexität?
16.02.2012: Zum Ursprung des Lebens — Konzepte und Diskussionen
11.04.2012: Wie universell ist das Darwinsche Prinzip?
11.07.2012: Unzähmbare Neugier, Innovation, Entdeckung und Bastelei.
12.07.2013: Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie.
19.07.2013: Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen
Vortrag von Peter Schuster,
der ab min 43:00 das Thema der großen Übergänge behandelt:
Evolution und Design - Gedanken zur spontanen Bildung biologischer Strukturen Video 52:19 min
Videos mit den im Artikel zitierten Autoren:
Brian Arthur: The Evolution of Technology – How does it work? Video 1:09h
John Maynard Smith: Major transitions in evolution Video 2:52 min
John Maynard Smith: Examples of major transitions in evolution Video 3:53 min
Powerpoint Präsentation
Eörs Szathmáry: The major transitions in evolution
Wie steuerten die Wikinger ihre Schiffe über den Ozean?
Wie steuerten die Wikinger ihre Schiffe über den Ozean?Fr, 26.02.2016 - 08:13 — Anthony Robards
Jahrhundertelang haben die Wikinger den Nordatlantik gequert und es standen ihnen dabei nur primitive Navigationshilfen zur Verfügung. Nach der Methode des „Breitensegelns“ fuhren sie einer Küste entlang bis zum gewünschten geographischen Breitengrad und segelten dann auf dieser Breite nach Osten oder Westen zum Zielort. Um auf offener See Kurs zu halten dürften sie sich eines Sonnenkompasses und doppelbrechender Kristalle – sogenannter „ Sonnensteine“ - bedient haben. Der Biowissenschafter Tony Robards (Universität York) zeigt, dass mit derartigen Sonnensteinen der Sonnenstand tatsächlich genau bestimmt werden kann, auch bei trübem Wetter und wenn die Sonne schon knapp unter dem Horizont steht..
Vor mehr als einem Jahrtausend kamen aus den Ländern, die wir jetzt als Norwegen, Dänemark und Schweden bezeichnen, Seefahrer, welche die Meere und Wasserstraßen vom Schwarzen Meer bis nach Nordamerika, von Island bis ins Mittelmeer befuhren. Wir nennen diese Menschen heute Wikinger; im Zeitraum vom 9.bis zum 13. Jahrhundert befanden sie sich auf der Höhe ihrer Seemacht. Abbildung 1.
Abbildung 1. Die Eroberung Englands durch Wilhelm den Eroberer im Jahr 1066: „HIC WILHELM DVX IN MAGNO NAVIGIO MARE TRANSIVIT ET VENIT AT PEVENESAE“ Wilhelms Flotte überquert den Kanal. (Die Normandie war seit 911 ein Lehen dänischer Wikinger.) Die schlanken, ca. 20 m langen Drachenschiffe waren mit relativ dicht angebrachten Ruderbänken ausgestattet. Ausschnitt aus dem rund 70 m langen Teppich von Bayeux, der bereits in der 2. Hälfte des 11. Jahrhunderts entstand und in einem eigenen Museum (Musée de la Tapisserie de Bayeux (Bayeux)) ausgestellt ist. (Bild: Wikipedia; Das Kunstwerk ist gemeinfrei).
Meeres-Historiker und Archäologen beschäftigte viele Jahre lang die wichtige Frage, wie es die Wikinger schaffen konnten ihren Weg durch die Meere zu finden, insbesondere, wenn kein Land in Sicht war. Sie unternahmen auf ihren robusten Schiffen ja äußerst beeindruckende Querungen – hin und zurück über den Nordatlantik – und das ohne Navigationshilfen, die ein Seemann heute als unerlässlich erachten würde.
Segeln entlang der Küste…
Über Tausende von Jahren waren Seeleute in aller Welt hauptsächlich den Küsten entlang gesegelt und bedienten sich dazu der vor Ort gesammelten Erfahrungen und fähiger Lotsen. Wenn sie sich von der Küste weiter entfernen, helfen ihnen auch heute noch zahlreiche Hinweise, um ihre Position und Fahrtrichtung zu bestimmen. Die Art der Wolkenformationen, Geräusche, Gerüche, die Windgeschwindigkeit und -Richtung, Seegang und Meeresströmungen, Farbe, Temperatur und Geschmack des Wassers, die Beobachtung von Vögeln und deren Flugrichtung und von wandernden Meeressäugern (wie z.B. von Walen) – all dies hätte auch damaligen Seeleuten wertvolle Anhaltspunkte über Position und Fahrtrichtung geben können.
Wikinger, die mit ihren kleinen Schiffen ja so grandios den Ozean beherrschten, mussten zweifellos alle derartigen Erfahrungen und Fertigkeiten besessen und weitergegeben haben. Bei der geringen Sichtweite - weniger als 10 Seemeilen -, die sie vom niederen Deck ihrer Schiffe aus hatten, bedurfte es allerdings noch zusätzlicher Hilfsmittel um sich wesentlich weiter von der Küste zu entfernen.
…und Breitensegeln
Bis zur Erfindung der Schiffsuhr (Marinechronometer; zur Bestimmung des Längengrads auf hoher See) durch John Harrison in der Mitte des 18. Jahrhunderts konnten sich Seeleute nie ganz sicher sein auf welcher geographischen Länge sie sich befanden - auch, wenn sie auf Grund ihrer Kenntnisse der Bewegungen von Sonne und Sternen ihre geographische Breite sehr gut abschätzen konnten. Aus diesem Grund wandten Seeleute daher jahrhundertelang die Methode des sogenannten „Breitensegelns“ an: das heißt, sie fuhren einer Küste entlang nach Norden oder Süden bis sie die gewünschte geographische Breite erreicht hatten und segelten von dort dann entlang dieser Breite nach Osten oder Westen zum Zielort. Den Kurs entlang der Breite zu halten, kann sich aber als schwierig erweisen, wenn auf offener See das Ziel noch hunderte Meilen entfernt ist und der Ausgangsort schon weit hinten liegt. Dies haben die Wikinger als eine ihrer Hauptfähigkeiten zur Perfektion gebracht.
Es erscheint einleuchtend, dass die meisten frühen Erkundungen der Wikinger sie an den Küsten entlang geführt haben. Beispielsweise der Überfall auf das an der Nordostküste Englands gelegene Kloster Lindisfarne im Jahr 793, der vermutlich von der Westküste Norwegens aus gestartet wurde. Die Wikinger könnten dieses Ziel erreicht haben, ohne sich wesentlich außerhalb Landsicht begeben zu haben. Über die nächsten 300 – 400 Jahre wurden die Seefahrten dann immer abenteuerlicher und die Navigationskünste entsprechend verfeinert. Abbildung 2.
Das áttir-System
Welche Hilfsmittel standen den Wikingern also zur Verfügung und – ebenso wichtig – was fehlte?
Wir alle kennen den magnetischen Kompass als das grundlegende Instrument eines jeden Seemanns. Dieser dürfte aber vor dem 13 Jahrhundert in Europa noch nicht vorhanden gewesen sein – hundert Jahre nach seiner Entdeckung in China. Tatsächlich ist in den nördlichen Breiten, der Heimat der Wikinger, der Kompass auf Grund variierender Magnetfelder aber ein ziemlich unverlässlicher Begleiter.
Es wurde auch vermutet, dass die Wikinger das natürlich vorkommende Eisenmineral Magnetit als eine primitive Art von Kompass verwendet hätten. Dafür gibt es aber bislang keinen Beweis.
Nichtsdestoweniger entwickelten sie eine Art Kompasspeilung durch ihr áttir-System – ein System der Hauptrouten. Das Fehlen von schriftlichen Aufzeichnungen oder Protokollen bedeutete, dass ihre Ozeanquerungen grundsätzlich vom Start bis zum Ziel geplant wurden und dieses Wissen von Seefahrer zu Seefahrer weitergegeben und in deren Gedächtnis gespeichert wurde.
Um das 8. Jahrhundert herum hatten die Nordmänner bereits auf den Shetland-Inseln, den Orkneys und Hebriden Fuß gefasst. Island wurde von den Wikinger zwischen 860 und 870 entdeckt – irische Mönche waren allerdings rund 100 Jahre früher dort gewesen. Im 10. Jahrhundert hatten die Wikinger dann Grönland erreicht, von wo aus sie schließlich Nord Amerika entdeckten. Die mutigen Seefahrers waren nun Herrscher über den Nordatlantik. Abbildung 2.
Abbildung 2. Sieben Schifffahrtsrouten der Wikinger im und über den Nordatlantik, die in den Sagas beschrieben werden. Die Route 3 verläuft über den 61. Breitegrad und erstreckt sich über 1500 Seemeilen von Hernar in Norwegen nach Hvarth in Grönland. (Adapted, with permission, from Thirslund, S., Sailing Directions of the North Atlantic Viking Age (from about the year 860 to 1400). Journal of Navigation, 1997. 50(01): p. 55-64.) Allerdings dauerte es bis in das frühe 14. Jahrhundert, dass ihre Segelanweisungen nicht mehr mündlich weitergeben wurden sondern zum ersten Mal schriftlich niedergelegt und zwar in den Island Sagas. Zwei herausstechende Titel sind das „Landnámabόk“ und das „Hauksbόk“, in welchen sieben unterschiedliche Segelrichtungen samt der voraussichtlichen Fahrtzeit beschrieben wurden. Als Beispiel soll eine derartige Schilderung aus dem Hauksbόk dienen:
„Weise Männer… sagen….von Hernar (Insel im Norden von Bergen und idealer Ausgangspunkt für Segelreisen nach dem Westen) in Norwegen halte dich nach Westen Richtung Hwarf in Grönland und segle nördlich von Hjaltland (Shetland Inseln), sodass Du sie bei klarem Wetter gerade noch erblickst, aber südlich der Färoer Inseln, sodass das Meer (der Horizont) mitten zwischen den entfernten Bergen liegt und auch im Süden von Island.“
Hernar als Ausgangspunkt und ein Kurs der etwa entlang des 61. nördlichen Breitegrads verlief, sollte die Seeleute zu den 1 500 Seemeilen entfernten südlichen Gebieten Grönlands führen, von wo sie der Küste entlang an die Westseite segeln konnten. Ein zu weites Abweichen südlich des 61. Breitegrads wäre dagegen fatal, da man damit Grönland verfehlen würde. Diese schmerzliche Erfahrung musste Bjarni Herjólfsson machen, der im Jahr 896 von Island aus aufbrach, aber durch Stürme und Meeresströmungen nach Süden verschlagen wurde. Er wurde zwar so der erste Wikinger, der den Nordamerikanischen Kontinent erblickte, konnte dort aber nicht landen.
Stad oder Trondheim als Ausgangsorte sollten in ähnlicher Weise ein „Breitensegeln“ zu den Färoer Inseln oder an die Südküste Islands erlauben.
Der Sonnenkompass
Wie aber konnten die Wikinger beim Breitensegeln über so weite Distanzen genauen Kurs halten? Hier beginnt die Geschichte ebenso spannend wie spekulativ zu werden. Von allen Navigationsinstrumenten, welche die Wikinger benutzt haben könnten, gibt es bislang ein einziges archäologisches Relikt: Dies ist ein halbkreisförmiges Bruchstück einer Holzscheibe mit einem Durchmesser von 7 cm, das 1948 in einem alten Benediktinerklosters in Uunartoq, im Süden Grönlands, entdeckt wurde. Abbildung 3.
Abbildung 3. Das Uunartoq Bruchstück (Reproduced by courtesy of the Viking Ship Museum, Roskilde, Denmark, who hold the Copyright. Photograph by Werner Karrasch)
Dieses Fundstück wurde als Sonnenkompass gedeutet, der ursprünglich einen vertikalen Stab (ein Gnomon – Schattenzeiger) in der Mitte gehabt haben musste. Vor dem Fahrtantritt hätte dann der Seefahrer über einen Tag hin die Projektion des Schattens der Sonne von der Spitze des Gnomons auf den Rand der Scheibe verfolgt und markiert – die Einkerbungen am Rand der Scheibe werden für derartige Markierungen gehalten. In den darauffolgenden nächsten Tagen wäre der Sonnenstand ausreichend ähnlich gewesen, um festzustellen ob die Fahrtrichtung nördlich oder südlich von der vorgegebenen Route nach Westen oder Osten abwich. (Neuere Untersuchungen haben einige faszinierende Vorschläge für ähnliche, aber abgewandelte Instrumente dargestellt, auf die hier aber nicht eingegangen werden soll.)
Während der Schifffahrtssaison der Wikinger waren die Tage lang und die Nächte relativ kurz. In den Nächten konnte eine gewisse Navigationshilfe auch durch die Beobachtung der im Zenith stehenden Sterne oder beispielsweise des Polarsterns erhalten werden, dessen Höhenwinkel ja ungefähr dem Breitengrad entspricht, auf dem sich ein Beobachter befindet.
Allerdings erfolgte der Großteil der Fahrt bei Tageslicht und für die Orientierung war es wichtig zu wissen, wo die Sonne stand, auch wenn man sie nicht sah, sodass man mittels des Sonnenkompasses den Breitengrad bestimmen konnte. Hier kommt nun die bemerkenswerte Hypothese ins Spiel, dass die Wikinger einen Sonnenstein benutzten.
Der Sonnenstein
Ein Sonnenstein wird in den Wikinger Sagas erwähnt: angeblich demonstrierte der Bauernsohn Sigurd seinem König Olaf, dem Heiligen, dass er mit einem solchen Stein in der Lage war den Sonnenstand bei bedecktem Himmel festzustellen. Dies dient als eindeutiges Beispiel dafür, dass die Wikinger über den Sonnenstein Bescheid wussten, auch wenn dieser nicht in direktem Zusammenhang mit der Seefahrt genannt wurde.
Es war der dänische Archäologe Thorkild Ramskou, der 1969 postulierte, Sonnensteine könnten zur Bestimmung des Sonnenstandes genutzt worden sein und zwar auch dann, wenn die Sonne unter dem Horizont verschwand oder durch Wolken oder Nebel verdeckt war. Diese Idee wurde zwar von ein oder zwei Protagonisten begeistert akzeptiert, blieb aber lange nicht mehr als eine Theorie. Erst vor kurzem unternahmen Wissenschafter rund um Gabor Horvath einige Experimente, um herauszufinden ob man Sonnensteine tatsächlich zur Bestimmung des Sonnenstandes bei bedeckter Sonne nutzen konnte.
Was ist also überhaupt ein Sonnenstein und wie könnte er funktionieren?
Dazu eine kurze Einführung: entsprechend seiner Natur als elektromagnetische Welle schwingt Sonnenlicht als Transversalwelle senkrecht zu seiner Ausbreitungsrichtung, wobei diese Schwingungen radial in beliebige Richtungen erfolgen (das Licht ist unpolarisiert). Beim Eintritt in die Erdatmosphäre werden die Sonnenstrahlen dann an den kleinen Teilchen (an Molekülen, Aerosolen) der Luft gestreut und polarisiert, d.h. das Licht schwingt nur mehr in einer Ebene. Die Richtung der Polarisation ist senkrecht zu der ursprünglichen Ausbreitungsrichtung und erreicht ein Maximum im 90o Winkel zum Sonnenstandort. Abbildung 4a. Dies lässt sich leicht mit Hilfe eines Polarisationsfilters beobachten (ein derartiger Filter lässt Licht einer Polarisationsrichtung durch und sperrt Licht mit einer um 90o gedrehten Polarisationsrichtung). Wenn Sie beispielweise durch das Glas einer Polaroid Sonnenbrille zum Himmel sehen und dieses drehen, wird es komplett dunkel werden, wenn seine Polarisationsrichtung im 90o-Winkel zur Polarisationsebene der Sonnenstrahlen steht, aber - parallel zu den Sonnenstrahlen - einen klaren Durchblick erlauben.
Abbildung 4. Die Streuung des Sonnenlichts an kleinsten Teilchen in der Atmosphäre führt zur Polarisierung des Lichts (4a). Die Richtung der Polarisation ist senkrecht zu der ursprünglichen Ausbreitungsrichtung und erreicht ein Maximum im 90o Winkel zum Sonnenstandort Der Beobachter kann an Hand dieses Maximums auf den Sonnenstand schließen. 4b: Der Sonnenstein beruht auf der Detektion des polarisierten Lichts: Eine Markierung auf der Außenfläche des doppelbrechenden Calcits erscheint - gegen den Himmel gehalten- als zwei Markierungen unterschiedlicher Intensität. Verdrehen des Kristalls bis beide Markierungen gleiche Intensität zeigen, gibt die Richtung des Sonnenstands an (Details: http://www.atoptics.co.uk/fz767.htm; Illustration/Photograph by the author/A.W.Robards).
Kristalle, die doppelbrechende Eigenschaften haben, können als Sonnenstein fungieren. Dies kann etwa ein Turmalin sein, ein Cordierit oder der am häufigsten genannte Calcit, ein Kristall aus Calciumcarbonat, der auf Grund seiner reichen Vorkommen in Island auch Islandspat genannt wird. Doppelbrechende Kristalle spalten einen durchgehenden Lichtstrahl in zwei Teilstrahlen auf, die beide polarisiert sind und deren Schwingungsebenen senkrecht zueinander stehen. Auf Grund unterschiedlichen Brechungsverhaltens haben die Strahlen einen unterschiedlichen, vom Einfallswinkel abhängigen Verlauf. Wird eine dunkle Markierung auf einer Seite des Kristalls aufgebracht und gegen den Himmel gehalten, werden auf der anderen Seite zwei Markierungen mit unterschiedlicher Stärke gesehen. Wenn der Stein so gedreht wird, dass beide Markierungen gleiche Intensität haben, kann daraus die Position der Sonne abgeleitet werden. Abbildung 4b. Der Stein funktioniert also! Natürlich ist damit noch nicht bewiesen, dass die Wikinger ihn benutzt haben und wenn, ob er ausreichend genaue Ergebnisse am Deck eines Schiffes lieferte.
Ein Sonnenstein wurde zwar nie im Zuge archäologischer Forschungen über Wikinger entdeckt. In einem Schiffswrack vor der Insel Alderney aus dem Jahr 1592, fand man aber im Arsenal der Navigationsinstrumente auch einen Calcit (LeFloch 2013). Dies unterstützte die Theorie, dass der Stein für die Navigation verwendet wurde, möglicherweise wurde damit die Genauigkeit des magnetischen Kompasses überprüft.
Fazit
Von Seiten der Physik wurde bewiesen, dass doppelbrechende Kristalle tatsächlich zur Bestimmung des Sonnenstandes geeignet sind. Von Seiten der archäologischen Forschung muss aber noch viel mehr getan werden, um die Verwendung dieser Technik durch die Wikinger eindeutig zu belegen.
* Der Blogbeitrag basiert auf zwei Artikeln, die im CoScan Magazin in englischer Sprache erschienen sind und uns vom Autor freundlicherweise für den Blog zur Verfügung gestellt wurden:
Anthony Robards: Viking Navigation part 1 and 2. CoScan (Confederation of Scandinavian Societies) Magazine http://issuu.com/evarobards/docs/coscan_magazine_2015_1 und http://issuu.com/evarobards/docs/coscan_magazine_2015_2
Der Blogartikel verzichtet auf die im obigen Original aufgelisteten Literaturangaben, da diese nicht frei zugänglich sind.
Weiterführende Links
Die Wikinger (Dokumentation) . Video 52:52 min (enthält auch Beschreibung des Sonnenkompasses)
Planet Wissen – Wikinger. Video 58:17 min.
Von der Experimentalphysik zur anti-metaphysischen Wissenschaftsphilosophie: zum 100. Todestag von Ernst Mach
Von der Experimentalphysik zur anti-metaphysischen Wissenschaftsphilosophie: zum 100. Todestag von Ernst MachFr, 19.02.2016 - 08:59 — Karl Sigmund
Genau auf den Tag vor 100 Jahren ist der weltbekannte österreichische Physiker, Physiologe und Pionier der Wissenschaftsphilosophie Ernst Mach gestorben. Mach war radikaler Empirist, ein „Denkökonom“, der alle, über das Beobachtbare hinausgehenden Spekulationen als metaphysisch von sich wies. Damit wurde Mach zu einem der geistigen Gründungsväter des philosophischen Zirkels „Wiener Kreis“, der das Geistesleben und die Sozialgeschichte in der Zwischenkriegszeit des 20. Jahrhunderts prägte. Der vorliegende Artikel ist die verkürzte Fassung eines Kapitels aus dem Buch „Sie nannten sich Der Wiener Kreis“. Der Autor dieses, eben als Wissenschaftsbuch des Jahres ausgezeichneten Buches - der Mathematiker Karl Sigmund-, hat freundlicherweise und mit Einwilligung des Verlages den Text dem ScienceBlog zur Verfügung gestellt.*.*
Ernst Mach kam 1838 bei Brno, damals Brünn, zur Welt. Er wuchs in Untersiebenbrunn auf, einer kleinen Ortschaft nahe bei Wien, die so bäuerlich war, wie der Name klingt. Sein Vater, ursprünglich ein Lehrer, betrieb dort eine Landwirtschaft und unterrichtete seine Kinder oft selbst. Als Zehnjähriger wurde Ernst Mach in ein Internat ins niederösterreichische Benediktinerstift von Seitenstetten geschickt. Bald stellte sich heraus, dass das kränkliche Kind den Anforderungen des Gymnasiums nicht gewachsen war. So kehrte er nach Untersiebenbrunn zurück. Den Mittelschulstoff der Unterstufe konnte ihm zur Not auch sein Vater vermitteln.
Beim Stöbern in den Büchern seines Vaters stieß der Halbwüchsige auf Kants „Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können“. Dieser Moment war entscheidend, wie Mach später mehrfach festhielt:
„Vom Kant’schen Idealismus kam ich bald ab. Das „Ding an sich“ erkannte ich noch als Knabe als eine unnütze metaphysische Erfindung, als eine metaphysische Illusion.“
Bald nach seiner Begegnung mit der Metaphysik versuchte es der junge Ernst Mach wieder mit einem Gymnasium – diesmal bei den Piaristen im mährischen Kremsier (heute Kromeriz). Dieser zweite Versuch verlief wesentlich besser. Mit 17 maturierte Mach und inskribierte Mathematik und Physik an der Universität Wien. Dort hatte das physikalische Institut zu einem Höhenflug angesetzt, gestützt auf das Wirken von Christian Doppler (1803 – 1853), Johann Loschmidt (1821 – 1893) und Josef Stefan (1835 – 1893). Diese Blüte war umso erstaunlicher, als es davor keine besonders bemerkenswerte Tradition gegeben hatte. Erst mit dem aufziehenden Liberalismus konnten sich die wissenschaftlichen Talente der Donaumonarchie entfalten.
Mach schafft sich einen Namen
Der junge Ernst Mach gehörte zu diesen Talenten. Schnell fiel er am Institut durch seinen Einfallsreichtum und seine Geschicklichkeit auf. Noch als Student konstruierte er einen Apparat, der den Dopplereffekt überzeugend demonstrierte, also dass ein Ton höher wird, wenn sich die Schallquelle rasch nähert. Mit 22 Jahren erwarb Ernst Mach das Doktorat. Schon im Jahr darauf wurde er Dozent, erhielt also das Recht an der Universität zu lehren. Bereits mit 26 wurde Mach in Graz ordentlicher Professor, erst für Mathematik, dann für Physik. Dort heiratete er im Jahr 1867, aus der Ehe entstammten fünf Kinder.
Im selben Jahr 1867 wurde der noch nicht dreißigjährige Mach auf die Lehrkanzel für Experimentalphysik in Prag berufen, wo er fast dreißig Jahre wirkte, bis zu seiner Übersiedlung nach Wien.
Im Labor erwarb sich Mach vor allem durch seine Untersuchungen zur Überschallgeschwindigkeit einen Namen. Das gilt im buchstäblichen Sinn: „Mach zwei“ ist gleichbedeutend mit doppelter Schallgeschwindigkeit. Die Experimente machten ihn zum Pionier der wissenschaftlichen Fotografie. Seine Aufnahmen von Strömungslinien und Schockwellen (Abbildung 1) faszinierten die Zeitgenossen und inspirierten noch Jahrzehnte später die italienischen Futuristen bei ihren Versuchen, rasche Bewegung möglichst sinnfällig darzustellen. Abbildung 1. Stoßwelle um ein mit Überschallgeschwindigkeit fliegendes Geschoss. Das Foto wurde von Ernst Mach 1888 mittels Schlieren-Fotographie aufgenommen (Bild: Wikipedia; gemeinfrei.).
Grundlagen der wissenschaftlichen Erkenntnis
Noch viel mehr als seine Experimente waren es aber Machs Gedanken zur Grundlegung der Physik, die ihn weltbekannt machen sollten. Wissenschaftler, die philosophieren und Philosophen, die Wissenschaft betreiben, hat es viele gegeben. Doch Mach ragte heraus: er wurde zum Pionier einer neuen Disziplin: der Wissenschaftsphilosophie.
Für Mach bot die Wissenschaft selbst den Anlass zum Philosophieren. Die Naturwissenschaften konnten nicht länger als Steckenpferd vereinzelter Träumer und Grübler gelten; sie waren im Lauf des vergangenen Jahrhunderts zu einem Generationen umspannenden, weltweitem Unterfangen geworden, zur Triebkraft hinter der industriellen Revolution. Wenn nun der Fortschritt der Menschheit auf den Naturwissenschaften gründete, worauf gründeten die Naturwissenschaften?
Die Fragen nach den Grundlagen aller Erkenntnis war und ist eine der Grundfragen der Philosophie. Mach ging es um die Grundlagen der wissenschaftlichen Erkenntnis. Er befasste sich damit in drei Büchern: Die Mechanik in ihrer Entwicklung (1883), Die Prinzipien der Wärmelehre (1896) und Die Prinzipien der physikalischen Optik (posthum 1921).
Wie begründet man physikalische Begriffe wie „Kraft“, „ Wärme“, „Entropie“? Was ist „Materie“? Wie misst man „Beschleunigung“? Mach untersuchte diese Fragen von Grund auf, von den einfachsten Beobachtungen ausgehend, durch kritische Analyse der historischen Wurzeln.
Mach führte die physikalischen Begriffe auf unmittelbar gegebene Empfindungen, also Sinneseindrücke zurück und kam dadurch aus philosophischen Gründen zur Physiologie. Auch in diesem Fach bewies er erstaunlichen Spürsinn. So entdeckte er die Lokalisierung des Gleichgewichtssinnes im Innenohr, etwa gleichzeitig mit Josef Breuer, jenem Wiener Arzt, der später gemeinsam mit Sigmund Freud die Psychoanalyse begründete (Abbildung 2). Diese Arbeiten wurden von Robert Barany fortgesetzt, der dafür mit dem Nobelpreis für Medizin ausgezeichnet wurde.
Abbildung 2. Der Hexenstuhl Ernst Machs, mit dem er den Gleichgewichtssinn untersuchte. (Aus: Ernst Mach - Grundlinien der Lehre von den Bewegungsempfindungen; Bild: Wikipedia; gemeinfrei).
Sparsam denken
Die Wissenschaft hat sich auf Erfahrungstatsachen zu beschränken aber besteht natürlich nicht nur aus dem bloßen Sammeln von Fakten. Ihre Aufgabe ist die übersichtliche Darstellung des Tatsächlichen. Im Vordergrund steht für Mach die Denkökonomie: Es geht darum möglichst viel mit möglichst geringem Aufwand zu beschreiben:
„Alle Wissenschaft hat Erfahrungen zu ersetzen oder zu ersparen durch Nachbildung und Vorbildung von Tatsachen in Gedanken, welche Nachbildungen leichter zur Hand sind als die Erfahrung selbst und diese in mancher Beziehung vertreten können. Diese ökonomische Funktion der Wissenschaft, welche deren Wesen ganz durchdringt, wird schon durch die allgemeinsten Überlegungen klar. Mit der Erkenntnis des ökonomischen Charakters verschwindet auch alle Mystik aus der Wissenschaft.“
Mach ist radikal: Für ihn liefern Theorien lediglich denkökonomische Hilfen, keine Erklärungen. Er sieht in den Naturgesetzen nur subjektive Vorschriften für unsere Erwartungen und in der Kausalität nichts als eine regelmäßige Verknüpfung der Vorgänge, eine funktionelle Abhängigkeit.
Die ökonomischen Grundsätze betreffen nicht nur die Wissenschaft sondern auch die Lehre:
„Die Mitteilung der Wissenschaft durch den Unterricht bezweckt, einem Individuum Erfahrung zu ersparen durch Übertragung der Erfahrung eines anderen Individuums“.
Der Unterricht war für Mach Aufklärung:
„Ich werde auf keinen Widerstand stoßen, wenn ich sage, dass der Mensch ohne eine wenigstens elementare mathematische und naturwissenschaftliche Bildung ein Fremdling bleibt in der Welt, in der er lebt, ein Fremdling in der Kultur der Zeit, die ihn trägt.“
Das Ich und seine Empfindungen
Das philosophische Hauptwerk von Mach erschien 1886: Die Analyse der Empfindungen. Es hebt an mit Antimetaphysischen Vorbemerkungen, die zum Halali auf das „Ding an sich“ blasen, überhaupt auf das Ding, auf die Substanz. Ernst Mach lässt nur die vergängliche Erscheinung gelten. Sein Empirismus ist radikal: Alles Wissen beruht auf Erfahrung und alle Erfahrung auf Wahrnehmungen, also letztlich auf Sinneswahrnehmungen, den „Empfindungen“ Machs.
Die Körper, die wir wahrnehmen, bestehen in regelmäßigen Verbindungen von Sinnesdaten. Es gibt nicht außerdem einen Gegenstand, der unabhängig von den Empfindungen existiert, ein „Ding an sich“. Ebenso wenig wie das „Ding an sich“ existiert das „Ich“:
„Als relativ beständig zeigt sich ferner der an einen besonderen Körper (den Leib) gebundene Komplex von Erinnerungen, Stimmungen, Gefühlen, welcher als Ich bezeichnet wird. Das Ich ist so wenig absolut beständig als die Körper.“
In einer berühmt gewordenen Zeichnung stellte Mach scherzhaft „die Selbstbetrachtung des Ichs“ dar (Abbildung 3).
Abbildung 3. Machs Ich betrachtet sich selbst, Illustration aus: Ernst Mach: „Antimetaphysische Vorbemerkungen“ in: Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen (Quelle: Wikipedia).
Das Ich sind Empfindungen. Dahinter steht - nichts.
„Wenn ich sage „Das Ich ist unrettbar“, so meine ich damit, dass es nur in der Einfühlung des Menschen in alle Dinge, in alle Erscheinungen besteht, dass dieses Ich sich auflöst in allem, was fühlbar, hörbar, tastbar ist. Alles ist flüchtig: Eine substanzlose Welt, die nur aus Farben, Konturen, Tönen besteht. Ihre Realität ist ewige Bewegung, chamäleonartig schillernd.“
Machs Welt ohne Substanz, die auf Sinneseindrücken beruht, war eine impressionistische, also im vollsten Einklang mit dem Geist der Zeit. In den Wiener Salons des fin de siècle wurde der Gelehrte mit dem Prophetenhaupt geradezu umschwärmt.
Die Berufung auf einen Lehrstuhl für Philosophie an der Universität Wien
Im neunzehnten Jahrhundert hatten sich die Wände zwischen den Disziplinen verhärtet und die universitären Hierarchien versteift. Dass ein Naturwissenschaftler philosophisch dilettierte, mochte noch angehen; doch, dass er eine philosophische Lehrkanzel übernahm, ohne je über Kantianer oder Scholastiker examiniert worden zu sein, schien schon allerhand. Ein Vortrag, den der weltbekannte Experimentalphysiker in Wien hielt, gab den Ausschlag für seine Berufung. Ernst Mach (Abbildung 4 zeigt ihn im Jahr 1900) übernahm 1895 die eigens für ihn neu benannte Lehrkanzel für Geschichte und Theorie der induktiven Wissenschaften an der Universität Wien.
Abbildung 4. Mach im Jahr 1900. Heliogravüre von HF Jütte, Leipzig.(Bild: Wikipedia; gemeinfrei).
Der Schritt von der Physik zur Philosophie war in Machs Lebensweg längst vorgezeichnet gewesen:
„Meine Lebensaufgabe war es, von Seiten der Naturwissenschaft der Philosophie auf halbem Wege entgegenzukommen.“
Die Stelle war Mach gewissermaßen auf den Leib geschneidert; aber wenig später - im Jahr 1901 -musste er sie niederlegen, halbseitig gelähmt durch einen Schlaganfall, den er auf einer Eisenbahnfahrt erlitten hatte. Seinen rechten Arm und sein rechtes Bein konnte er nie wieder bewegen. Trotz seiner Lähmung blieb Mach geistig so rege wie immer und weiterhin in lebhafte Auseinandersetzungen mit den besten Wissenschaftlern seiner Zeit verwickelt, so etwa mit Boltzmann, Planck oder Einstein. Denn Machs Auffassungen waren zwar von bestechender Eleganz, aber sie warfen doch viele Fragen auf, wie etwa: Wenn die Welt nur aus Erlebnissen besteht, wie verhält es sich dann mit der Existenz von Dingen, die nicht wahrgenommen werden?
Sein Gebrechen trug Mach, der Philosoph des „unrettbaren Ich“ mit heiterer, fast buddhistischer Abgeklärtheit. Im Jahr 1913 zog Ernst Mach zu seinem Sohn nach München. Als er der österreichischen Akademie der Wissenschaften seine Adressänderung bekannt gab, schloss er mit dem schmunzelnden Hinweis, möglicherweise postalisch bald nicht mehr erreichbar zu sein.
1916 verstarb Ernst Mach im Alter von 78 Jahren. Machs Vorlesung übernahm ein anderer Physiker, Ludwig Boltzmann. Auch dies währte nicht lang, denn Boltzmann erhängte sich. Doch innerhalb weniger Jahre hatten die beiden weltberühmten Physiker durch ihre Passion für die Philosophie eine Generation von Studierenden geprägt. Dies macht die beiden zu Urvätern des philosophischen Zirkels „Wiener Kreis“ [1].
*
Karl Sigmund: Sie nannten sich Der Wiener Kreis. Exaktes Denken am Rand des Untergangs. Wiesbaden: SpringerSpektrum 2015. ISBN 978-658-08534-6 http://mlwrx.com/sys/w.aspx?sub=dAvsT_2A6MTL&mid=8d03ba11
Dieses Buch wurde vor wenigen Tagen zum Wissenschaftsbuch des Jahres 2016 in der Kategorie Naturwissenschaft und Technik gewählt. http://www.wissenschaftsbuch.at/
[1] Karl Sigmund: Der Wiener Kreis – eine wissenschaftliche Weltauffassung.
Weitere Artikel von Karl Sigmund in ScienceBlog.at:
- 29.11.2012: Homo ludens – Spieltheorie
- 15.11.2012: Homo ludens – Spiel und Wissenschaft
- 01.03.2012: Die Evolution der Kooperation
Biologische Kollagenimplantate in der Hernienchirurgie – quo vaditis?
Biologische Kollagenimplantate in der Hernienchirurgie – quo vaditis?Fr, 12.02.2016 - 10:50 — Alexander Petter-Puchner
Bei der Leistenbruchoperation ist das Kunststoffnetz seit zwei Jahrzehnten der Standard, der zur Verstärkung des Verschlusses eingesetzt wird. Auf der Suche nach verbesserten Materialien erschienen Bionetze aus Kollagen besonders erfolgsversprechend und fanden breiten Eingang in die Hernienchirurgie – ohne, dass aussagekräftige klinische Studien vorangegangen wären. Der Wiener Chirurg Alexander Petter-Puchner, Experte für Herniechirurgie, zeigt hier die Problematik der übereilten Einführung eines biomedizinischen Produktes auf.
Jedes Jahr werden weltweit mehr als drei Millionen Operationen an Bauchwand-, oder Leistenbrüchen („Hernien“) durchgeführt, bei denen Kunststoffnetze oder biologische Matrices („Bionetze“) zum Einsatz kommen. Diese Implantate verfolgen den Zweck, das Gewebe zu verstärken und die Spannung, die erforderlich ist, um den Defekt der Bauchwand (Abdominalwand)zuverlässig zu verschließen, zu reduzieren. Der Standard ist seit mehr als zwanzig Jahren der Einsatz von Netzen aus Polypropylen oder Polyester: diese werden zwar vom Körper generell sehr gut toleriert, können aber je nach Porengröße und Beschichtung anfällig für eine Besiedelung mit Bakterien sein und auch nicht abgebaut werden. Ausgehend von Diskussionen über Sinn und Risiken von nicht resorbierbaren Fremdmaterialen und dem starken Aufkommen von biologischen, abbaubaren Fixationsmaterialien (zB Fibrinkleber, siehe [1]) erschien es naheliegend, sogenannte biologische Netze aus bovinem (vom Rind), porcinem (vom Schwein) oder auch humanem Kollagen zum Einsatz in der Hernienchirurgie zu bringen (Abbildung 1). Diese Materialien stellten ursprünglich allesamt keine Neuentwicklungen für diese Anwendungen dar, sondern waren Adaptionen bestehender Produkte aus der Gefäß- und der Wiederherstellungschirurgie.
Abbildung 1. Kollagenfasern im Bindegewebe der Haut als Ausgangsmaterial der biologischen Netze (mit den Augen des Graphikers gesehen). Die Kollagenfasern (Längs-und Querschnitt) der Dermis (Lederhaut) bilden ein dichtes Netzwerk. In den Bildern jeweils links: ein Fibroblast (blau), die Hauptzelle der Dermis, rechts: eine angeschnittene Blutkapillare, aus der ein rotes Blutkörperchen (Erythrozyt) austritt, oben:basale Zellschicht (Keratinozyten) der Epidermis (Oberhaut). Quelle: N0019489 Credit Medical Art Service, I. Christensen, Wellcome Images. Licensed CC by-nc-nd 4.0.
Man ging davon aus, dass diese Materialien sich vollständig in das Narbengewebe integrieren und dieses damit verstärken würden ohne mit dem Verbleib von Fremdmaterial das Risiko von Fremdkörper- oder immunologischen Abstoßungsreaktionen in Kauf nehmen zu müssen.
Die Einführung auf den Markt war von vielen Versprechungen und Argumenten geprägt, die zu diesem Zeitpunkt weder bewiesen noch widerlegt worden waren. Damit stellt die Geschichte der „Bionetze“ ein gutes Beispiel dafür dar, wie biomedizinische Produkte besser nicht die klinische Bühne betreten sollten.
Der folgende Text versucht die Entwicklung der letzten zehn Jahre nachzuvollziehen – wie ursprüngliche „Hype und Euphorie“ in „Ernüchterung“ umschlugen.
Hype und Euphorie
Wie bereits erwähnt, fanden anfänglich (2005-2009) viele Kollagenprodukte aus anderen chirurgischen Gebieten Eingang in die Hernienchirurgie. Dabei gab es anfangs drei, später zwei voneinander deutlich abgesetzte Produktgruppen:
- humane Kollagenimplantate, die aus Leichenhaut gewonnen wurden. Während diese Implantate (zb. Alloderm® oder Allomax®) in den USA Verbreitung fanden, konnten sie aufgrund der extrem aufwändigen Herstellungs- und Prüfverfahren und eines sehr hohen Verkaufspreises (>40 € pro cm2!), in Europa nie Fuß fassen.
- Die zwei anderen Gruppen sind bis zum heutigen Tag quervernetzte und nicht quervernetzte, tierische Kollagenimplantate.
Die Quervernetzung bedingt, dass die Kollagen- (landläufig: Bindegewebs-) –fasern chemisch oder physikalisch stabilisiert werden und damit vor dem Abbau durch Enzyme (Kollagenasen) geschützt werden. Kollagenasen sind Teil des enzymatischen Cocktails, der bei jeder Entzündungsreaktion freigesetzt wird, da sie das Gewebe eben „andauen“, um so das Feld für die Einwanderung immunkompetenter Zellen aufzubereiten. Quervernetzte Implantate sollten mechanisch dauerhaft stabiler sein, wenn auch um den Preis eines langsameren Einwachsens körpereigener Zellen. Korrekterweise soll angemerkt werden, dass auch sogenannte nicht quervernetzte Implantate durch die Sterilisierungsverfahren soweit stabilisiert werden, dass das Kollagen als feste Matrix und nicht als Paste vorliegt.
Nicht quervernetzte Implantate, so die Theorie, würden zwar rascher resorbiert, also abgeräumt, würden jedoch, so das Versprechen der Hersteller, das Narbengewebe dennoch dauerhaft verstärken.
Diese neue Auswahl an „Netzen“ (wobei der Begriff irreführend ist, da es sich wie bemerkt um dreidimensionale Matrices handelt) erschien für die Chirurgie weltweit verlockend. Vollständige Resorption bei gleichzeitiger Verstärkung des vorhandenen Bindegewebes, sowie eine besonders gute Eignung in infizierten Wundgebieten - das war das Versprechen in dieser Zeit der Euphorie.
Gerade die letztgenannte Eigenschaft, die Kollagenimplantaten zugeschrieben wurde und lange das Hauptargument der Fürsprecher der Bionetze war, nämlich die Resistenz gegen Keimbesiedelung, ja sogar die Keimreduktion, ist seit über einer Dekade ein heftig umstrittenes Thema, das sich eines schlüssigen Nachweises hartnäckig entzogen hat. Experimentelle Studien haben von Anfang an kritische Fragen zur Verträglichkeit und den scheinbar kaum vorhersehbaren Abbauprozessen gestellt. (Es wurde extrem rascher Abbau nicht quervernetzter, sowie eine gegenteilige Reaktion, im Sinne einer ausgeprägten Granulombildung bei quervernetzten Kollagenimplantaten beobachtet.)
Im Nachhinein erscheint es unverständlich, warum diese experimentellen Arbeiten über Jahre hinweg so vehement negiert wurden, obwohl sie Komplikationen, die in den klinischen Publikationen noch als Einzelfälle beschrieben und als individuelle Phänomene abgetan wurden, im Detail systematisch auflisteten.
Ernüchterung
Während, wie eingangs erwähnt, Kollagenimplantate in großem Stil v.a. in Nordamerika und im Süden Europas zum Einsatz kamen und einen Milliarden schweren Markt begründeten, blieb der zentraleuropäische Raum skeptisch. Bald schon häuften sich klinische Berichte über hohe Rezidivraten (Wiederauftreten des Bruches) und Komplikationsraten. (Abbildung 2)
Abbildung 2. Histologische Aufarbeitung eines nach zwei Monaten explantierten, nicht quervernetzten Kollagenimplantates zur Verstärkung einer Bauchwandhernie. Das Implantat imponiert als dunkelrote Struktur unterhalb des hellrot/ rosa erscheinenden geraden Bauchmuskels. Auffällig ist, dass diese beiden Schichten gar nicht verbunden sind, d.h. dass es hier nach längerer Zeit zu keiner, für eine Verstärkung wesentlichen, Einheilung oder einem Einwachsen von Gefäßen gekommen ist. Die langsame Integration und die individuell sehr unterschiedlich ausgeprägte Fremdkörperreaktion ist leider protototypisch für viele Kollagenimplantate in der Hernienchirurgie. Insert rechts unten: dasselbe Implantat am Ort der Verwendung zeigt sich stark geschrumpft und gefältelt.
Man versuchte dies mit mangelnder Quervernetzung zu erklären, bzw. einer zellschädigenden Wirkung der chemischen Verfahren zur Quervernetzung. Abbildung 3. Die Kontroverse über die beste Art der Quervernetzung und die prinzipielle Notwendigkeit derselben sollte die Phase der aufkommenden Ernüchterung lange kaschieren.
Abbildung 3. Histologie von einem quervernetzten Kollagenimplantat, ebenfalls aus der Bauchwand. Selbst für einen Laien ist das unruhige Zellbild sofort erkennbar, welches eine massive Fremdkörperreaktion darstellt. Nicht nur ist die Immunabwehr noch zwei Monate nach der OP in vollem Gange, es ist bereits zur Bildung kleinerer Abszesse und der Formation von Granulomen gekommen. Granulome stellen den Versuch des Körpers dar, Fremdmaterialien weitgehend abzukapseln und in letztendlich in einem Sarkophag aus Kalk zu lagern. Alle eigenen Beobachtungen wurden in der Literatur von zahlreichen anderen Gruppen bestätigt.
Immerhin hatte sich die Debatte gerade unter dem Zwang der Tatsache entwickelt, dass zahlreiche klinische Studien wegen inferiorer Ergebnisse oder methodologischer Schwierigkeiten abgebrochen werden mussten: beispielsweise wegen der Schwierigkeit der Stratifizierung (Einteilung der Patienten in risikoangepasste Behandlungsgruppen, Anm. Red.) ausreichend großer und vergleichbarer Gruppen von Patienten, oder auf wegen der zunehmende Ablehnung von Chirurgen Kollagenimplantate überhaupt zu verwenden, Die Dramatik der Situation zeigte sich in der Konklusion einer prospektiven Studie, durchgeführt von einer der renommiertesten Forschungsgruppen der USA (Prof. Dr. Michael Rosen aus Cleveland, OH). Angesichts einer Rezidivrate von mehr als zwei Drittel aller mit einem „Bionetz“ versorgten Patienten mit Bauchwandhernie in einer klinischen Studie postulierte man, dass „Bionetze“ lediglich einen „sehr teuren Bruchsack“ bilden würden. Ende 2015 wurde eine ausgezeichnete Arbeit publiziert, die anhand von aus Patienten wieder explantierten, biologischen Matrices klar postulierte, dass deren Verhalten hinsichtlich Einheilung, Abbau, Verstärkung des Defektes individuell unterschiedlich und vollkómmen unvorhersehbar sei.
Ausblick
Heute gibt es nach wie vor keine zwingenden Indikationen für den Einsatz von biologischen Netzen in der Hernienchirurgie. Übrig bleibt der Auftrag, die Markteinführung neuer Produkte in der Hernienchirurgie mit dem zu Gebote stehenden, wohlwollend-distanzierten und kritischen Blick zu begutachten und mit der skeptischen Erfahrung der oben geschilderten Entwicklung der Kollagenimplantate
[1] Petter-Puchner, H. Redl: Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“ http://www.scienceblog.at/fibrinkleber-leistenbruch#. *Stratifizierung: bereits bei der Planung der klinischen Studie werden Patienten nach definierten, klinisch relevanten Untergruppen randomisiert.
Weiterführende Links
A. Petter-Puchner beschreibt die Technik der Netzfixation mittels Fibrinkleber in Chirurgie, 1 (2014) p. 14: How I do it: Netzfixierungen bei der laparoskopischen Hernienchirurgie. http://trauma.lbg.ac.at/sites/files/trauma/puchner_hernia.pdf
Minimal –invasive Operation eines Leistenbruchs in TAPP Technik (Netzfixierung mit Fibrinkleber), Video: 9:18 min, https://www.youtube.com/watch?v=58FHsHHVL0A
Die folgenden vom Autor genannten, allerdings nicht frei-zugänglichen, Arbeiten zu dem Thema können auf Anfrage zugesandt werden:
- Guillaume O, Teuschl AH, Gruber-Blum S, Fortelny RH, Redl H, Petter-Puchner A. Emerging Trends in Abdominal Wall Reinforcement: Bringing Bio-Functionality to Meshes. Adv. Healthc. Mater. 2015 Aug 26;4(12):1763-89.
- Petter-Puchner AH, Dietz UA. Biological implants in abdominal wall repair. Br. J. Surg. 2013 Jul;100:987-8. doi: 10.1002/bjs.9156. Epub 2013 May 15.
- De Silva GS, Krpata DM, Gao Y, Criss CN, Anderson JM, Soltanian HT, Rosen MJ, Novitsky YW. Lack of identifiable biologic behavior in a series of porcine mesh explants. Surgery. 2014 Jul;156(1):183-9. doi: 10.1016/j.surg.2014.03.011. Epub 2014 Mar 15.
- Harth KC, Krpata DM, Chawla A, Blatnik JA, Halaweish I, Rosen MJ. Biologic mesh use practice patterns in abdominal wall reconstruction: a lack of consensus among surgeons. Hernia. 2013 Feb;17(1):13-20.
- Pérez-Köhler B, Sotomayor S, Rodríguez M, Gegúndez MI, Pascual G, Bellón JM. Bacterial adhesion to biological versus polymer prosthetic materials used in abdominal wall defect repair: do these meshes show any differences in vitro? Hernia. 2015 Dec;19(6):965-73. doi: 10.1007/s10029-015-1378-1. Epub 2015 Apr 11.
- Mulder IM, Deerenberg EB, Bemelman WA, Jeekel J, Lange JF. Infection susceptibility of crosslinked and non-crosslinked biological meshes in an experimental contaminated environment. Am. J. Surg. 2015 Jul;210(1):159-66.
Zum Schutz persönlicher Daten im Internet – Ergebnisse der EU-weiten Umfrage Eurobarometer 431.
Zum Schutz persönlicher Daten im Internet – Ergebnisse der EU-weiten Umfrage Eurobarometer 431.Fr, 05.02.2016 - 15:05 — Inge Schuster
Vor wenigen Wochen ist der Entwurf einer neuen Europäischen Datenschutz-Grundverordnung finalisiert worden: diese soll den Bürgern mehr Kontrolle über ihre eigenen Daten in einer digitalisierten Welt einräumen und gleichzeitig Klarheit und Rechtssicherheit für Unternehmen bringen. Der Reform war eine EU-weite Umfrage – Spezial Eurobarometer 431: Datenschutz - vorausgegangen, um die Ansichten und Sorgen der EU-Bürger zu verschiedenen Aspekten des Datenschutzes in Erfahrung zu bringen.
Innerhalb nur weniger Jahre hat die Digitalisierung alle Bereiche unseres Lebens durchdrungen und verwandelt unsere Welt nun in rasantem Tempo. Digitale Geräte gehören bereits zur Standardausrüstung eines jeden Haushalts, mit dem Ziel unser Zuhause zu einem „smart home“ und unser Dasein insgesamt angenehmer und bequemer zu machen. Digitale Medien ermöglichen, dass wir uns via Internet orts- und zeitunabhängig mit der ganzen Welt vernetzen, Handel betreiben und jede Art von Information austauschen. Für die Wirtschaft bedeutet dies einen gewaltigen Umbau: globale Optimierung von Produktion, Transport und Handel führen zweifellos zu gesteigerter Effizienz und Produktivität, allerdings bei zunehmendem Ersatz der menschlichen Arbeitskraft durch Automation. Ein enormer Durchbruch ist insbesondere in der Wissenschaft zu erwarten: im Zuge des „Open Access“ werden neueste Forschungsergebnisse öffentlich frei zugänglich gemacht und erfahren schnellste, weltweite Verbreitung. Dies schafft die Basis zu einer neuen Art globaler, transdisziplinärer Zusammenarbeit, bildet die Voraussetzung zu einem gesteigerten kreativen Input und daraus entspringender Innovation siehe (Siehe SB-Artikel v. 29.01.2016: Kreatives Gemeingut – Offener Zugang zu Wissenschaft und Kultur)
Mit einer gesteigerten Nutzung der digitalen Netzwerke für private und berufliche Zwecke wächst allerdings die Sorge um den Schutz der Privatsphäre. Wieweit werden persönliche User-Daten von Internetkonzernen für ihre wirtschaftlichen Zwecke verwertet? Wie steht es um den Datenschutz in der Medizin? Wieweit speichern Regierungen Userdaten, um Terrorismus und organisiertem Verbrechen auf die Spur zu kommen?
Zum Schutz persönlicher Daten gibt es bereits seit 1995 Europäische Datenschutzrichtlinien. Damals war allerdings ein verschwindender Anteil der Europäer im Internet aktiv. Um den rasanten technologischen Entwicklungen und den völlig veränderten Nutzungen einigermaßen Rechnung zu tragen, erfuhren diese Regeln dann laufend Anpassungen. So entstand so ein Flickwerk, das nun durch eine echte Reform ersetzt werden sollte. Nach vier Jahren Diskussion einigten sich die Unterhändler von EU-Kommission, EU-Staaten und Europaparlament im Dezember 2015 schlussendlich auf einen Kompromiss, der nun als Entwurf einer Europäischen Datenschutz-Grundverordnung vorliegt [1]. Voraussichtlich wird diese Grundverordnung im Frühjahr 2016 beschlossen werden und nach einer zweijährigen Übergangszeit in der ersten Jahreshälfte 2018 in Kraft treten. Ihr Ziel wird es sein den Bürgern mehr Kontrolle über ihre eigenen Daten in einer digitalen Welt einzuräumen und gleichzeitig Klarheit und Rechtssicherheit für Unternehmen zu bringen [2].
Um überhaupt die aktuelle Einstellung der EU-Bürger zu verschiedenen Aspekten des Datenschutzes und ihre diesbezüglichen Forderungen kennenzulernen, hatte unmittelbar vor der Finalisierung der Datenschutz-Reform eine EU-weite Umfrage stattgefunden [3]. (Eine frühere Umfrage war bereits 5 Jahre alt). Die Antworten zeugen von der Besorgnis der Europäer um den Schutz ihrer Privatsphäre und scheinen Einfluss auf den Text des Entwurfs gehabt zu haben.
Die Umfrage „Special Eurobarometer 431“
Im Feber/März 2015 wurden rund 28 000 Personen in den 28 EU-Staaten zu wesentlichen Punkten rund um den Datenschutz befragt. Es waren dies persönliche (face to face) Interviews, in denen in jedem Mitgliedsstaat jeweils rund 1000 Personen aus verschiedenen sozialen und demographischen Gruppen in ihrem Heim und in ihrer Muttersprache befragt wurden:
- wie viel Kontrolle jeder Einzelne - seiner Meinung nach - über die von ihm preisgegebenen Informationen im Internet habe,
- welche Einstellung er zur Preisgabe seiner persönlichen Daten im Internet habe,
- Über Rechte und Schutz bei persönlichen Daten,
- Über die Verwaltung persönlicher Daten durch andere Parteien (Behörden, Unternehmen)
1. Zur Kontrolle über persönliche Informationen im Internet
- Die überwiegende Mehrheit (im EU28-Durchschnitt 81 %) der Europäer war überzeugt ihre persönlichen Daten nur unzureichend oder überhaupt nicht kontrollieren zu können; nur 15 % der Befragten glaubten darüber vollständige Kontrolle zu haben. Besonders negativ war die Einstellung der Deutschen Bürger, wo dies nur 4 % der Befragten annahmen. (Abbildung 1).
- Über die fehlende Kontrollierbarkeit ihrer Daten zeigten sich 67 % der Befragten besorgt.
Abbildung 1. Kontrolle über persönliche Daten im Internet. (Basis: 69,4 % der 27 980 Befragten, die bejahten persönliche Daten im Internet anzugeben. Quelle: QB4 [3]).
- Beunruhigt zeigten sich die Europäer auch über Aufzeichnungen ihres Alltagslebens. Die Mehrheit (55 %) darüber, dass ihre Aktivitäten an Hand der Handy-Telefonate und Verwendung von Kreditkarten aufgezeichnet würden. Hinsichtlich der Spuren, die man aus der Nutzung des Internets hinterlässt, war nur etwas mehr als ein Drittel der Befragten unbesorgt. Noch weniger beunruhigt waren sie über die Verfolgung ihres Konsumverhaltens via Kundenkarten oder Restaurantsbesuchen und am wenigsten (allerdings auch noch 33 %) über die Überwachung an öffentlichen Plätzen.
- Enthüllungen in jüngster Zeit hatten erwiesen, dass die Regierungen einiger Länder aus Sicherheitsgründen die persönlichen Daten ihrer Bürger in Massen gespeichert hatten. Erstaunlicherweise hatte im EU28-Durchschnitt nur die Hälfte der EU-Bürger von diesen Geheimdienstüberwachungen gehört, wobei Deutschland (76 %) Österreich (75 %) und Holland (73%) an der Spitze lagen und Bulgarien mit 22 % am unteren Ende. Bei der Mehrzahl derer, die von diesen Vorgängen gehört hatten, wirkte sich dies negativ auf ihr Vertrauen aus.
2. Zur Angabe persönlicher Daten
Hier sollte es darum gehen, wie weit das Preisgeben persönlicher Informationen als notwendig erachtet und in welchem Maße als Problem gesehen würde (Abbildung 2):
- die überwiegende Mehrheit (71 %) der EU-Bürger stimmte zu, dass ein Preisgeben persönlicher Informationen ein Teil des modernen Lebens ist,
- 58 % der EU-Bürger meinten, dass persönliche Informationen unabdingbar wären, um Dienstleistungen oder Produkte zu erhalten
- Persönliche Informationen würden in steigendem Maße auch von staatlicher Seite gefordert (56 % der EU-Bürger),
- 43 % im EU28 Schnitt meinten, dass sie im Internet persönliche Daten angeben müssten
- Für die Mehrzahl (57 %) der EU-Bürger stellte die Angabe persönlicher Daten aber ein großes Problem dar und zwar
- auch dann, wenn sie dafür freie online-Dienste erhalten konnten.
Abbildung 2. Haltung zur Offenlegung persönlicher Daten. Im Vergleich zum EU28-Schnitt haben sich die Österreicher vermehrt mit der Preisgabe von privaten Daten abgefunden. (Quelle: ebs_431_fact_at_de.pdf)
- Die Möglichkeit, dass Internet-Firmen die Information über die online-Aktivitäten der User nutzen, um maßgeschneiderte Angebote zu erstellen lehnte die Mehrzahl (53 %) ab.
- Ein wichtiges Anliegen von 67 % der Befragten ist die Möglichkeit bei einem Providerwechsel persönliche Daten auf den neuen Provider zu übertragen.
3. Rechte und Schutz bei persönlichen Daten
Der bei weitem überwiegende Teil der Europäer war der Ansicht, dass immer die gleichen Rechte und derselbe Schutz für ihre persönlichen Informationen gelten sollte, unabhängig davon, in welchem Land der Dienstanbieter (Privatunternehmer, Behörde) ansässig ist (Abbildung 3 links).
Abbildung 3. Rechte und Schutz bei persönlichen Daten. Die Meinung der Österreicher im Vergleich zum EU28-Durchschnitt (Quelle: ebs_431_fact_at_de.pdf)
Auf die Frage auf welcher Ebene die Bestimmungen zum Schutz persönlicher Informationen durchgesetzt werden sollten, meinten etwa gleichviele EU-Bürger, dass dies auf der EU-Ebene zu geschehen habe und ebenso viele votierten für die nationale Ebene. Etwas mehr österreichische Bürger (12 %) als im EU28-Schnitt (8 %) wollten dies auf regionaler/lokaler Ebene geregelt wissen (Abbildung 3 rechts).
4. Zur Sammlung und Verwendung persönlicher Daten durch Behörden und Privatunternehmen
- Hier war sich der überwiegende Teil (69 %) der Befragten einig, dass ihre explizite Zustimmung erforderlich wäre, bevor noch irgendeine persönliche Information gesammelt und weiterverarbeitet werden dürfte. Nur 5 % fanden dies nicht als notwendig.
- Was hier besonders interessant erscheint: Hinsichtlich des Sammelns und Speicherns persönlicher Daten haben Europäer offensichtlich mehr Vertrauen zu Behörden und Finanzinstitutionen als zu Privatunternehmen. Abbildung 4.
Abbildung 4. Inwieweit vertrauen Sie Behörden und Privatunternehmen, dass diese ihre persönlichen Daten schützen? Österreicher zeigen offensichtlich noch mehr Vertrauen zu behördlichen Institutionen als der EU28-Schnitt. (Quelle: ebs_431_fact_at_de.pdf)
Besonders hoch ist diese Vertrauen in nationale Einrichtungen des Gesundheitswesens, in Sozialversicherungen und Finaninstitutionen, geringer in Institutionen der EU und sehr gering in Internetfirmen, soziale Netzwerke, Suchmaschinen, etc.
(Allerdings ist seit der früheren EU-weiten Umfrage zum Datenschutz im Jahr 2010 das Vertrauen in Behörden und besonders in Finanzinstitutionen gesunken, nicht aber das ohnehin geringere Vertrauen in Privatunternehmen; [3]).
- Rund 70 % der Befragten befürchteten, dass ihre Daten zweckentfremdet verwendet werden.
- Nahezu alle Europäer (91 %) verlangten informiert zu werden, wenn ihre Daten in Verlust geraten oder gestohlen werden sollten und zwei Drittel wünschten, dass diese Information von der öffentlichen Stelle oder dem Privatunternehmen kommen müsste, welche(s) die Daten verwaltet.
- Der Großteil würde sich schwere Sorgen machen, wenn die auf ihrem Computer oder Mobileinrichtungen gespeicherten Daten gestohlen würden.
Abschliessend zu den Befürchtungen über eine mögliche missbräuchliche Verwendung persönlicher Informationen sollte nicht unerwähnt bleiben: nur 20 % der Befragten gaben an, dass sie über das Sammeln von Daten und deren Verwendung voll informiert wären, ebenfalls nur 20 % hatten die entsprechenden Datenschutzbestimmungen ganz durchgelesen. Die Meisten hatten davon abgesehen, hauptsächlich, weil der Text zu lang und/oder unverständlich war.
Fazit
Die Europäer haben akzeptiert, dass sie im digitalen Zeitalter persönliche Daten preisgeben müssen, um am modernen Leben teilzunehmen, um zu kommunizieren, um Informationen und Dienstleistungen über das Internet zu beziehen. Sie sind aber darüber beunruhigt, dass sie ungenügende Kontrolle über ihre persönlichen Daten haben und dass diese zweckentfremdet verwendet werden können. Insbesondere haben sie wenig Vertrauen zu Internetfirmen wie beispielsweise Suchmaschinen. So verlangt der Großteil der Befragten, dass ihr explizites Einverständnis eingeholt wird, bevor noch private Daten gesammelt und verarbeitet werden dürfen. Ob das Regelwerk der neuen Europäischen Datenschutz-Grundverordnung (siehe dazu: Factsheet [4]) ausreichen wird, um die Privatsphäre ihrer Bürger zu schützen und ebenso die Notwendigkeiten staatlicher Institutionen und Interessen der Unternehmer wahrzunehmen, ist abzuwarten.
[1] Proposal for a Regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation) [first reading] - Preparation for trilogue. http://www.statewatch.org/news/2015/dec/eu-council-dp-reg-prep-trilogue-...
[2] EU-Datenschutzreform: Mehr Rechte für Europas Internetnutzer. Pressemitteilung - Grundrechte − 17-12-2015. http://www.europarl.europa.eu/news/de/news-room/20151217IPR08112/EU-Date...
[3] Special Eurobarometer 431. Data Protection . Juni 2015 http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...
[4] Factsheet EU-Datenschutz Neu. http://oegfe.at/wordpress/wp-content/uploads/2015/12/EUDataP_final.pdf
Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän
Radiokohlenstoff als Indikator für Umweltveränderungen im AnthropozänFr, 22.01.2016 - 08:51 — Walter Kutschera
Seit dem Beginn der Industrialisierung nimmt der Mensch einen so massiven Einfluss auf die geologischen, atmosphärischen und biologischen Prozesse der Erde, dass es berechtigt erscheint dafür ein neues Zeitalter, das „Anthropozän“, zu definieren. Als ein wichtiger Indikator für die anthropogenen Einwirkungen dient der Radiokohlenstoff (14C), dessen natürliche Konzentrationen durch fossile Brennstoffe und atmosphärische Kernwaffentests verändert wurden. Mittels ultrasensitiver Messmethoden, an deren Entwicklung der Autor maßgebend beteiligt war, lässt sich so die Dynamik des Austausches von CO2 zwischen Atmosphäre, Hydrosphäre und Biosphäre verfolgen.*
Das Element Kohlenstoff (C) kommt in der Natur in Form der zwei stabilen Isotope 12C (99 %) und 13C (ca. 1 %) und Spuren des instabilen 14C (auf 1 Billion 12C -Atome kommt ein 14C ) vor. 14C entsteht fortwährend durch Kernreaktionen in der Atmosphäre (s.u.) und zerfällt mit einer Halbwertszeit von rund 5 700 Jahren. Ebenso wie die stabilen C-Isotope ist 14C über den Kohlenstoffkreislauf in den CO2-Austausch zwischen Atmosphäre, Biosphäre, Hydrosphäre eingebunden. Es wird über die Photosynthese in Pflanzen eingebaut, abgeatmet und verteilt sich über die Nahrungskette in der gesamten Biosphäre.
In den Jahrmillionen und Aber-Jahrmillionen, in denen es produziert wird, hat das Verhältnis von 14C zu 12C praktisch einen Gleichgewichtszustand erreicht – alle belebte Materie auf der Erde weist in etwa dasselbe Isotopenverhältnis von 14C /12C auf. Beim Tod eines Lebewesens hört aber der Austausch mit der Materie auf, zerfallendes 14C wird nicht mehr ersetzt. Darauf beruht die Altersbestimmung mittels 14C (Radiocarbonmethode), die seit langem in der Archäologie aber auch in anderen Gebieten erfolgreich eingesetzt wird: aus dem abnehmenden Isotopenverhältnis von 14C /12C lässt sich auf den Todeszeitpunkt des biologischen Materials schliessen.
Was ist die Bedeutung von 14C im Anthropozän?
Bei einer Halbwertszeit von 5700 Jahren ist der Zerfall von 14C viel zu langsam, als dass er in der erst sehr kurzen Zeitspanne des Anthropozän (für die manche Wissenschaftler etwa 200 Jahre ansetzen) eine Bedeutung für Altersbestimmungen hätte. Es gibt aber zwei menschliche Aktivitäten, die das Isotopenverhältnis von 14C /12C in charakteristischer Weise geändert haben, nämlich:
- die atmosphärischen Kernwaffentests in den Jahren 1950 bis 1963 und
- die Emissionen von CO2 durch Verfeuerung fossiler Brennstoffe, die seit ungefähr 1900 andauern.
14C wird damit zu einem außerordentlichen Spurenisotop für Veränderungen der Umwelt im Anthropozän; seine Bestimmung erlaubt eine Vielzahl von Anwendungen, von denen einige klimarelevant sind, andere überraschende Untersuchungen in der Biologie ermöglichen [1].
Der 14C-Bombenpeak
Die Bilder von den oberirdischen Atombombenexplosionen gingen um die Welt; der Pilz, der beim ersten Wasserstoffbombentest der Amerikaner entstand und bis in die Stratosphäre hinaufstieg, wurde berühmt.
Abbildung1. Der erste Wasserstoffbombentest der USA im Pazifik am 1. November 1952. Das Schema rechts zeigt die Entstehung des radioaktiven Kohlenstoffisotops 14C durch Bombardierung des Stickstoffs 14N mit Neutronen, die durch kosmische Strahlung oder bei der Bombenexplosion entstehen. (Bild aus [1])
Wie in Abbildung 1 angedeutet, entsteht 14C auf natürliche Weise, durch die hochenergetische kosmische Strahlung, die permanent auf die Teilchen in der Atmosphäre herabprasselt und deren Atomkerne zerbricht. Dabei werden Neutronen (n) freigesetzt, die den atmosphärischen Stickstoff 14N in 14C umwandeln, wobei auch noch ein Proton (p) freigesetzt wird. Neutronen, die von Kernexplosionen kommen, machen genau dasselbe, sie erzeugen ebenfalls 14C.
Gleichgültig ob 14C durch Bombentests oder kosmische Strahlung generiert wurde, wird es in gleicher Weise in der Atmosphäre zu 14CO2 oxydiert, das sich einerseits gut in der Hydrosphäre löst (man denke an Bier und Sodawasser) und andererseits über die Photosynthese in die Pflanzen und über die Nahrungskette letztlich in die gesamte Biosphäre gelangt. Das führt dazu dass wir alle 14C in unseren Körpern haben, die älteren von uns zusätzlich auch 14C von den Bombentests. Dies kann genutzt werden, um fundamentale Rückschlüsse über die Erneuerungsraten unserer Körperzellen zu ziehen [1].
Zum 14C /12C Gleichgewicht im CO2 unserer Luft vor 1950 liegen Daten aus den Jahresringen von Bäumen vor, deren Alter genau bekannt ist. Diese zeigen, dass in den letzten 4 000 Jahren vor dem Einsetzen der Bombentests nur geringfügige Schwankungen von wenigen Prozent stattgefunden haben. Die Tests haben das atmosphärische 14CO2 aber um 100 Prozent – auf das Doppelte – ansteigen lassen (Abbildung 2).
Abbildung 2. Der 14C Bombenpeak. Als Folge der oberirdischen Bombentests stieg das 14CO2 in der Atmosphäre an: auf das Doppelte in der Nordhalbkugel und um 60 % auf der Südhalbkugel, wo weniger Tests stattfanden. Nach Ende der Tests glichen sich die 14CO2 Werte in beiden Hemisphären sehr schnell an. (Bild aus [1])
Die Älteren unter uns erinnern sich wohl noch daran, dass die Großmächte USA und UdSSR und Großbritannien sich 1963 einigten, die Atomwaffentests in der Atmosphäre einzustellen (die Einigung kam trotz des damals herrschenden, überaus bedrohlichen kalten Krieges zustande – man hat wohl die Folgen des radioaktiven Ausfalls noch mehr gefürchtet). Seit diesem Teststopp fällt das 14C in der Luft nun wieder ab – nicht auf Grund des radioaktiven Zerfalls, der ja in der kurzen Zeitspanne praktisch nicht ins Gewicht fällt, sondern durch die Austauschvorgänge des Kohlenstoffs zwischen Atmosphäre, Biosphäre, Hydrosphäre und Lithosphäre. Ein für die globale Verwendung von 14C sehr wichtiger, aus Abbildung 2 ersichtlicher Befund: die Austauschvorgänge in der Atmosphäre erfolgen sehr rasch: der wesentlich höhere 14CO2 Anstieg auf der Nordhemisphäre (dort fanden ja die Haupttests statt) und der niedrigere Anstieg auf der Südhalbkugel haben sich nach Ende der Tests in wenigen Jahren angeglichen.
Fossile Brennstoffe reduzieren das 14C /12C Verhältnis
Seit dem Beginn der Industrialisierung ist der CO2 -Gehalt der Atmosphäre stetig angestiegen, wobei die Nutzung fossiler Brennstoffe ein wesentlicher Mitverursacher der anthropogenen Emissionen ist. Messungen, die seit fast 60 Jahren auf Hawaii durchgeführt werden, machen es deutlich: das System Erde kann die steigenden CO2 -Emissionen nicht mehr schnell genug aufnehmen/umsetzen: Wenn in der Vegetationsperiode durch Photosynthese Biomasse aufgebaut wird (auf der Nordhalbkugel im Frühjahr), führt dies zu einer nur teilweisen Senkung der vorangegangenen CO2 –Emissionen und damit kommt es zur fortlaufenden Steigerung des CO2 – Gehalts in der Luft. Global bleibt etwa die Hälfte des durch menschliche Aktivitäten emittierten CO2 in der Luft (pro Jahr steigt dadurch der CO2-Gehalt um etwa 0.5 %).
Nun sind fossile Brennstoffe bereits so alt, dass alles ursprünglich darin enthaltene 14C schon zerfallen ist. Bei der Verfeuerung dieser Brennstoffe reduzieren wir damit das 14C /12C-Verhältnis und dies nicht nur in der Atmosphäre. Es handelt sich ja um ein dynamisches System, in welchem CO2 ständig zwischen Atmosphäre, Biosphäre und Hydrosphäre ausgetauscht wird. Mit hochpräzisen Bestimmungen des 14C/12C-Verhältnis kann man diese Austauschprozesse verfolgen: man findet beispielsweise, dass etwa ein Fünftel des atmosphärischen CO2 jährlich in die Biosphäre und Hydrosphäre geht und wieder zurückkommt. Man untersucht auch das Eindringen von CO2 in die Tiefe des Ozeans und damit die Dynamik der Meeresströmungen (dies soll weiter unten beschrieben werden) und bestimmt auch die Anteile und den Transport von fossilen Brennstoffen in Aerosolen.
Je nachdem wie sich der CO2–Gehalt in der Atmosphäre weiter entwickeln wird (der 14C-Überschuss vom Bombenpeak beträgt heute nur noch wenige Prozent), kann dies zu einem Problem für die Altersbestimmung mittels 14C werden: ein durch den fossilen Eintrag stark reduziertes 14C /12C-Verhältnis kann ein wesentlich höheres Alter einer Probe vortäuschen.
Höchstempfindliche 14C-Bestimmung mit der „Atomzählmaschine“
Vor 70 Jahren hat Williard F. Libby den Grundstein für die Altersbestimmung mittels der Radiocarbonmethode gelegt (dafür wurde er 1960 mit dem Nobelpreis für Chemie ausgezeichnet), wobei 14C über seinen radioaktiven Zerfall (Beta-Zerfall) gemessen wurde. Dies war mühsam und man brauchte dazu ziemlich große Probemengen: wegen der langen Halbwertszeit von 5 700 Jahren zerfällt von den 60 Millionen 14C –Atomen, die in 1 mg reinem, modernem Kohlenstoff enthalten sind, bloß etwa 1 Atom in der Stunde.
In den späten 1970er Jahren kam eine neue Methode- die Beschleunigermassenspektrometrie (AMS = Accelerator Mass Spectrometry) - auf, die eine Revolution in der 14C-Messung bedeutete. Seitdem lassen sich die Kohlenstoffisotope aufgrund ihrer unterschiedlichen Massen (diese sind durch je 6 Protonen aber 6, 7 oder 8 Neutronen bestimmt) voneinander und auch vom 14-Stickstoff (besteht aus 7 Protonen und 7 Neutronen) separieren. Anstatt die wenigen radioaktiven Zerfälle zu zählen, ist es nun möglich 14C –Atome direkt zu zählen. Von den oben genannten 60 Millionen 14C –Atomen je mg Kohlenstoff können wir mit der AMS 1,2 Millionen in 1 Stunde zählen. Gegenüber der Zählung der radioaktiven Zerfälle bedeutet dies eine Steigerung der Nachweisempfindlichkeit um eine Million. Da die früher notwendige Probengröße von mehreren Gramm Kohlenstoff auf Milligramme, ja sogar Mikrogramme reduziert werden kann, eröffnen sich völlig neue Anwendungsmöglichkeiten.
VERA (Vienna Environmental Research Accelerator)
Die Anlagen, mit denen man derartige Atomzählungen ausführen kann, sind natürlich wesentlich komplizierter als die Detektoren für radioaktive Strahlung (ursprünglich Geiger-Zählrohre). Eine derartige Anlage – VERA - steht an der Universität in Wien, misst stolze 200 m² und feiert heuer bereits ihren 20. Geburtstag (Abbildung 3).
Abbildung 3. Stark vereinfachtes Schema der Beschleunigermassenspektrometrie (AMS). Das Prinzip der Massenspektrometrie, erweitert um einen Beschleuniger und mehrfache Ionenstrahlanalysen, ermöglicht die Separierung und Quantifzierung von 0,00000000012 % 14C aus wenigen mg bis hin zu Mikrogramm modernem Kohlenstoff. Darunter: VERA - der Tandem-Beschleuniger. Ausschnitt aus der 200 m² grossen Anlage an der Universität Wien.
Wir messen hier nicht nur 14C, sondern auch viele andere natürlich vorkommende und vom Menschen erzeugte Isotope, auch solche, die über Radioaktivitätsmessungen nicht nachweisbar wären. Eine unserer wichtigen Anwendungen ist übrigens die Trennung des 239-Plutonium vom 240-Plutonium: das Verhältnis der beiden Isotope zueinander zeigt uns, ob das Material aus einem Kernreaktor kommt oder Atombombenmaterial ist.
Weltweit gibt es heute etwa 100 derartige „Atomzählmaschinen“, etwa die Hälfte davon wird ausschließlich zur 14C –Bestimmung eingesetzt. Die modernsten derartigen Systeme sind auf Grund technologischer Verbesserungen in ihren Dimensionen stark geschrumpft. Das derzeit kompakteste System, das „Mini Carbon Dating System“ – MICADAS – wurde an der ETH Zürich entwickelt und nimmt bei gleicher Nachweisempfindlichkeit wie VERA nur mehr rund 7.5 m² Fläche ein. Interessanterweise wird eine so kleine Anlage von einer amerikanischen Pharmafirma eingesetzt um mit 14C markierte Medikamente am Menschen auszutesten. Infolge der enormen Nachweisempfindlichkeit können derart niedrige Radioaktivitäten eingesetzt werden, dass keine zusätzliche Strahlenbelastung entsteht. In diesem Zusammenhang ist interessant zu erwähnen, dass der natürliche 14C-Gehalt im Menschen zu 3 000 bis 4 000 radioaktiven Zerfällen pro Sekunde führt (je nach Gewicht enthält der menschliche Körper 12 bis 16 kg organischen Kohlenstoff). Da diese Zerfälle das ganze Leben hindurch stattfinden, haben wir offenbar geeignete Reparaturmechanismen im Körper entwickelt, die mit den dadurch verursachten Strahlenschäden umgehen können.
Die Untersuchung des Anthropozän mittels der 14C-Sprache
Wie eingangs beschrieben verändern anthropogene Aktivitäten (Verfeuerung fossiler Brennstoffe, atmosphärische Kernwaffentests) das 14C /12C-Verhältnis im Ökosystem Erde, da ja 14C über den CO2‐Kreislauf in den Austausch zwischen Atmosphäre, Biosphäre und Hydrosphäre eingebunden ist. Die rasche und hochsensitive Bestimmung des 14C /12C-Verhältnisses mittels AMS, die auch Hochdurchsatzmessungen erlaubt, zeigt die Dynamik sowohl der Transportprozesse in den einzelnen Geosphären und als auch des Austausches zwischen diesen auf. Auf Grund der minimal benötigten Probenmengen gelingen (nahezu) zerstörungsfreie Untersuchungen auch heikelster Proben.
Eine Reihe dieser, für das Anthropozän relevanter, Forschungsrichtungen ist in Abbildung 4 dargestellt.
Abbildung 4. 14C –Bestimmungen mittels Beschleunigermassenspektrometrie (AMS) zur Erfassung anthropogener Einwirkungen auf alle Bereiche der Geosphäre.
Von diesen Forschungsrichtungen sollen hier zwei besonders hervorgehoben werden: i) die Datierung von Körperzellen an Hand des 14C-Bombenpeaks und ii) die Erfassung der Strömungen im Ozean.
Zur Datierung von Körperzellen
Da alle in den letzten 50 Jahren lebenden Menschen mit dem 14C-Bombenpeak „markiert“ wurden, zeigt das 14C /12C-Verhältnis in der DNA von Körperzellen an, wann sich diese das letzte Mal geteilt haben. Die Kenntnis der Erneuerungsrate von Zellen ist nicht nur für die (regenerative) Medizin von fundamentaler Bedeutung. Zu diesem Thema wurde in diesem Blog bereits berichtet [1].
Strömungen in den Weltmeeren und das Klima
Ozeane bedecken ⅔ unserer Erdoberfläche; sie transportieren Wärme von den Gebieten am Äquator in die höheren Breiten, haben damit enormen Einfluss auf das Klima und geben unserer Erde das heutige Aussehen. Um die weitere, globale Entwicklung des Klimas modellieren und prognostizieren zu können, ist ein Verstehen der Strömungen in den Ozeanen – und zwar in drei Dimensionen – äußerst wichtig.
Messungen des 14C /12C-Verhältnis an den Oberflächen und in den Tiefen der Ozeane haben bereits in den frühen 1970er Jahren begonnen, noch bevor es die AMS Technik gab. Man hat an repräsentativen Stellen der Ozeane jeweils an der Oberfläche und in 3 000 m Tiefe gemessen, wobei man für eine einzige 14C –Bestimmung 250 l Wasser benötigte. Aus den Altersunterschieden von Oberflächen- zu Tiefenwässern (im Atlantik 250 Jahre, im Pazifik bis zu 3 000 Jahre) konnte ein erstes, einfaches Bild davon entworfen werden, was mit den Wassermengen im Ozean geschieht. Dieses als „Großes Ozeanisches Förderband (Great Ocean Conwayer)“ benannte System zeigt Zirkulationsströme, die alle Ozeane miteinander verbinden: das warme Wasser, das in den äquatorialen Ebenen an der Oberfläche gebildet wird, strömt nach Norden, kühlt sich dort ab, wird dichter, sinkt in die Tiefe und kommt im indischen Ozean und im Pazifik wieder an die Oberfläche (Abbildung 5).
Abbildung 5. Das Große Ozeanische Förderband. Die kalten Tiefenströmungen sind blau, die warmen Oberflächenströmungen rot eingezeichnet. (modifiziert nach: http://oceanservice.noaa.gov/education/tutorial_currents/05conveyor2.html)
Dieses Bild verbessert sich seit der Anwendung der AMS-Technik: für eine 14C –Bestimmung wird nur ein halber Liter Wasser benötigt und Hochdurchsatzverfahren, beispielsweise an der National Ocean Sciences AMS-Anlage am Woods Hole Oceanographic Institution (Boston) erlauben tausende und abertausende Messungen. Das international Projekt “World Ocean Circulation Experiments (WOCE)[2]” hat über 13 000 Wasserproben der großen Weltmeere auf 14C analysiert und daraus eine ungeheure Fülle an Informationen über Meeresströmungen erhalten. Um diese in Modellrechnungen zum Treibhauseffekt/Klimawandel einfließen zu lassen, müssen natürlich auch die Anteile der durch fossile Brennstoffe verringerten 14CO2-Gehalte berücksichtigt werden.
Fazit
Die rasche und hochsensitive Bestimmung des 14C /12C-Verhältnisses mittels AMS erlaubt es unsere Umwelt und unseren Organismus in bisher nicht gekannter Weise zu erforschen und anthropogene Einwirkungen zu erfassen.
* Einen Vortrag mit ähnlichem Inhalt hat Walter Kutschera anlässlich des Symposiums der Kommission für Geowissenschaften der ÖAW „Anthropozän. Ein neues Erdzeitalter?“ am 7. Dezember 2015 gehalten.
[1] Walter Kutschera (04.10.2013): The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks. http://www.scienceblog.at/ugly-and-beautiful-%E2%80%94-datierung-menschl....
[2] Ocean Circulation and Climate. World Ocean Climate Experiment. WOCE Report No. 154/97. http://www.nodc.noaa.gov/woce/wdiu/wocedocs/brochure97.pdf (free access)
Weiterführende Links
Zur Radiocarbon-Datierung:
Walter Kutschera: Das Sortieren von Atomen „One by One“. Physik in unserer Zeit / 31. Jahrg. 2000 / Nr. 5, 203-208. http://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.220/lehre/Atom... (free download)
MICADAS: präzise Radiocarbonmessungen (Universität Bern) Video 3:26 min. https://www.youtube.com/watch?v=UVtaAjVdzSc
C14-Datierung / Radiokarbonmethode, Einführung & Schritte Video 16:13 min; https://www.youtube.com/watch?v=5KaKDPDYRmA
Harald Lesch: Wie bestimmt man das Alter von Gesteinen? Youtube Video 14:33 min http://www.youtube.com/watch?v=OqVLyt06zds
How Does Radiocarbon Dating Work? - Instant Egghead #28. Video 2:0 min (englisch) https://www.youtube.com/watch?v=phZeE7Att_s
Carbon Dating: (How) Does It Work? Video 10:59 min (englisch) https://www.youtube.com/watch?v=udkQwW6aLik
Zu Ozean/Strömungen/Klima
NASA | The Ocean: A Driving Force for Weather and Climate. Video 6 min. (englisch)https://www.youtube.com/watch?v=6vgvTeuoDWY
Peter Lemke (06.11.2015): Klimaschwankungen, Klimawandel – wie geht es weiter. http://www.scienceblog.at/klimaschwankungen-klimawandel-wie-geht-es-weiter#.
World Ocean Reviews: http://worldoceanreview.com/ (Hsg. :„Ozean der Zukunft“- Kieler Exzellenzcluster, International Ocean Institute (IOI), „mare“ ; freier download). Bis jetzt sind sehr empfehlenswerte 4 Ausgaben erschienen, die umfassend und profund über den Zustand der Weltmeere und die Wirkungszusammenhänge zwischen dem Ozean und ökologischen, ökonomischen und gesellschaftspolitischen Bedingungen berichten.
1. Mit den Meeren leben – ein Bericht über den Zustand der Weltmeere. http://worldoceanreview.com/wor-1/
2. Die Zukunft der Fische – die Fischerei der Zukunft. http://worldoceanreview.com/wor-2/
3. Rohstoffe aus dem Meer – Chancen und Risiken. http://worldoceanreview.com/wor-3-uebersicht/
4. Der nachhaltige Umgang mit unseren Meeren – von der Idee zur Strategie. http://worldoceanreview.com/wor-4-uebersicht/
Die Evolution des Geruchssinnes bei Insekten
Die Evolution des Geruchssinnes bei InsektenFr, 15.01.2016 - 08:55 — Ewald Grosse-Wilde & Bill S.Hansson
Der Geruchssinn ist für die meisten Insekten von zentraler Bedeutung. Wie dieser das Verhalten von Insekten steuert und auf welchen neurobiologischen Grundlagen dies beruht, wird am Max-Planck Institut für Chemische Ökologie (Jena) sowohl aus einer funktionellen als auch aus einer evolutionstheoretischen Perspektive untersucht. Bisher hatte man angenommen, dass die wichtigste, dem Geruchsinn zugrunde liegende Rezeptorfamilie, die sogenannten olfaktorischen Rezeptoren, in der Evolution im Zuge des Landganges entstanden ist. Neueste Untersuchungen der Autoren an flügellosen Insekten zeigen nun aber, dass dies nicht der Fall ist. Wahrscheinlich war der entscheidende Faktor nicht der Landgang, sondern der Flug: Fliegende Insekten müssen Duftfahnen in weit höherer Geschwindigkeit auflösen können, wofür die älteren Rezeptorfamilien wahrscheinlich nicht ausreichten *
Der Geruchssinn ist für die meisten Insekten von zentraler Bedeutung. Bisher hat man angenommen, dass die wichtigste, ihm zugrunde liegende Rezeptorfamilie, die sogenannten olfaktorischen Rezeptoren, in der Evolution im Zuge des Landganges entstanden ist. Neueste Untersuchungen an flügellosen Insekten haben nun aber gezeigt, dass dies nicht der Fall ist. Wahrscheinlich war der entscheidende Faktor nicht der Landgang, sondern der Flug: Fliegende Insekten müssen Duftfahnen in weit höherer Geschwindigkeit auflösen können, wofür die älteren Rezeptorfamilien wahrscheinlich nicht ausreichten.
Der Geruchssinn – ein Wunder der Evolution
Der Geruchssinn ermöglicht es Tieren, die chemischen Eigenschaften ihrer Umgebung aus der Distanz wahrzunehmen. Dadurch ist es unter anderem möglich, Beutetiere oder Blütenpflanzen aufzuspüren, faulende Futterquellen zu vermeiden oder auch – über sogenannte Pheromone – mit Artgenossen zu kommunizieren, zum Beispiel bei der Partnerwahl.
Aufgrund der Vielseitigkeit des Geruchssinnes ist dieser häufig an einer Vielzahl wichtiger Verhaltensweisen beteiligt. Dabei ist interessant, dass die Bedeutung bestimmter Duftquellen je nach Tierart stark wechselt. So ist z. B. verwesendes Fleisch sehr wichtig für einen Aasfresser, aber ohne besondere Bedeutung für eine Honigbiene und gar abstoßend für den Menschen. Dementsprechend gibt es sehr starke Unterschiede zwischen den Arten, sowohl bezüglich der Detektion von Duftmolekülen als auch bei deren Interpretation.
Zur Detektion werden je nach Art einige Dutzend bis über tausend Rezeptoren eingesetzt, wobei die große Zahl auch im Vergleich zu anderen Sinnen – das Sehen beim Menschen benötigt nur drei – schon die Sonderstellung des Geruchsinnes verdeutlicht.
Olfaktorische Rezeptoren – eine Anpassung an das Leben an Land?
Besonders wichtig ist der Geruchssinn für viele Insektenarten, wo er häufig sogar wichtiger ist als die visuelle Wahrnehmung. In der Insektenantenne befinden sich Neuronen, in deren Membran Rezeptorproteine sitzen. Dabei werden zwei wichtige Rezeptortypen unterschieden (Abbildung 1).
Abbildung 1: Schematische Darstellung der Geruchsrezeptorproteine von Insekten. Oben: Der Komplex von olfaktorischen Rezeptoren mit deren Korezeptor: in braun der eigentliche Duftstoff detektierende (olfaktorische) Rezeptor. Dieser bildet mit dem Korezeptor (gelb) einen funktionellen Komplex in der Nervenzellmembran. Unten: Ionotrope Rezeptoren. Diese liegen ebenfalls in Komplexen aus ionotropen Rezeptoren (blau) und Korezeptoren (grün) vor, allerdings sind diese Proteine deutlich anders strukturiert als die olfaktorischen Rezeptoren; sie sind zum Beispiel anders in die Membran eingebettet, nämlich mit drei Transmembran-Domänen statt sieben. Ebenfalls dargestellt sind die für ionotrope Rezeptoren typischen Domänen außerhalb der Zelle, die den olfaktorischen Rezeptoren ganz fehlen. Abgeändert aus [7]. © Max-Planck-Institut für chemische Ökologie/Wicher
Zum einen gibt es antennale ionotrope Rezeptoren (IR):
Sie sind evolutionär viel älter als Insekten und dort in einer geringen Anzahl vorhanden. Neben Insekten kommen sie unter anderem auch in Schnecken vor [1].
Von besonderer Bedeutung ist der zweite Typ von Rezeptoren, die sogenannten olfaktorischen Rezeptoren (OR).
Zuerst wurden diese in der Taufliege Drosophila melanogaster entdeckt, wo es etwa 60 dieser Rezeptoren gibt. Dabei weisen diese Rezeptoren mehrere einzigartige Merkmale auf:
- Sie sind von außerordentlicher Variabilität, die ihrer Aufgabe entspricht, eine große Anzahl chemisch sehr unterschiedlicher Duftstoffe zu binden.
- Sie weisen einen eigenen Korezeptor auf, ein Protein das mit dem eigentlichen Rezeptor im Komplex vorliegt. Dieser Korezeptor dient der Signalweiterleitung und Signalverstärkung; er agiert im Komplex mit dem eigentlichen Rezeptor. Die Bindung eines Duftstoffes an den olfaktorischen Rezeptor aktiviert eine intrazelluläre Signalkaskade und kann bei hinreichender Konzentration den durch den Rezeptor gebildeten Kanal öffnen, durch den ein Ionenstrom fließt [2]. Die intrazellulären Signalprozesse können die Empfindlichkeit erhöhen, indem der Korezeptor aktiviert wird [3]. Der Korezeptor ist im Gegensatz zu den eigentlichen Rezeptoren stark konserviert; es gibt einen Korezeptor in jeder Insektenart und zwischen den Arten sind die Korezeptor-Proteine sehr ähnlich [4].
In den Jahren nach der ursprünglichen Entdeckung der olfaktorischen Rezeptoren wurden die zugehörigen Gene in einer Vielzahl von Insekten gefunden. Schnell stellte man fest, dass diese Rezeptoren nur in Insekten zu finden waren und nicht in anderen Kerbtieren, wie z. B. dem Wasserfloh Daphnia pulex. Es wurde die Hypothese aufgestellt, dass die olfaktorischen Rezeptoren im Verlauf der Evolution entstanden sind, als die Vorfahren der heutigen Insekten an Land gegangen sind [5]. Da Luft, im Vergleich zu Wasser, ganz andere Stoffe aufnehmen und deutlich schneller transportieren kann, wurde angenommen, dass die olfaktorischen Rezeptoren vor allem notwendig wurden, um der Herausforderung durch diese stark veränderte Verfügbarkeit an Duftmolekülen zu begegnen.
Flügellose Insekten…
Die Abteilung Evolutionäre Neuroethologie hat in Zusammenarbeit mit der Abteilung Entomologie sowie der Universität Gießen jetzt diese Hypothese überprüfen können. Es wurden moderne physiologische und molekularbiologische Methoden eingesetzt, um basale flügellose Insekten zu untersuchen. Dabei handelte es sich zum einen um Felsenspringer der Art Lepismachilis y-signata, zum anderen um das Ofenfischchen Thermobia domestica, einen Verwandten des Silberfischchens (Abbildung 2). Diese beiden Gruppen, Felsenspringer und Fischchen, haben sich vor mehr als 350 Millionen Jahren von den anderen Insekten getrennt, die Felsenspringer dabei etwas früher. Im Gegensatz zu anderen Insekten haben beide keine Flügel, können also nicht fliegen.
Abbildung 2: Das Ofenfischchen Thermobia domestica. Diese flügellosen Insekten weisen keine olfaktorischen Rezeptoren auf, was die Vermutung unterstützt, dass diese Rezeptoren erst zusammen mit der Entstehung fliegender Insektenarten entstanden sind. © Max-Planck-Institut für chemische Ökologie/Schroll
…und ihr Geruchssinn
Die Forscher haben zeigen können, dass beide Arten etwa ein Dutzend funktionell unterschiedliche olfaktorische Neuronentypen auf der Antenne besitzen. Dies ist viel weniger als bei bisher untersuchten geflügelten Insektenarten, welche meist 50 bis 60, in bestimmten Fällen mehrere hundert funktionell unterschiedliche Neuronentypen aufweisen. Weiterhin konnten bei beiden Arten nur antennale ionotrope Rezeptoren (IR) gefunden werden, welche im Felsenspringer in wahrscheinlich allen olfaktorischen Neuronen aktiv sind. Olfaktorische Rezeptoren wurden nicht gefunden. Anscheinend ist der Geruchssinn dieser Arten allein über antennale ionotrope Rezeptoren realisiert.
Dies legt nahe, dass die gemeinsamen Vorfahren beider Gruppen ebenfalls keine olfaktorischen Rezeptoren besaßen. Wahrscheinlich sind die olfaktorischen Rezeptoren erst sehr lange nach dem Landgang erschienen, vermutlich zu der Zeit, als Insekten nicht das Land sondern die Luft eroberten, also anfingen zu fliegen [6]. In der Luft liegen Duftstoffe in Filamenten vor, ähnlich wie Zigarettenrauch. Die Erkennung der Richtung, aus der der Duft kommt, erfolgt also durch Integration eines Signales, das in einem bestimmten Takt auf der Antenne ankommt. Bei fliegenden Tieren ist der Takt schneller und aufgrund der hohen Geschwindigkeit sind niedriger konzentrierte Düfte von weiter entfernten Quellen interessanter als für nicht-fliegende Tiere.
Die Forscher haben allerdings auch eine Überraschung erlebt: Das Ofenfischchen besitzt, in großem Kontrast zu anderen Insekten, zwar keine olfaktorischen Rezeptoren, aber gleich mehrere Proteine, die stark dem Korezeptor ähneln. Diese Ähnlichkeit ist sogar sehr hoch, dennoch fehlen den meisten dieser Proteine einzelne funktionelle Bereiche eines klassischen olfaktorischen Korezeptors. Dies betrifft vor allem Bereiche, die in den geflügelten Insekten im Zusammenspiel mit dem eigentlichen olfaktorischen Rezeptor notwendig sind. Die Forscher spekulieren daher, dass der Korezeptor nicht zusammen mit den olfaktorischen Rezeptoren entstanden ist, sondern ursprünglich einem anderen Zweck diente und erst in den geflügelten Insekten zu den olfaktorischen Rezeptoren fand und mit ihnen einen Komplex einging. In den Fischchen gingen die Korezeptoren einen anderen Weg, den es noch aufzuklären gilt [6].
Fazit
Für die meisten Insekten ist der Geruchssinn überaus wichtig. Die ihm zugrunde liegende wichtigste Rezeptorfamilie, die olfaktorischen Rezeptoren, sind aber anscheinend nicht in den ersten, flügellosen Insekten entstanden. Sie stellen also keineswegs eine Anpassung an den Landgang dar. Vielmehr sind sie wahrscheinlich notwendig geworden, als fliegende Insekten Düfte auch bei hoher Geschwindigkeit wahrnehmen mussten.
* Der gleichnamige, im Jahrbuch der Max-Planck Gesellschaft 2015 erschienene, Artikel http://www.mpg.de/8878225/MPICOE_JB_20151?c=9262520 wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert. Die größtenteils nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.
Literaturhinweise
- Croset, V. et al., Ancient Protostome Origin of Chemosensory Ionotropic Glutamate Receptors and the Evolution of Insect Taste and Olfaction. PLoS Genetics 6, e1001064 (2010)
- Touhara, K.; Vosshall, L. B. Sensing odorants and pheromones with chemosensory receptors Annual Review Physiology 71, 307–32 (2009)
- Wicher, D. Sensory receptors-design principles revisited. Frontiers in Cellular Neuroscience 7, 1 (2013)
- Krieger, J. et al. A candidate olfactory receptor subtype highly conserved across different insect orders. Journal of Comparative Physiology A 189, 519–526 (2003)
- Robertson, H. M. et al., Molecular evolution of the insect chemoreceptor gene superfamily in Drosophila melanogaster. Proceedings of the National Academy of Sciences USA 100 Suppl. 2, 14537–14342 (2003)
- Missbach, C. et al. Evolution of insect olfactory receptors. eLife 3:e02115 (2014)
- Croset, V. et al. Ancient Protostome Origin of Chemosensory Ionotropic Glutamate Receptors and the Evolution of Insect Taste and Olfaction. PLoS Genetics 6, e1001064 (2010)
Weiterführende Links
Im Scienceblog sind bereits zahlreiche Artikel über Sinneswahrnehmungen erschienen, die unter: Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt gelistet sind.
Passend zum Thema des gegenwärtigen Artikels:
- Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren
- Ein dreiteiliger Artikel von Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren
- Bill S. Hansson: Täuschende Schönheiten
- Gottfried Schatz: Meine Welt – Warum sich über Geschmack nicht streiten lässt
Videos:
- Bill Hansson: caesarium: Sex, bugs & push'n'pull - Exkurs in den Geruchssinn der Insekten (2015) 1:20:26
- Geruchssinn - Biosensor Nase, Max Planck Gesellschaft, 3:15 min
Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung
Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite StromerzeugungFr, 08.01.2016 - 10:44 — IIASA
Die Auswirkungen des Klimawandels auf Flüsse und Ströme könnten die Kapazitäten der Stromerzeugung weltweit enorm reduzieren. Wissenschafter am Internationalen Institut für Angewandte Systemanalyse (IIASA) und an der Universität Wageningen haben zum ersten Mal die Zusammenhänge zwischen Klimawandel, Wasserressourcen und Stromerzeugung auf globaler Ebene untersucht (basierend auf Daten zu mehr als 24 000 Wasserkraftwerken und 1400 thermoelektrischen Kraftwerken). Die eben erschienene Studie ruft zu verstärkten Anpassungsmaßnahmen an die Veränderungen auf, um die Energieversorgung in Zukunft zu gewährleisten.*
Die Auswirkungen des Klimawandels und die damit einhergehenden Änderungen der Wasserressourcen könnten im Zeitraum 2040 -2069 die Stromerzeugungskapazität von mehr als 60 % der globalen Kraftwerke reduzieren. Zu diesem Schluss kommt eine Studie aus der Gruppe um Michelle van Vliet (IIASA und Universität Wageningen), die eben im Journal Nature Climate Change erschienen ist[1]. Anpassungsmaßnahmen, die auf die Steigerung von Wirkungsgrad und Flexibilität der Kraftwerke abzielen, könnten diese Reduktion aber wesentlich abschwächen.
Wasserkraftwerke ebenso wieWärmekraftwerke – Kraftwerke, die thermische Energie aus fossilen Brennstoffen, Biomasse oder Kernkraft in Strom umwandeln – sind auf das Wasser aus Flüssen und Strömen angewiesen. Bei Wärmekraftwerken spielt zudem die Temperatur des Kühlwassers eine ganz wesentliche Rolle (Abbildung 1).
In Summe stellen heute Wasser- und Wärmekraftwerke 98 % der globalen Stromproduktion bereit, wobei Wärmekraftwerke in den meisten Regionen der Erde als Energielieferanten dominieren. Dies wird wahrscheinlich auch das 21. Jahrhundert über so bleiben, auch wenn Solar- und Windkraftwerke rasch zunehmen.
Abbildung 1. Wasserkraftwerke (oben) und ebenso Wärmekraftwerke (unten) sind auf Fließgewässer angewiesen. (Bilder: Wikipedia, gemeinfrei)
Modellprojektionen zeigen, dass der Klimawandel Auswirkungen auf die Verfügbarkeit der Wasserressourcen haben wird und in vielen Regionen der Erde zur Erhöhung der Wassertemperatur führen wird.
Bereits in einer früheren Untersuchung, die sich auf Europa und die USA bezog, hatten van Vliet et al. darauf hingewiesen: der mit dem Klimawandel einhergehende Wassermangel in den Sommermonaten und die höheren Wassertemperaturen könnten die Energieversorgung aus Wärmekraftwerken entscheidend reduzieren [2].
Die neue Studie basiert nun auf einem hydrologischen Modell, dem weltweite Daten von 24 515 Wasserkraftwerken und 1427 thermoelektrischen Kraftwerken zugrundeliegen. „Es ist das erste Mal, dass die Zusammenhänge zwischen Klimawandel, Wasserressourcen und Stromerzeugung auf globaler Ebene hier untersucht werden. Wir zeigen ganz klar, dass Kraftwerke nicht nur zum Klimawandel beitragen, sondern, dass sie durch diesen auch massiv beeinträchtigt werden können“ sagt der Direktor des IIASA Energie Programms, der auch Koautor der Studie ist.
Zu den gefährdeten Regionen zählen insbesondere die USA, das südliche Südamerika, Südafrika, Zentral- und Südeuropa, Südostasien und der Süden Australiens: für diese Regionen werden Rückgänge der mittleren jährlichen Flussraten prognostiziert und gleichzeitig starke Anstiege der Wassertemperatur. Dies verringert das Potential der Stromerzeugung sowohl für Wasserkraftwerke als auch für Wärmekraftwerke.
Die Studie untersucht auch die möglichen Auswirkungen von Anpassungsmaßnahmen wie etwa von technologischen Entwicklungen, die den Wirkungsgrad der Kraftwerke erhöhen, von einem Wechsel von Kohlekraftwerken zu mit Gas betriebenen Kraftwerken oder auch von einem Wechsel von Süßwasser als Kühlmittel zur Luftkühlung oder Meereswasserkühlung für Anlagen, die an Küsten liegen.
„Wir zeigen, dass technologische Entwicklungen zur Steigerung des Wirkungsgrads von Anlagen und Änderungen in deren Kühlsystemen die Störbarkeit durch Wassermangel in den meisten Regionen herabsetzen können. Verbessertes, sektorübergreifendes Wassermanagement in Dürrezeiten ist natürlich auch sehr wichtig.“ Und Van Vliet schliesst: „Um die Wasser – und Energieversorgung auch in den nächsten Dekaden sicherzustellen, wird der Elektrizitätssektor vermehrt Strategien zur Anpassung an den Klimawandel ins Auge fassen müssen, zusätzlich zu den Maßnahmen diesen abzuschwächen.“
* Die IIASA-Presseaussendung “ Worldwide electricity production vulnerable to climate and water resource change ” vom 4. Jänner 2016 wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung ihrer Nachrichten in unserem Blog einverstanden. Die Abbildungen wurden von der Redaktion zugefügt .
[1] Van Vliet MTH, Wiberg D, Leduc S, Riahi K, (2016). Power-generation system vulnerability and adaptation to changes in climate and water resources. Nature Climate Change. https://doi.org/10.1038/NCLIMATE2903
[2] Van Vliet MTH, Yearsley JR, Fulco L, Vögele S, Lettenmaier DP and Kabat P.( 2012). Vulnerability of US and European electricity supply to climate change. Nature Climate Change, https://doi.org/10.1038/NCLIMATE1546
Wer zieht die Grenze zwischen Gesundheit und Krankheit? Zur 2016 stattfindenden Konferenz über die Vermeidung von Überdiagnosen
Wer zieht die Grenze zwischen Gesundheit und Krankheit? Zur 2016 stattfindenden Konferenz über die Vermeidung von ÜberdiagnosenFr, 01.01.2016 - 06:31 — Redaktion
Dank hochsensitiver medizinischer Testmethoden zeigen Routinetests häufig Anomalitäten, die aber in den meisten Fällen auch langfristig kein Risiko für den Patienten bedeuten –weder führen sie zu Krankheitssymptomen, noch zu einem vorzeitigen Tod. Dennoch werden Krankheitsdiagnosen gestellt – Überdiagnosen -, die nutzlose Tests und Behandlungen inklusive Nebenwirkungen nach sich ziehen. Überdiagnosen und ihre Vermeidung sind ein junges, sehr rasch wachsendes Forschungsgebiet. Ein in PLOS Blogs veröffentlichtes Interview* mit Vertretern des wissenschaftlichen Komitees der 2016 stattfindenden Konferenz „Preventing Overdiagnosis“ schildert die zu behandelnden Fragen und Zielsetzungen dieser Tagung.
Zum Jahreswechsel wünscht man sich üblicherweise alles Gute und insbesondere Gesundheit für das kommende Jahr. Explizit betrachtet bedeutet das Letztere Prävention und Heilung von Krankheiten. Dies wünscht auch der ScienceBlog seinen Lesern, schließt hier aber noch die sogenannte Quartäre Prävention mit ein: die Vermeidung von Überdiagnosen, einer daraus resultierenden Übermedikation und damit verbundener Nebenwirkungen.
Was bedeutet Überdiagnose?
Die medizinische Diagnostik verfügt über eine ungeheure Fülle von Tests, die immer sensitiver werden, um Krankheiten bereits in ihren frühesten Phasen detektieren zu können. Dies bringt in vielen Fällen Erfolge. Bei Routinetests – beispielsweise bei großangelegten Vorsorgeuntersuchungen - führt dies aber noch viel häufiger dazu, dass Anomalitäten festgestellt werden, welche aber auch langfristig nicht mit einem wesentlichen Gesundheitsrisiko verbunden sind - weder führen sie zu Krankheitssymptomen, noch zu einem vorzeitigen Tod. Wo liegt nun die Grenze zwischen gesund und krank? Der Arzt fürchtet nun eine Krankheit nicht rechtzeitig zu erkennen, der Patient ist verunsichert und möchte eine Absicherung. Wie und wieweit sollte weiter abgeklärt werden, behandelt werden? Durch Tests und Behandlungen, die dem symptomlosen Individuum kaum nützen, ihm aber schaden können?
Überdiagnosen führen dazu, dass Krankheiten ohne ausreichende Befunde angenommen werden, dass bei zu geringem klinischem Verdacht zu viele Befunde erhoben werden. Überdiagnosen gewinnen in unseren Gesellschaften mehr und mehr an Bedeutung. Für Überdiagnosen gibt es bereits überwältigende Evidenz: sie reichen u.a. vom Aufmerksamskeitsdefizit-Syndrom bei Kindern, über Brustkrebs, Prostatakrebs, hohem Bludruck bis hin zur viel zu häufig konstatierten Depression in der Geriatrie. Menschen erhalten so das Label an einer häufigen Erkrankung zu leiden, und es werden dann übliche Behandlungsschemata verordnet, die dem Individuum eigentlich mehr schaden als nützen.
Das Problem der Überdiagnosen wurde in der Medizin erkannt. Die Zahl der Studien zu diesem Thema nimmt enorm zu: unter dem Stichwort „Overdiagnosis“ finden sich in der größten medizinischen Datenbank PubMed (US, National Library of Medicine) bereits über 8000 Publikationen (Abbildung 1).
Abbildung1. Overdiagnosis ist ein”hot topic” in der Medizin. Insgesamt verzeichnet PubMed unter dem Stichwort overdiagnosis 8132 Publikationen; deren Zahl steigt seit 1995 rasant an. (http://www.ncbi.nlm.nih.gov/pubmed/?term=overdiagnosis)
Internationale Konferenzen zum Thema Vermeidung von Überdiagnosen
Seit 2013 richtet ein international zusammengesetztes Board eine jährliche Konferenz zum Thema Vermeidung von Überdiagnosen aus. Diese Konferenzen setzen sich zum Ziel Überdiagnosen zu definieren, ihre Ursachen und Konsequenzen zu analysieren und Möglichkeiten zu ihrer Vermeidung zu suchen. Es sind dies Tagungen, die von der Industrie weder direkt noch indirekt gefördert werden dürfen. Zu den vergangenen Tagungen gibt es reichlich Unterlagen und Videos der Hauptvorträge, die online frei verfügbar sind (http://www.preventingoverdiagnosis.net/?page_id=1180)
Im September 2016 wird diese Tagung in Barcelona stattfinden. Zu den Themen, die hier zur Diskussion stehen, und den erwarteten Ergebnissen, hat Dr. Jack O’Sullivan (University of Oxford) die beiden Co-Vorsitzenden des wissenschaftlichen Ausschusses der Konferenz - Alexandra Barratt, Professor of Public Health at the University of Sydney, und Ray Moynihan, Senior Research Fellow from Bond University, Australia, befragt.
Das folgende, von der Redaktion in deutsche Sprache, übersetzte Interview wurde am 17. Dezember 2015 in PLOS Blogs – Speaking of Medicine – veröffentlicht*
Interview zur 2016 stattfindenden Konferenz über die Vermeidung von Überdiagnosen
Dr. Jack O’Sullivan (University of Oxford) befragt die beiden Co-Vorsitzenden des wissenschaftlichen Ausschusses der Konferenz:
- Alexandra Barratt, Professor of Public Health (University of Sydney), und
- Ray Moynihan, Senior Research Fellow (Bond University, Australia).
Jack: Was können wir 2016 in Barcelona, dem Tagungsort der Preventing Overdiagnosis conference (PODC - Vermeidung von Überdiagnose Konferenz) erwarten?
Alexandra: Barcelona bietet eine einzigartige Gelegenheit die Perspektive der Konferenz auszuweiten und Gedanken zur Überdiagnose zwischen englischsprachigen und nicht- englischsprachigen Ländern auszutauschen. Dies ist auch wirklich wichtig – Übermedikation ist ja ein internationales Problem.
Ray: Da die 2016 Konferenz in einem spanischsprachigen Land stattfindet, ergeben sich sofort Verbindungen zu Lateinamerika. Für Entwicklungsländer, die beschränktere Gesundheitsbudgets als Industriestaaten haben, wird es noch wichtiger zu entscheiden, wofür sie ihr Geld sinnvoll ausgeben („choosing wisely“). Wir haben hier die Chance das Ausmaß an Überdiagnosen unter anderen Situationen kennenzulernen.
Jack: Spielt das Internet eine Rolle in diesen Situationen und Ländern? Welche Rolle spielt es in der Überdiagnose?
Alexandra: Wenn man in der Vergangenheit einen Test benötigte, musste man einen lokalen Gesundheits-Dienstleister aufsuchen. Dies ist nun nicht mehr der Fall. Man kann den Test jetzt online anfordern und so den Amtsweg umgehen. Das ist eines der Themen, die an der 2016 Konferenz zur Debatte stehen. Wenn jemand mit familiärer Vorbelastung für eine Krankheit vor einem Jahrzehnt zum Arzt ging, so hat dieser möglicherweise eine Handvoll genetischer Tests angefordert. Heute werden ganze Serien von 50 - 200 Genen geprüft, bis hin zur Sequenzierung des vollständigen Genoms von 22 000 Genen. Das geht heute so schnell und billig vonstatten, dass daraus vielfache Fragen erwachsen: wie interpretieren wir alle diese Informationen, wie wenden wir sie an, wie speichern wir sie und rufen sie erneut ab?
Ray: Ein direct-to-patient-marketing (Werbung, die gezielt Patienten anspricht; Anm. Red.) birgt zweifellos reale Gefahren in sich. Andererseits ist das Internet aber auch ein großartiges Instrument, um mehr kritische und genaue Informationen zu verbreiten und damit den Menschen zu helfen, sich gegen die Werbeschlachten zu wappnen.
Alexandra: Ich meine, dies streicht auch heraus, wie wichtig die Patienten selbst für einen Rückgang von Überdiagnosen sind. Patienten können damit Triebkräfte für große Veränderungen werden: uns allen wird ja zunehmend klar, dass Testungen und Behandlungen nicht ohne Risiko sind
Jack: dass Patienten wesentlich zur Reduktion von Überdiagnosen beitragen können - hat diese Überlegung das wissenschaftliche Komitee beeinflusst das Thema „Kulturelle Triebkräfte“ in das Programm der Konferenz aufzunehmen?
Alexandra: Ja, wir möchten wirklich erreichen, dass der Einfluss von Patienten und Bevölkerung bei solchen Konferenzen ausgeweitet wird. Überdiagnose ist ein soziales Problem, die Gründe dafür sind mannigfaltig und ebenso die Triebkräfte. Um hier voran zu kommen, wird es sehr wichtig sein, dass Patienten und Bevölkerung gemeinsam mit Klinikern, Politik und akademischer Forschung einen Beitrag leisten.
Ray: Als caveat ist dabei anzumerken: die Themen, die wir ausgewählt haben, sind alle sehr wichtig:
- Erweiterung der Krankheitsdefinitionen, die Überdiagnosen verursachen
- Genomik und ihr Potential für Überdiagnosen
- Wirtschaftliche Konsequenzen von Überdiagnosen
- Altern: Überdiagnosen, De-Diagnosen und deprescribing (s.u., Anm. Red.)
- Kulturelle und existentielle Triebkräfte von Überdiagnosen
- Maßnahmen, um Schädigungen durch Überdiagnosen zu mindern
Es wird aber wohl nicht möglich sein alle diese Themen auf nur einer Konferenz definitiv abzuhandeln und abzudecken. Wahrscheinlich werden uns diese Themen über Dekaden begleiten – sie stellen erhebliche Herausforderungen für die gegenwärtigen Gesundheitssysteme dar. Sie sind komplex und kontrovers und es sind einflussreiche Interessen im Spiel, die das Problem der medizinischen Überversorgung fördern. Die Diskussionen darüber werden über Jahrzehnte andauern.
Jack: Eines der Themen in der Konferenz im nächsten Jahr lautet “Erweiterung der Krankheitsdefinitionen, die zu Überdiagnose führen“. Was können die Delegierten zu diesem Thema erwarten?
Ray: Zwei der Plenarsitzungen werden Diskussionen über kontroverse Probleme gewidmet sein, eine dieser Sitzungen wird die Erweiterung ung der Krankheitsdefinitionen betreffen. Wir wollen dazu einem Panel, das unterschiedliche Ansichten vertritt, die Fragen stellen: wer sollte für die Änderung der Krankheitsdefinitionen die Verantwortung übernehmen und wie sollte dieser Prozess ablaufen. Dies ist für jedermann ein unglaublich relevantes Problem:
Wer sind die Leute, welche die Grenze ziehen zwischen Gesundheit und Krankheit?
Und wie ziehen sie diese Grenze?
Es gibt einige Evidenz dafür, dass es problematisch ist, wie der Prozess derzeit abläuft. Und es gibt globale Anstrengungen diesen Prozess zu reformieren. Konkret hat das Guidelines International Network (G-I-N). G-I-N eine Arbeitsgruppe Überdiagnose laufen, die erarbeitet, wie man den Prozess der Änderung von Krankheitsdefinitionen straffer führen kann.
Hier ist es auch wichtig zu bemerken, dass diese Konferenz nicht über die Überdiagnosen bei Krebserkrankungen geht. Zweifellos sind Überdiagnosen von Krebserkrankungen ein ernstes Problem und die Evidenzgrundlage ist hier ganz allgemein auch ausgereifter als bei nicht-Krebserkrankungen. Dennoch sollen bei unseren Sitzungen die Nicht-Tumorbedingungen im Vordergrund stehen.
Jack: Ein anderes Thema der 2016er Konferenz ist Alterung und Überdiagnose, Reduktion der Dosis/Stop des Medikaments (de-prescribing). Warum hat das Komitee dieses Thema angesetzt und was erwartet man davon?
Ray: Es gibt einen großartigen Geriatriker: Professor David Le Couteur, der über Prädemenz forscht und schreibt. Einen Großteil seiner Zeit in der Klinik verbringt er mit „Undiagnose“ (eine (klare) Diagnose kann nicht erstellt werden; Anm. Red.) und „De-Prescribing“. Le Couteur sieht sich alles an, womit man die alten Leute "gelabelt" hat und ob und wieweit das hilfreich ist. In Rücksprache mit den Patienten und deren Familien streicht er dann medizinische Produkte, die mehr schaden als nutzen. Wenn alles planmäßig verläuft, wird Professor Couteur zusammen mit anderen Klinikern eine Sitzung leiten und zwar darüber, wie sich in der Praxis auf den Stationen (Über)Behandlungen gefahrlos rückgängigmachen lassen.
Alexandra: Diese Bemerkung führt zu einem grundlegenden Thema der Konferenz: Quartäre Prävention (d.i. das Vermeiden unnötiger medizinischer Maßnahmen oder Übermedikalisierungen; Anm. Red.); für Menschen mit einem Risiko der Überdiagnose den Schaden auf ein Minimum reduzieren.
Ray: Quartäre Prävention ist ein aus Europa stammendes Konzept, das jetzt in Lateinamerika hohe Popularität besitzt. Dahinter steht der Gedanke, dass ein Schutz vor iatrogenen Schäden**, vor Übermedikalisierungen, ebenso wichtig ist wie Primär- und Sekundärprävention**.
Jack: Es ist offensichtlich, dass die Barcelona Konferenz – ähnlich wie die voran gegangenen Konferenzen - Kliniker, Patienten und akademische Forscher miteinbezieht. Wo wird die Politik ihren Platz finden?
Alexandra: Gastgeber der Konferenz wird eine staatliche Stelle sein, die Agency for Health Quality and Assessment of Catalonia. Viel Politik wird täglich von den Richtlinienausschüssen gemacht, die - wie Ray bereits erwähnt hat – in Barcelona durch G-I-N vertreten sind. Weiters gibt es ist die Choosing Wisely Campaign, die auf die tägliche Praxis Einfluss nimmt (wie oben angeführt ist Choosing Wisely ein Dialog zur Vermeidung überflüssiger/unwirtschaftlicher medizinischer Tests und Behandlungen; Anm. Red.). Deren Empfehlungen werden in vielen Ländern verbreitet, sie wurden bereits auf den vergangenen Konferenzen vorgestellt und werden auch diesmal in Barcelona präsentiert.
Jack: Was ist das eigentliche Ziel der Vermeidung von Überdiagnose Konferenzen?
Alexandra: Wir brauchen ein Gesundheitssystem, das bestmögliche gesundheitliche Ergebnisse für die Menschen bietet, bei minimalen durch Untersuchungen und Behandlungen hervorgerufenen Schädigungen. Gleichzeitig soll das Gesundheitssystem kosteneffizient und gerecht sein. Viele Tests und Behandlungen sind enorm nützlich, wir müssen aber die richtige Balance finden und nicht das ganze System und die Patienten mit unnötigen und schädlichen Eingriffen überschwemmen.
Ray: Wir konzentrieren uns im Moment noch sehr darauf das Problem wissenschaftlich abzudecken. Wir bemühen uns noch sehr Wesen und Ausmaß des Problems über das gesamte Gesundheitsgebiet hin zu erfassen.
* Who Draws the Line Between Health and Illness? A Look Ahead to the 2016 Preventing Overdiagnosis Conference. Posted December 17, 2015 by PLOS Guest Blogger in Conference news, Global Health http://blogs.plos.org/speakingofmedicine/2015/12/17/who-draws-the-line-b...
PLOS (The Public Library of Science) ist ein Non- profit Publisher; Artikel in den online Journalen und Blog-Einträge sind open access und können unter der Lizenz CCBY weiterverwendet werden).
**Primärprävention: das Ziel ist es, die Gesundheit zu fördern und zu erhalten und die Entstehung von Krankheiten so gut wie möglich zu verhindern.
**Sekundärprävention: soll das Fortschreiten einer Krankheit durch Frühdiagnostik und -behandlung verhindern.
**iatrogene Schäden: Krankheitsbilder, die durch ärztliche Maßnahmen verursacht wurden
Weiterführende Links
- Homepage der Preventing Overdiagnosis Conference: http://www.preventingoverdiagnosis.net/?p=830
- Ein exzellenter Artikel zu Überdiagnose (Englisch): Ray Moynihan, Jenny Doust, David Henry: Preventing overdiagnosis: how to stop harming the healthy. BMJ 2012;344:e3502 doi: 10.1136/bmj.e3502 (Published 29 May 2012). http://www.bmj.com/content/bmj/344/bmj.e3502.full.pdf
- Bridge Over Diagnosis - a parody of Bridge Over Troubled Water, James McCormack, Video 5,11 min. https://www.youtube.com/watch?list=PL5iZsTMBd0hiDr4o0U3md0HqrG3H8yXEX&v=...
- Choosing Wisely - a parody, James McCormack, Video 4,25 min.