2014
2014 Redaktion Wed, 20.03.2019 - 01:03Popularisierung der Naturwissenschaften im 19. Jahrhundert
Popularisierung der Naturwissenschaften im 19. JahrhundertFr, 26.12.2014 - 09:06 — Redaktion
Der hundertste Todestag von Eduard Suess (1831 – 1914) bot heuer vielfach Gelegenheit das grandiose Lebenswerk dieses Mannes zu würdigen: dem Paläontologen und Geologen Suess verdanken wir grundlegende Erkenntnisse zur Tektonik der Erdoberfläche (Gebirgsfaltung, Gondwanaland, Thetys). Auf den Politiker Suess gehen u.a. Planung und Bau der Wiener Hochquellenwasserleitung und die Donauregulierung zurück. Der Wissenschaftskommunikator Suess und seine von Erfolg gekrönten Bemühungen zur Popularisierung der Naturwissenschaften sind dagegen kaum bekannt.
Eduard Suess: Verein zur Verbreitung naturwissenschaftlicher Kenntnisse
Suess war maßgeblich an der Gründung des auch heute noch existierenden „Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse“ im Jahre 1860 beteiligt und dessen erster Präsident [1,2]. Im Rahmen dieses Vereins wurden frei zugängliche, populäre Vorträge gehalten; laut Suess (s.u.) waren diese „lediglich naturwissenschaftlichen Fächern entnommen, der Kreis von Vortragenden hat fast ausschließlich aus jüngeren Fachmännern bestanden“. Diese Vorträge – aufgezeichnet in bis dato 152 Jahrbüchern des Vereins – geben einen faszinierenden Einblick in den Fortschritt der Naturwissenschaften in unserem Land.
Mehrere Artikel hat der ausgezeichnete Vortragende und als Lehrer hochgeschätzte Eduard Suess selbst beigesteuert. Wäre Eduard Suess unser Zeitgenosse, hätte er - in Hinblick auf die Reichweite - wahrscheinlich auch eine digitale Form der Kommunikation, vielleicht in Form eines Blog, gewählt.
Abbildung 1. Eduard Suess 1869 (Bild: Wikipedia)
Im Folgenden findet sich die Rede, die Suess am 15.1.1860 anlässlich der Gründungsversammlung des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse gehalten hat [3]. Die ursprüngliche Schreibweise wurde beibehalten.
Eduard Suess: Ueber die Entstehung und die Aufgabe des Vereines
»Gestatten Sie mir, im Namen seiner Begründer den heute zum ersten Male versammelten
„Verein zur Verbreitung naturwissenschaftlicher Kenntnisse"
herzlich zu begrüssen. Den verschiedenartigsten Lebensstellungen angehörig, haben Sie Sich auf unsere Einladung hin vereinigt, um Ihre Zustimmung auszusprechen zu unseren Bemühungen, die neueren Erfahrungen der Naturforschung einem weiteren Kreise bekannt zu geben und den durch ihren Beruf den strengeren Studien ferner Stehenden einen Einblick zu öffnen in jene wunderbarsten und unvergänglichsten Eroberungen des menschlichen Geistes, welche die stolze Zierde unseres Jahrhunderts ausmachen.
Lassen Sie mich zuerst die durch die heutige Versammlung erwiesene Thatsache aussprechen, dass es in Wien auch ausserhalb der gelehrten Gesellschaften eine grosse Anzahl von Männern gibt, welche den Werth naturwissenschaftlicher Forschung erkennen. Ueberflüssig wäre es hinzuzufügen, wie bedeutungsvoll und wie hoch erfreulich diese Thatsache sei und so schreite ich denn sogleich daran, einige Worte von der Entstehung und von der Aufgabe dieses neuen Vereines zu sagen.
Populäre Vorlesungen gab es bereits an vielen Orten Deutschlands
Vor einigen Jahren sah man in vielen Städten Deutschlands Fachmänner sich vereinigen, um populäre Vorlesungen abzuhalten. In mehreren Orten haben sie ein wissbegieriges Publikum gefunden, welches durch seine Aufmerksamkeit ihre Anstrengungen belohnte und haben diese Vorlesungen in jedem Winter, bis zum diesjährigen, ihre Fortsetzung gefunden. Sie sind dabei, anfangs eine neue und fremdartige Erscheinung, zu einem nicht unwesentlichen Momente in dem geistigen Leben dieser Bevölkerungen geworden. Mit den Jahren haben sie in den verschiedenen Städten einen etwas verschiedenen localen Charakter angenommen. Während z. B. Königsberg sich rühmen mag, in einzelnen seiner Vorträge neue Anschauungen über die ersten Weltgesetze ausgesprochen gehört zu haben, sind jene in München mit allem Glanze hochberühmter Namen und eines königlichen Mäcenatenthumes umgeben worden.
Montagsvorlesungen seit dem Herbste 1855 – Vorläufer des Vereins
Auch in unserem Kreise ist mancher neue Gedanke ausgesprochen und manches schöne Ergebniss zum ersten Male vorgelegt worden, auch bei uns hat sich mancher hochgeachtete Staatsmann als ein Zuhörer eingefunden; unser erstes Ziel ist aber stets nur das gewesen, zu belehren. Unsere Vorträge sind lediglich naturwissenschaftlichen Fächern entnommen gewesen-, der Kreis von Vortragenden hat fast ausschliesslich aus jüngeren Fachmännern bestanden, aber Ihre Aufmerksamkeit und Ihr Beifall haben uns gelehrt, dass wir in der Erfüllung unserer Aufgabe glücklich waren.
Seit dem Herbste 1855 bis zum heutigen Tage sind nahe an neunzig öffentliche Vorträge von uns gehalten worden, und da in den letzten Jahren die Zahl der Zuhörer nie weit unter 200 fiel, dürfen wir wohl annehmen, dass es uns auch in der That gelungen sei, einige Belehrung zu verbreiten.
Die ersten Vorträge fanden im Winter 1855/6 auf Anregung unsers unvergesslichen Grailich, im Saale der k. k. geol. Reichsanstalt auf der Landstrasse statt. Im Winter 1856/7 pflegte der uns so freundlich angebotene Saal bereits trotz seiner entfernten Lage so überfüllt zu sein, dass wir bedacht sein mussten, ein grösseres Locale zu beschaffen.
Im Herbste 1857 öffnete uns die k. Akademie der Wissenschaften auf den Vorschlag ihres Präsidenten Sr. Excellenz des Freiherrn von Baumgartner in dem 2. Stockwerke ihres eben bezogenen Gebäudes mit grösster Liberalität einen bei weitem geräumigeren Saal. Drei Winter hindurch fanden hier unsere Zusammenkünfte statt, aber auch hier ereignete es sich nicht selten, dass die Zahl der Zuhörer auf mehrere Hundert stieg und nicht Platz finden konnte. Im Laufe dieses Winters endlich hat die k. Akademie, stets die wärmste Förderin unseres Unternehmens, uns einen noch grösseren, den sogenannten grünen Saal geöffnet, in welchem unsere Vorlesungen jetzt stattfinden.
Gründung des Vereins
Bei so steigender Theilnahme hat es der diesjährige Kreis von Vortragenden für seine Pflicht gehalten, Vorkehrungen zu treffen, welche dem Unternehmen eine Dauer für die Zukunft und zugleich eine ausgiebigere Wirksamkeit sichern sollten. Am 4. November vereinigten wir uns, um eine Eingabe an die Behörde um die Bewilligung zur Errichtung dieses Vereines zu unterzeichnen. Am 4. März erfloss die kaiserliche Genehmigung unserer Bitte, am 15. April die endgiltige Gutheissung unserer Statuten.
Binnen weniger als einem Monate ist der neue Verein zu der zahlreichen Versammlung herangewachsen, welche Sie um Sich sehen [4]. Es ist ein neues Centrum geistiger Thätigkeit geschaffen. Lassen Sie mich von dem sprechen, was mir als seine Aufgabe vorschwebt.
Sie Alle gewiss, verehrte Anwesende, freuen sich der besseren Jahreszeit und des grünen Rasens und der wundervollen Schattirungen des Laubholzes. Manchen tragen seine Träume weiter. Er erinnert sich des nahen Hochgebirges und der Schönheiten, die es birgt und mit Entzücken gedenkt er des Tages, an welchem er zuerst seinen Fuss auf eine jener Hochspitzen setzte, unter denen die Länder ausgebreitet liegen wie eine Landkarte. Das Auge weitgeöffnet, um das grenzenlose Bild zu umfassen, die Brust erfüllt von der reineren Luft der Höhen und gehoben durch das Bewusstsein überstandener Mühen, lässt der Wanderer tief in seine Seele den Eindruck so vieler Pracht sich senken und spricht leise: Wie schön!
Das, verehrte Anwesende, ist die unmittelbare Freude an der Schöpfung, zu welcher es weiterer Kenntnisse eben nicht bedarf. Wer sich jedoch mit einiger Ausdauer dem Studium der Naturwissenschaften hingibt, lernt bald ein ähnliches Entzücken an Bildern gemessen, welche er nicht sinnlich wahrzunehmen, sondern nur aus seinen Erfahrungen zu construiren weiss. Und von dem Augenblicke an, in welchem die Seele für Freuden dieser Art empfänglich geworden, ist das Studium für ihn nichts mehr, als eine ununterbrochene Reihe der reinsten und beneidenswerthesten Genüsse; von der Bewunderung der Aussenwelt kehrt er befriedigt zurück zu der Bewunderung des menschlichen Geistes, der sie so weit zu durchdenken im Stande ist.
Wir vermögen nicht, Ihnen an Winterabenden den unmittelbaren Naturgenuss einer schönen Landschaft herzuzaubern, aber wir nehmen die einzelnen Theile aus dem Bilde und lehren Sie dieselben besser zu betrachten. Der Bau des Gebirges, auf welchem Sie gestanden, die Organisation der Pflanzen, die Sie auf demselben trafen, selbst die Luftströmungen, die Sie empfanden, ja sogar die Natur der erleuchtenden Sonne, solches sind die Gegenstände unserer Vorträge und wenn Sie nach diesen im Sommer wieder hinaustreten in die offene Natur, dann hat sich, so hoffen wir, zu Ihrer früheren Freude auch ein etwas höherer Grad von Verständniss gesellt, Sie wissen der Natur tiefer in ihr grünes Auge zu schauen und die grössere Innigkeit Ihres Entzückens lehrt Sie, wie schön der Beruf des Naturforschers sei.
Es ist etwas Eigenthümliches um diesen Beruf
Ein glücklicher Gedanke in einem hellen Kopfe lehrt die Menschheit Worte fliegen zu lassen längs einem Drahte mit einer Geschwindigkeit von mehreren tausend Meilen in der Sekunde. Ein glücklicher Gedanke dort, und es ist uns das Mittel gegeben, den ungreifbaren Sonnenstrahl zu zerlegen und mit Hilfe von Lichterscheinungen neue Stoffe zu erkennen, deren Vorhandensein die zartesten Reagentien nicht verrathen hatten. Mühsam beobachtet am Mikroskope ein Forscher die Sexualorgane der Pflanzen, bis er uns endlich beweist, dass die Fortpflanzungserscheinungen bei ihnen auf eine wunderbare Weise mit den Vorgängen im Thierreiche übereinstimmen. Ein Anderer zeigt Ihnen aus dem Vergleiche langer Beobachtungstabellen, dass ein innerer Zusammenhang bestehe zwischen den Flecken auf der Sonne und dem Nordlichte. Ein Dritter lehrt Sie mit einem Male alle die über die Organisation, die Verbreitung und die Vergangenheit lebender Wesen gesammelten Erfahrungen von einem neuen Standpunkte aus betrachten und regt in einer einzigen Schrift hunderte von Fragen an, welche, neue Fragen gebärend, noch manche Generation nach uns beschäftigen werden.
Wie der Wanderer vom Berge aus seinen Blick über Berge, Thäler und Ebene schweifen lässt und Fluss, Wald und Ortschaften unter sich erkennt, so gewöhnt sich der Geist, über den ganzen Planeten hinzublicken, über die vielgestaltige Pflanzendecke des Erdballes und alles Leben, das da pulsirt von den Polen bis in die Tropenwälder. In die entferntesten Epochen einer unmessbaren Vergangenheit senkt er seine durchdringenden Gedanken und mit seinem unwiderstehlichsten Instrumente, der Mathematik, verfolgt er die Bahnen der Welten.
Und nun frage ich Sie, verehrte Anwesende, welche Lehre geeigneter sein könnte dem Menschen die ganze Erhabenheit der Stellung zu zeigen, die ihm in dieser Schöpfung angewiesen ist. Er fühlt sich der Herr. Auf einen Ossa von Erfahrungen träumt er einen Pelion von Vernunftschlüssen zu thürmen und dünkt sich der wahre, titanische Sohn der alten Mutter Gaia, bis endlich sein Blick die Nebel von Weltsystemen trifft, die um ihn kreisen und er gedemüthigt zurücksinkt.
Diese gewaltigen Schwankungen der Seele sind es, welche einen der höchsten Momente der Anregung in unserer Wissenschaft bilden. Das Gleichgewicht, das endlich folgt, erklärt Ihnen die grenzenlose Begeisterung und zugleich die ruhige Hingebung von welchen Hunderte von Naturforschern in unsern Tagen Zeugniss geben. Denken Sie an die Grossthaten arktischer Reisender und fragen Sie Sich dann, ob die Weltgeschichte irgend eine Heldenthat kenne, der dieses ruhige Eintreten in die Gefahren sich nicht vergleichen lässt.
Von der Ostküste des tropischen Amerika's fliesst ein mächtiger Strom warmen Wassers, der Golfstrom, Europa zu und einen Theil unserer Westküsten bespülend, erwärmt er unser Klima und befeuchtet er unsere Landschaften. Auf seinem Wege umfiiesst er die Halbinsel Florida, welche aus Korallenbildungen besteht. Millionen winziger Korallenthierchen vermehren heute noch fort und fort den Saum der Halbinsel und jedes einzelne Individuum trägt unbewusst sein Atom dazu bei, um dem Golfstrom eine andere Richtung zu geben und jenseits des Ocean's das Klima von Europa zu beeinflussen. So werden oft in der Natur durch kleine Kräfte grosse Wirkungen hervorgebracht. Mit Bewusstsein aber strebt nur der Mensch grossen Zielen nach.
Lassen Sie uns, die wir jung sind, glauben, dass unsere Ziele grosse seien, wie unser Object sicher ein grosses ist.
Ja, gross ist diese Schöpfung und unerschöpflich sind ihre Wunder. Das Auge vermag nicht sie zu fassen, vergebens müht sich der Geist, um sie alle zu begreifen; wie soll die Lippe im Stande sein sie alle zu schildern? Einzelne Skizzen, flüchtige Scenen aus dem grossen, lebensvollen, ewigen All sind es, die wir im besten Falle Ihnen versprechen können.
Der feinere Geist findet den Zusammenhang der Fragmente und ahnt die harmonische Grossartigkeit des Ganzen. Ja und eben diesen erhebenden Gedanken an die ewige, unendliche und unveränderliche Gesetzmässigkeit des Kosmos hinauszutragen in's Volk, das ist's was ich als die Mission dieses Vereines erkenne. Mag die Theilnahme seiner Mitglieder, der Eifer seiner Ausschüsse, mag vor Allem gegenseitiges Vertrauen und gegenseitige Zuneigung, dieser wahre Lebensnerv jeder gesellschaftlichen Verbindung, ihn durchströmen und kräftigen und ihm eine würdige Rolle schaffen inmitten des allgemeineren Erwachens geistigen Lebens, welchem unser Vaterland endlich entgegengeht.«
[1] http://www.univie.ac.at/Verbreitung-naturwiss-Kenntnisse/
[2] http://www.adulteducation.at/de/historiografie/institutionen/419/
[3] Eduard Suess: Ueber die Entstehung und die Aufgabe des Vereins. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_1_0003-0014.pdf
[4] An der Gründungsversammlung haben 31 Mitglieder teilgenommen, davon waren rund 2/3 Beamte und (Hochschul)lehrer, dazu kamen Studenten, Fabrikanten, Kaufleute, Freischaffende und auch Handwerker. ( Karl Hornstein: Über den Stand der Mitgliederzahl und des Vereinsvermögens. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_1_0015-0020.pdf)
The Face of The Earth - The Legacy of Eduard Suess (4:16)
Wiener Vorlesungen: Eduard Suess (1:17:27)
Eduard Suess Ausstellung (2:00)
Täuschende Schönheiten
Täuschende SchönheitenFr, 19.12.2014 - 06:29 — Bill S. Hansson
Mit chemischen Tricks täuschen Aronstabgewächse und Orchideenblüten den Geruchssinn fliegender Insekten, um fremden Pollen zu empfangen und eigenen Pollen an benachbarte Blüten weiterzugeben. Dazu imitieren die Pflanzen beispielsweise die Duftstoffe gärender Hefe, um Fruchtfliegen anzulocken, oder weibliche Sexuallockstoffe, um Insektenmännchen als Bestäuber zu missbrauchen und am Ende sogar ohne Belohnung zu entlassen. Der Biologe Bill S. Hansson, Direktor am Max-Planck Institut für Chemische Ökologie und derzeitiger Vizepräsident der Max Planck Gesellschaft zeigt auf, wie die Aufklärung der chemischen Botenstoffe und ihrer Wirkung neue Einblicke in die Ökologie und Ko-Evolution von Pflanzen und Insekten erlaubt.*
Beziehungen zwischen Insekten und Pflanzen werden gern als Paradebeispiel für Mutualismus, also gegenseitigen Nutzen, betrachtet: Blüten werden durch das Insekt bestäubt, und der Bestäuber wird dafür mit reichlich Nektar belohnt. Der Mensch empfindet den Blütenduft, mit dem Pflanzen ihre Bestäuber anlocken, meist als angenehm.
Schon seit langem ist jedoch bekannt, dass sich einige Blütenpflanzen nicht an die oben erwähnten „sozialen“ Spielregeln halten. Stattdessen nutzen sie verschiedenste Arten von Lockstoffen, um Insekten auszutricksen und so zur Bestäubung zu verführen. Ein solches System steht in der Evolution unter einem äußerst hohen Selektionsdruck: Insekt und Blüte befinden sich – nach der so genannten Red-Queen-Hypothese – in einem endlosen Wettstreit, in dem die Blüte kontinuierlich täuscht und das Insekt vermeiden sollte, immer wieder getäuscht zu werden.
Der Vorteil der Pflanze
bei einer solchen Interaktion ist deutlich: Sie wird bestäubt, ohne dafür mit der Produktion von Nektar bezahlen zu müssen.
Das Insekt aber ist im Nachteil. Wenn es von der Pflanze an der Nase herumgeführt und als Bestäuber missbraucht wird, verliert es wertvolle Zeit und Energie. Oft hält eine Blüte das Insekt sogar für mehrere Stunden gefangen, um einen wirksamen Pollentransfer zur nächsten Blüte sicherzustellen. Im kurzen Leben vieler Insekten ist ein solcher Zeitverlust sehr kostspielig und sollte möglichst vermieden werden. Daher müssen „betrügerische“ Pflanzen Blüten hervorbringen, die für das Zielinsekt unwiderstehlich sind, denn sonst würde die Selektion Insekten hervorbringen, die gelernt haben, Imitation (z.B. Blütenduft) von Vorlage (z.B. Lockstoff des Weibchens) zu unterscheiden.
Wie sieht ein idealer Köder aus,
dem ein Insekt nicht widerstehen kann? Jedes Insekt möchte sich während seiner Lebenszeit so effektiv wie möglich fortpflanzen. Chemische Signalstoffe stellen daher zweckdienliche Mittel dar, die instrumentalisiert werden können. Insekten sind weitestgehend geruchsgesteuert, deshalb ahmen manche Blütenpflanzen Duftsignaturen nach, die bei der Fortpflanzung von Bienen, Fliegen, Käfern und anderen Insekten eine Rolle spielen. Zwei Hauptkategorien dieser molekularen Mimikry, die auf verschiedene Bereiche des tierischen Reproduktionssystems abzielen, können unterschieden werden: Sexuelle Mimikry, bei der die Blüte den Sexuallockstoff des anderen Geschlechts, in der Regel des Insektenweibchens, vortäuscht, und Mimikry der Brutstelle, bei der die Blüte eine perfekte Nahrungsquelle für die aus den abgelegten Eiern schlüpfenden Larven imitiert.
In diesem Artikel werden Beispiele aus den verschiedenen Systemen vorgestellt, bei denen die sensorischen Signale, die bei der Täuschung eine Rolle spielen, kürzlich aufgeklärt werden konnten. Der Schwerpunkt liegt auf Geruchssignalen, aber auch visuelle und thermische Signale wurden analysiert.
Sexuelle Täuschung
Ein Insektenmännchen kann es sich nicht leisten, auch nur eine Gelegenheit zur Paarung zu verpassen, denn es möchte sein Genom ebenso erfolgreich fortpflanzen wie seine Mitbewerber. Ein Insektenleben ist kurz und vor allem – die Gelegenheiten sind selten. Die starke Anziehungskraft des männlichen Insekts hin zur Sexualpartnerin ist deshalb eine perfekte Zielvorgabe für Pflanzen, entsprechende „Bestäubungssysteme“ zu entwickeln.
Von den Pflanzen, die eine sexuelle Mimikry entwickelt haben, sind vor allem die Orchideen bekannt (Abbildung 1). Das erste System, das sowohl auf chemischer als auch verhaltensbiologischer Ebene untersucht wurde, ist die Wechselwirkung zwischen der Orchideenart Ophrys sphegodes (Spinnenragwurz) und Sandbienen der Gattung Andrena.
In verschiedenen Studien konnte nachgewiesen werden, dass die Orchidee tatsächlich das aus einem Gemisch verschiedener Substanzen bestehende Sexualpheromon eines Bienenweibchens imitiert, und zwar so perfekt, dass das Männchen sogar versucht, mit der Blüte zu kopulieren, und so die Pollenmasse garantiert an seinem Körper kleben bleibt. Abbildung 1.
Abb. 1. Die Blüte der Orchideenart Ophrys insectifera (Fliegenragwurz), die eine weibliche Wespe sowohl visuell als auch chemisch nachahmt, um Wespenmännchen zur Bestäubung zu verführen. Die Blüte imitiert das Weibchen derart perfekt, dass das Männchen versucht, sich mit ihr zu paaren. Auf diese Weise kommt sein Kopf mit der klebrigen Pollenmasse in Kontakt und der Pollen wird auf die nächste Blüte übertragen. © Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson
Die Chemie der Täuschung
Das Pheromongemisch besteht aus etwa zehn verschiedenen Kohlenwasserstoffmolekülen, aber das Bestäubungssystem ist noch viel ausgeklügelter als zunächst angenommen.
Eine weibliche Biene paart sich nämlich nur ein einziges Mal mit einem Männchen. Jedes Weibchen besitzt einen individuellen Geruch, der sich von dem der anderen Weibchen minimal, nämlich je nach Mengenverhältnis der flüchtigen Kohlenwasserstoffmoleküle, unterscheidet. Um keine Zeit damit zu vergeuden, ein Weibchen zu umwerben, mit dem es sich bereits gepaart hat, merkt sich das Männchen die Duftsignaturen seiner bereits eroberten Partnerinnen.
Würden also alle Blüten der betrügerischen Orchideen gleich riechen, würden die Männchen keine weitere Blüte aufsuchen, weil sie dort ein Weibchen vermuten würden, mit dem sie sich bereits gepaart haben. Die Blüten geben deshalb Duftbouquets ab, die sich voneinander unterscheiden, und zwar in einer Variationsbreite, die den voneinander abweichenden Lockstoffbouquets der Weibchen entspricht.
Auf diese Weise wird das Männchen dazu verführt, von Blüte zu Blüte zu fliegen, und erst damit überträgt es den Pollen und sichert die Fortpflanzung und genetische Variabilität der Orchideenart.
Vorgetäuschte Brutstellen
Sexuelle Mimikry von Pflanzen ist fast immer auf paarungswillige Insektenmännchen ausgerichtet, die sich nur allzu leicht überlisten lassen. Von Pflanzen vorgetäuschte Brutstellen hingegen führen Insektenweibchen in die Irre, die nach einer geeigneten Nahrungsquelle für ihren Nachwuchs suchen. In den letzten Jahren wurden zahlreiche Arten der Gattung Arum aus der Familie der Aronstabgewächse analysiert, weil man vermutete, dass hier Brutstellen-vortäuschende Pflanzen zu finden sein sollten. Von diesen Pflanzen ist bekannt, dass sie – zumindest für die menschliche Nase – sehr eigenartige Blütendüfte produzieren und außerdem ein breites Spektrum an Bestäubern anlocken.
Ein Aronstabgewächs mit dem volkstümlichen Namen „Totes Pferd“
Die ersten Untersuchungen zur Brutstellen-Mimikry konzentrierten sich auf Pflanzen der Art Helicodiceros muscivorus, im Volksmund auch „Totes Pferd“ (dead horse arum) genannt. Diese auffällige und vor allem übelriechende Pflanze kommt auf kleinen Inseln im Mittelmeerraum vor. Sie ist fast immer in der Nähe größerer Möwenkolonien zu finden und blüht kurz bevor die Möwenjungen schlüpfen. In diesem Zeitraum trifft man interessanterweise auch auf große Populationen sogenannter Fleischfliegen, und tatsächlich konnte nachgewiesen werden, dass die Blüten den Geruch von verrottendem Fleisch imitieren und damit Fleischfliegen als unfreiwillige Bestäuber anlocken.
Elektrophysiologische Experimente zeigten, dass die Antennen der Fliege, also ihre „Nase“, auf den Geruch der Pflanze und den Geruch von fauligem Fleisch identisch reagierten. Bei den aktiven Komponenten der in der Blüte produzierten Duftmischung handelte es sich um drei verschiedene Oligosulfide. Zusätzlich heizt sich die Blüte auf und übersteigt die Umgebungstemperatur um etwa 15 Grad Celsius. Sie ahmt damit die Hitze nach, die in einem faulenden Tierkadaver entsteht. Die Blüte öffnet sich zwei Tage lang, produziert ihren fauligen Geruch und zusätzliche Wärme aber nur am ersten Tag. Diese Tatsache ermöglichte es den Wissenschaftlern, die Attraktivität der Blütensignale genau zu testen. Dazu wurde die Blüte am zweiten Tag – wenn sie normalerweise nicht mehr riecht – zuerst mit einem synthetischen Duft versehen. Es zeigte sich, dass die Fliegen im gleichen Ausmaß wie am ersten Tag angelockt wurden, allerdings krabbelten sie nicht bis in den Kelch der Blüte hinein, wo die Fliegen üblicherweise für einige Zeit gefangen gehalten werden, um die Pollenübertragung sicherzustellen (Abbildung 2).
Abbildung 2. Zeichnung des Blütenkelchs des Aronstabgewächses Dead Horse Arum, der als Fliegenfalle fungiert. Die Fliegen werden durch die Kombination von olfaktorischen, visuellen und thermischen Stimuli angelockt, was die Pflanze für weibliche Fleischfliegen, die nach Eiablage ihrem Nachwuchs eine optimale Nahrungsquelle bieten wollen, unwiderstehlich macht. Sie werden in der Kammer gefangen, wo sie die weiblichen Blüten (ganz unten im Kelch) bestäuben. Am zweiten Tag welken die Stacheln oberhalb der weiblichen Blüten und die Fliegen werden wieder freigelassen, damit sie den Pollen der männlichen Blüten übertragen können. © Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson
Die Täuschung funktionierte jedoch vollständig, wenn dem Kelch künstlich genügend Wärme hinzugefügt wurde: Die Fliegen gingen in die Falle. Dieses Aronstabgewächs bedient sich also einer multisensorischen Täuschung, um Fleischfliegen erfolgreich anzulocken. Neben der Geruchs- und Wärme-Imitation verwendet die Pflanze zusätzliche mechanosensorische und visuelle Signale, um ihre Attraktivität bei den Fliegen noch weiter zu steigern.
Die Bestäubungsstrategie von Helicodiceros muscivorus hängt von der perfekten Nachahmung einer unwiderstehlichen Ressource ab, damit Fliegenweibchen das vermeintlich optimale Eiablagesubstrat nicht ignorieren können. Gleichzeitig drängt die Pflanze die Fliegen aus der Perspektive der Evolution kaum dazu, Maßnahmen gegen die Täuschung zu entwickeln, weil sie für ihre betrügerischen Aktionen nur kurze Zeitfenster (wenige Wochen) und sehr begrenzte Lebensräume (kleine Mittelmeerinseln) nutzt.
Aronstabgewächse auf Kreta
Auf der Insel Kreta kommen verschiedene Arten der Gattung Arum vor. In einer Reihe von Feld- sowie Laborexperimenten wurden vier dieser Arten näher untersucht. Es konnte gezeigt werden, dass zwei Arten, A. cyrenaicum und A. concinnatum, einen strengen Geruch nach Tierkot abgeben und mit Helicodiceros muscivorus („Totes Pferd“, s.o.) einige Ähnlichkeiten aufweisen: Beide Pflanzenarten besitzen wärmebildende Gewebe und mit ihren sich ähnelnden Duftbouquets locken sie kleine Fliegen an, die sie für einige Zeit gefangen halten. Obwohl sie den gleichen Lebensraum teilen, unterscheiden sich die zwei Arum-Arten in der Blütezeit, weshalb eine gegenseitige Befruchtung ausgeschlossen ist.
Hingegen haben die beiden Arten A. creticum und A. idaeum einen eher traditionellen Bestäubungsmechanismus entwickelt, der auf dem gegenseitigen Nutzen für Pflanze und Bestäuber beruht. Statt eines stinkenden Geruchs geben sie einen, zumindest für uns Menschen, angenehmeren Blütenduft ab, der Bienen und Käfer anlockt. Obwohl die beiden Arum-Arten dieselben Bestäuberarten anlocken, unterscheidet sich der Hauptbestandteil im Duft von A. creticum von dem in A. idaeum, und die Bestäuber können möglicherweise die Düfte der beiden Arten unterscheiden. Ein Vergleich aller wesentlichen Blütenduftkomponenten der vier kretischen Arum-Arten, die mittels Gaschromatografie-Massenspektrometrie identifiziert wurden, ergab Ähnlichkeiten und Unterschiede. Die zwei belohnenden, mutualistischen Arten A. creticum und A. idaeum und die beiden nicht-belohnenden, fliegenfangenden Arten A. cyrenaicum und A. concinnatum bilden jeweils zwei Duftstoffgruppen, wobei sich die jeweiligen Gruppenpaare der belohnenden bzw. nicht-belohnenden Spezies deutlich voneinander unterscheiden.
Die Schwarze Calla
In einer der neuesten Arbeiten aus unserer Abteilung wurde eine Population der Schwarzen Calla (Arum palaestinum) im Norden Israels untersucht. In ersten Feldstudien konnte beobachtet werden, dass Blüten dieser Art eine große Anzahl von Taufliegen (Drosophiliden) anlocken (Abbildung 3).
Abbildung 3. Taufliegen (Drosophiliden; auch Essig- oder Fruchtfliegen genannt) sind im Kelch einer Schwarzen Calla gefangen.Die Fliegen wurden durch Duftstoffe angelockt, die durch Hefe vergorene Früchte imitieren. ©Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson
Eine einzige Blüte konnte innerhalb weniger Stunden bis zu 500 Fliegen ködern.
Das Duftbouquet der Blüte wurde daraufhin genauer analysiert. Auf die menschliche Nase wirkt der Duft ähnlich wie der eines süßen Weines. Unter den Duftbestandteilen befanden sich 2,3-Butandionacetat und Acetoinacetat. Diese beiden Komponenten kommen sehr selten in Blütenduftbouquets vor, dagegen treten sie häufig als Produkte alkoholischer Gärung auf.
Im weiteren Verlauf der Untersuchungen wurde deutlich, dass die Calla in der Tat einen Gärungsprozess imitiert, indem sie ein Duftbouquet mit sieben typischen Gärungs-Geruchsstoffen produziert. Im Labor wurde die Anziehungskraft verschiedentlich zusammengestellter Duftmischungen getestet: Es zeigte sich, dass eine Mischung aus genau denjenigen Duftkomponenten auf die Fliegen besonders anziehend wirkt, die z.B. dem Duftprofil faulender Bananen entspricht, also einem Substrat, auf das Drosophiliden von Natur aus nahezu versessen sind.
Mithilfe des optical imaging wurden die primären Geruchszentren im Gehirn der Drosophiliden betrachtet, und es konnte abgeleitet werden, welche Geruchsrezeptoren in der Fliegenantenne aktiviert werden. Ein Vergleich dieser Rezeptoren innerhalb aller Fruchtfliegenarten, deren Genom vollständig sequenziert wurde (insgesamt 12 Arten), ergab, dass der Blütenduft der Schwarzen Calla drei Hauptgruppen von Rezeptoren aktiviert. Davon ist eine Gruppe in allen zwölf Arten hoch konserviert: Diese Rezeptoren signalisieren die Anwesenheit von gärenden Hefepilzen – also der Grundnahrungsquelle der Fliegen. Die zweite Gruppe signalisiert, dass von Hefe fermentierte Früchte in der Nähe sind; diese Rezeptoren sind somit besonders in Obst-konsumierenden Fliegenarten zu finden. Die dritte Gruppe von Rezeptoren ist weniger konserviert als die anderen beiden und scheint sich an die spezifischen Bedürfnisse obstfressender Art angepasst zu haben. Fazit: Die Blüte der Schwarzen Calla produziert somit den perfekten Lockduft, indem sie eine Reihe verschiedener wichtiger Reizleitungen in das Fliegengehirn kombiniert, die sämtlich der Fliege folgende Botschaft übermitteln: Komm zu mir, hier ist etwas wirklich Leckeres!
Die Analyse des Bestäubungssystems von A. palaestinum ist ein ausgezeichnetes Beispiel für die Erforschung der Funktionalität von sensorisch basiertem Verhalten. Die Blüte bietet die sensorischen Signale, die benötigt werden, um sie für Fliegen so verführerisch wie möglich zu machen. Diese Signale wiederum sind die Eintrittskarte dafür, das System im Gehirn der Fliegen zu analysieren und bis zu ihrem Verhalten weiter zu verfolgen.
Die nächsten Schritte
Unsere Studien werden derzeit in verschiedene Richtungen weiter verfolgt. In einigen Mittelmeer-Regionen werden Populationen von Arum dioscoridis verglichen. Diese Art befindet sich anscheinend inmitten eines Prozesses voranschreitender Speziation (Artbildung) und divergiert in der Zusammensetzung abgegebener Duftmoleküle, Blütezeit und Morphologie. Interessanterweise scheinen verschiedene Populationen unterschiedlichen Kot nachzuahmen: einige riechen mehr nach dem Kot von Raubtieren, andere nach dem von Pflanzenfressern. In der Türkei wird der Hügel-Aronstab A. rupicola untersucht, der vermutlich einen Mechanismus entwickelt hat, warmblütige Säugetiere nachzuahmen, um blutsaugende Insekten als Bestäuber anzulocken.
Darüber hinaus wurde kürzlich entdeckt, dass eine Orchidee die Alarmpheromone von Blattlauskolonien imitiert, um räuberische Schwebfliegen anzulocken [9]. Zudem werden zurzeit weitere Pflanzenarten gesucht, die Drosophiliden täuschen, denn solche Pflanzen vermitteln ein einzigartiges Wissen darüber, welche Stimuli für diese genetischen und verhaltensbiologischen Modellorganismen wirklich unwiderstehlich sind.
Die Betrachtung der in diesem Artikel geschilderten unterschiedlichen Bestäubungssysteme offenbart die treibenden Kräfte der Evolution und erlaubt damit einen Einblick in ökologische Mechanismen und Wechselwirkungen, die sonst nur schwer bestimmbar gewesen wären.
*Der im Forschungsmagazin der Max-Planck Gesellschaft 2011 erschienene Artikel Artikel http://www.mpg.de/1155805/Taeuschende_Schoenheiten?c=1070738 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne Literaturzitate.
Weiterführende Links
Wild orchid wasp mimic - David Attenborough - BBC Video 2:58 min, https://www.youtube.com/watch?v=-h8I3cqpgnA
Wild Orchids of Israel:Seduction of the Long-horned Bee Video 3:40 min, https://www.youtube.com/watch?v=yFftHXbjEQA
Wow - the biggest flower in the world - Titan Arum - David Attenborough - BBC wildlife Video 2:28 min, https://www.youtube.com/watch?v=FHaWu2rcP94
Dead Horse Arum Video 3:29 min, https://www.youtube.com/watch?v=OelTxxW0GvY
Was macht HCB so gefährlich?
Was macht HCB so gefährlich?Fr, 12.12.2014 - 05:18 — Inge Schuster
Zur Zeit geht eine Meldung durch alle Medien und sorgt für größte Verunsicherung: Schadstoffmessungen haben in einigen Milchproben aus dem Kärntner Görtschitztal erhöhte Werte von Hexachlorbenzol (HCB) festgestellt. Ein Skandal, wie es einige Medienberichte – unter Akklamation zahlreicher Kommentatoren – titulieren? Die bis jetzt vorliegenden Untersuchungsergebnisse erlauben sicherlich (noch) nicht, dass man auf eine längerfristige Gefährdung der Bewohner des Görtschitztales oder der Konsumenten seiner Produkte schließen könnte.
Da ich mich jahrzehntelang mit dem „Schicksal“ von Fremdstoffen in der Biosphäre beschäftigt habe, möchte ich von dieser Warte aus das vermutlich gravierendste Problem von Hexachlorbenzol (HCB) ansprechen, nämlich seine sehr hohe Persistenz in der Biosphäre. Näheres zu HCB selbst, seinem Vorkommen (u.a. in Lebensmitteln), seiner Anreicherung in Organismen und damit verbundenen gesundheitlichen Risiken, sowie offizielle Berichte und Richtlinien – von Seiten der EU und der US – finden sich am Schluss des Artikels (Reports in English, free download).
Was ist Hexachlorbenzol (HCB)?
Simpel ausgedrückt: ein einfaches kleines Molekül (C 6 Cl 6 – Molekulargewicht 284 D), ein Benzol, das alle 6 Positionen seines Rings durch Chloratome besetzt hat (Abbildung 1).
Die weiße, relativ flüchtige Substanz wird durch Chlorierung von Benzol hergestellt; sie ist in Wasser praktisch unlöslich, löst sich dagegen 500 000 Mal besser in nichtwässrigen Systemen wie Ölen, Fetten und ganz allgemein organischen Lösungsmitteln.
Abbildung 1. Chemische Struktur von Hexachlorbenzol (HCB)
HCB ist eine chemisch sehr stabile Verbindung. Ein Abbau in der Atmosphäre (durch Radikalreaktionen, Photolyse) ist extrem langsam (Halbwertzeiten in der Größenordnung von mehreren Jahren), ebenso in biologischen Systemen (s.u.). Als Folge akkumuliert HCB in der Umwelt.
Verwendung von HCB und gesundheitliche Probleme
Bis in die frühen 1980er Jahre wurde Hexachlorbenzol weltweit exzessiv genutzt. HCB diente vor allem als hochwirksames Fungizid – d.i. als Mittel gegen Pilzbefall: In der Landwirtschaft wurden damit große Durchbrüche erzielt u.a. gegen den Weizensteinbrand; dazu wurde mit HCB gebeiztes Saatgut eingesetzt, welches bis zu rund 1g der Substanz im kg enthalten konnte. Als Fungizid wurde HCB auch in Holzschutzmitteln genutzt. Weite Verwendung fand HCB in der Industrie: u.a. als Zusatzstoff von PVC (Polyvinylchlorid - beispielsweise für Bodenbeläge) und von Isolationsmaterialien, bei der Herstellung von Graphitanoden, von pyrotechnischen Produkten u.v.a.m.
In der zweiten Hälfte der 1950er Jahre gab es dann gravierende Hinweise, dass durch HCB schwere gesundheitliche Schäden verursacht werden können: In Südostanatolien hatte eine Bevölkerungsgruppe Saatgut verwendet, das mit einer viel zu hohen Menge an HCB (2kg HCB/1 000kg) präpariert gewesen war und über Jahre das Brot gegessen, das sie aus den erhaltenen Ernten produzierten. Rund 4 000 Personen erkrankten damals, vor allem an Porphyrie (Porphyria cutanea tarda – PCT) – Zielorgane waren neben der Leber: Haut, Knochen und Schilddrüse – und rund 10% der Erwachsenen starben. Die offensichtlich viel zu hohen HCB Konzentrationen in der Muttermilch führten aber zu einer extrem hohen Sterblichkeit (95%!) von Kindern unter 2 Jahren.
Schätzungen zufolge hatten die Menschen über Jahre hinweg täglich 50 – 200mg HCB (0,7 – 2,9 mg/kg Körpergewicht) zu sich genommen. Auch Jahrzehnte später litten sie noch unter den Folgeerscheinungen des HCB. (Zum Vergleich: die bei uns heute als tolerierbar geschätzte tägliche Aufnahme liegt bei 0,01µg/kg (Mikrogramm/kg) Körpergewicht, d.i. um mehr als 100 000mal niedriger.)
Eine derartige Katastrophe ist zum Glück anderswo nicht aufgetreten.
Als Folge gab es an vielen Orten - weltweit - Untersuchungen der Bevölkerung. Wichtig war vor allem das Risiko von Personen zu erheben, die im Umkreis von Industrien zu Herstellung, Anwendung und Entsorgung von chlorierten Verbindungen lebten und z.T. auch dort beschäftigt waren. Gemessen an den HCB-Serumspiegeln waren z.T. recht hohe HCB-Belastungen ersichtlich (z.B in Flix/Spanien lagen die Serumkonzentrationen bei 93 – 223µg/l ). Die von verschiedenen Gruppen erhobenen Gesundheitsdaten waren aber recht ambivalent: eine Reihe von Daten wies darauf hin, dass die HCB-Belastung keinen oder einen nur sehr geringen Einfluss auf relevante klinische Parameter bewirkte, andere Daten zeigten Zusammenhänge zu Schädigungen von Leber, Muskel, Schilddrüse u.a.
Für die Argumentationen zur Schädlichkeit von HCB wurden (und werden weiterhin) gerne eindeutige Daten aus Tierversuchen (von Maus, Ratte, Hund bis hin zum Affen) und auch aus in vitro Versuchen mit Zellkulturen ins Treffen geführt. Das Problem dabei ist: die in diesen Versuchen angewandten HCB- Dosen betrugen ein Vielfaches der Dosen, die sich als katastrophale Belastung in Ostanatolien erwiesen hatten.
Reduktion der HCB Emissionen
In Anbetracht der mit HCB verbundenen Risiken wurde in der Folge die Produktion von HCB weitestgehend eingestellt, sein landwirtschaftlicher Einsatz von der Europäischen Gemeinschaft 1981 verboten.
Im Jahre 2001 haben 151 Staaten das weltweite Verbot von 12 Chlorverbindungen („das dreckige Dutzend“) – darunter HCB – in der Stockholmer Konvention zum Schutz der Gesundheit und der Umwelt unterzeichnet. Damit wurde das Problem mit HCB bedeutend verringert, aber nicht völlig aus der Welt geschafft (Abbildung 2).
HCB ist – auf einem niedrigeren Level - weiter in der Umwelt vorhanden:
- Es entsteht bei praktisch allen Verbrennungsprozessen, die in Gegenwart von Kohlenstoff und Chlor ablaufen (beides ubiquitäre Elemente der Biosphäre). Besonders hohe Konzentrationen - mehrere Gramm HCB je Tonne Material - können bei Verbrennung von Klärschlamm oder Polyvinylchlorid (PVC) anfallen.
- HCB ist ein Nebenprodukt bei der Herstellung von chlorierten Lösungsmitteln und Pestiziden.
- HCB liegt in Altlasten im Boden vor.
Abbildung 2. Die Emission von Hexachlorbenzol ist stark zurückgegangen aber nicht völlig verschwunden
Das Problem der Persistenz von HCB
Der wesentliche Grund für die Gefährlichkeit von HCB liegt in seiner Persistenz.
Wie auch für andere kleine, lipophile (fettlösliche) Moleküle ist es kein Problem für HCB, durch die Lipidschicht der Zellmembran ins Zellinnere, in ganze Organismen einzutreten. Da das Zellinnere reich an Lipid-haltigen Strukturen und auch an diversen Proteinen ist, an die fettlösliche Moleküle binden können, kommt es zu deren Anreicherung in der Zelle. Dies ist auch für HCB der Fall.
Da zunehmende Anreicherungen von Fremdstoffen die Funktion von Zellproteinen- und Strukturen enorm beeinträchtigen/schädigen würden, enthalten Zellen ein Set von Enzymen, welche nahezu alle Fremdstoffe in Verbindungen umwandeln, welche weniger anreichern und damit aus den Zellen ausgeschieden – eliminiert – werden. Für den Großteil der Fremdstoffe – auch beispielsweise für die meisten Medikamente - genügen dazu einige wenige Vertreter aus der sogenannten Cytochrom P450 (CYP) Familie. Diese binden den jeweiligen Fremdstoff und oxydieren ihn. Dabei entsteht ein Produkt (der Metabolit), das zumeist weniger fettlöslich und mehr wasserlöslich ist. Dieses kann aber noch weitere Male oxydiert werden - solange bis es auf Grund seiner sehr geringen Lipophilie kaum noch Bindungspartner im Zellinneren findet.
Im Fall des HCB existieren ebenfalls Enzyme (CYP1A1 CYP1A2, CYP3A4), die den Stoff binden können (Abbildung 3). Es ist für diese allerdings sehr schwierig die Kohlenstoff-Chlor Bindungen im Molekül anzugreifen um das Molekül zu oxydieren. Dementsprechend erfolgen derartige Oxydationen nur äußerst langsam. Kommt von außen noch weiteres HCB, ohne dass äquivalente Mengen die Zelle verlassen können, so reichert sich die Substanz mehr und mehr in den Zellen an. (Dies gilt auch für andere mehrfach chlorierte Substanzen, wie beispielsweise die Dioxine.)
Abbildung 3. Infolge einer sehr langsamen Umwandlung von HCB (grün) in weniger fettlösliche Produkte (gelb) kommt es zur Diskrepanz zwischen Aufnahme und Eliminierung und HCB reichert sich mehr und mehr an.
Die mangelnde Fähigkeit HCB in weniger fettlösliche Substanzen umzuwandeln gilt gleichermaßen für Mikroorganismen, das Pflanzen-, Pilze- und Tierreich. Dementsprechend dauert es sehr lange (Halbwertszeiten von mehreren Jahren bis zu Jahrzehnten) bis Altlasten von HCB durch im Erdreich lebende Organismen abgebaut sind.
Aus dem Wasser gelangt HCB in die dort lebenden Tiere und reichert sich an, aus der Luft und dem Boden in Pflanzen, aus der Luft und der Nahrung in die Landbewohner. Über die Nahrungskette nehmen wir überall HCB-kontaminiertes Material zu uns.
Der Abbau von HCB wurde in vielen Spezies untersucht – er ist überall sehr langsam.
Vom Menschen gibt es nur indirekte Daten. Schätzungen der Eliminierungsraten (Halbwertszeiten) bewegen sich von 2 – 3 Jahren bis hin zu 6 Jahren und darüber. Wichtig erscheint dabei: HCB ist nicht gleichmäßig auf den Organismus verteilt, der Großteil wandert – wie könnte es anders sein – aus der Blutzirkulation ins Fettgewebe. Während HCB im Blut üblicherweise unter 1ng/ml (Nanogramm pro Milliliter) liegt, können es im Fettgewebe auch bis zu mehreren 100ng/ml sein. (Bei Gewichtsverlust taucht dann vermehrt HCB im Blut und in den Organen auf.)
Muß man sich vor HCB also fürchten?
Mit dem Rückgang der HCB-Emissionen (Abbildung 2) ist es – zwar langsam aber dennoch ähnlich dramatisch - auch zu einer entsprechenden Verringerung des HCB in unserem Organismus gekommen. Im Boden hat sich HCB verringert, ebenso in der Nahrungskette. Messungen aus Deutschland belegen beispielsweise, dass zwischen 1983 und 1998 eine 90% Reduktion von HCB im humanen Fettgewebe erfolgt ist.
Basierend auf den Untersuchungen an Tiermodellen hat man Richtlinien zu tolerierbare Mengen der täglichen Aufnahme (DTA-Wert) für den Menschen abgeschätzt. Dabei ging man vom niedrigsten, gerade noch beobachtbaren Effekt beim Tier aus und hat dann – überaus vorsichtig - noch einen Sicherheitsfaktor von 1 000 eingebaut, um das Risiko einer möglichen Cancerogenität und einer hormonellen Schädigung mit einzubeziehen:
Demnach sollte eine langfristige tägliche Aufnahme von 0,01µg/kg Körpergewicht (im Schnitt 0,70µg pro Erwachsenem) zu keinen gesundheitlichen Störungen führen.
Die Frage, welche Lebensmittel aus einer Mit HCB kontaminierten Region und wieviel davon zum Verzehr gelangen dürfen, sollte an Hand der DTA-Werte beantwortet werden.
Mit HCB werden wir weiter leben müssen – es entsteht schließlich, wenn auch in kleinen Mengen, auch durch natürliche Ursachen. Es wird auch weiterhin in unseren Körpern detektiert werden können.
Literatur
(free download)
- Recommendation from the Scientific Committee on Occupational Exposure Limits for Hexachlorobenzene (SCOEL/SUM/188; 12. 2013) http://www.ser.nl/documents/82398.pdf
- J. Barber et al. 2005: Hexachlorobenzene - Sources, environmental fate and risk characterization. http://www.eurochlor.org/media/1495/sd9-hexachlorobenzene-final.pdf
- The 2011 European Union Report on Pesticide Residues in Food (published on 27th June 2014, replaces the earlier version). EFSA Journal 2014;12(5):3694.
http://www.efsa.europa.eu/de/efsajournal/pub/3694.htm
The report presents the results of the control activities related to pesticide residues in food carried out in 2011 in 29 European countries
- Draft Toxicological Profile for Hexachlorobenzene U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES, Public Health Service, Agency for Toxic Substances and Disease Registry (Juni 2013).
Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus
Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-VirusFr, 05.12.2014 - 08:52 — Gottfried Schatz
Wir könnten das gefürchtete Virus durch bewährte Strategien und wirksame Impfstoffe in Schach halten, doch Kriege und mangelnde Weitsicht haben dies bisher verhindert. Impfgegner gefährden mit ihrer Irrationalität sich selbst und ihre Mitbürger, ohne sich schuldig zu fühlen.
An einem Septembertag des Jahres 1976 überbrachte ein Pilot der Sabena Airlines dem jungen Antwerpener Wissenschaftler Peter Piot eine blaue Thermosflasche. Laut dem Begleitbrief enthielt sie eisgekühlte Blutproben einer belgischen Nonne die im abgelegenen Dorf Yambuku im damaligen Zaïre mit hohem Fieber erkrankt war. Könnte Dr. Piots Institut das Blut auf Gelbfieber-Virus testen? Das Blut enthielt zwar weder dieses Virus noch andere bekannte pathogene Viren, tötete jedoch alle Labortiere, denen man es einspritzte. Offenbarg barg es einen besonders tödlichen, noch unbekannten Krankheitserreger.
Ein neues Virus
Er entpuppte sich als ein ungewöhnlich langes, wurmähnliches Virus (Abbildung 1), das etwa tausendmal dünner als ein menschliches Haar war und fatal dem gefürchteten Marburg-Virus glich, das 1967 in Marburg mehrere Laborarbeiter getötet hatte.
Abbildung 1. Ebola Viren. Elektronenmikroskopische Aufnahme (Quelle: Wikipedia; CDC - http://phil.cdc.gov/phil)
Ebola – vorerst wenig interessant -…
Wenige Tage darauf entsandte die belgische Regierung Peter Piot nach Yambuku, wo er und andere Wissenschaftler das neue Virus nach dem Ebola Fluss in der Nähe des Dorfes „Ebola Virus“ tauften. Zu diesem Zeitpunkt war die Seuche bereits im Abklingen, so dass das öffentliche Interesse an ihr bald verebbte. Das Virus meldete sich mehrmals kurz zurück - wie 1977 in der Demokratischen Republik Kongo und 1979 im Sudan – liess dann aber 15 Jahre lang nichts mehr von sich hören.
…wird zum Flächenbrand…
Als es 1994 wieder auftauchte, forderte es zum ersten Mal auch in Westafrika menschliche Opfer. Dort brach dann Ende 2013 in Guinea, Nigeria, Sierra Leone und Liberia die bisher verheerendste Ebola Epidemie aus, die bis jetzt mindestens 10‘000 Erkrankte und 5‘000 Tote gefordert hat. Obwohl Nigeria die Epidemie angeblich eindämmen konnte, wütet sie in den benachbarten Ländern immer noch außer Kontrolle, so dass die die Todesfälle noch dramatisch zunehmen dürften (Abbildung 2). Abbildung 2. Ebolavirus-Epidemie in Westafrika 2014 betroffene Länder und Zahl der infizierten Personen bzw. Zahl der Todesfälle (inkl. Verdachtsfälle) Quelle: Wikipedia (links:Mikael Häggström, updated by Brian Groen; rechts: Leopoldo Marti R.)
Dieser Flächenbrand wurde dadurch geschürt, dass einige der betroffenen Länder grausame Bürgerkriege hinter sich hatten, welche die öffentliche Infrastruktur zerstört und viele Ärzte vertrieben hatten. Schlecht ausgerüstete Spitäler, die wichtige Hygieneregeln missachteten, hatten die Verbreitung von Ebola und anderen Seuchen in Afrika und anderen Schwellenländern schon seit jeher begünstigt; diesmal war ihre todbringende Rolle besonders schwerwiegend, weil die Seuche im dicht besiedelten Grenzgebiet zwischen den betroffenen Ländern ausbrach.
Strenge Sicherheitsvorkehrungen wie die sofortige Isolierung der Erkrankten und ihrer Familienmitglieder sowie schnelle Identifizierung aller möglichen Kontaktpersonen sind immer noch unser wirksamster Schutz gegen diese Krankheit, die durch direkten Körperkontakt oder Körperflüssigkeiten übertragen wird. Deswegen könnten wir sie in Europa oder Nordamerika wahrscheinlich schnell unter Kontrolle bringen.
…mit hoher Letalität
Wir kennen vom Ebola Virus fünf Varianten, von denen vier für Menschen tödlich sein können. Die derzeit grassierende „Zaïre“ Variante ist die gefährlichste: sie tötet zwischen 50 und 90 % aller infizierten Menschen. In den ersten 8-10 Tagen bewirkt sie lediglich grippeähnliche Symptome wie Fieber, Schüttelfrost und Muskelschmerzen, doch dann folgen Übelkeit, Durchfall, innere Blutungen und schliesslich ein allgemeines Organversagen, wobei unsere Ärzte sich auf Symptombekämpfung wie Fiebersenkung und Flüssigkeits- und Salzzufuhr beschränken müssen.
Wir haben heute noch keine wirksamen Waffen, um uns gegen dieses tödliche Virus zu wehren.
Viren sind keine Lebewesen, sondern wandernde Gene, die sich zu ihrem Schutz mit einer Membran oder einer Eiweiß-Schicht umhüllen. Um sich zu vermehren, dringen sie in lebende Zellen ein und missbrauchen deren Infrastruktur für die eigene Fortpflanzung. Im Gegensatz zu Bakterien besitzen Viren weder eigene Stoffwechselprozesse noch komplexe Zellwände, an denen wir sie mit unseren Antibiotika treffen könnten.
Die wenigen Medikamente gegen Viren im Köcher unserer Ärzte blockieren die Vermehrung der Virus-Erbsubstanz oder den Stoffwechsel infizierter Zellen, sind jedoch gegen das Ebola-Virus unwirksam. Zudem gelingt es Ebola, unser Immunsystem zu überlisten, so dass es infizierte Zellen nicht mehr verlässlich erkennt und abtötet, bevor das Virus sich im Körper ausbreiten kann. Wer jedoch eine Ebola-Infektion überlebt, entwickelt Antikörper, die nicht nur vor einer Neuinfektion schützen, sondern bei Verabreichung an Ebola-Kranke auch diesen das Leben retten können.
Antikörper gegen Ebola-Proteine - ZMapp
Blutserum oder gereinigte Antikörper von Ebola-Überlebenden sind also wirksame Ebola-Medikamente, die allerdings nur in relativ geringen Mengen verfügbar und deshalb nicht großflächig einsetzbar sind.
Die Übertragung von Blutserum oder Blutproteinen zwischen Menschen birgt zudem stets Risiken. Das Medikament Zmapp, das sich noch in Entwicklung befindet, würde diese Probleme vermeiden. Forscher aus Kanada und den USA entwickelten es in einem langwierigen Verfahren, in dem sie zunächst einige Proteine aus dem Ebola-Virus reinigten, sie Mäusen eingespritzten und dann die gegen diese Proteine gebildeten Maus-Antikörper reinigten. In einem zweiten Schritt isolierten sie aus den immunisierten Mäusen die Gene für diese Antikörper und veränderten sie so, dass sie menschlichen Antikörper-Genen möglichst ähnlich waren. Schließlich schleusten sie diese „vermenschlichten“ Antikörper-Gene in Tabakpflanzen ein, welche die Antikörper innerhalb weniger Wochen in großer Menge produzierten.
Zmapp ist eine Mischung dreier Antikörper, die sich spezifisch an das Ebola-Virus binden und es unschädlich machen. Ob es Ebola-Kranke verlässlich heilen kann ist jedoch noch ungewiss. Für Makaken-Affen ist dies jedoch bereits bewiesen, so dass die amerikanischen Gesundheitsbehörden vor kurzem den Einsatz von Zmapp an menschlichen Patienten auf vorläufiger Basis gestatteten.
Selbst wenn Zmapp alle Hoffnungen erfüllen sollte, wäre es jedoch zu teuer und im menschlichen Körper zu instabil, um ganze Bevölkerungen langfristig vor dem Virus zu schützen.
Impfungen gegen Ebola
Dafür braucht es aktive Immunisierungen - die viel debattierten „Impfungen“. Bei diesen werden gesunden Menschen inaktivierte Viren oder gereinigte Virusproteine verabreicht, die dann innerhalb von Wochen oder Monaten die Bildung spezifischer Antikörper gegen das jeweilige Virus auslösen und so über Jahre oder sogar Jahrzehnte vor einer Infektion schützen.
Solche vorausschauenden Immunisierungen haben Grippe, Polio und Masern in reichen Ländern wirksam eingedämmt und die gefürchteten Pocken weltweit ausgerottet. Bei einem unerwarteten Seuchenausbruch oder der plötzlichen Mutation eines gefährlichen Virus entfalten Impfungen ihre Wirkung allerdings zu langsam. Die flächendeckende Schutzwirkung von Impfungen wird auch dadurch beeinträchtigt, dass viele Menschen Schutzimpfungen aus irrationalen Gründen ablehnen oder gar bekämpfen.
Derzeit befinden sich mehrere Impfstoffe gegen Ebola im Entwicklungsstadium, wobei eine ursprünglich in Basel ansässige Biotech-Firma an vorderster Front beteiligt ist. Der von ihr entwickelte Impfstoff besteht aus einem für Menschen harmlosen Schimpansen-Virus, dem die Gene zweier Ebola-Proteine eingepflanzt wurden. Dringt dieses modifizierte Trägervirus in menschliche Zellen ein, bewirkt es in diesen die Bildung der beiden Virusproteine, die dann im Körper die Bildung von spezifischen Antikörpern gegen das Ebola-Virus auslösen. Das Rennen um wirksame und billige Impfstoffe gegen Ebola ist in vollem Gange, so dass wir wohl schon innerhalb der nächsten Jahre imstande sein werden, die Bevölkerungen in den gefährdeten Regionen Afrikas vor weiteren großflächigen Ebola-Katastrophen zu schützen.
Die Mikroben haben das letzte Wort
Die erfolgreiche Ausrottung des Pocken-Virus darf jedoch nicht darüber hinwegtäuschen, dass wir den Krieg gegen krankheitserregende Viren und Bakterien nie endgültig gewinnen werden. Schon Louis Pasteur sagte „Die Mikroben werden das letzte Wort haben.“ Bakterien und vor allem Viren verändern ihr Erbgut und damit auch ihre Eigenschaften viel schneller als wir neue Medikamente entwickeln können. Dies gilt umso mehr, als unsere Gesellschaft der Bekämpfung von Seuchen, so wie allen anderen langfristigen Zielen, viel zu wenig Beachtung schenkt. Das „Institut für Allergie und Infektionskrankheiten“ im US Bundesstaat Washington, DC, ist weltweit die größte Organisation zur Seuchenbekämpfung, doch ihr Jahresbudget von etwa fünf Milliarden Dollar ist nur etwa halb so groß wie der Betrag, den die Menschheit jedes Jahr für Kaugummi ausgibt.
Und Impfgegner gefährden mit ihrer Irrationalität sich selbst und ihre Mitbürger. ohne sich schuldig zu fühlen. „Dummheit ist nicht verantwortlich, denn ihre Krankheit ist, dass Verantwortung an ihr nicht haftet.“ Die deutsche Schriftstellerin Bettina von Arnim hat es bereits 1852 gewusst.
Weiterführende Links
Strategien gegen Ebola 16.11.2014
Im Gespräch mit der DW: Walter Lindner, Ebola-Beauftragter der Bundesregierung Deutschland
http://www.dw.de/strategien-gegen-ebola/av-18047359 12:07min
Der Ebola Virus
Natgeodocu, 07.10.2014
https://www.youtube.com/watch?v=OnYWDe7Hvq4 1:11:29
Der Kampf gegen Lungenentzündung
Der Kampf gegen LungenentzündungFr, 21.11.2014 - 08:35 — Bill and Melinda Gates Foundation
Lungenentzündung ist die Haupttodesursache bei Kindern unter fünf Jahren, wobei 99 % aller Todesfälle in Entwicklungsländern verzeichnet werden. Die Bill & Melinda Gates Foundation möchte in Zusammenarbeit mit Partnern (Pharmakonzernen, Regierungen, NGO’s, der Weltbank und globalen Gesundheitsorganisationen) die Entwicklung und Bereitstellung von Impfstoffen für Lungenentzündung verbessern und die Anwendung von Antibiotikatherapien und Diagnosetests ausweiten. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen.
Obwohl die Zahl der Todesfälle bei Kindern in den letzten 20 Jahren von 12,6 Millionen auf 6,6 Millionen zurückgegangen ist, bleiben Lungenentzündungen weiterhin weltweit die Haupttodesursache bei Kindern unter fünf Jahren. Trotz verfügbarer Maßnahmen starben 2011 1,3 Millionen Kinder an den Folgen einer Lungenentzündung. Das sind 18 % aller kindlichen Todesfälle. Fast alle Todesfälle waren in Entwicklungsländern zu beklagen, insbesondere in den afrikanischen Staaten südlich der Sahara und in Südasien.
Lungenentzündungen sind weltweit die Haupttodesursache von Kindern unter fünf Jahren. Neonatale Infektionen: hauptsächlich Lungenentzündungen und Sepsis; Angaben in % der Todesfälle. (Zahlen stammenvon UNICEF/WHO, Pneumonia: The forgotten killer of children, 2006. Abbildung von der Redaktion eingefügt)
Lungenentzündung ist eine durch verschiedene Viren und Bakterien ausgelöste Infektion und es sind mehrere Maßnahmen nötig, um die Kindersterblichkeit infolge dieser Krankheit zu senken. Für die Erreger Streptococcus pneumoniae (Pneumokokken) und Haemophilus influenzae Typ b (Hib), die häufigsten bakteriellen Erreger nach den ersten Lebensmonaten, gibt es Impfungen. Einige virale und bakterielle Erreger führen bei Kleinkindern unverhältnismäßig zum Tod bevor sie geimpft werden können.
Ein tödlicher Krankheitsverlauf kann bei Kindern mithilfe von Impfstoffen, Diagnosetests und Therapien verhindert werden, aber in den Entwicklungsländern stellen die Verfügbarkeit, der Zugang und die Kosten weiterhin Probleme dar. Schätzungen zufolge ist fast die Hälfte aller Kindestode infolge einer Lungenentzündung auf eine mangelhafte bzw. späte Diagnose und Therapie zurückzuführen. In Ländern mit beschränkten Ressourcen können Unterernährung, HIV-Infektionen und Luftverschmutzung das Risiko für Kinder, an einer Lungenentzündung zu erkranken, erhöhen.
Die Chance
Das weltweite Gesundheitswesen verfügt über die entsprechenden Hilfsmittel und entwickelt neue, um Kinder in Entwicklungsländern besser vor Lungenentzündung zu schützen.
Impfstoffe haben bereits dazu beigetragen, Lungenentzündungen bei Kindern wesentlich zu reduzieren Wir benötigen jedoch eine bessere Durchimpfungsrate und erschwingliche Impfstoffe für jene Länder, die besonders unter der Krankheit leiden, wie Indien und Nigeria. Wenn Frauen während der Schwangerschaft geimpft werden, können Sie die Antikörper an das Baby weitergeben und es schützen. Die Impfung von schwangeren Frauen muss allerdings noch ausgeweitet werden. Derzeit werden schwangere Frauen nur gegen Tetanus geimpft. Vor Kurzem hat die Weltgesundheitsorganisation (WHO) im Rahmen seiner Strategie, Grippetodesfälle zu vermeiden, die Impfung schwangerer Frauen gegen Grippe empfohlen. Die frühe Behandlung ist ein weiterer wichtiger Faktor. Bei einer rechtzeitigen Diagnose kann Lungenentzündung bei Kindern mithilfe einer Antibiotikatherapie über einen Zeitraum von drei Tagen für nur 21 bis 42 US-Cents behandelt werden.
Glücklicherweise steigt das Bewusstsein dafür, dass es sich bei Lungenentzündung um ein weltweites Gesundheitsproblem handelt. Im Jahr 2013 riefen die WHO und UNICEF den Global Action Plan for Pneumonia and Diarrhoea (GAPPD) ins Leben, um die Krankheit zu bekämpfen. Der GAPPD fordert den Einsatz bewährter Maßnahmen wie Impfungen gegen Masern, Keuchhusten, Pneumokokken und Haemophilus influenzae Typ b (Hib), ausschließliches Stillen bis zum sechsten Lebensmonat und eine verbesserte Führung der Einzelfälle in den Gemeinden.
Unsere Strategie
Die Strategie für Lungenentzündung der Bill & Melinda Gates Foundation reflektiert weitgehend den GAPPD-Ansatz „Protect, Prevent, Treat (Schützen, Vorbeugen, Behandeln)“. Unser Schwerpunkt liegt auf den häufigsten Ursachen von Lungenentzündung bei Kindern, d. h. Pneumokokken, Influenza und RSV und wir setzen auch unser langjähriges Engagement für Impfstoffe gegen Meningokokken fort. Diese Bakterien sind zwar nicht die Hauptursache für Lungenentzündung, können aber Meningitisepidemien auslösen. Außerdem entwickeln wir derzeit eine Plattform für die Impfung von Müttern, um Mütter und Kinder vor Erregern zu schützen, die vor allem bei Neugeborenen unverhältnismässig oft zum Tod führen können. Dazu gehören RSV, Influenza, Keuchhusten, Tetanus und Streptokokken der Gruppe A.
In einem Krankenhaus in Nairobi, Kenia, bereitet eine Krankenschwester eine Impfung gegen Pneumokokken vor.
Unser wichtigster Partner in den Bemühungen um einen breiteren Zugang zu Impfstoffen gegen Pneumokokken ist die GAVI Alliance, eine öffentlich-private Partnerschaft, die Impfstoffe für Kinder in den ärmsten Ländern der Welt finanziert. Durch Impfungen gegen Hib und Pneumokokken können in diesen Ländern das Leben von 2,9 Millionen Kindern gerettet und 52 Millionen neue Fälle von Lungenentzündung vermieden werden.
Unser Hauptanliegen ist die Förderung einer umfassenden Bereitstellung von aktuell verfügbaren Impfstoffen gegen Pneumokokken und Meningokokken sowie die Entwicklung neuer Impfstoffe für verbesserten Impfschutz sowie verbesserte Wirksamkeit, Sicherheit und Kosteneffizienz.
Impfstoffe schützen aber nicht gegen alle Fälle von Lungenentzündung . Daher setzen wir uns auch für einen verbesserten Therapiezugang in öffentlichen und privaten Gesundheitssystemen ein. Besonders in Ländern, die bei der Einführung von Impfstoffen im Rückstand sind, ist ein verbesserter Therapiezugang von entscheidender Bedeutung, wenn es um die Rettung von Menschenleben geht. Dazu gehören Interventionen an mehreren Punkten während der Behandlung, wie die Menschen davon zu überzeugen, medizinische Hilfe in Anspruch zu nehmen und informelle Dienstleistungsanbieter bei der Behandlung zu unterstützen.
Weitere Prioritäten sind die Verbesserung der krankheitsbezogenen Datenerfassung über Lungenentzündung, die Erhöhung des internationalen Spendenaufkommens und die Untersuchung der Zusammenhänge zwischen Lungenentzündung und Luftverschmutzung in geschlossenen Räumen.
Unsere Strategie wird durch die Bemühungen verschiedener anderer Stiftungsprogramme im Bereich der Impfstoffbereitstellung, Ernährung, Gesundheit von Müttern, Neugeborenen und Kindern sowie in Bezug auf Darm- und Durchfallerkrankungen ergänzt.
Fokusbereiche
Wir konzentrieren uns bei unserer Arbeit auf sieben vorrangige Initiativen: Pneumokokken, Meningokokken, Diagnose und Therapie, strategische Informationen und Interessengruppen, RSV, Influenza und Risikofaktoren. Obwohl Menschen aller Altersgruppen an Lungenentzündung erkranken, konzentrieren wir unsere Arbeit auf Kinder unter fünf Jahren
Pneumokokken
Pneumokokken sind die Hauptursache für Lungenentzündung und verantwortlich für 40 % aller Todesfälle bei Kindern unter fünf Jahren. Wir wollen einen breiteren Zugang zu den zwei kommerziell erhältlichen Pneumokokken-Konjugatimpfstoffen schaffen und gleichzeitig die Entwicklung, regulatorische Genehmigung und Bereitstellung neuer und verbesserter Impfstoffe fördern.
Gekühlte Lagerung eines Impfstoffs gegen Pneumokokken in Nairobi, Kenia.
Wir haben gemeinsam mit der GAVI Alliance das Advance Market Commitment for Pneumococcal Vaccines eingeführt, ein innovativer Finanzierungsmechanismus zur beschleunigten Zulassung von für Entwicklungsländer bestimmten Pneumokokken-Impfstoffen in der Endphase ihrer Entwicklung und Unterstützung der Herstellung. Um den Preis dieser teuren Impfstoffe zu senken, insbesondere in Gebieten, in denen viele Menschen an Lungenentzündung erkranken, arbeiten wir mit PATH und dem Serum Institute of India an der Entwicklung eines preisgünstigen Pneumokokken-Konjugatimpfstoffs.
Meningokokken
Um die ansteckende Meningitis A in Afrika auszurotten, fördern wir das Meningitis Vaccine Project, eine Zusammenarbeit von PATH, WHO, den Gesundheitsministern afrikanischer Länder und dem Serum Institute of India. Im Rahmen dieses Projekts wurde der erschwingliche Impfstoff MenAfriVac entwickelt. Der speziell für Afrika entwickelte Impfstoff schützt anhaltend gegen die lebensbedrohliche, von Meningokokkenerregern ausgelöste Meningitis, eine bakterielle Entzündung der Gehirn- und Rückenmarksflüssigkeit.
Einführung des Impfstoffs MenAfriVac in Burkina Faso im Jahr 2010. (Foto © PATH / Gabe Bienczycki)
MenAfriVac wurde erstmals 2010 in Burkina Faso eingesetzt. Seitdem haben mehr als 100 Millionen Menschen in Afrika südlich der Sahara den Impfstoff erhalten und erste Daten zeigen, dass er gegen den Ausbruch von Menikokken A wirksam ist. Die Menikokken-A-Bakterie wurde in fast allen geimpften Bevölkerungsgruppen ausgerottet. Mit unserer Strategie wollen wir sichergehen, dass auch Kleinkinder MenAfriVac erhalten und der Impfstoff in das Routineimpfprogramm aufgenommen wird. Wir setzen uns für weitere Forschungen und Überwachung der Entwicklung der Krankheit ein. Gegebenenfalls werden über diesen neuen Impfstoff hinaus noch weitere Maßnahmen benötigt.
Diagnose und Behandlung
Es ist dringend notwendig, Kinder mit schweren Atemwegserkrankungen angemessen medizinisch zu versorgen. Zahlreiche Kinder sterben, weil ihre Familie die Symptome nicht erkennen bzw. weil sie nicht frühzeitig ärztlich behandelt werden. Kinder, die zu einem Arzt gebracht werden, werden möglicherweise falsch diagnostiziert oder nicht richtig behandelt. Wenn die Krankheit bereits so weit fortgeschritten ist, dass besondere Kenntnisse oder bestimmte Geräte, wie zum Beispiel zur Sauerstoffversorgung notwendig werden, stehen diese eventuell nicht zur Verfügung oder sind nicht erreichbar.
Wir arbeiten eng mit anderen Stiftungsteams zusammen, um kranken Kindern Zugang zu wirksamen Behandlungsmöglichkeiten zu geben und konzentrieren uns dabei besonders auf Nigeria, den nördlichen Teil Indiens und Burkina Faso. Wir haben uns für diese Länder entschieden, da dort besonders viele Kinder unter Krankheiten leiden, eine große Bereitschaft zur Innovation besteht und wir auf starke Partnerorganisationen zurückgreifen können. Im Rahmen unserer Arbeit vermitteln wir medizinischem Personal die Fähigkeit, Anzeichen und Symptome von Lungenentzündung besser zu erkennen und wir wollen Frauen darin unterstützen, eigenständig medizinische Hilfe und Unterstützung zu fordern. Schließlich fördern wir die Entwicklung von schnellen Diagnosetests für Lungenentzündung und setzen uns für eine Verbesserung des Überweisungssystems für schwer erkrankte Kinder ein. In Ländern, die eine gemeindebasierte Fallführung verwenden, engagieren wir uns für die Nachhaltigkeit dieses Ansatzes und wir wollen die Gesundheitsversorgung durch kleine private Anbieter verbessern.
Strategische Informationen und Fürsprache
Wir investieren in die Erfassung und Auswertung qualitativ hochwertiger Daten zu den Ursachen von Lungenentzündung und ihrer globalen Belastung, die einen direkten Beitrag zur Impfstoffentwicklung, zu besseren Therapien und verbesserter Bereitstellung von Dienstleistungen, zu Innovationen bei Diagnosetests und Behandlungen sowie zu einer genaueren Auswertung der Todesfälle leisten.
Wir wollen auch vermehrt auf de Gefahren von Lungenentzündung für Kinder hinweisen. Zu unseren Prioritäten gehört die Sicherung ausreichender finanzieller Mittel für die wichtigen Impfstoffe und die Unterstützung von Interessengruppen im Bereich kindlicher Gesundheit. Wir fordern von den betroffenen Ländern und auch weltweit ein stärkeres politisches Bekenntnis zu evidenzbasierter Prävention und Behandlung von Lungenentzündung. Wir wollen mehr Finanzierung für Immunisierungsprogramme bekommen, um sicherzustellen, dass Regierungen wichtige Initiativen zur globalen Gesundheit wie z. B. den Global Vaccine Action Plan für die Decade of Vaccines konsequent begleiten.
RSV-Virus
Das RSV ist eine der Hauptursachen für Atemwegsinfektionen bei Kindern, vor allem in den ersten sechs Lebensmonaten. Im Gegensatz zu anderen Ursachen für Lungenentzündung, auf die wir mit unserer Strategie eingehen, gibt es keinen Impfstoff gegen RSV. Wir unterstützen die Entwicklung eines RSV-Impfstoffs für Mütter. Außerdem unterstützen wir eine bessere globale Datenerfassung zu Sterblichkeits- und Erkrankungsraten aufgrund einer RSV-Infektion sowie zu den langfristigen Folgen schwerer RSV-Erkrankungen. Mithilfe dieser Informationen können die potenziellen Auswirkungen und Kosteneffizienz von RSV-Impfstoffkandidaten beurteilt werden, die derzeit in der Entwicklungsphase sind.
Influenza
Es ist unser Ziel, influenzabezogene Daten in Entwicklungsländern zu vervollständigen, und existierende Strategien zur Steigerung der Nachfrage nach Impfungen gegen saisonale Influenza zu bewerten und Schwangeren und Kleinkindern in ressourcenarmen Regionen Zugang zu erschwinglichen und wirksamen Impfstoffen zu geben.
Existierende Influenzaimpfungen sind die Basis unserer Immunisierungsstrategie für Mütter und könnten den Weg für zusätzliche Impfungen für schwangere Frauen ebnen. In Zusammenarbeit mit globalen Partnern wollen wir wissenschaftliche, technische, regulatorische, operationelle und finanzielle Herausforderungen identifizieren und angehen , die sich bei einer Ausweitung der Immunisierung von Schwangeren stellen, die aber schwangere Frauen und deren Babys schützen. Wir unterstützen zudem Forschungsarbeiten, die sich mit den Auswirkungen einer Influenzaimpfung der Mutter auf die Entwicklung des Fötus befassen und arbeiten an der Entwicklung eines verbesserten Influenzaimpfstoffs für Kinder unter 2 Jahren.
Risikofaktoren
Wir wollen nicht nur die Immunisierung gegen Lungenentzündung ausweiten und Therapien verbessern, sondern auch das Risiko von Umweltfaktoren senken. Angemessene Ernährung und Stillen sind Bestandteil der Stiftungsstrategie und tragen wesentlich zur Entwicklung eines starken kindlichen Immunsystems zum Abwehren von Infektionen bei.
Auch die Reduzierung der Luftverschmutzung in geschlossenen Räumen kann das Risiko einer chronischen Lungenentzündung verringern. Wir investieren in Forschungsarbeiten, die den Zusammenhang zwischen Luftverschmutzung in geschlossenen Räumen und kindlicher Lungenentzündung im Hinblick auf eine Dosis-Wirkungsbeziehung untersuchen. Außerdem engagieren wir uns für verbesserte Überwachungstechnologien zur Messung individueller Partikelbelastung und zur Festlegung von Surrogatendpunkten für anschließende klinische Studien. Unsere Arbeit in diesem Bereich wird vorangebracht je mehr wir über die Verbindung zwischen Luftverschmutzung in geschlossenen Räumen und Lungenentzündung wissen.
* http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Pneumonia
Weiterführende Links
World Health Organzation (WHO)
-
Pneumonia: http://www.who.int/topics/pneumococcal_infections/en/
-
The Integrated Global Action Plan for the Prevention and Control of Pneumonia and Diarrhoea (GAPPD), by WHO/UNICEF: http://apps.who.int/iris/bitstream/10665/79200/1/9789241505239_eng.pdf?ua=1
Videos
-
Lungenentzündung, 1:35 min http://www.onmeda.de/video/lungenerkrankungen-11/lungenentz%C3%BCndung-v...
- Pneumonia, 4:44 min (einfaches Englisch) https://www.youtube.com/watch?v=aKduNgfePLU
- Jemen: Neue Impfung gegen Pneumokokken gibt Eltern Hoffnung (Video mit deutschen Untertiteln), 3:09 min https://www.youtube.com/watch?v=3WKcK-obk00
- The story of GAVI: the power of partnership: Video 1:35 min (englisch). https://www.youtube.com/watch?v=i7_f4JchhvQ&list=UUe7zpKgGM4RNBYK0ryXttLQ
Bill and Melinda Gates Foundation im ScienceBlog:
- 29.08.2014: Der Kampf gegen Darm- und Durchfallerkrankungen
- 27.06.2014: Der Kampf gegen Vernachlässigte Infektionskrankheiten
- 09.05.2014: Der Kampf gegen Tuberkulose
- 02.05.2014: Der Kampf gegen Malaria
Hochwässer – eine ökologische Notwendigkeit
Hochwässer – eine ökologische NotwendigkeitFr, 28.11.2014 - 08:52 — Mathias Jungwirth & Severin Hohensinner
Hochwässer und das mit ihnen verbundene Prozessgeschehen sind natürliche Ereignisse. Aus der Sicht der Ökologie stellen Hochwässer lebensraumerhaltende und damit absolut notwendige „Störungen“ dar. Die langfristige Erhaltung, Entwicklung und Restauration von Fließgewässern setzt daher die Initiierung/Wiederherstellung natürlicher Prozesse voraus.
Im vorangegangenen Artikel „Leben im Fluss nach (Extrem-) Hochwässern“ [1] hatten wir bereits dargestellt, wie Hochwässer als wichtige Komponente im Zuge des hydrologischen Geschehens ein dynamisches Gleichgewicht von Erosion, Umlagerung und Sedimentation, und damit stetige Erneuerung und Umgestaltung des Lebensraumes von Flusslandschaften garantieren. Die damit verbundenen Verjüngungs- aber auch Alterungsprozesse sind für die Tier- und Pflanzenwelt von elementarer Bedeutung, da sie eine enorme Vielfalt der Habitatausstattung und damit die hohe Artenvielfalt solcher Lebensräume bewirken.
Bettsedimente als Lebensraum
Betrachtet man ein Fließgewässer im Querschnitt, so stellt der Porenraum der aus Kies und Schotter bestehenden Bettsedimente, das sogenannte hyporheische Interstitial, den zentralen Lebensraum dar (Abbildung 1a). Die kleinräumige Morphologie der Bachsohle und die vom Bachwasser durchflossenen Sohlsubstrate werden von Geologie, Gefälle, Abfluss und Art der Feststoffe (Kies, Schotter, Sande etc.) bestimmt. Der Lebensraum der Bettsedimente reicht seitlich vielfach weit über das eigentliche Bachbett bzw. die Ufer hinaus und geht vertikal in den Grundwasserkörper über, der Lebensraum einer typischen Grundwasserfauna ist.
Während an der Oberfläche der Bettsedimente Algen sitzen, die mittels Photosynthese Biomasse produzieren, lebt im lichtlosen Porenraum der Sedimente eine ungeheure Vielfalt an kleinen tierischen Organismen, das sogenannten Makrozoobenthos (MZB). Dies sind vor allem Insektenlarven, Kleinkrebse, Schnecken und Muscheln. Im Durchschnitt finden sich rund 30 000 - 100 000 derartige Organismen unter 1 m2 Sedimentoberfläche (Abbildung 1b). Sehr klein, aber mit einer insgesamt hohen Biomasse und Produktion, sind es zudem Bakterien, Pilze und andere Mikroorganismen, die in Form von Biofilmen jedes Substratkörnchen überziehen. Zusammen mit dem MZB bilden sie den „Bioreaktor“ der Bettsedimente, der die enorme Selbstreinigungskraft von Fließgewässern ausmacht.
Abbildung 1. Querschnitt durch ein Bachbett. a) Der Porenraum der Bettsedimente (das hyporheische Interstitial) ist b) Lebensraum für eine Vielzahl an benthischen Organismen: photosynthetisch aktive Algen an der Oberfläche und repräsentative Vertreter des Makrozoobenthos.
Das MZB und die Mikroorganismen stellen aber auch wertvolle „Bioindikatoren“ für die Qualität bzw. Güte unserer Fließgewässer dar. Zudem sind die Organismen der Bettsedimente auch die wichtigste Nahrungsquelle der Fische. Der Porenraum der Bettsedimente selbst dient darüber hinaus auch einer Reihe typischer Fischarten unserer Fließgewässer als Laichplatz und Bruthabitat.
Fische laichen auf und in den Kies…
Kieslaicher, wie Forelle, Äsche und Huchen, vergraben ihre Eier je nach Fischart und Größe in einer Tiefe von 10 – 20 cm des Interstitials. Im Gegensatz dazu kleben Substratlaicher – beispielsweise Barbe, Nase und Nerfling – ihre Eier an die oberflächlichen Substrate (Abbildung 2). Dass dabei Hochwässer für den Reproduktionserfolg der Kieslaicher enorm wichtig sind, sei am Beispiel der für alpine Gewässer typischen Bachforelle aufgezeigt.
Abbildung 2. Kieslaicher vergraben ihre Eier (orange) im Interstitialraum, Substratlaicher kleben sie oberflächlich an.
…Hochwässer bestimmen den Reproduktionserfolg der Kieslaicher
Die Laichzeit der Bachforelle fällt in den Spätherbst. Durch ruckartige seitliche Drehung des Körpers (Abbildung 3) schlagen die weiblichen Tiere ihre Laichgruben bevorzugt im flussaufwärts gelegenen Teil rasch überströmter Kiesfurten. Erfolgreiches Ablaichen ist allerdings nur dann gegeben, wenn der Kies einen durchschnittlichen Korndurchmesser von 10 – 40 mm aufweist und der Feinsedimentanteil weniger als 12 % beträgt. Höhere Anteile von Feinmaterial bewirken eine Verlegung des Porensystems und damit eine Reduktion der Frischwasser-und Sauerstoffversorgung, Grundvoraussetzung für das Überleben von Eiern und Fischlarven.
Das Ausspülen der feinen Teilchen besorgen Hochwässer, indem sie die Bettsedimente wiederkehrend einem „turnover“ unterziehen. Entfallen derartige Spülungen, nimmt das Ausmaß funktionsfähiger Laichplätze drastisch ab.
Die ersten Lebensstadien der Bachforelle
Wo Wasser in die Bettsedimente einströmt, ist der ideale Platz für die Platzierung der Eier. Die Inkubationszeit der Eier von der Befruchtung, über das sogenannte Augenpunktstadium bis hin zum Schlüpfen der Larven hängt von der Wassertemperatur ab und dauert zwischen 5 Wochen und mehrere Monate. Die mit einem großen Dottersack ausgestatteten Larven dringen nach dem Schlüpfen aktiv tief in das Interstitial ein, wo sie vor Winterhochwässern und dem damit verbundenen Geschiebetrieb geschützt sind (Lachslarven fand man sogar in einer Tiefe der Bettsedimente von mehreren Metern). Erst nach weitgehender Resorption des Dottersackes, etwa 1 – 2 Monate nach dem Schlüpfen, wandern die Forellenlarven wieder an die Sedimentoberfläche, um dort die ersten Jungfischhabitate einzunehmen.
Auch für die Jungfische bleiben gut strukturierte Bettsedimente eine entscheidende ökologische Größe. Im Hinblick auf die Substratsortierung und damit die kleinmaßstäbliche Habitatausstattung der oberflächlichen Bettsedimente sind erneut Hochwässer, speziell die bettbildenden Wasserführungen beim Abklingen solcher Ereignisse, verantwortlich. Abbildung 3. Vom Schlagen der Laichgrube zur Eiablage und zum Jungfisch. Der Reproduktionserfolg der Bachforelle hängt von der Struktur der Bettsedimente ab. Diese müssen locker und gut durchströmt sein und dürfen während der relativ langen Entwicklungsdauer der Eier und frühen Larven nicht umgelagert werden.
Hochwässer in richtigem Ausmaß
Das erste Lebensstadium der Bachforelle von der der Eiablage bis zum Verlassen der Bettsedimente (Abbildung 3) dauert im Durchschnitt ein halbes Jahr. Während dieser Phase sind die Tiere auf funktionsfähige Bettsedimente angewiesen. Weder bei zu stark verdichtetem Material – wenn vor Beginn der Laichzeit das Hochwasser ausblieb und deshalb das Sediment nicht gelockert und gereinigt wurde – noch bei zu starken Hochwässern während des ersten Lebensstadiums im Winter, gibt es ausreichendes Fischaufkommen.
Diesen Zusammenhang zwischen Auftreten und Ausmaß von Hochwässern und Aufkommen junger Bachforellen haben Wissenschaftler vom WasserCluster Lunz u.a. am Ois-Fluss belegt. Dabei wurden über eine 12-jährige Untersuchungsperiode in regelmäßigen Intervallen die Durchflussraten und die Populationsstruktur der Bachforelle bestimmt [2].
In vielen Flüssen gibt es heute kaum noch natürliche, durch Hochwassergeschehen entsprechend freigespülte Laichplätze. Um das Sediment aufzurühren und es von Verdichtung und Verstopfung zu befreien, werden z.B. in Dänemark oder Bayern Bagger als „Hochwassersatz“ eingesetzt.
Restauration von Flusslandschaften
Hochwässer und die durch diese geprägten Prozesse sind natürliche und zugleich notwendige Störungen. Sie spielen ökologisch eine wichtige Rolle, beispielsweise hinsichtlich der Selbstreinigung oder der Grundwasserneuerung. Essenziell ist ihre Funktion im Hinblick auf die Biodiversität, da sie vielfältige Lebensräume auf unterschiedlichster Maßstabsebene generieren, und damit die Basis für eine artenreiche Besiedelung schaffen. Bleiben Hochwässer aus, altern die Flusslandschaften und verarmen hinsichtlich ihrer Fauna und Flora. Letztlich sind damit aber häufig auch Einschränkungen wasserwirtschaftlichen Nutzungen, beispielsweise hinsichtlich der Hochwasserretention oder der Trinkwassergewinnung verbunden.
Wie lassen sich Fließgewässer schützen und intakt erhalten, wieweit können durch Regulierungen und Wasserkraftwerke gestörte Flusslandschaften restauriert werden?
Diese Fragestellungen stehen seit Jahrzehnten im Fokus des Instituts für Hydrobiologie und Gewässermanagement an der der Universität für Bodenkultur [3]. Entsprechend dem komplexen Charakter von „Flusslandschafts-Ökosystemen“ bedarf es dazu einer breiten interdisziplinären Zusammenarbeit von VertreterInnen verschiedenster Fachrichtungen, wie Biologie, Ökologie, Hydrologie, Landschaftsplanung, Geographie etc. bis hin zu Wasserbau und Gewässermanagement.
Bei der Konzeption und Planung größerer Restaurationsvorhaben stehen zwei Aspekte im Vordergrund. Einerseits besteht ein wichtiges Ziel darin, dem ehemaligen Gewässertyp entsprechende und damit leitbildkonforme Prozesse wiederherzustellen. Andererseits geht es um die Frage, wie dafür ausreichend Flächen zur Verfügung gestellt werden können.
Die Revitalisierung der Drau bei Kleblach (Abbildung 4) ist dafür ein erfolgreiches Beispiel. Hier konnten im Rahmen mehrerer Projekte zahlreiche Landwirtschaftsflächen angekauft und ins öffentliche Wassergut übergeführt werden. Nach anfänglich noch vergleichsweise detaillierter Gestaltung im Rahmen der Bauarbeiten ging man später im Rahmen eines jüngeren EU-Life Projekts [4] dazu über, nur mehr „Initialzündungen“ zu setzen. Dazu wurden Grabensysteme ausgehoben und deren weitere flusstypische Entwicklung der dynamischen Kraft von Hochwässern überlassen. Das folgende Monitoring belegte eine insgesamt stark steigende Biodiversität, aber auch wasserwirtschaftlich relevante Verbesserungen hinsichtlich des Grundwasserhaushaltes und des Hochwasserschutzes. Abbildung 4. Revitalisierung der Drau bei Kleblach. Vorher: 1999 war der Fluss beidufrig mit Steinwurf fixiert und durchgehend 40 m breit. Nachher: Breit aufgeweitet, unterliegt der Fluss der prägenden Kraft von Hochwässern.
EU-Life Projekte
Bei Flussrevitalisierungen im Rahmen von EU-Life Projekten hat Österreich eine Vorreiterrolle. Besonders viele Projekte gibt es an der Donau [5], von denen einige bereits realisiert sind – beispielsweise in den Bereichen von Dürnstein und Melk (Abbildung 5). Andere Projekte befinden sich noch in Bau oder bedürfen noch der Bewilligung.
Wie an der Drau gilt auch hier, möglichst große Flächen anzukaufen und in das öffentliche Wassergut überzuführen. Möglichst wenig zu bauen und das natürliche Prozessgeschehen zu fördern, ist auch hier die Maxime. Unter dem Titel “let the river do its work” entstanden an der Donau im Rahmen mehrerer Projekte wieder sehr schön strukturierte Abschnitte. Die Fischfauna reagiert darauf, donautypische Arten wie Nase und Huchen zeigen bereichsweise wieder erstarkte Bestände mit natürlicher Reproduktion.
Nicht zuletzt entstehen auf diese Weise aber auch für den Menschen wieder wertvolle Erholungsräume. Wie zahlreiche Beispiele zeigen, werden z.B. die neuen Schotterbänke und Kiesinseln entlang der Donau umgehend intensiv zum Baden genutzt (Abbildung 5). Abbildung 5. Revitalisierungen an der Donau: die Fischfauna erholt sich, Kiesufer werden wieder zu Badestränden.
Fazit
- Hochwässer sind natürliche und ökologisch notwendige „Störungen“.
- Dynamisches Prozessgeschehen bei Hochwasser ist Grundvoraussetzung für hohe Biodiversität, d.i. Habitat- u. Artenvielfalt.
- Die nachhaltige Erhaltung, Entwicklung und Restauration von Fließgewässern ist eine komplexe Aufgabe.
- Wesentliche Voraussetzungen dafür sind „Integrative Planung,” Bereitstellung ausreichender Flächen und Initiierung/Förderung natürlicher Prozesse.
Von der Erhaltung/Wiederherstellung dynamischer Flusslandschaften profitiert nicht zuletzt der Mensch: derartige Ökosysteme garantieren Grund-/Trinkwasser hoher Qualität, ergeben Verbesserungen hinsichtlich des Hochwasserschutzes, der Fähigkeit zur Selbstreinigung etc. und bieten schließlich viele Möglichkeiten für Freizeit und Erholung.
[1] Der Artikel basiert auf dem zweiten Teil des Vortrags, den Mathias Jungwirth anlässlich der Tagung „Land Unter - Leben mit Extremhochwässern“ an der ÖAW gehalten hat. E
Der erste Teil des Vortrags ist bereits erschienen: Leben im Fluss nach (Extrem-) Hochwässern. Teil 1: Intakte und gestörte Flusslandschaften. http://scienceblog.at/leben-im-fluss-nach-Extrem-Hochwässern-1 [
2] Unfer, G., Hauer, C. & Lautsch, E. (2011): The influence of hydrology on the recruitment of brown trout in an Alpine river, the Ybbs River, Austria. Ecology of Freshwater Fish, 20, 438-448.
[3] Institut für Hydrobiologie und Gewässermanagement: http://www.wau.boku.ac.at/ihg/
[4] EU-Förderprogramm LIFE: http://www.bmlfuw.gv.at/umwelt/natur-artenschutz/life-natur/life-natur-e...
[5] Jungwirth, M., Haidvogl, G., Hohensinner, S., Waidbacher, H. & Zauner, G. (2014): Österreichs Donau. Landschaft – Fisch – Geschichte. Institut für Hydrobiologie & Gewässermanagement, BOKU Wien.
Weiterführende Links
Hochwasser im Machland 1812 (Rekonstruktion auf YouTube), Video 0:47 min: http://youtu.be/HqCdEsM6r_U?list=PL40A6EA54EF903919
Institut für Hydrobiologie und Gewässermanagement, Universität für Bodenkultur, Wien:
Das Unsichtbare sichtbar machen
Das Unsichtbare sichtbar machenSo, 16.11.2014 - 08:00 — Redaktion
Weil sich unendlich vieles rund um uns abspielt, das wir mit unseren Augen nicht direkt wahrnehmen können. Etwa, wenn sich Vorgänge für unsere Zeitwahrnehmung zu schnell abspielen und wir sie erst entsprechend verlangsamen müssen. Oder, wenn sie zu langsam ablaufen und wir sie erst entsprechend beschleunigen müssen, um sie wahrnehmen zu können.
Die direkte Wahrnehmung allzu großer Raumdimensionen ist uns erst nach entsprechender Verkleinerung möglich. Auch Lebewesen aus längst vergangenen Zeiten können heute auf Basis wissenschaftlicher Daten am besten durch Science Visualization korrekt wieder lebendig gemacht werden.
Das Unsichtbare sichtbar machen – Science Visualization
Science Visualization arbeitet mit wissenschaftlichen Methoden – in erster Linie natur- und computerwissenschaftlichen -, die mit visueller technischer und ästhetischer Kompetenz verbunden werden. Es geht hier vor allem um die Vermittlung zwischen der Scientific Community und anderen Bereichen der Gesellschaft. Die Ausdrucksmöglichkeiten von Visualisierungen sind dafür inzwischen unumgänglich geworden. Da gerade an einer Kunstuniversität das Wissen um die Kraft des Bildes in besonderem Maße vorhanden ist, wird das Zusammenwirken von visuell-ästhetischer und naturwissenschaftlich-technologischer Kompetenz begünstigt. An der Angewandten wurde der Bereich Science Visualization etabliert.
Alfred Vendl und sein Team zeigen eine Schau über die Tätigkeit der letzten 15 Jahre der Gruppe ‚Science Visualization‘ an der Angewandten. In Zusammenarbeit mit in- und ausländischen WissenschafterInnen spezialisierte sich die Gruppe vor allem auf die authentische Visualisierung von Vorgängen in der Mikrowelt (Atome bis Mikrolebewesen).
Viele Visualisierungen wurden durch TV-Dokumentationen wie ‚Universum‘ bekannt. Der große Unterschied zu 3D-Animationsfilmen liegt darin, dass es sich um die authentische Wirklichkeiten handelt und um keine Schöpfungen aus Grafikbüros. Dazu wurden Techniken am Rasterelektronenmikroskop entwickelt.
Vendl, gelernter Kameramann und Absolvent des Studiums der technischen Chemie, habilitierte sich an verschiedenen internationalen Universitäten und war von 1981 bis 2014 Professor an der Universität für angewandte Kunst. Er arbeitet auch als Regisseur von TV-Dokumentationen und als Leiter wissenschaftlicher TV-Gespräche. Neben zahlreichen internationalen Auszeichnungen erhielt er 2008 den Emmy (bedeutendster TV-Preis in den USA) für ‚Nature Tech‘.
Ausstellungsdauer: noch bis 12.12.2014, Mo bis Sa von 14 bis 19 Uhr
Ort: Heiligenkreuzer Hof, Refektorium / Ausstellungszentrum der Universität für angewandte Kunst Wien. 1010 Wien, Schönlaterngasse 5 , Stiege 8, 1.Stock
Darm_Giardia_Ecoli_Krankheitserreger, Industrial Motion Art, Science Visualization - die Angewandte, ©Terra Mater
Tardigrade-Bärtierchen, ©Science Visualization - die Angewandte, Industrial Motion Art
Wassertropfen auf der Haut, Industrial Motion Art, Science Visualization - die Angewandte, ©Terra Mater
Um einen Vorgeschmack zu bekommen:
Dokumentation "Grenzen der Wahrnehmung"
Film von Alfred Vendl und Steve Nicholls
Von den entferntesten Quasaren, Milliarden Lichtjahre von der Erde entfernt, zu den Wundern unserer Biosphäre bis hin zu den Strukturen von Molekülen und Atomen.
Teil 1: 9:44 min: https://www.youtube.com/watch?v=JveZ-tr608o&list=PL4tCGWrq31JZP42VmwgYPj...
Teil 2: 9:59 min; https://www.youtube.com/watch?v=FPURp2kKKXU&list=PL4tCGWrq31JZP42VmwgYPj...
Teil 3: 9:45 min; https://www.youtube.com/watch?v=eHQ-ee5QgP0&index=3&list=PL4tCGWrq31JZP4...
Teil 4: 10:00 min; https://www.youtube.com/watch?v=eHQ-ee5QgP0&index=3&list=PL4tCGWrq31JZP4...
Teil 5: 6:42 min; https://www.youtube.com/watch?v=gTwLFSQwTPU&list=PL4tCGWrq31JZP42VmwgYPj...
Teil 6: 4:55 min; https://www.youtube.com/watch?v=sc_V6rM6aco&list=PL4tCGWrq31JZP42VmwgYPj...
The incredible Waterbear 4:34 min; https://www.youtube.com/embed/cp1WwNE6Lms?feature=player_embedded%22%20f...
Die Böden der Erde: Diversität und Wandel seit dem Neolithikum
Die Böden der Erde: Diversität und Wandel seit dem NeolithikumFr, 14.11.2014 - 12:29 — Hans-Rudolf BorkSeit frühester Zeit beeinflusst der Mensch die Böden der Erde. Um Ackerbau und Tierhaltung betreiben zu können, werden weite Gebiete entwaldet und übernutzt – Erosion und Zerstörung der Böden sind die Folge. Auf einer Reise in verschiedene Regionen der Erde zeigt uns der Ökosystemforscher Hans-Rudolf Bork (Universität Kiel), wie sich die Böden dort entwickelt haben und welche Konsequenzen daraus entstanden sind[1].
Seit Jahren diskutieren wir in der Scientific Community und in der Öffentlichkeit über den Klimawandel, den demographischen Wandel, die ökonomische Globalisierung und die Biodiversität. In diesem Diskurs vergessen wir allerdings den Boden, der Grundlage des terrestrischen Lebens ist, und eine fundamentale Rolle als Speicher für Wasser und Nährstoffe aber auch für Schadstoffe spielt.
Über Böden sollte also viel mehr gesprochen werden. Mein Artikel stellt dieses Thema in den Mittelpunkt. In einer Reise zu verschiedenen Regionen unserer Erde möchte ich die Entwicklung der Böden an Hand von repräsentativen Beispielen aufzeigen.
Was ist überhaupt ein Boden, wo und wie entwickelt er sich?
Böden sind das Resultat komplexer Wechselwirkungen von physikalischen, chemischen und biotischen Prozessen. Böden hängen ab von der Bodenwasserbewegung, den Stofftransporten und Stoffumsetzungen im Boden, vom Bodenleben und heute in ganz starkem Maße von Eingriffen und Einflüssen der Menschen.
In der Regel entwickeln sich Böden parallel zur Geländeoberfläche und zwar überwiegend in den oberen 1 – 2 m des Fest- und Lockergesteins. In den immerfeuchten Tropen können Böden aber auch bis einige 10 m mächtig werden. Geringmächtige Böden, mit einer Tiefe bis zu einigen cm, entwickeln sich über wenige Jahre, tropische Böden benötigen z.T. mehrere zehntausende Jahre.
Über die Zeit wandelt sich die Diversität im Boden, einerseits durch natürliche Prozesse der Boden- und Reliefentwicklung, andererseits durch Eingriffe des Menschen, beispielsweise infolge von Ackerbau und Forstwirtschaft, Be- und Entwässerung. Viele dieser Prozesse verlaufen langsam über Jahrhunderte bis Jahrtausende, nach Extremereignissen können auch Stunden oder Tage zur Veränderung ausreichen. In diesem beständigen Wandel spielt der Mensch eine ganz entscheidende Rolle – ein Faktum, das man in vielen aktuellen Lehrbüchern der Bodenkunde noch nicht finden kann.
Reise in verschiedene Regionen der Erde: 1. Station China
Ackerbau begann auf dem nordchinesischen Lössplateau im Neolithikum. In den ersten Jahrtausenden war es den Menschen aber offensichtlich nicht möglich, die Böden in ihrer Qualität, ihrer Fruchtbarkeit zu erhalten. Es gab auf steilen Hängen starke Erosion während intensiver Niederschläge, ein etwa 2 m mächtiger rotbrauner Boden (eine sogenannte Parabraunerde) wurde flächenhaft fast vollständig abgetragen und dazwischen rissen während extremer Starkniederschläge riesige Schluchten ein (Abbildung 1, Mitte oben).
Nachhaltige Bodennutzung
Etwa 4 500 Jahre v. Chr. gelang es den Ackerbauern eine Jahrtausende währende Phase nachhaltiger Bodennutzung einzuleiten, die Bodenqualität zu erhalten und zu verhindern, dass selbst tausendjährliche Regenereignisse den Boden stark erodierten (Abbildung 1, Mitte unten). Das wesentliche Geheimnis hinter dem enorm erfolgreichen Bodenschutz lag in einer Verkleinerung der Äcker: wurde Material abgespült, verblieb es auf dem eigenen winzigen Acker und wuchs mit der Zeit zunächst zu kleineren und schließlich zu hohen Terrassen auf.
Abbildung 1. Bodennutzung auf dem Chinesischen Lössplateau. Nicht-nachhaltige Bodennutzung vormehr als 4500 v. Chr. (rot; Yanjuangou bei Yan), nachhaltige Bodennutzung (grün; das Beispiel zeigt eine 10 m hohe und über 80 m breiteTerasse, die sich in den vergangenen 5 -6000 Jahren dort gebildet hat). (Quelle: Bork & Dahlke 2006, 2012, Winiwarter & Bork 2014)
Der „Große Sprung nach Vorne“
Der Beginn dieser Massenkampagne beendete im August 1958 die Phase nachhaltiger Landnutzung. Unter dem Basismotto „wir wagen die Worte des Konfuzius mit Füßen zu treten“ wurden Volkskommunen – riesige Landwirtschaftsbetriebe – eingerichtet und damit die Landschaftsstrukturen verändert. Man hat neue Züchtungen versucht, neue Feldfrüchte, veränderte Fruchtfolgen. Riesige Gebiete – von der Größe der Niederlande, Belgiens, Deutschlands und Frankreichs zusammengenommen – wurden innerhalb von etwa drei Monaten entwaldet, vor allem, um neue Industrien aufzubauen und zu betreiben. Als Folge entstanden sehr starke Bodenveränderungen, extrem starke Bodenerosion und die Nutzfläche schrumpfte. Die Menschen waren im Wesentlichen mit den neuen Sozialstrukturen beschäftigt und verloren fast gänzlich ihr Interesse an Boden- und Gewässerschutz für die ehemals eigenen Äcker.
Es gab politische Fehleinschätzungen und -entscheidungen. Beispielsweise hat man die Lebensmittelrationierungen beendet, weil man davon ausging, dass die Massenkampagne von Erfolg gekrönt sein würde. Dies war nicht der Fall – ohne dass natürliche Extremereignisse eingetreten wären, gab es eine dramatische Hungersnot, die wohl weit mehr als 30 Millionen Menschen das Leben kostete.
Nach dem Ende der Kampagne hat man die Volkskommunen wieder aufgelöst und versucht, einige der alten Landschaftsstrukturen wieder herzustellen. Dies gelang aber nur in sehr eingeschränktem Maße. In den späten 1990er und beginnenden 2000er Jahren wurden mit großen Maschinen riesige Terrassen angelegt. Diese erweisen sich nun aber als instabil, haben sehr große Rutschungs- oder Erosionsanfälligkeit.
Die Situation hat sich also seit den 1950er Jahren immer mehr verschlechtert.
Die Reise geht weiter: Mitteleuropa
Zum Unterschied zu China können wir hier keine Phasen langer nachhaltiger Bodennutzung nachweisen.
Ein Beispiel aus dem Westen Schleswig-Holsteins zeigt ein komplexes Bodenprofil – sehr stark degradierte Böden, sogenannte Podsole. Die ersten von Menschen beeinflussten Böden haben sich schon im Neolithikum entwickelt, die jüngsten unter einem Nadelwaldbestand (Abbildung 2). Es hat immer wieder einen Wechsel gegeben von Waldentwicklung, Waldnutzung, Rodung, Ackerbau, Erschöpfung der Böden, Heidevegetation und einer Podsolbildung, also sehr starker Bodenverarmung.
Abbildung 2. Ein Bodenprofil aus Schleswig Holstein zeigt stark degradierte Böden. Dauer der nicht-nachhaltigen Landnutzung (rot) auf der Zeitskala links.
Wölbäckerbildung
Ein weiteres Beispiel stammt aus einem Gebiet im südlichen Niedersachsen. Vor über 15 000 Jahren entstanden dort Lössablagerungen, die vor etwa 15000 bis 13 000 Jahren durch Bodenfließen langsam den Hang hinunter wanderten. In den folgenden Jahrtausenden fand unter dem dann bewaldeten Gebiet Bodenbildung statt. Diese wurde im Mittelalter durch den Ackerbau mit seiner spezifischen Pflugtechnik unterbrochen – die Pflüge wendeten die Ackerkrume nur in eine Richtung. Es entstanden Wölbäcker – Äcker, die sehr lang und sehr schmal waren und bei denen das Bodenmaterial vom Rand zur Mitte aufgepflügt wurde. Dadurch wurden die Äcker in der Mitte immer höher, an den Rändern immer tiefer (Abbildung 3).
Abbildung 3. Wölbackerbau - Erhöhung der Bodendiversität und Bodenerosion. Links: Vom Boden der sich über Jahrtausende oberflächenparallel entwickelt hat zur Wölbackerflur und deren Verfüllung. Rechts: In den Aufschlüssen in Rüdershausen/Niedersachsen kann die Geschichte des Bodens wie in einem Buch gelesen werden. (Quelle: H-R. Bork)
Extremniederschläge vom 19. bis 23. Juli 1342 führten zur Katastrophe (damals floss bis zu 100-mal mehr Wasser die Flüsse hinunter als bei den Überschwemmungen 2002 und 2013 an Donau und Elbe). Große Wassermengen bewegten sich auch in den Furchen zwischen den Wölbäckern abwärts. Dabei rissen, ausgehend von den Furchen, bis zu 10 m tiefe, hunderte Meter lange Schluchten ein, die später zusammenbrachen. (Wäre das Gebiet bewaldet geblieben, hätte der jährliche Niederschlag kaum Veränderungen der Böden hervorgerufen.)
Im Verlauf von nur einer Woche verloren manche Orte in hügeligen Lößgebieten und in den tieferen Lagen der Mittelgebirge mehr als 50% ihres Garten- und Ackerlandes; etwa ein Drittel der gesamten, innerhalb der letzten 1500 Jahre entstandenen Bodenverluste in Mitteleuropa ging in diesen wenigen Tagen durch Erosion verloren.
Während im beginnenden Frühmittelalter noch der weit überwiegende Teil Mitteleuropas bewaldet war, erreichte nach umfangreichen Rodungen die Waldausdehnung um 1300 ihr Minimum. Weniger als 20% der Fläche Mitteleuropas waren noch waldbedeckt, riesige Gebiete in Acker- und Dauergrünland überführt worden. Dort vermochten extreme Niederschläge zu wirken. Sie erodierten furchtbare Böden und zerstörten Ackerland. Zehntausende Dörfer wurden im Spätmittelalter aufgegeben. Die ehemaligen Äcker bewaldeten sich wieder und neue Böden entstanden. Die Bodendiversität hat sich durch die Kombination anthropogener Eingriffe und natürlicher extremer Ereignisse sehr erhöht.
Station 3: der pazifische Nordwesten der USA
Die Landschaft des Palouse im Südosten des Staates Washington war über Jahrhunderte von indigenen Jägern und Sammlern nachhaltig genutzt worden. In den 1870/80er Jahren begannen europäisch-stämmige Farmer den Boden zu bearbeiten (Motto „breaking the virgin prairie the hard way“) und es trat erstmals leichte Erosion in den Tälern auf. Um 1935 war die Mechanisierung so weit fortgeschritten, dass die gesamte Lösslandschaft ackerbaulich genutzt werden konnte. Im einer 2jährigen Fruchtfolge wurde im 1. Jahr Weizen angebaut, im 2. Jahr ließ man die Felder brach liegen. Auf den Brachflächen spülten Starkniederschläge die Böden fort. Um das Einreißen von Schluchten zu verhindern, wurden kleine Erosionsrinnen glatt gepflügt, viele Male jedes Brachjahr. So wurden nur durch die Pflugtätigkeit die Kuppen seit 1935 um mehr als 1,5 m tiefer gelegt. Die früher hier dominierenden Schwarzerden sind überwiegend abgetragen oder begraben, die Bodendiversität hat sich stark zum Nachteil des Ackerbaus verändert – heute ist die Landwirtschaft mit viel größerem Aufwand verbunden.
Station 4: die Osterinsel
Nach der Besiedlung im ersten nachchristlichen Jahrtausend lebten die Menschen in einem Palmenwald, wo sie Gartenbau betrieben, fruchtbare Böden (Anthrosole) schufen und über Jahrhunderte erhielten. Um 1200 begannen dann Rodungen, denen mehr als 16 Millionen Palmen zum Opfer fielen, auf den nun freien Flächen setzte Wind- und Wassererosion ein. Starkregen verlagerten und zerstörten die fruchtbaren Böden – die Lebensgrundlage der kleinen Population von wenigen tausend Menschen (Abbildung 4).
Die Menschen haben dann eingegriffen, über eine Milliarde Steine auf ihre Gärten gelegt und damit Bodenerosion verhindert. Über Jahrhunderte war dies ein perfekter Bodenschutz – natürlich war es mühselig für Pflanz- und Erntevorgänge immer Steine zur Seite zu räumen.
Im vorigen Jahrhundert kam die Phase der europäischen Landnutzung. Schaf-, Rinder- und Pferdehaltung und intensive jährliche Feuer zerstörten die Pflanzendecke und ermöglichten Erosion dort, wo keine Steine hingelegt worden waren; große Schluchten rissen ein.
Abbildung 4. Perioden der Bodennutzung auf der Osterinsel. Nachhaltige (grün) und nicht-nachhaltige Landnutzung (rot) auf der Zeitskala im schwarzen Insert.
Das Ende der Reise: Südäthiopien
Im Hochland von Chencha in Südäthiopien wurde seit über 800 Jahren erfolgreich Terrassengartenbau betrieben, der die Bodenfruchtbarkeit erhielt.
Seit den 1960er Jahren hat sich die Situation gewandelt. Verbesserte Gesundheitsversorgung, damit eine reduzierte Sterberate und der Glauben von Eltern, dass viele Kinder eine bessere Altersversorgung ermöglichen, haben zu starkem Bevölkerungswachstum geführt. Praktisch alle nutzbaren Flächen wurden in Nutzung genommen, sowohl im Hochland, als auch im Großen ostafrikanischen Grabenbruch und dessen sensiblen Randstufen. Viele neue Pfade mit trittverdichteten Böden entstanden. Viele Terrassen, die über Jahrhunderte gut funktioniert hatten, wurden geschliffen, um einfacher bewirtschaften zu können.
Das Ausmaß der Bodenzerstörung nahm zu, wodurch die Ernährungsgrundlage nun immer mehr verloren geht. Ochsen, welche die Pflüge gezogen haben, können oft nicht mehr ernährt werden, Menschen übernehmen deren Tätigkeit und pflügen – mit Harken hacken sie den harten Boden auf.
Es verwundert nicht, wenn ein Plakat im Eingangsbereich der Universität von Adis Abeba propagiert: Wohlstand für eine Familie mit 2 Kindern, Armut für Familien mit vielen Kindern.
Fazit
- Man kann feststellen, dass die Dynamik von Bodenentwicklung, Bodendiversität und Bodenzerstörung mit dem Garten- und Ackerbau zugenommen hat - zunächst in Vorderasien beginnend vor 10 000 – 12000 Jahren, vor einigen Jahrtausenden in Ost- und Südostasien, in weiten Teilen Europas, im äthiopischen Hochland und in einigen Regionen Süd-und Mittelamerikas.
- Einigen Gesellschaften ist es gelungen eine hohe Bodenfruchtbarkeit zu erhalten, nur ganz wenige Gesellschaften haben selbst fruchtbare Böden geschaffen, wie auf der Osterinsel oder im Amazonasraum (mit der „Terra preta do indio“). Insgesamt hat aber die Anzahl der Gesellschaften, welche fähig sind, Böden nachhaltig zu nutzen und die Bodenzerstörung zu minimieren, seit dem 14. Jh. stark abgenommen, also seit Europäer die Erde kolonisiert haben.
- Sehr viele der heute weltweit praktizierten Bodenschutzmaßnahmen sind Fehlschläge, weil sie oft von einseitig ausgebildeten Technikern ausgeführt werden und das Gesamtverständnis für den Boden als Teil des Ökosystems vollkommen fehlt.
- Wir müssen feststellen, dass – im Gegensatz zu den Wissenschaftlerinnen und Wissenschaftlern – die Öffentlichkeit das Verschwinden der Böden heute kaum wahrnimmt.
Der Verlust der Böden ist also ein Kernproblem der Menschheit, das es genau so anzupacken gilt, wie den Klimawandel und die abnehmende Biodiversität. Die einzige langfristig erfolgreiche Lösung ist eine bessere Bildung und die Schulung von Menschen in allen Altersstufen. Wir müssen verstehen, welche Maßnahmen in der Nutzung des Bodens und ganz allgemein der Ökosysteme der Erde welche Wirkungen haben, damit wir endlich gemeinschaftlich und partizipativ zukunftsweisende, nachhaltige Wege der Nutzung unserer so begrenzten Ressourcen beschreiten können. Es ist höchste Zeit.
[1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Hans-Rudolf Bork anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand.
Homepages des Autors: http://www.ecosystems.uni-kiel.de/home_hrbork.shtml und http://www.hans-rudolf-bork.com/index.php
Institut für Ökosystemforschung (Kiel): http://www.ecology.uni-kiel.de/
Weiterführende Links
- Teil 1: ca. 16 min; http://www.lda-lsa.de/filme/harald_meller_trifft/harald_meller_trifft_ii...
- Teil 2: ca 18 min http://www.lda-lsa.de/filme/harald_meller_trifft/harald_meller_trifft_ii...
- Heiße Spur auf Rapa Nui. Video 43:30 min ; Expedition zur Osterinsel http://www.zdf.de/ZDFmediathek#/beitrag/video/931494/Heiße-Spur-auf-Rapa-Nui
- Die Schatzinsel des Robinson Crusoe. Video 55 min http://www.zdf.de/ZDFmediathek#/beitrag/video/1654424/Die-Schatzinsel-de...
- Warum Kalifornier Wüstensand mit Marmor bedecken Video 48:20 min https://www.youtube.com/watch?v=P_VdBtpVQrs
Weitere Videos zum Thema
- Bodenentstehung 1:36 min; https://www.youtube.com/watch?v=mY6hpkxJi-k
- Terra Preta: Das Geheimnis der schwarzen Erde 6:25 min https://www.youtube.com/watch?v=62JvVt4v-gw
- Wenn der Boden schwindet Video 5:24 min https://www.youtube.com/watch?v=S5ZVpQS0D9M
TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?
TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?Do, 07.11.2014 - 09:00 — Inge Schuster
Auf Einladung von TEDxVienna hat das ScienceBlog-Team an der Konferenz „Brave New Space“ teilgenommen. In insgesamt 20 Vorträgen wurde eine Fülle neuer Ideen und Konzepte präsentiert, die zum Nachdenken inspirieren – bei mehr als der Hälfte der Vorträge ging es um naturwissenschaftlich-technische Themen. Trotz Überlänge kann der vorliegende Report diese nur unvollständig wiedergeben, regt vielleicht aber an zu einzelnen Aspekten mehr Information zu suchen.
Allerheiligen 2014 ist ein Feiertag mit strahlend schönem Wetter und frühlingshaften Temperaturen, der eigentlich zum Aufenthalt in der freien Natur einlädt. Dennoch ziehen es rund 1000 Personen vor, diesen Tag im dunklen Zuschauerraum des Wiener Volkstheaters zu verbringen - vom Morgen bis spät in die Nacht hinein. Anstelle einer überlangen Theatervorstellung – „Die letzten Tage der Menschheit“ wären zwar zeitgemäß, hätten aber wesentlich weniger Publikum angezogen - werden heute wissenschaftliche Vorträge gegeben, und es sind überwiegend junge Menschen, die zuhören wollen (Abbildung 1).
Abbildung 1. Vor dem Volkstheater um etwa 9:30 früh. Die Schar, der auf den Einlass wartenden Teilnehmer, wächst und wächst und wird laufend mit Croissants und Äpfeln versorgt. (Bild: facebook)
Worum es bei den Vorträgen geht?
Um an die obige Metapher der „Letzten Tage der Menschheit“ anzuknüpfen: es geht genau um das Gegenteil, um die Gestaltung der Zukunft und was ein Jeder dazu beitragen kann. Das Motto der Veranstaltung ist „Brave New Space“ (das klingt zwar ähnlich wie „Brave New World“ von Aldous Huxley, ist aber als positive Entwicklung zu sehen). Insgesamt zwanzig Vorträge sollen dazu anregen das Ungewohnte zu sehen, gewohnte Denkmuster und Abläufe zu hinterfragen und den Mut zu haben, in neue Räume aufzubrechen und diese zu erschließen. Dazu gibt es verschiedenartigste, innovative Ansätze, die von einer sehr bunten Schar Vortragender aus aller Herren Länder präsentiert werden - die Bandbreite geht vom Systembiologen zum Performancekünstler, von der Erotikfilmemacherin zum Weltbank Ökonomen, vom Energietechnologen zur Gewebezüchterin.
Um eine möglichst große Reichweite der Vorträge zu ermöglichen (wie weiter unten beschrieben, werden diese ja aufgenommen und ins Internet gestellt) werden diese ausschließlich in englischer Sprache gehalten. Bevor ich nun zum eigentlichen Kernstück dieses Reports – dem Programm und hier, den für den ScienceBlog besonders relevanten Teilen – gelange, muss kurz über die Organisation der Konferenz gesprochen werden: veranstaltet wird dieser Event von TEDxVienna, eine Wiener Non-Profit Community, nach dem Vorbild der amerikanischen TED-Konferenzen.
Ideen, die es wert sind verbreitet zu werden. Was ist TED, was TEDxVienna?
Vor 30 Jahren hat der amerikanische Designer Richard S. Wurman in Monterey (Kalifornien) einen ungewöhnlichen, neuen Typ einer Tagung, die sogenannte TED-Konferenz ins Leben gerufen. Die Abkürzung TED bedeutet dabei „Technology, Entertainment, Design“. Was an TED-Konferenzen so neu war, lässt sich am besten im Vergleich mit dem damals -und auch heute noch - üblichen Tagungsablauf aufzeigen. Waren und sind wissenschaftliche Tagungen auf ein mehr oder weniger enges Fachgebiet beschränkt und wenden sich an Fachleute, so ist TED interdisziplinär und möchte ein sehr breites Publikum ansprechen. Standen dem „klassischen“ Vortragenden damals zumeist mehr als 30 Minuten Redezeit zur Verfügung (plus anschließende Diskussion), durften TED-Vorträge maximal 18 Minuten dauern und reihten sich ohne Diskussion aneinander. In dieser karg bemessenen Zeit sollten dann Ideen in unterhaltsamer, leicht verständlicher Form präsentiert werden, Ideen „die es wert sind verbreitet zu werden“ („ideas worth spreading“). Mit führenden Persönlichkeiten aus Wissenschaft, Wirtschaft, Kunst und Politik als Vortragenden wurde TED eine höchst elitäre Einrichtung, die trotz sagenhafter, vierstelliger Teilnehmerkosten immer sofort ausgebucht war.
(Details: [1]) Ab 2006 begann sich TED global auszubreiten, vorerst über ausgewählte Vorträge, die aufgenommen und kostenfrei ins Internet gestellt wurden [3], seit 2009 über das TEDx-Konzept: In einer Art Franchise Verfahren vergibt TED kostenlose Lizenzen an unabhängige Organisatoren in aller Welt, die an ihrem Ort eintägige TEDx Konferenzen veranstalten (‚x‘ steht für unabhängig). Während das jeweilige Thema und das Rekrutieren der Sprecher Sache des Veranstalters ist, ist die Form der Veranstaltung vorgegeben – es soll alles so aussehen und ablaufen wie im Original. Dazu gehört auch, dass die Vorträge ins Internet gestellt werden müssen.
Abbildung 2. Das Motto von TEDxVienna 2014. TEDxVienna wurde 2011 vin VLAD Gozman gegründet.
Es ist kaum zu glauben, wie schnell das TED/TEDx Konzept sich global ausbreiten konnte: die neuesten Zahlen sprechen bereits von rund 10 000 Konferenzen, die in 150 Ländern stattgefunden haben; in Österreich gibt es TEDx bereits in Wien (Abbildung 2), Linz, Salzburg und Klagenfurt. Inzwischen sind mehr als 1 900 Vorträge im Internet abrufbar [3], darunter von bedeutenden (Natur)wissenschaftern wie Francis Collins, Svante Pääbo, Craig Venter, Jane Goodall oder Stephen Hawking. Auch einige Nobelpreisträger in Physik, Chemie und Medizin sind bei TED aufgetreten – beispielsweise James Watson [4], Murray Gell-Mann [5], George Smoot und Kary Mullis.
Die TED-Videos erfreuen sich hoher Akzeptanz: in Summe verzeichnen sie bereits mehr als eine Milliarde Aufrufe [6]. Der populärste Talk „How schools kill creativity“ von Sir Ken Robinson kann mehr als 29 Millionen Aufrufe für sich verbuchen. (Im Vergleich dazu waren 34 mal weniger Personen an „How we discovered DNA“ des Nobelpreisträgers Jim Watson interessiert. Sind Naturwissenschaften, vertreten durch einen der bedeutendsten und populärsten Wissenschafter des 20. Jahrhunderts wirklich so viel weniger interessant?)
Die Konferenz beginnt - „Dare to question“<
Trauen wir uns den Status quo in Frage zu stellen‘, ist sinngemäß das Motto der ersten Session. Die Veranstalter meinen damit: das Hinterfragen dessen, was man uns erzählt hat, welche Erwartungen man in uns setzt, welche Wege uns vorgezeichnet erscheinen. Gibt es nicht andere Ziele, die es wert sind entdeckt werden? Welche Grenzen wollen wir dabei überschreiten?
Die fünf Sprecher dieser Session zeigen unterschiedliche, zum Teil ziemlich provokante Ansätze (wie Laurie Essig) des in in-Frage-Stellens auf, fordern auf, die „Komfortzone“ zu verlassen, aber in Hinblick auf die eigene Zufriedenheit die Erwartungen nicht zu hoch zu schrauben. Für den ScienceBlog erscheint hier vor allem der Beitrag des Phyikers Robert Hargrave von essentieller Bedeutung:
Energetic Humanitarians
Eines der größten Probleme der wachsenden Erdbevölkerung ist der viel stärker steigende Bedarf an Energie – d.h. elektrischer Energie –, deren Produktion billig aber auch sicher sein sollte. Die Zahl der Kohlekraftwerke ist im Steigen begriffen, ebenso wie die z.T. damit einhergehende (Luft)Verschmutzung, die Millionen Menschen vergiftet. Kernenergie, basierend auf Kernspaltung, ist sehr umstritten – auch, wenn mehr als 400 Reaktorblöcke in Betrieb sind und weitere Blöcke gebaut werden.
Hargraves bricht eine Lanze für den „Thoriumreaktor“- ein Konzept, das bereits seit den 1950er Jahren existiert und zum Teil erfolgreich umgesetzt wurde (Oak Ridge Reaktor), dann aber wieder in Vergessenheit geriet. Es handelt sich dabei um einen Flüssigsalzreaktor („molten salt reactor“), der die Vorteile klassischer Kernkraftwerke besitzt, aber wesentlich geringere Risiken birgt als diese, da vor allem die Probleme der Kernschmelze, der Wiederaufbereitung der Brennstäbe und der Verwendung für Kernwaffen wegfallen. Das Design des Reaktors klingt bestechend einfach: Im Reaktorkern liegt der Brennstoff Uran-233 (233U) in Flüssigsalz gelöst vor. Dieser Kern ist von einem Mantel umgeben, welcher Thorium-232 im selben Flüssigsalz gelöst enthält. Wenn nun bei der Spaltung von 233U im Reaktorkern Neutronen entstehen, wandeln diese das Thorium-232 im Mantel in Uran-233 um. Das so erbrütete Uran-233 wird einfach herausgelöst und dem Reaktorkern als neues Brennmaterial zugeführt (seine Spaltprodukte sind bedeutend „harmloser“ als die aus 235U-entstehenden). Was noch für den Thoriumreaktor spricht: die Häufigkeit des natürlichen Vorkommen von Thorium -232 und die einfache Bauweise des Reaktors, die auch den Bau kleiner Anlagen für den lokalen Gebrauch möglich macht.
Dieser Reaktortyp findet nun wieder gesteigertes Interesse: in China ist eine derartige Anlage im Bau, das Kernkraftunternehmen TerraPower von Bill Gates plant einen Flüssigsalzreaktor, der auch den derzeit angehäuften nuklearen Abfall verbrennen kann, ebenso das MIT („Waste Annihilating Molten Salt Reactor“).
Gibt es nicht Ziele, die es wert sind entdeckt werden? Der Vortrag von Hargrave zeigt ein besonders wichtiges Ziel auf.
Session 2: „Find the Unexpected“
>Das Motto dieser Session fordert uns auf, alle Vorurteile und Denkmuster beiseite zu lassen, wenn wir in Neuland aufbrechen. Dies lässt uns das Unerwartete finden und innovative Ideen entwickeln.
Zu diesem Aspekt gibt es sechs Vortragende – es wird die längste Session des Tages. Vier der Vorträge würde ich zwar sehr gerne in diesem Report darstellen, beschränke mich aber auf zwei von diesen, wegen einer sonst völlig unzumutbaren Länge.
I steal DNA from strangers
Heather Dewey-Hagborg ist Künstlerin und Informatikerin, sie schlägt eine Brücke von der Kunst zur Wissenschaft – genauer gesagt, zur Molekularbiologie und Informatik.
Dewey-Hagborg ist an der Information interessiert, die in den Spuren steckt, die jeder von uns überall hinterlässt, die auch von jedem eingesammelt werden können. Was sie an Spuren findet ist trivial: Haare, Hautschuppen, Fingernagelabschnitte, weggeworfene Zigarettenstummel, Kaugummireste etc. Was sie daraus macht ist verstörend. In einem Crashkurs in Molekularbiologie hat sie gelernt, wie man menschliche DNA aus Proben extrahiert und spezifische Regionen des Genoms amplifiziert und sequenziert. Variable Teile in bestimmten Regionen deuten auf persönliche Merkmale hin u.a. auf Haarfarbe, Augenfarbe, Teint.
Abbildung 3. Aus der genetischen Information von Abfällen konstruiert Dewey-Hagborg Gesichter
Insgesamt 50 derartige Merkmale lässt Dewey-Hagborg in Algorithmen zur Gesichtserkennung – von ihr verfasste und adaptierte Computerprogramme – einfließen. Aus dem Ergebnis konstruiert sie Gesichter(Abbildung 3). Auch, wenn die Ähnlichkeit mit der Person, von der die genetische Information stammt, nicht immer überzeugen dürfte – es ist der Anfang einer Entwicklung, die massiv in unser Privatleben eingreifen kann.
Kann also jeder derartige und noch viel weitergehende Informationen über uns einholen? Dewey-Hagborg weiß hier eine Lösung: sie hat zwei Sprays entwickelt, welche die Information in der DNA unlesbar machen:
- „ERASE“, das die DNA zerstört (ein Silberputzmittel erfüllt den gleichen Zweck) und
- „REPLACE“, das mit einer Mischung von Genen die ursprüngliche DNA maskiert.
Ob dies in der Realität praktikabel ist?
In the 1660s there were no internet videos
Sandlins Standpunkt: „In a world of talkers, be a thinker and doer“.
Destin Sandlin, ein Raketenwissenschafter, beginnt seine Präsentation mit einem Knalleffekt: Er schlägt mit einem Hammer auf ein Trinkglas, das – natürlich - in Scherben zerspringt. Eine sogenannte Bologneser Träne – d.i. ein ausgezogener Glastropfen, der sich bildet, wenn ein Tropfen geschmolzenes Glas in Wasser abgekühlt wird – verhält sich anders: das tropfenförmige Ende reagiert kaum auf den Hammer, am dünnen Ende führt aber bereits eine kleine Beschädigung zur Explosion der ganze Träne. Sandlin erklärt das Phänomen sehr anschaulich mit den starken inneren Spannungen, die entstehen, wenn das Glas von außen nach innen abkühlt und erhärtet und das Glas sich dabei zusammenzieht.
Abbildung 4. Raupen, die in Gruppen schneller vorwärts kommen als einzelne Individuen (oben), eine Fake-Spinne, die eine winzige Spinne riesengroß erscheinen lässt (unten)
In kurzen Videos nehmen wir am Auffinden von weiteren Phänomenen teil. Soweit es möglich ist, erläutert Sandlin zugrundeliegende Mechanismen. Mit Hilfe einer zeitlich hochauflösenden CCD Kamera zeigt er
- wie Honig beim Ausfließen eine Spirale aufbaut,
- wie Raupen sich in einer übereinander gelagerten Gruppe bewegen und dabei schneller vorwärtskommen als das einzelne Tier (Abbildung 4),
- wie eine kleine Spinne aus ihren Sekreten eine ungleich größere Spinne – mit 8 Beinen, Kopf-,Brust- und Hinterleibsegment - in das Netz hinein konstruiert, und dann an deren Kopfende thront (Abbildung 4)
- wie ein Huhn unabhängig von den Körperbewegungen den Kopf stabil hält,
- wie sich eine Katze biegt und wendet, um beim Fallen auf ihren 4 Beinen zu landen.
Dies alles ist auch auf YouTube-Videos zu sehen. Sandlin ist Gründer des YouTube Kanals „Smarter Every Day“, in den er bereits mehr als 200 kurze Videos geladen hat, die ebenso spannend wie unterhaltsam Phänomene aus den Naturwissenschaften darstellen und erklären [7].
Session 3: Design your space
Mit immer besserem Instrumentarium und steigendem Wissen ausgestattet wird in uns der Wunsch erweckt, unseren Lebensraum und auch uns selbst designen zu wollen. Unabdingbar dafür ist erst einmal das Verstehen der Gehirnfunktion, die Anwendung dieses Wissens bietet dann auch die Möglichkeit künstliche Intelligenz (Artificial intelligence - AI) zu schaffen. Zwei der fünf Redner widmen sich diesem Problem.
Digital Biology and „Open Science“: the coming revolution
Für den Informatiker Stephen Larson ist das menschliche Gehirn noch viel zu komplex, um es am Computer modellieren zu können. Um die Funktion des Nervensystems verstehen zu lernen, will er dieses an einem einfachen, kleinen Organismus, dem Fadenwurms Caenorhabditis elegans untersuchen. Dieses rund 1 mm lange und durchsichtige Tier besteht aus bloß 1000 Zellen, besitzt ein Nervensystem, Muskeln, Darmfunktion etc. Da viele der grundlegenden biochemischen Mechanismen in ähnlicher Weise funktionieren wie beim Menschen, wurde der Wurm zum Top-Modell für verschiedenste biologische Fragestellungen (u.a. in der Pharmaforschung) und damit zu einem der best beschriebenen Systeme. Basierend auf allen diesen Informationen will nun Larson zum ersten Mal ein digitales Modell eines Tieres konstruieren, das alle seine Eigenschaften wiedergeben kann. Dazu hat er 2011 die Plattform Open Worm gegründet, ein Open Science Projekt, an dem bereits Forscher aus aller Welt arbeiten [8]. Alle Information ist online frei verfügbar, jeder kann beispielsweise bereits mit einem neuromechanischen Modell interaktiv herumspielen, das zeigt wie Nervensystem und Muskeln in einer virtuellen Umgebung aktiviert werden.
Ein tolles Projekt, ein Aufbruch in einen New Space!
Why aim for the stars when the Galaxies are just as easy?
Stuart Armstrong ist Forscher am Institut „Future of Humanity“ der Oxford Universität. Auf dem Weg zur künstlichen Intelligenz und der Erschließung neuer Räume beschäftigt er sich mit den Fragen, wann diese Ziele vermutlich erreicht werden können und welche Risiken damit verbunden sein könnten [9].
Künstliche, dem Menschen überlegene, Intelligenz („strong AI“) zu erschaffen erscheint ihm nicht unmöglich, auch wenn über das „Wann“ kaum Aussagen zu treffen sind (Experten sind hier noch vorsichtiger als Nicht-Experten). Jedenfalls sieht er darin dann einen Risikofaktor, der intelligentes Leben auf unserem Planeten auslöschen oder dauernd einschränken könnte. Wird es dann der Menschheit möglich sein dem Desaster zu entkommen? Durch Kolonisation des Weltalls? Könnten wir das überhaupt – stünden uns dazu ausreichend Energie und geeignete Materialien zur Verfügung? Wie sollte dies vonstattengehen? Indem die Besiedlung von Galaxie zu Galaxie erfolgt oder gleichzeitig viele Galaxien direkt angepeilt werden? Welche selbstreplizierenden „Probes“ würden wir vorerst auf die Reise schicken? Wie lange würden diese Reisen dann dauern?
Armstrong versucht diese Fragen zu beantworten, entwirft ein sehr (allzu) futuristisches Bild. Ist es tröstlich, wenn er am Ende meint, dass trotz der Geschwindigkeit, mit der sich intelligentes Leben im Weltall ausbreiten könnte, bis jetzt jeder Hinweis darauf fehlt?
Session 4: Reshape the narrative
Ein Schritt näher zur selbstgesteuerten Evolution? Neue Wege , innovative Ideen das uns Bekannte umzuformen. In dieser Sitzung kommen vier Sprecher zu Wort; von den drei Präsentationen, die in das Spektrum des ScienceBlog passen, sollen zwei näher erörtert werden.
Bioengineered Lungs: High risk research with breath taking results
Aus naturwissenschaftlicher Sicht einer der Höhepunkte der Konferenz: Joan Nichols, Forscherin an der University of Texas Medical Branch, erzählt, wie sie es geschafft hat, erstmals eine menschliche Lunge im Labor herzustellen. (Dazu muss man bemerken, dass die Lunge auf Grund der unterschiedlichen Zellen in den verschiedenen Regionen eines der komplexesten Organe darstellt). Nichols Ausgangspunkt waren zwei Lungen kindlicher Unfallopfer, die so stark beschädigt waren, dass sie für eine Transplantation nicht mehr in Frage kamen. Nichols hat eine der Lungen von allen Zellen befreit, sodass nur ein Gerüst aus Kollagen-und Elastinfasern übrig blieb. In dieses Gerüst hat sie dann Zellen „eingesät“, die sie aus der anderen Lunge isoliert hat und das Konstrukt in ein spezielles Nährmedium eingebettet. Nach rund vier Wochen war daraus ein Organ entstanden, das der natürlichen Lunge nicht nur morphologisch sehr ähnlich sah, sondern auch in Hinblick auf die Atmungsfunktion glich. Dieses Ergebnis konnte mit anderen Lungen reproduziert werden.
Nichols Erfolg verspricht Durchbrüche nicht nur in Hinblick auf enorm erweiterte Möglichkeiten der Transplantation, sondern auch für die Forschung an bisher kaum behandelbaren Krankheiten, wie z.B. COPD oder Cystische Fibrose.
Narrowing the gap – robots inspired by nature
Der letzte Vortrag kommt von dem Computerwissenschafter Rafael Hostettler. Es geht wieder um Künstliche Intelligenz: um den Bau von Robotern.
Hostettler beginnt mit der Frage, was Intelligenz ist. Anhand unterschiedlich geformter kleiner Roboter zeigt er, dass es nicht nur die Hirnfunktion (in diesem Fall derselbe Motor in allen Robotern) ist, die deren Bewegungen bestimmt, sondern auch deren Bauweise, äußere Form und Materialzusammensetzung. Also, wie der Kontakt des Roboters mit der jeweiligen Umwelt ausfällt.
Derartige Aspekte untersucht Hostettler an Roboy - einer Forschungsplattform in Gestalt eines freundlichen Roboters mit weichen runden Oberflächen, der es erlaubt, das Zusammenspiel von Muskeln und Gelenken, von Intelligenz und Bewegungsabläufen zu untersuchen. Roboy ist nun bereits 2 Jahre alt, viel auf Tour, besucht Schulklassen, Ausstellungen und spielt Theater („To be, or not to be humanoid“).
Mit Roboy ist zweifellos ein Meilenstein in der Entwicklung von Soft-Robotern gelungen!
Fazit
Es war ein sehr, sehr langer Tag, der eine Fülle neuer Ideen und Konzepte brachte, die zum Nachdenken verleiten. Ob alle naturwissenschaftlich-technischen Präsentationen ausreichend verständlich für das anwesende Publikum waren, ist eher fraglich. Vielleicht können wir mit dem vorliegenden Report (der den naturwissenschaftlich-technischen Teil nur unvollständig wiedergibt, dennoch überlang wurde) den einen oder anderen Leser anregen, nähere Informationen zu einzelnen Themen einzuholen.
Jedenfalls: Herzlichsten Dank vom ScienceBlog an TEDxVienna für die Einladung an „Brave New Space“ teilzunehmen! Es war viel Neues dabei, das auch für unseren Blog sehr interessant erscheint. Schließlich möchten wir ja – ebenso wie TED – die faszinierende Welt der Wissenschaft in verständlicher Form kommunizieren.
[1] http://www.ted.com/
[2] http://www.tedxvienna.at/
[3] http://www.ted.com/talks?
[4] http://www.ted.com/talks/james_watson_on_how_he_discovered_dna
[ 5] http://www.ted.com/talks/murray_gell_mann_on_beauty_and_truth_in_physics
[6]The most popular talks of all time http://blog.ted.com/2013/12/16/the-most-popular-20-ted-talks-2013/
[7] Smarter every day, playlist https://www.youtube.com /playlist?list=UU6107grRI4m0o2-emgoDnAA
[8] Open Worm: http://www.openworm.org/
[9] Stuart Armstrong: Smarter than us: The rise of machine intelligence. http://intelligence.org /
Leben im Fluss nach (Extrem-) Hochwässern I
Leben im Fluss nach (Extrem-) Hochwässern IFr, 31.10.2014 - 08:52 — Mathias Jungwirth & Severin Hohensinner
Hochwässer spielen eine zentrale Rolle für die ökologische Funktion von Flusslandschaften; die ständige Zerstörung und Neuschaffung von Habitaten generiert eine enorm hohe Artenvielfalt von Vegetation und Tierwelt. Die Gewässerökologen Mathias Jungwirth und Severin Hohensinner (Universität für Bodenkultur, Wien) charakterisieren intakte Flusslandschaften und zeigen auf wie Flussregulierungen und Kraftwerksbau diese gravierend verändert haben [1].
Teil 1: Intakte und gestörte Flusslandschaften
Seit altersher hängen wir Menschen von den vielfältigen Nutzungsmöglichkeiten ab, die uns ein Fluss bietet. Es sind dies die Möglichkeiten zu jagen und zu fischen, Trinkwasser zu gewinnen und Abwässer zu entsorgen, die Wasserstraße als Transportweg zu nutzen und schließlich die Wasserkraft zur Energiegewinnung zu nutzen. Seit jeher erfahren Menschen, die am Fluss und mit dem Fluss leben, aber auch seine andere Seite als katastrophale Ereignisse in Form enormer Hochwässer und gewaltiger Eisstöße.
Stärker in die Flusslandschaften einzugreifen begann der Mensch seit dem Mittelalter. Dies geschah vor allem um Transportprozesse – Schifffahrt und Holztransporte – zu ermöglichen. Um Schiffe und Flöße auch flussaufwärts ziehen zu können, legte man Treppelwege an. Primär um die Schifffahrt – weniger um den Hochwasserschutz – ging es auch bei der systematischen Regulierung der österreichischen Donau in der zweiten Hälfte des 19. Jahrhunderts. Als Folge aller regulierenden Eingriffe wurden die ursprünglich komplexen Flusslandschaften mehr und mehr in ihrem typischen Charakter verändert. An der Donau auf österreichischem Staatsgebiet gibt es daher heute keine naturbelassenen Abschnitte mehr (s.u.).
Wie ursprüngliche Flusslandschaften ausgesehen haben, lässt sich heute meist nur mehr an Hand alter Karten feststellen. Beispielsweise sieht man, dass das historische Stadtzentrum Wiens im Jahre 1780 (Abbildung 1) an eine überaus komplexe, wilde Flusslandschaft der Donau angrenzte. Es handelte sich um ein Flussgebiet mit äußerst hoher Biodiversität, in dem sich sogar Störe fanden, die vom Schwarzen Meer flussauf zum Laichen ziehend, bis über 7 m Länge und 3000 kg Gewicht erreichen konnten.
Abbildung 1. Donau in der Wiener Beckenlandschaft um 1780 (Josephinische Landesaufnahme, ÖstA, Kriegsarchiv)
Für die Entstehung und Erhaltung derartig komplexer Flusslandschaften spielen Hochwässer eine Schlüsselrolle. Welche ökologische Bedeutung nun Hochwässer – in positivem wie auch negativem Sinn – haben, soll in der Folge an Hand systematischer Untersuchungen dargestellt werden, die wir zu einem rund 10 km langem Donauabschnitt im östlichen Machland anstellten [2]. Dieses Untersuchungsgebiet liegt an der niederösterreichisch/oberösterreichischen Grenze zwischen Wallsee und Ardagger (Abbildung 2); etwas flussauf münden die Zubringer Traun und Enns ein, direkt im Untersuchungsgebiet die Naarn.
Rekonstruktion intakter Fluss-Auensysteme im Machland
Als Grundlage für die Studie wurden zahlreiche historische Kartenwerke des Machlandes aus drei Jahrhunderten digitalisiert, mittels Geoinformationssystem qualitativ und quantitativ ausgewertet und daraus die ursprüngliche Flusslandschaft zwei- und dreidimensional rekonstruiert. Die Ergebnisse zeigen, dass dieser Donauabschnitt ein hochdynamisches Flusssystem war, ein komplexes Netzwerk aus Flussarmen, Inseln und Schotterbänken. Die Verbindungen zwischen den einzelnen aquatischen Lebensräumen (Habitaten) dieses Systems veränderten sich im Jahresverlauf in Abhängigkeit von den hydrologischen Verhältnissen – Schneeschmelze und Hochwässer – ständig. Enorme Umlagerungsprozesse waren dabei typisch (Abbildung 2). In einem Zeitraum von 5 Jahren (1812 bis 1817, linkes unteres Bild) trug der Fluss durch Erosion (pink) vor allem an den Außenufern Material ab und bildete an den Innenufern sowie in breiteren Abschnitten Anlandungen (gelb). So wurden in den besagten 5 Jahren insgesamt 35 % des neuzeitlichen, seit ungefähr 1500 n. Chr. entstandenen Augebietes einer Umlagerung unterzogen. In längeren Zeiträumen – in 46 Jahren (1775 – 1821, rechtes unteres Bild) – machten die umgelagerten Habitate (blaue Flächen) bereits 76 % des neuzeitlichen Augebietes aus (laut historischen Berichten traten in diesem Zeitraum 32 Hochwässer auf, davon waren 5 Katastrophenhochwässer). Abbildung 2. Dynamik, Konnektivität (Habitatvernetzung), Erosion und Anlandung im untersuchten Donauabschnitt im östlichen Machland (die Lage ist durch das Rechteck links oben gekennzeichnet). Rechts oben: Die komplexe Flusslandschaft im Jahr 1715. Links unten: Umlagerungen durch Anlandungen (gelb) und Erosion (pink) innerhalb von 5 Jahren (1812 – 1817). Rechts unten: Umgelagerte Habitate (blau) innerhalb von 46 Jahren (1775 – 1821).
Im Querprofil betrachtet zeigt das Flusssystem von 1812 die beiden Hauptarme, mehrere kleinere Nebenarme und dazwischen die (überhöht dargestellten) Auflächen (Abbildung 3 oben). Bei jedem Hochwasser (auch kleineren) wurden Sedimente in Form von Sand und Schluff („Letten“) auf den Auflächen abgelagert und damit Anlandungen des Auniveaus verursacht. Diesem Anwachsen wirkte die durch die dynamischen Flussarme hervorgerufene Seitenerosion entgegen. Sofern sich die äußeren Rahmenbedingungen nicht veränderten (Klima, menschliche Eingriffe etc.), existierte ein natürliches Gleichgewicht aus Auflandung und Wieder-Abtrag. Diese anhaltende Dynamik war die Grundlage für die ehemals enorme Habitatvielfalt (Abbildung 3 unten).
Abbildung 3. Die Donau im Machland 1812. Querprofil durch die in Abbildung 2 gezeigte Flusslandschaft (oben). Das „Dynamische Gleichgewicht“ zwischen Anlandung und Erosion führte zu hoher Habitavielfalt (unten).
Die Habitatvielfalt…
In den unterschiedlichen Zonen der Flusslandschaft existierten völlig unterschiedliche Habitate (Abbildung 3 unten): im zentralen Bereich, in dem besonders viele und häufige Umlagerungen stattfanden, entwickelte sich eine junge Weichholzau (primär aus verschiedenen Weiden). An den etwas stabileren, geschützteren Standorten gab es eine alte Weichholzau (zumeist Grauerlen), an den älteren und teilweise auch weiter entfernten Standorten war ein Übergang zur Hartholzau (Eschen, Erlen) zu beobachten.
Stetige Verjüngungsprozesse, ein immer wieder erfolgender Neubeginn, waren (und sind) für die Vegetation aber auch für die Tierwelt von fundamentaler Bedeutung.
…führt zur Artenvielfalt
Die Habitatvielfalt ist die Grundlage für Artenvielfalt und genetische Vielfalt (Vielfalt innerhalb von Arten). Dies lässt sich generell nachweisen: in der Vogelwelt, ebenso wie in der Amphibien-, Reptilien- und Fischfauna. Beispielsweise finden sich bei den Fischen strömungsliebende Kieslaicher bevorzugt im rasch fließenden Bereichen des zentralen Flusses, Stillgewässer bevorzugende Pflanzenlaicher hingegen in isolierten Augewässern mit teichartigem Charakter.
Charakteristisch für intakte Flusslandschaften
sind hoch dynamische Prozesse, die in drei räumlichen Ebenen ablaufen. Diese multidimensionale Natur von Fluss-Landschaftssystemen umfasst
- longitudinale Prozesse – diese betreffen den Feststoffhaushalt, die Wanderungen von Organismen,
- horizontale Prozesse – Wechselwirkungen oder Verbindungen zwischen dem Fluss und den Auen, die regelmäßig auf jährlicher Basis stattfinden (Schneeschmelze, Hochwasser),
- vertikale Prozesse – Austauschvogänge zwischen Fluss, Bettsedimenten (Flusssohle) und Grundwasserkörper.
Die vielfältigen Vernetzungen zwischen den einzelnen Habitaten (Konnektivität) ändern sich unter natürlichen Bedingungen saisonal und von Jahr zu Jahr. Daraus resultiert ein extrem heterogener, sich ständig verändernder Habitatskomplex. Die Anteile der einzelnen Habitattypen bleiben dabei aber überraschend konstant – ein „shifting mosaic in a steady state“. Für die außergewöhnlich hohe Biodiversität solcher Systeme spielen Hochwässer eine zentrale Rolle. Werden Hochwässer verhindert oder stark eingeschränkt (beispielsweise durch alpine Speicher, die Hochwasserspitzen abfangen), entfallen die Erneuerungsprozesse und die solchermaßen gekennzeichneten Fluss-Auen-Systeme altern und sterben.
Gestörte Flusslandschaften
Mit der großen Donauregulierung ab der Mitte des 19. Jahrhunderts und der folgenden Errichtung der Donau-Kraftwerke im 20. Jahrhundert entstanden gravierende Veränderungen in den Flusslandschaften. Der untersuchte Donauabschnitt im Machland wurde dabei durch die Errichtung der Kraftwerke Ybbs-Persenbeug und Wallsee-Mitterkirchen stark beeinflusst. (Mittlerweile gibt es an der Donau eine Kette von 10 Kraftwerken und nur noch 2 Fließstrecken in der Wachau und östlich von Wien.) All diese Eingriffe führten zur Einengung des ehemals verzweigten Flusssystems auf lediglich einen Hauptarm (Abbildung 4).
Abbildung 4. Die regulierte Donau im Machland 1991. Das Querprofil durch die Flusslandschaft zeigt die Eintiefung des Hauptarms und die Tendenz zum Absinken des Grundwasserspiegels (oben). Die Habitate mit Fließgewässercharakter haben von 33 % vor der Regulierung auf ungefähr 13 % abgenommen.
Entkoppelung des Niveaus von Au und Fluss
Wird ein Flusssystem auf einen zentralen Arm zusammengedrängt, so zeigt dieser in vielen Fällen Tendenz zur Eintiefung. Grund dafür ist, dass einerseits die Regulierung häufig zu eng bemessen und damit zu viel Material ausgetragen wird. Zudem transportieren unsere alpinen Flüsse als Folge von Geschiebesperren und Wehranlagen oft nur mehr viel zu wenig Geschiebe, insbesondere Kies, flussab. Reduzierter Eintrag bei gleichzeitig zu hohem Austrag führt zur Eintiefung der Flusssohle und bewirkt ein Absinken des Grundwasserspiegels. Da Extremhochwässer weiterhin die Au erreichen und dort zur Auflandung führen, kommt es zunehmend zur Entkopplung des Niveaus von Fluss und Au. Beispielsweise beträgt die Eintiefung an der Donau östlich von Wien ca. 2,5 cm pro Jahr, unterhalb von Gabcikovo – als Folge des Kraftwerkes – liegt die jährliche Eintiefung im Dezimeterbereich.
Alterung der Habitate…
Am Beispiel der aquatischen und terrestrischen Habitate im Machland sehen wir, dass diese bis 1840 ein mittleres Alter von rund 50 Jahren aufwiesen. Seit der großen Regulierung der Donau und verschärft durch die Kraftwerke erhöht sich das mittlere Habitatalter und beträgt mittlerweile rund 180 Jahre. Es wird weiterhin linear zunehmen, da es keine Verjüngungs- prozesse mehr gibt und demzufolge Alterung und Seneszenz der Habitate im Fluss-Auensystem dominieren.
…und Verluste der Habitate
Zudem sind die Verluste der Habitate mit Fließgewässercharakter dramatisch – symptomatisch für alle anderen Abschnitte der Donau haben diese im Machland von 33 % vor der Regulierung auf ungefähr 13 % abgenommen.
Fazit
Fasst man die Konsequenzen der Stabilisierung- und regulierungsbedingten Profileinengung der Donau zusammen, so ergeben sich:
- Eintiefungen der Flusssohle,
- Aufhöhungen der Auen,
- Entkoppelungen der Niveaus von Fluss und Au,
- Uferwallbildungen durch Feinmaterial, das bei Hochwässern aus den Staustufen ausgetragen wird und vor allem in den ufernahen Bereichen sedimentiert,
- reduzierte Häufigkeit und Dauer der Hochwässer, die die Au noch erreichen,
- Reduktion der Habitat- und Artenvielfalt,
- herabgesetzte Nutzungsmöglichkeiten – u.a. der Grundwasserneubildung und damit der Trinkwasserversorgung. In manchen Gebieten hinter den Kraftwerksdämmen wird die Bevölkerung nun statt mit Brunnen mit Wasserleitungen versorgt,
- infolge der Eintiefung müssen z.T. auch die Fundamente der Brücken und Regulierungen erneuert/tiefergelegt werden.
Dies alles führt auch zu erhöhten Folgekosten für die Wasserwirtschaft, die man in dieser Form ursprünglich nicht erwartet hatte.
[1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Mathias Jungwirth anlässlich der Tagung „Land Unter - Leben mit Extremhochwässern“ an der ÖAW gehalten hat. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wasser2.htm. Teil 2 des Artikels wird sich mit der ökologischen Bedeutung von Hochwässern befassen und in Kürze erscheinen.
[2] Severin Hohensinner „Rekonstruktion ursprünglicher Lebensraumverhältnisse der Fluss-Auen-Biozönose der Donau im Machland auf Basis der morphologischen Entwicklung von 1715 - 1991“, Dissertation an der Universität für Bodenkultur 2008. https://forschung.boku.ac.at/fis/suchen.hochschulschriften_info?sprache_... (abgerufen 16.8.2014)
Weiterführende Links
Severin Hohensinner:
- Querung der Wiener Donau 1570, Video 2,45 min https://www.youtube.com/watch?v=RKpbhTnxnPY
- Donau im Machland 1715 – 1991 , Video 0:47 min. Rekonstruktion der morphologischen Veränderungen der Flusslandschaft basierend auf 120 historischen Karten und Vermessungen. Vergleich der Situation vor der Regulierung (1725 – 1821), nach der Regulierung (1832 – 1925) und Kraftwerkserrichtungen (1991). https://www.youtube.com/watch?v=zZEG_ln3IYo
- Donau-Hochwasser im Machland 1812 , Video 0:47 min. Die Rekonstruktion der Überflutung des Augebietes beruht auf Wasserspiegellagen und Geländehöhen, die im Jahr 1812 vermessen wurden. Sie zeigt, wie das Auensystem im Machland (Ober-/Niederösterreich) bei einem 3- bis 5-jährlichem Hochwasser vermutlich überflutet wurde. https://www.youtube.com/watch?v=HqCdEsM6r_U
Uw Mening Telt:
- Part I - The Danube - From the Black Forest to the Black Sea Video 51.14 min
- Part II - The Danube - Between Flood and Frost Video 51:33 min
Das Zeitalter der “Big Science”
Das Zeitalter der “Big Science”Do, 24.10.2014 - 06:14 — Gottfried Schatz
Die Wissenschaftsgemeinde und die von ihr geschaffene Menge an Informationen wachsen exponentiell, schneller als die Weltbevölkerung oder die Bruttosozialprodukte. Enormer Konkurrenzdruck, gigantische Projekte und bürokratische Einflussnahme haben zu negativen Auswüchsen im Umgang mit der Wissenschaft geführt. Gottfried Schatz, prominenter und engagierter Wissenschafter, fordert dazu auf, politischen und bürokratischen Entscheidungsträgern das Wesen und die Anliegen langfristiger Grundlagenforschung nahezubringen.
Naturwissenschaftliche Forschung, einst Berufung für Wenige, ist heute ein ökonomisch und politisch bedeutsamer Berufszweig.
Diese Entwicklung wirft Fragen auf, die dringend einer Antwort harren.
…vor einem halben Jahrhundert
„Ich hab‘ den Job!“ rief mein Kollege Ron [1] triumphierend, als er mit einem geöffneten Brief in der Hand in unser Laboratorium stürmte. Der “Job“ war eine Assistenzprofessur an der renommierten Princeton Universität, Grund genug für uns Postdoktoranden, ihm zu diesem Erfolg zu gratulieren. Dennoch schien uns dieser nicht außergewöhnlich, hatte doch Ron zwei Jahre lang in der berühmten Arbeitsgruppe des Biochemikers Efraim Racker [2] gearbeitet und in dieser Zeit vier wissenschaftliche Arbeiten publiziert. Da Racker ihn überdies seinen Kollegen in Princeton auf das wärmste empfohlen hatte, war Rons wissenschaftliche Ausbeute mehr als ausreichend. Tatsächlich war er ein hervorragender Wissenschaftler, der schon bald darauf ein weltweit führender Forscher wurde.
Das war 1965-Erinnerung für mich, Steinzeit für junge Biologen von heute, denen Rons jour de gloire wie ein Märchen aus „1001 Nacht“ erscheinen muss.
…die Wissenschaftsgemeinde wächst exponentiell
Um sich gegen die hundert oder mehr Bewerber für eine prestigeträchtige Universitätsstelle durchzusetzen, braucht es heute meist eine mindestens vierjährige Postdoktoranden-Ausbildung und mehr als ein halbes Dutzend Publikationen über „heiße“ Themen in „exklusiven“ wissenschaftlichen Zeitschriften. Und wer die begehrte Assistenzprofessur dann in der Tasche hat, muss sich auf einen unbarmherzigen Kampf um Forschungsgelder und weltweite Anerkennung gefasst machen.
Dies ist nicht verwunderlich, hat sich doch seit Rons Triumph die Zahl der Wissenschaftler mindestens verzehnfacht. Dies bedeutet, dass 80-90 % aller Wissenschaftler die je gelebt haben, heute leben und jedes Jahrzehnt so viele Wissenschaftler „produziert“ wie die gesamte Menschheitsgeschichte zuvor. Eine so dramatische quantitative Veränderung bedingt stets auch qualitative, sei dies in der Biosphäre, der Ökonomie - oder der Wissenschaft. „Little Science“- die von Neugier getriebene Forschung Einzelner oder kleiner Gruppen - hat sich zur “Big Science” gemausert.
Diese Entwicklung gründet nicht in bestimmten Ereignissen oder politischen Entscheiden, sondern im Anwachsen der Wissenschaftsgemeinde und wissenschaftlicher Informationen. Wie fast jede Evolution, so verlief auch diese exponentiell, was bedeutet dass sich die Geschwindigkeit des Wachstums laufend erhöhte. Dieses Wachstum setzte um die Mitte des 18. Jahrhunderts ein und nähert sich seit etwa 1920 mit Verdopplungszeiten von 10-15 Jahren der Präzision eines empirischen Gesetzes. Das Wachstum schien anfangs unbedeutend, hat aber nun das berüchtigte „Knie“ der exponentiellen Kurve erreicht, in dem jedes weitere Wachstum nicht nur das Wesen wissenschaftlicher Forschung, sondern auch die öffentlichen Ressourcen vor neue Anforderungen stellt.
Der Wissenschaftsbetrieb wächst derzeit schneller als die Weltbevölkerung oder die Bruttosozialprodukte, die sich jeweils in 50 bzw. 20 Jahren verdoppeln. Exponentielles Wachstum schafft neue Probleme meist schneller als man sie lösen kann und stößt früher oder später an seine Grenzen. Für viele Bereiche der Naturwissenschaft, besonders für die Biologie, scheint dies nun der Fall zu sein.
Big Science hat den Umgang mit der Wissenschaft verändert
“Big Science” verschlingt heute einen signifikanten Teil öffentlicher Ressourcen; Wissenschaftler schließen sich zu Berufsverbänden zusammen und kämpfen gegen eine Flut von Regeln und politischen Verordnungen; in manchen Ländern fordern Studenten und Postdoktoranden formale Lehrvereinbarungen; und Universitäten lehren Fakten, Methoden sowie „Berufsethik“, aber nur selten, was Wissenschaft ist, was sie von uns fordert und wie sie unsere Sicht der Welt verändert. Ergebnis dieser Entwicklung ist der gut ausgebildete, ungebildete Wissenschaftler.
„Big Science“ bedroht auch die wissenschaftliche Grundforderung, die eigenen Resultate kritisch zu hinterfragen. Laut einer neueren Untersuchung lassen sich mindestens zwei Drittel aller biomedizinischen Ergebnisse nicht reproduzieren, was nicht nur Zeit und Geld verschwendet, sondern auch den Erfolg klinischer Versuchsserien beeinträchtigt.
Der Biologe und Statistiker John P. A. Ioannidis hat behauptet, dass die meisten biomedizinischen Forschungsresultate zumindest teilweise falsch sind. Die Gründe dafür sind vielschichtig: steigende Komplexität der untersuchten biologischen Systeme, mangelnde Sorgfalt wegen des Konkurrenzdrucks; der unbarmherzige Publikationszwang; von Netzwerken gefördertes, unbewusstes Gleichdenken; mangelnde statistische Auswertung; finanzielle Interessen - und nicht zuletzt bewusste Fälschung.
Fragwürdige Maßzahlen
sind ein weiteres Problem. Die jährlich publizierte Rangordnung von Universitäten, die Häufigkeit, mit der Publikationen eines Autors von Fachkollegen zitiert werden sowie der „Impaktfaktor“ einer wissenschaftlichen Zeitschrift überschatten zunehmend den Forscheralltag. Der Impaktfaktor - die Häufigkeit, mit der die Artikel einer Zeitschrift von anderen durchschnittlich zitiert werden - gilt weithin als Qualitätsmaßstab für die wissenschaftliche Zeitschrift und sogar für die darin publizierenden Wissenschaftler. Wissenschaftssoziologen haben dies von Anfang an angeprangert, doch der Bürokratie liefert er eine willkommene Zahl, um Wissenschaft zu organisieren und zu koordinieren. Organisation ist jedoch der Feind von Innovation - und Koordination der von Motivation. Vor zwei Jahren blies die Wissenschaftsgemeinde endlich zum Gegenangriff und erklärte den Impaktfaktor als ungeeignet, um über Anstellung, Beförderung oder finanzielle Unterstützung eines Forschers zu entscheiden. Alte Gewohnheiten halten sich jedoch hartnäckig und so wird es wohl eine Weile dauern, bis diese pseudowissenschaftliche Messzahl im Abfallkorb der Geschichte landet.
Ein mörderischer Konkurrenzdruck
Wissenschaft braucht nicht nur Kooperation, sondern auch Konkurrenz. Diese ist jedoch heute so mörderisch, dass manche Forschungsgebiete Kriegsschauplätzen gleichen. In meiner Tätigkeit als Redaktor für „prominente“ wissenschaftliche Zeitschriften entsetzt mich immer die Feindseligkeit, mit der viele Gutachter die zur Veröffentlichung eingereichten Manuskripte ihrer Kollegen in Grund und Boden verdammen. Anstatt hilfreiche Vorschläge zu unterbreiten, scheinen sie alles daranzusetzen, dem Manuskript ihres Konkurrenten den Todesstoß zu versetzen. Noch dazu fordern einige Zeitschriften von ihren Redaktoren, mindestens zwei Drittel der eingereichten Manuskripte abzulehnen, ohne sie von Experten begutachten zu lassen.
Die Hektik des heutigen Wissenschaftsbetriebs lässt Forschern nur selten genügend Zeit, um ein Manuskript mit der nötigen Sorgfalt zu durchkämmen, sodass laut neueren Studien anonyme Begutachtungen weder die Qualität noch die Reproduzierbarkeit der wissenschaftlichen Literatur gewährleistet.
Der Siegeszug elektronischer Zeitschriften eröffnet aber nun die Möglichkeit, wissenschaftliche Arbeiten nicht vor, sondern nach der Veröffentlichung zu kommentieren. Dies schüfe auch eine Plattform, um über erfolglose Experimente zu berichten, die für den Fortschritt der Wissenschaft ebenfalls wichtig sind.
Gigantische Projekte
Manche Forschungsprojekte, wie die Entwicklung neuer Technologien aufgrund bereits vorhandener Erkenntnisse oder die Suche nach dem Grundteilchen der Materie erfordern den Einsatz großer Gruppen (Abbildung), doch dies gilt nur sehr begrenzt für viele der Grossforschungsprojekte und organisierten Netzwerke der heutigen biomedizinischen Grundlagenforschung, die bis zu € 1 Milliarde in ein einziges Forschungsziel investieren.
Abbildung. Big Science – Erforschung des Größten und des Kleinsten in unserer Welt und des eignen Ichs. Oben: das im Bau befindliche European Extremely Large Telescope (E-ELT) und der Blick in den Weltraum. Unten: der CMS-Detektor am Large Hadron Collider (LHC) des CERN und das Bild einer Teilchenkollision. Mitte: Bild zum Human Brain Project. (Bilder: http://www.eso.org/public/images/; http://home.web.cern.ch/, EPFL/Blue Brain Project: ©BBP/EPFL).
Dieser Gigantismus übersieht, dass grundlegende Entdeckungen meist nicht organisierten Gruppen, sondern einzelnen Querdenker entstammen. Um diese Entwicklung die Stirn zu bieten, bräuchte es eine Wissenschaftlerpersönlichkeit, die als „Stimme der Wissenschaft“ den politischen und bürokratischen Entscheidungsträgern das Wesen und die Anliegen langfristiger Grundlagenforschung nahebringt. Europa fehlt eine solche Stimme.
„Big Science“ hat auch ein freundliches Antlitz
Zu ihren Geschenken zählen wirksame nationale Institutionen zur Forschungsförderung, Auslandsstipendien für junge Wissenschaftler, fairere akademische Karrierestrukturen, vermehrte Beachtung von Geschlechtergleichheit sowie Kommunikationsmöglichkeiten, von denen ich als junger Forscher nur träumen konnte. Zudem scheint sich das exponentielle Wachstum der biologischen Forschung zu verlangsamen.
Wissenschaftliche Evolutionen haben ihre eigenen Gesetze, die wir nur unvollständig kennen. Wir müssen sie besser verstehen, wenn wir „Big Science“ in den Griff bekommen wollen.
[1] Ronald A. Butow, 1936 – 2007, Mitochondrien-Genetiker, Professor für Molekularbiologie am Southwestern Medical Center, University of Texas (Anmerkung der Redaktion).
[2] Efraim Racker, 1913 – 1991, ursprünglich aus Wien stammender Biochemiker, auf den fundamentale Arbeiten zur ATP-Synthese in Mitochondrien zurückgehen, Professor für Biochemie, Cornell University, Ithaca, NY (Anmerkung der Redaktion).
Weiterführende Links
Artikel mit verwandter Thematik im ScienceBlog
Gottfried Schatz
- 14.02.2013: Gefährdetes Licht — zur Wissensvermittlung in den Naturwissenschaften
- 06.12.2012: Stimmen der Nacht — Gedanken eines emeritierten Professors über Wissenschaft und Universitäten
- 01.09.2011: Die letzten Tage der Wissenschaft (Satire)
Peter Schuster
- 03.07.2011: Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?
- 21.07.2011: Grundlagenforschung in Österreich: Erkennen von Exzellenz
- 11.08.2011: Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften
- 08.09.2011: Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses
- 28.03.2013: Wie Computermethoden die Forschung in den Naturwissenschaften verändern
Über Big Science
- Franz Kerschbaum; 08.08.2014: Europas Sterne — Erfolgsmodell Europäischer Zusammenarbeit am Beispiel Astronomie und Weltraumwissenschaften
- Pascale Ehrenfreund; 25.07.2014: Warum ist Astrobiologie so aufregend?
- Reinhard F. Hüttl; 01.08.2014: Vom System Erde zum System Erde-Mensch
- Gerhard Weikum; 20.06.2014: Der digitale Zaubelehrling
- Manfred Jeitler; 06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.
Artentstehung – Artensterben. Die kurz- und langfristige Perspektive der Evolution
Artentstehung – Artensterben. Die kurz- und langfristige Perspektive der EvolutionFr, 17.10.2014 - 08:29 — Christian Sturmbauer
Artensterben und Artenentstehung sind integrale Bestandteile des Evolutionsprozesses. Sie verlaufen nicht kontinuierlich sondern werden von Elementarereignissen der Umwelt diktiert. Der Zoologe und Evolutionsbiologe Christian Sturmbauer (Universität Graz) beschreibt anhand von Modellorganismen – ostafrikanischen Buntbarschen – wie Biodiversität entsteht und welche Rolle darin Umwelt und Konkurrenz spielen [1].
Vor kurzem ging im Wiener Naturhistorischen Museum eine Ausstellung zu Ende, welche die Evolution komplexer Lebensformen auf unserer Erde in einem völlig neuen Licht erscheinen lässt [2]. Gezeigt wurden erstmals sogenannte „Gabonionta“. Dieses 2008 entdeckte, nach dem Fundort in Gabun benannte Fossil in Tonschiefern, ist 2,1 Milliarden Jahre alt und wahrscheinlich der erste vielzellige Organismus, den die Evolution hervorgebracht hat (Abbildung 1). Bis zu dieser Entdeckung hatte man angenommen, dass erste vielzellige Organismen – die sogenannte „Ediacara-Fauna“ – erst 1,5 Milliarden Jahre später, vor 600 Millionen Jahren, entstanden wären.
Abbildung 1. Gabonionta – die ersten Spuren komplexer Organismen sind 2,1 Milliarden Jahre alt (Bild: Mathias Harzhauser, NHM,Wien)
Die Signatur des Lebens
Auf unserer 4,5 Milliarden Jahre alten Erde ist Leben vor etwa 3,8 Milliarden Jahren entstanden – in Form einzelliger Organismen (Bakterien und Archäa). Vor 2 Milliarden Jahren erfolgte dann ein unglaublicher Anstieg des Sauerstoffgehalts in der Atmosphäre; wahrscheinlich war dies auf die Entstehung von Photosynthese betreibenden Bakterien zurückzuführen. Dieser sogenannte „Great Oxidation Event“ war der wesentliche Auslöser dafür, dass komplexeres Leben auf unserer Erde möglich wurde und die ersten Vielzeller – Gabonionta – entstanden.
Der Sauerstoffgehalt brach nach einiger Zeit drastisch ein – kohlenstoffreiche Fossillien dürften Oxydationsprozesse in Gang gesetzt haben, die der Atmosphäre den Sauerstoff entzogen. Die ersten Vielzeller verschwanden wieder. Es folgte eine sehr lange, fast 1 Milliarde Jahre andauernde, sauerstoffarme Periode, in der die ersten Grünalgen und Rotalgen entstanden, die aber ansonsten, hinsichtlich neuer Lebensformen, kaum Innovationen hervorbrachte (Abbildung 2, oben).
Vor etwa 700 Millionen Jahren stieg dann der Sauerstoffgehalt der Atmosphäre wieder massiv an: innerhalb von weniger als 100 Millionen Jahren wurde der heutige Level von etwa 21 % erreicht und in der Folge beibehalten.
Nach mehreren Anläufen komplexere Organismen zu schaffen hat das Leben vor etwa 700 Millionen Jahren neu durchgestartet. Die etwa 600 Millionen Jahre alte Ediacara-Fauna (die nichts mit den heute lebenden vielzelligen Tieren – den „Metazoa“ – zu tun hat) war vermutlich eine erste Blüte von vielzelligen Organismen. Diese haben in Evolutionsprozessen alle möglichen Nischen gefüllt, starben dann aber durch unbekannte Ereignisse aus.
Die „Kambrische Revolution“ betrifft im wesentlichen alle heute lebenden Tierarten unseres Planeten: die gesamten Tierstämme entstanden im Zeitraum zwischen 540 und 520 Millionen Jahre in extrem enger zeitlicher Abfolge – gemessen in evolutionären Zeiten nahezu gleichzeitig.
Wenn wir uns die Periode der Evolution der Vielzeller genauer betrachten (Abbildung 2, unten), so sieht man 5 massivere Einbrüche. Die Ursachen waren in einigen Fällen katastrophale Ereignisse – als unser Planet von Meteoriten getroffen wurde –, in anderen Fällen aber auch massive klimatische Verschiebungen. Bei der wohl größten Katastrophe an der an der Trias-Grenze von Erdaltertum und Mittelalter wurden 96% der Arten nahezu schlagartig ausgelöscht.
Das Muster von Extinktionen, die gefolgt sind von Perioden intensiver und dann langsam abflachender Innovation, kann aus den fossilen Befunden unseres Planeten ersehen werden.
Das Faktum des Aussterbens ist also ebenso integraler Bestandteil des Evolutionsprozesses, wie die unglaubliche Fähigkeit sehr schnell wieder Biodiversität hervorzubringen. Abbildung 2. Das vielzellige Leben brauchte mehrere Anläufe. Oben: Zeittafel der Evolution. Der Anstieg von Sauerstoff in der Atmosphäre ermöglichte die Entstehung der ersten Vielzeller (Gabonionta) vor 2,1 Mrd. Jahren. Nach dem ersten Zusammenbruch des Sauerstoffgehalts erfolgte ein Anstieg erst wieder vor 800 Mio Jahren und führte zur Bildung komplexer Organismen. Unten: Die Ära der Metazoa (seit 540 Mio Jahren) umfasst mindestens 5 „globale resets“. Artensterben sind Teil der Geschichte und hatten viele Ursachen, Massenextinktionen waren immer gefolgt von Perioden intensiver Innovation. (Abbildung modifiziert nach Mathias Harzhauser NHM, Wien)
Welche Mechanismen katalysieren die schnelle Entstehung von Arten?
Vorweg eine Definition des in der Evolutionsbiologie gebräuchlichen Begriffs „adaptive Radiation“: damit wird eine Entstehung von vielen Arten innerhalb sehr kurzer Zeiträume bezeichnet, bei der sich eine wenig spezialisierte Art in zahlreiche stärker spezialisierte Arten auffächert. Dies erfolgt durch spezifische Anpassungen an vorhandene Umweltverhältnisse und Ausnutzung unterschiedlicher, vorher nicht besetzter ökologischer Nischen. Damit können sehr wenige Pionierarten sich einen Lebensraum aufteilen und dann durch spezifischere Aufteilung der energetischen und ökologischen Ressourcen eine Artenvielfalt hervorbringen, die in einem autokatalytischen Prozess immer komplexer wird und immer komplexere Wechselwirkungen erzeugt.
Man fragt sich natürlich, wodurch derartige Prozesse eingeleitet werden.
Einen Teil der Antwort hat uns bereits die Geschichte der Erde gezeigt: katastrophale Ereignisse können diese Prozesse katalysieren, indem sie einen voll besetzten Lebensraum innerhalb kürzester Zeit leerräumen und durch die Massenextinktion eine Vielzahl von leeren ökologischen Möglichkeiten übriglassen, die dann andere Arten besiedeln können.
Eine zweite Möglichkeit ist gegeben, wenn neue Lebensräume entstehen – Galapagos ist dafür ein wunderbares Beispiel. In der Mitte des Meeres sind hier Inseln entstanden, die durch extrem seltene Ereignisse von windverdrifteten Insekten und Vögeln besiedelt wurden. Diese Organismen fanden leere Lebensräume vor, in denen sie dann im oben beschriebenen autokatalytischen Prozess viele Arten hervorbrachten.
Schlüsselinnovationen
Die Frage, die wir noch stellen müssen, ist, welche der Kandidaten die neuen Chancen nutzen können. Oft beobachten wir, dass eine Vielzahl unterschiedlicher Arten einen neuen Lebensraum vorerst erobert, aber dann nur ganz wenige tatsächlich durchstarten und eine Vielfalt hervorbringen. Eine von den Biologen als „Schlüsselinnovation“ bezeichnete Fähigkeit entscheidet, welche Gruppen tatsächlich proliferieren können.
Schlüsselinnovationen haben sehr viel mit Präadaptationen zu tun. Ein Beispiel wäre dafür die Evolution der Säugetiere: wir wissen, dass es schon lange – mindestens über 120 Millionen Jahre – neben vielen Dinosauriern auch Säugetiere gegeben hat. Die wesentlichen Säugetierordnungen waren schon vor der eigentlichen Radiation fossil belegt. Es hat jedoch erst an der Grenze von Kreide zu Tertiär der Meteoriteneinschlag in der Karibik das klimatische Gleichgewicht der Erde vermutlich so massiv gestört, dass die Dinosaurier ihre Eier nicht mehr zur Reife bringen konnten. Die Säugetiere und natürlich auch die Vögel konnten die Nischen dann in unglaublicher Geschwindigkeit besetzen.
Weitere konkrete Beispiele finden wir viele auf unserem Planeten. Allerdings sind davon nur wenige vor so kurzen Zeiträumen passiert (oder passieren noch jetzt), dass sie in allem Detail untersucht werden können.
Was uns die ostafrikanischen Buntbarsche erzählen
Eines der seltenen, detailliert untersuchbaren Modellsysteme – die ostafrikanischen Buntbarsche – bearbeite ich mit meiner Gruppe seit etwa 20 Jahren. Neben einer komplexen Brutpflege liegt die Schlüsselinnovation der Tiere in der besonders effizienten Anpassungsfähigkeit, die ihnen zwei voneinander unabhängige Bezahnungen mit Kieferzähnen und Schlundzähnen verleihen. Damit wurden die Tiere befähigt unterschiedliche Nahrungsquellen zu erschließen und in den neu entstandenen Seen des ostafrikanischen Grabenbruchs tausende von Arten hervorzubringen: im Großraum Viktoriasee gibt es etwa 700 ausschließlich dort vorkommende endemische Arten, im Malawisee zwischen 700 und 800 ebenso nur dort vorkommende Arten und schließlich im Tanganyikasee etwa 250 – 300 Arten (Abbildung 3). Auf Grund der Körperform und ihrer Bezahnung dokumentieren diese Arten sehr schön, wie ein Ökosystem dicht besetzt wird, indem alle möglichen Ernährungsnischen genutzt werden. Abbildung 3. Die Buntbarsche der ostafrikanischen Seen.
Schon sehr früh haben wir durch molekulargenetische Untersuchungen festgestellt, dass die etwa 700 phänotypisch unterschiedlichen Arten des Malawisees sich genotypisch kaum voneinander unterscheiden, dass sie also – evolutionär gesprochen – unglaublich jung sein müssen. Bedenkt man, dass der Malawisee wahrscheinlich keine 800 000 Jahre, der Viktoriasee sogar maximal nur 200 000 Jahre, alt ist, so stellt sich die Frage:
Ist es möglich dass 700 Arten in 200 000 Jahren entstehen können?
Die Buntbarsche suggerieren die Antwort: ja. Die adaptive Radiation verläuft so schnell, dass die entstehenden Arten vorerst genetisch unvollständig getrennt sind.
Adaptive Radiation ist also der effektivste und schnellste Weg zur Entstehung von Biodiversität – er wird beschritten, wenn sich neue Chancen bieten, aber auch nach Katastrophen.
Buntbarsche der Gattung Tropheus – wie Populationen entstehen
Unser Modell zum Studium der Evolution von Populationen sind Populationen und Schwesternarten von Buntbarschen der Gattung Tropheus, die ausschließlich im Tanganyikasee leben. Diese Fische sind Felsspaltenbewohner und für das Leben im Fels so hoch spezialisiert, dass man entlang der Küste praktisch in jedem Felsbereich eine eigene Gattung finden kann. An einigen wenigen Küstenstrichen kommt auch mehr als eine Tropheus-Art gemeinsam lebend („sympatrisch“) vor. Wir kennen die genetische Verwandtschaft dieser Tropheus-Populationen und -Arten sehr genau und haben versucht zu vergleichen, wie sich Populationen voneinander unterscheiden, wenn sie in getrennten Habitaten („allopatrisch“) leben und wenn eine 2. Schwesternart in Konkurrenz um die ökologischen Nischen tritt und damit einen massiven Selektionsdruck induziert.
Von den rund 120 geographischen Rassen haben wir 2 Arten herausgepickt, die genetisch deutlich voneinander entfernt waren und diese im „Labor“ gezüchtet und gekreuzt (weil die Tiere sehr aggressiv sind, bedeutete ‚Labor‘ große Teiche) und 4 Generationen gezüchtet (Abbildung 4). Dabei haben wir verfolgt, wie sich die Tiere einerseits in einem künstlichen Lebensraum verändern, aber auch, wie es mit den Kreuzungsprodukten aussieht: ob deren Morphologie intermediär ist und ob diese Intermediarität vererbbar ist – also ob es lokale Anpassungen in den Genen gibt.
Abbildung4. Tropheus – Ein Modell zum Studium der Evolution von Populationen. Zwei genetisch deutlich unterschiedliche Tropheus (Mitte) wurden unter „Labor“-Bedingungen (oben) gezüchtet und gekreuzt. Bereits in der ersten Generation traten hochsignifikante phänotypische Unterschiede auf (unten).
Es kommt zu raschen morphologischen Veränderungen
Unsere Ergebnisse zeigten neben der Tatsache, dass die Kreuzungsprodukte morphologisch intermediär waren, dass schon die 1. Teich-Generation – obwohl diese, wie die Elternpopulationen ganz klar genetisch voneinander getrennt waren – sich in ihrer Morphologie massiv von ihren Eltern im See unterschieden. Im Teich herrschte ja eine ganz andere Situation vor als im natürlichen Lebensraum der Brandungszone, die – neben den Risiken – eine ungeheure körperliche Aktivität der Tiere erforderte. Auch die Nahrungsaufnahme erfolgte dort nicht wie im Teich vorwiegend von der Oberfläche sondern durch Abgrasen von Steinen.
Die Tiere hatten ganz spezifische Körperbereiche innerhalb einer Generation verändert. Die hochsignifikanten Unterschiedlichkeiten lagen im Bereich der Maulöffnung, der Rücken- und Schwanzflosse und auch im Schwanzstiel (Abbildung 4, unten). Bei diesen Veränderungen kann man nicht von genetischer Anpassung reden, sie sind vielmehr Ausdruck einer phänotypischen Plastizität: ein gegebenes Genom vermag durch unterschiedliche Regulation unterschiedliche Phänotypen hervorzubringen.
Veränderungen durch Zusammenleben (Sympatrie)
In der Folge haben wir an Tropheus-Populationen und Schwestern- Arten untersucht welchen Einfluss das Zusammenleben einer Art (Tropheus moorii) mit einer anderen Art (Tropheus polli) auf die Morphologie nimmt. Eine Analyse der durchschnittlichen Körperform von 13 untersuchten Populationen hat allein lebende von sympatrisch lebenden Populationen klar unterschieden: Die Arten, die sich den Lebensraum teilten, hatten einen wesentlich kleineren Kopf, kleinere Augen und einen weiter vorne liegenden Ansatz der Brustflossen. Während die genetischen Distanzen der Populationen mit der geographischen Distanz korrelierten, war dies für die morphologischen Unterschiede nicht der Fall – diese wiesen vielmehr auf selektions- bzw. konkurrenzgetriebene Nischenabgrenzung hin.
Das Modell der Buntbarsche zeigt, dass Populationen sehr rasch auf Umweltveränderungen reagieren. Die Anpassungsfähigkeit eines Individuums moduliert also auf Basis der eigenen Gene den Phänotyp, entsprechend der Umweltsituation (phänotypische Plastizität). Längerfristig kommt natürlich noch eine genetische Komponente dazu.
Schlussfolgerungen und Ausblick
Das Artensterben ist ebenso wie die Artenentstehung integraler Bestandteil des Evolutionsprozesses. Systeminhärent hat der Evolutionsprozess ein unglaubliches Potential zur Neuerung und Erneuerung; dies gilt auch in Bezug auf große Katastrophen. Um die Biodiversität an sich besteht also langfristig kein Grund zur Sorge!
Grund zur Sorge besteht allerdings sehr wohl für jenes Ökosystem, das (auch) unsere Lebensgrundlage ist. In 299.800 der 300.000 Jahre ihres Daseins hat unsere Spezies nicht wesentlich mehr in die Natur eingegriffen als andere vergleichbare Organismen. Erst in den letzten 200 Jahren haben das exponentielle Wachstum der Weltbevölkerung und deren massive Eingriffe in die Umwelt dies geändert. Ob das Ökosystem dabei zum Kippen gebracht wird, ist letztlich eine Frage unserer eigenen Zukunft.
[1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Christian Sturmbauer anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm
[2] http://www.nhm-wien.ac.at/presse/pressemitteilungen/experiment_leben_-_d...
Weiterführende Links
Gabonionta - Wien 2014 Video 5:03 min (englisch/französisch) https://www.youtube.com/watch?v=fFAPNdxRvS8
DIE ÄLTESTEN MEHRZELLIGEN LEBEWESEN Weltpremiere im Naturhistorischen Museum, Video 3:11 min (deutsch) http://www.gebaerdenwelt.tv/artikel/wissen/umwelt/2014/03/12/20140312462...
Afrika: Der Malawisee - See der Sterne. Video 43:32 min (ARTE Doku) https://www.youtube.com/watch?v=fv6BIgiH2Zg
Woraus besteht alle Materie? ScienceBlog besuchte das Cern – Tag 2
Woraus besteht alle Materie? ScienceBlog besuchte das Cern – Tag 2Fr, 10.10.2014 - 21:018 — Inge Schuster
Nach überwältigenden Eindrücken am 1. Tag unserer Exkursion an das CERN, der in der Audienz bei der Prinzessin des LHC, dem Compact Muon Solenoid (CMS), gipfelte, bekommen wir heute zuerst einen Einblick in die geheimnisvolle Welt der Antimaterie, dann einen gesamten Überblick über den Beschleuniger-Komplex des CERN. Für das grandios zusammengestellte Besuchsprogramm und die tollen Führungen geht der herzlichste Dank von ScienceBlog an Claudia Wulz (HEPHY, CERN), Manfred Jeitler (HEPHY, CERN) und Michael Doser (CERN).
Über Nacht haben sich die Regenwolken weitestgehend verzogen, der Tag beginnt strahlend schön und sommerlich warm. Das ist eine optimale Voraussetzung für unser heutiges Besuchsprogramm, das uns quer über das weitläufige Gelände der „Meyrin Site“ des CERN führt – eine längere Wanderung bedeutet (Abbildung 1).
Pünktlich zum vereinbarten Zeitpunkt werden wir von der Rezeption des CERN abgeholt und wandern los. Nach etwa 20 Minuten erreichen wir unser erstes Ziel: den Antiproton Decelerator (AD). Ein Decelerator – ein „Entschleuniger“ – noch dazu von Antiprotonen - inmitten des Clusters von Accelerators – Beschleunigern? Was ist das eigentlich, was wird hier erforscht? Abbildung 1. Unsere Besichtigungstour führt von der Rezeption zur Antiproton-Decelerator Halle, von dort zum „Low Energy Ion Ring“ Beschleuniger. Nach einer „Verschnaufpause“ im Computer Center geht es zurück in Richtung Rezeption, zu den Ausstellungen im Globe und Microcosmos (die roten, strichlierten Pfeile geben unsere Route in Form von Luftlinien zwischen den einzelnen Stationen wieder. Karte des CERN-Campus Meyrin : CERN).
Unser Guide, Michael Doser, gibt uns dazu – noch bevor wir die AD-Halle betreten - eine umfassende Einführung (Abbildung 2). Es wird eine Reise in die geheimnisvolle Welt der Antimaterie. Doser selbst ist ein (ursprünglich aus Graz stammender) renommierter Teilchenphysiker, der seit mehr als 30 Jahren über Antimaterie forscht, davon seit rund 20 Jahren am Physik Department des CERN (Details: [1]).
Es ist der einzige Ort der Welt, wo über Antimaterie geforscht wird, um Antworten auf die fundamentalsten Fragen zu finden: Wieso gibt es überhaupt ein Universum, wieso existieren wir? Abbildung 2. Vor der AD Halle. Michal Doser erklärt: die Entstehung des Universums, schließt die Entstehung von Antimaterie mit ein (Bild rechts stammt von einem späteren Ort unserer Besichtigungstour). Bei der Umwandlung von Energie entstehen in gleichen Mengen Teilchen und Antiteilchen. Der Zusammenstoß von Teilchen und Antiteilchen (hier Wasserstoff und Antiwasserstoff) führt zu deren Vernichtung unter Freisetzung hochenergetischer Strahlung (Spur in Fotoemulsion; Bild NASA).
Geheimnisvolle Antimaterie
Die heute geltende Auffassung von der Entstehung unseres Universums geht von einer unvorstellbaren Verdichtung von Energie in einem „Punkt“ (Singularität) aus. Diese ist im Big Bang (Urknall) mit ungeheurer Kraft explodiert, die extrem hohe Energie ist in alle Richtungen expandiert und hat sich in Elementarpartikel – Photonen, Quarks, Leptonen [2] – umgewandelt. Als das sich ausdehnende, extrem heiße Universum abzukühlen begann, sind aus den Elementarpartikel Atome und aus diesen alle uns bekannte Materie entstanden (Abbildung 2). Auch die Atome unseres Körpers setzen sich aus den Elementarteilchen zusammen, die damals entstanden sind - sind also nahezu 14 Milliarden Jahre alt.
Wenn sich hochenergetische Strahlung in Teilchen umwandelt, dann wandelt sie sich in gleichen Mengen in Materie und Antimaterie um („Paarbildung“); zu jedem Baustein der Materie existiert also ein Antimaterie-Teilchen. Wenn beispielsweise aus sehr energiereichen Photonen negativ geladene Elektronen entstehen, entstehen spiegelbildlich gleiche Antiteilchen – Positronen -, die gleiche Masse und Spin und gleichgroße, aber entgegengesetzte Ladung und magnetisches Moment aufweisen. Stoßen Teilchen und entsprechende Antiteilchen zusammen, so führt dies zu deren Vernichtung (Zerstrahlung - Annihilation) unter Freisetzung hochenergetischer Strahlung.
Die ursprünglich von der theoretischen Physik vorausgesagten Antimaterieteilchen fanden breiteste Bestätigung in der Realität: man weist sie etwa in der kosmischen Strahlung nach, wo durch Kollisionen hochenergetischer Partikel Positronen und Antiprotonen entstehen. Man beobachtet sie bei Zerfallsprozessen einiger natürlich vorkommender, protonenreicher Radioisotope – z.B. des Kaliumisotops 40K –, die Positronen emittieren. Positronen emittierende künstliche Radionuklide sind die Basis der in Medizin und Grundlagenforschung angewandten Positron Emission Tomography (PET), einer Revolution bildgebender Verfahren. Vor allem aber werden Antiteilchen durch Kollision hochenergetischer Partikel - wie hier in den Beschleunigern des am CERN - erzeugt und charakterisiert.
Was aber (noch) nicht verstanden wird:
Auch unser Universum muss unmittelbar nach dem Urknall zur Hälfte aus Materie und Antimaterie bestanden haben. Eine völlige Symmetrie zwischen Materie und Antimaterie hätte dann aber zur sofortigen Auslöschung des sich eben bildenden Weltalls geführt, übrig geblieben wäre nur Strahlung. Unser Weltall enthält zwar ungeheuer viel Strahlung, besteht jedoch – bis an die detektierbaren Grenzen - aus „normaler“ Materie. Es muss also eine gewisse Asymmetrie zwischen Materie und Antimaterie vorliegen, die ein Überleben der Materie und damit auch unsere Existenz ermöglicht hat.
Die Antiproton Decelerator (AD) Halle
Sind Teilchen und Antiteilchen doch keine perfekten Spiegelbilder, können minimale Unterschiede in deren Eigenschaften festgestellt werden, die zur absoluten Dominanz der einen Form geführt haben?
Dies sind die Fragen, welche die Antimaterie-Forscher hier zu lösen versuchen. Als relevantes Modell wollen sie das Paar Wasserstoff/Antiwasserstoff vergleichen (Abbildung 2). Der aus einem Proton und einem Elektron bestehende Wasserstoff ist das einfachste Atom, mit 75 % der häufigste Baustein im Universum und überdies in seinen Eigenschaften aufs Genaueste untersucht.
Bereits vor rund 20 Jahren konnten CERN Forscher zeigen, dass es prinzipiell möglich ist Antiwasserstoffatome aus Antiprotonen und Positronen herzustellen. Um den Antiwasserstoff aber nicht nur (durch den Annihilationsprozess, der ihn zerstört) nachzuweisen, sondern auch in verschiedenen Experimenten untersuchen zu können, muss er „eingefangen“ und in geeigneter Form über die Versuchsdauer verfügbar gemacht werden. Dies geschieht in einer sogenannten Penningfalle (Abbildung 3), in welche Antiprotonen und Positronen auf getrennten Wegen eintreten, in getrennten Kompartimenten erst akkumulieren und dann in einer zentralen magnetischen Falle (Oktupol-Falle) zusammengeführt werden. Ultrahohes Vakuum, starke Magnetfelder/elektrische Felder verhindern, dass Antiteilchen mit der Materie der Falle in Kontakt kommen und damit zerstört werden. Auf diese Weise entstandener Antiwasserstoff konnte bereits über eine Dauer von 16 Minuten gespeichert werden. Abbildung 3. Die Erzeugung von Antimaterie. Links oben: Beschleunigung von Protonen über das System LINAC, Booster und Proton Synchrotron (PS) und Erzeugung von Antiprotonen im PS durch Kollision mit einem Metall-Target. Entschleunigung der Antiprotonen im Antiproton Decelerator (AD). Innerhalb des AD-Rings (rechts oben) sind Experimente aufgebaut (sichtbar: ALPHA, ASACUSA). Rechts unten: Die Penning Falle in der Positron und Antiproton zu Antiwassestoff kombinieren.
Wie werden aber Antiprotonen und Positronen erzeugt?
Die Positronen für den Antiwasserstoff lassen sich vhm. einfach aus dem radioaktiven Natriumisotop 22Na herstellen, das unter Emission von Positronen (β+-Zerfall) zerfällt.
Zur Erzeugung der Antiprotonen werden Protonen aus einer Protonenquelle über das Beschleunigersystem LINAC2, Booster und Proton Synchrotron (siehe nächster Abschnitt) auf sehr hohe kinetische Energie – 26 GeV - und im PS zur Kollision mit einem Metall-Target (aus Iridium) gebracht. Dabei entstehen Proton-Antiproton Paare. Die Antiprotonen werden auf Grund ihrer unterschiedlichen Ladung von den Protonen abgelenkt, sind aber für Untersuchungen noch viel zu heiß und schnell. Ein Abbremsen und Abkühlen mittels zweier Kühlverfahren erfolgt nun innerhalb von 8o Sekunden im Antiproton Decelerator, einem Speicherring mit 188 m Umfang. Dann werden die versuchsbereiten Teilchen an Experimente weitergeleitet, die innerhalb des AD-Rings aufgebaut sind (Abbildung 3). Es sind internationale Kooperationen, deren Großprojekte ( ATRAP, ALPHA, ASACUSA, AEGIS) sich von ungemein präzisen Bestimmungen der physikalisch-chemischen Eigenschaften von Antimaterie-Teilchen bis hin zu deren möglichen Anwendungen in der Tumormedizin erstrecken. An dem Experiment AEGIS ist Michael Doser maßgeblich beteiligt. Man merkt seine Begeisterung als er über Lösungsansatze zur Beantwortung der Frage berichtet:
Liegt die Ursache für das Überleben der Materie vielleicht in einer unterschiedlichen Gravitation (Schwerkraft) von Teilchen und Antiteilchen?
Vom Entschleuniger zum Beschleuniger-Komplex
Die Teilchenphysikerin Claudia Wulz (sie ist am CERN tätige Forscherin des HEPHY) kennen wir bereits seit gestern. Sie hat mit einem Teil unserer Gruppe den CMS-Detektor besichtigt. Nun löst sie Michael Doser ab und führt uns zur nächsten Station. Die Wegstrecke ist kurz und wir stehen vor einem hohen Gebäudekomplex, in welchem der Kreisbeschleuniger „Low Energy Ion Ring“ (LEIR) untergebracht ist. Wofür wird dieser Beschleuniger verwendet, wie steht er in Zusammenhang mit den anderen Beschleunigern am CERN, bis hin zum LHC? Dazu gibt uns Claudia Wulz einen umfassenden Überblick (Abbildung 4). Abbildung 4. Der Beschleunigerkomplex am CERN. Claudia Wulz (rechts) erklärt, wie eine Kette von Beschleunigern Teilchen stufenweise auf immer höhere Energien bringt.
Der LEIR wie auch die anderen Beschleuniger sind Teil eines Beschleuniger-Komplexes, in welchem Partikel stufenweise auf immer höhere Energien gebracht werden. Jede dieser Maschinen erhöht die Energie, der in sie injizierten Partikelstrahlen, bevor diese in den nachfolgenden Beschleuniger eintreten, dort weitere Energie dazugewinnen, bis sie schließlich im letzten und größten Beschleuniger, dem LHC, die gigantische Energie von nahezu 7 Teraelektronenvolt erreichen und zur Kollision gebracht werden. Es sind Bedingungen, die den Zustand nach dem Urknall, die Entstehung der Elementarpartikel, simulieren.
- Stufe 1: Die Beschleunigung von Protonen beginnt im LINAC2. Dies ist ein bereits ziemlich alter Linearbeschleuniger (er stammt aus 1976 und ist neben dem LEIR lokalisiert), der von einer Wasserstoffgasflasche, der Protonenquelle, in Pulsen von 0,1 Millisekunden Dauer gespeist wird. Nach der Passage eines elektrischen Feldes, sind die Elektronen entfernt; die Protonen treten in den LINAC und werden auf 50 MeV beschleunigt.
- Stufe 2: Aus dem LINAC 2 wird der Protonenstrahl in den Proton Synchrotron Booster gelenkt. Dieser besteht aus 4 übereinander gelagerten Synchrotron Ringen, welche die Teilchen auf 1,4 Gigaelektronenvolt beschleunigen. (Diese Maschine ist immerhin schon 42 Jahre alt.)
- Stufe 3: Vom Booster geht es dann in das Proton Synchrotron (PS), das die Partikel bis auf 25 Gigaelektronenvolt beschleunigen kann. 1959 in Betrieb gegangen, war das PS das erste Synchrotron am CERN und mit einen Umfang von 628 m damals der stärkste Teilchenbeschleuniger der Welt. Es ist noch immer in Funktion und hat heute eine zentrale Rolle als Lieferant beschleunigter Partikel an die nachfolgenden noch stärkeren, neueren Maschinen, aber auch – wie wir eben gesehen haben – an den Antiproton Decelerator für Antimaterie Experimente. Es sind nicht nur Protonen, die im PS beschleunigt werden, es werden auch schwere Ionen, aus dem LEIR eingespeist. (Auf das hohe Alter von Maschinen und auch Gebäuden angesprochen meint Claudia Wulz: Wir sind sehr sparsam. Unsere Anschaffungen sind zwar extrem teuer, dafür verwenden wir sie aber ewig.)
- Stufe 4: Vom PS geht es in das Super Proton Synchrotron (SPS). Dieser Beschleuniger mit einem Umfang von 7 km beschleunigt auf bis zu 450 Gigaelektronenvolt. Vor der Inbetriebnahme des LHC wurden hier Teilchenkollisionen durchgeführt, die fundamentale Erkenntnisse u.a. zur Struktur von Protonen oder auch Bosonen brachten.
- Stufe 5: Die letzte Etappe der Beschleunigung erfolgt am LHC, der 2008 in Betrieb ging. Über diesen wurde im vorgehenden Report bereits berichtet.
- So, nun sind wir für den Besuch des LEIR gerüstet.
Der Low Energy Ion Ring (LEIR)
Dieser Beschleuniger hat mit rund 78 m Umfang in einer Halle Platz (Abbildung 5). Abbildung 5. Der Low Energy Ion Ring (LEIR).
Von oben gesehen bekommen wir einen sehr guten Eindruck, wie eine derartige Maschine aufgebaut ist und funktioniert. Dazu tragen auch die Farben bei: wir sehen rote Dipolmagneten, welche die Ionenstrahlen in die Bahn lenken, schmale blaue Magnete, die den Strahl fokussieren, beige Blöcke, die mit Hilfe eines elektromagnetischen Feldes die Teilchen beschleunigen, auffallend gestaltete, sogenannte Elektronen Kühler, die die Dichte des Strahls erhöhen („kühlen“) und schließlich den Magneten, der den Strahl aus dem Ring hinaus zum nächsten Beschleuniger lenkt.
Ein großartiger Überblick!
Der LEIR wurde übrigens aus einem Vorgänger – Low Energy Antiproton Ring (LEAR) – umgebaut, der vor der Inbetriebnahme des Antiproton Decelerators dessen Aufgabe innehatte – das Abbremsen und Abkühlen der Antiprotonen.
Seit 2006 ist der LEIR nun aber ein Beschleuniger von Bleiionen, die in Paketen gebündelt vom Vorbeschleuniger LINAC3 eingespeist werden und von 4,2 auf 72 MeV beschleunigt in das Proton Synchroton und weiter über die Beschleunigerkette in den LHC gelangen. Seit 2010 werden dort neben Proton-Proton Kollisionen auch Kollisionen von Protonen mit Bleiionen und Bleiionen mit Bleiionen durchgeführt.
Unser Programms nähert sich seinem Ende
Die Vielzahl und Vielfalt an Eindrücken, die wir bis jetzt erhalten haben, beeinträchtigt unser Aufnahmevermögen. Ein kurzer Besuch im Computer Center wird von mehreren Teilnehmern zur Rast auf den bequemen Bürostühlen benutzt. Dann geht es zurück in Richtung Rezeption.
Weitere Programmpunkte können nach Belieben gewählt werden. Zum Beispiel die Ausstellung „Microcosmos“: Vom unendlich Großen bis zum unendlich Kleinen. Diese lässt alles, was wir in den beiden Tagen gesehen haben Revue passieren; angefangen von den Beschleunigern und Detektoren bis hin zu den Elementarpartikeln.
Viele aus unserer Gruppe machen auch einen Abstecher nach Genf, der See kann in wenigen Minuten mit den Öffis erreicht werden. Einige ziehen es vor in der Hotelbar zu sitzen und beim Bier das Gesehene und Gehörte nachwirken zu lassen.
Auf jeden Fall waren es zwei unvergessliche Tage mit einem grandios zusammengestellten Besuchsprogramm. Dafür und für die herausragenden Führungen danken wir herzlichst Claudia Wulz, Manfred Jeitler, Michael Doser und nicht zuletzt dem CERN Visits Centre für die grandiose Untertützung Abbildung 6. Einige Impressionen
[1] Michael Doser: CV. http://congress13.scnat.ch/e/jahreskongress/referenten/documents/CV_Mich...
[2] siehe Abbildung 2 in: http://scienceblog.at/scienceblog-besuchte-das-cern-1#.
Weiterführende Links:
Zur Beschleunigerkette: http://home.web.cern.ch/about/accelerators Video 6:15 min (Englisch)
Antimaterie: http://home.web.cern.ch/topics/antimatter
Antimatter at CERN http://www.youtube.com/watch?v=1VQuJD7iD3w Video 4:64 min (Englisch)
CERN: Michael Doser - Antimateriephysiker und Silberschmied, TM Wissen, ServusTV http://www.youtube.com/watch?v=Henf6j8ZPRw Video 10:41 min
https://cds.cern.ch/record/1603713/files/0002.jpg?subformat=icon-1440 !
http://home.web.cern.ch/topics/antimatter
http://home.web.cern.ch/about/accelerators Video 6:15 min (Englisch)
Wie geht es weiter?
https://www.google.at/maps/@46.2318485,6.0555793,386m/data=!3m1!1e3?hl=de-AT http://home.web.cern.ch/about/accelerators
Hans Tuppy: Ein Leben für die Wissenschaft
Hans Tuppy: Ein Leben für die WissenschaftFr, 02.10.2014 - 21:42 — Peter Palese
Wie kein Anderer hat der Biochemiker Hans Tuppy die Wissenschaftslandschaft Österreichs geprägt. Mit seinem Namen verbindet man den Spitzenforscher, Wissenschaftspolitiker, Begründer einer Schule herausragender Forscher und auch heute noch höchst engagierten Wissenschafter [1]. Seinen 90. Geburtstag hat das offizielle Österreich vergangene Woche in der Akademie der Wissenschaften gefeiert [2, 3]. Den Festvortrag hielt ein ehemaliger Schüler, der weltbekannte Virologe Peter Palese, Professor an der Icahn School of Medicine at Mount Sinai, New York (und ScienceBlog-Autor). Peter Palese hat uns den Vortrag zur Verfügung gestellt. Dieser erscheint in ungekürzter Form, mit einigen, wenigen Modifikationen (es wurden Untertitel und Bilder eingefügt).
Sehr geehrter Herr Professor Tuppy, sehr geehrte Frau Mag. Tuppy, sehr geehrte Festversammlung!
Es ist mir eine große Ehre und eine noch größere Freude, heute hier vor Ihnen zu stehen und anlässlich der Festveranstaltung zum 90. Geburtstag meines geschätzten Lehrers und Doktorvaters zu Ihnen zu sprechen.
Hans Tuppy wurde 1924 in eine Wiener Juristenfamilie geboren. Die Mutter stammte aus Prag und der Vater aus Brünn, also alle echte Wiener! Die unbeschwerte und glückliche Kindheit Hans Tuppys währte leider nicht lange. Im Jahre 1934 war Hans Tuppys Vater Staatsanwalt im Prozess gegen die Dollfuss Mörder und einer der ersten, der nach der Machtergreifung im Jahre 1938 mit seinem Leben dafür bezahlen musste. Auch Hans Tuppys mathematisch hoch begabter älterer Bruder überlebte die Kriegsjahre nicht. Trotz dieser erschütternden Schicksalsschläge ist es Hans Tuppy gelungen, ein optimistischer und erfolgreicher Mensch zu werden. Nach Schottengymnasium und Matura im Jahre 1942 wurde er im Arbeitsdienst schwer verletzt. Dann aber als es ihm zusehends besser ging wurde er – Gott sei Dank – von einem wohlwollenden Militärarzt als nicht kriegsverwendungsfähig erklärt. Was für ein schönes Wort! Dieser Arzt fragte Tuppy ob er der Sohn des Staatsanawalt Tuppys sei und als Hans Tuppy dies bejahte, schrieb er ihn als nicht kriegsverwendungsfähig. Manchmal braucht man auch etwas Glück im Leben.
Als 24-Jähriger promovierte Tuppy in Chemie zum Dr. phil. bei Ernst Späth, der Professor am 2. Chemischen Institut der Universität Wien war und ihn sehr gefördert hat. (Nur nebenbei: Ernst Späth wurde 1945 Präsident der Österreichischen Akademie der Wissenschaften).
Nach Cambridge und Kopenhagen…
Als 25-Jähriger schafft es Hans Tuppy mit Hilfe von Friedrich Wessely, dem Nachfolger Ernst Späths in Wien, und von Max Perutz, im Jahr 1949 für ein Jahr nach Cambridge in England zu gehen. Dort gelingt es Tuppy im Labor des späteren Nobelpreisträgers Fred Sanger, in einem einzigen Jahr die Sequenz der B Kette des Insulins zu erstellen. Fred Sanger hatte an der A Kette gearbeitet (Abbildung 1). Die A Kette besteht aus 21 Aminosäuren und die B Kette aus 30 Aminosäuren. Das muss man sich wie eine Perlenkette vorstellen in der nicht nur weiße Perlen aneinander gereiht sind sondern bunte Perlen (in 20 verschiedenen Farben – den 20 verschiedenen Aminosäuren). Abbildung 1. Links: Die Aminosäuresequenz des (Rinder)Insulin. Hans Tuppy hat die B-Kette sequenziert[4] (modifiziert nach: “Introduction to Chemistry: General, Organic, and Biological,18, Amino Acids, Proteins, and Enzymes”, cc licensed). Rechts: Aus der Nobelpreisrede von Fred Sanger (PDF Download)
Das Insulin ist das einzige Hormon, das die Blutzuckerkonzentration senken kann, und es wird heute tonnenweise in Bakterien oder Hefezellen für Diabetiker auf der ganzen Welt synthetisiert. Dies war eine ganz hervorragende Arbeit – und wäre Hans Tuppy weiter in England geblieben, wer weiß wie Tuppys weiterer Lebensweg ausgeschaut hätte!
Nach nur einem Jahr in Cambridge ging Hans Tuppy nach Kopenhagen in das Karlsberg Laboratorium, um auf ganz anderen Gebieten zu arbeiten. Und dieser Schritt war für Tuppy offensichtlich sehr wichtig und zeigt schon die ganze Breite in Bezug auf sein wissenschaftliches Arbeiten im Allgemeinen. Also sich nicht nur auf ein Gebiet allein zu konzentrieren, sondern sich mit den verschiedensten Fächern und Themen auseinanderzusetzen ist Hans Tuppys Stärke. In Dänemark wurde Tuppy erstmals mit Hefeforschung und Mitochondrien, den Energiefabriken der Zellen, bekannt.
…und wieder zurück in Wien
Als 32-Jähriger hat sich Hans Tuppy 1956 habilitiert und – ungewöhnlich für die damalige Zeit – nicht mit einem Thema, sondern mit verschiedenen Arbeiten. Tuppy publizierte die Sequenz des Oxytocins, eines Hormons, das eine ganz wichtige Bedeutung beim Geburtsprozess hat und ein wichtiges Medikament bei der klinischen Geburtshilfe ist. Tuppy arbeitete mit seinem ersten Dissertanten Gerhard Bodo über die Struktur des Cytochrom C, das wir alle für das Atmen brauchen. Diese Arbeiten an Cytochrom C waren richtungweisend. Tuppy mit Günther Kreil (auch ein Mitglied der Österreichischen Akademie der Wissenschaften) und mit Erhard Wintersberger klärten die Sequenz von Cytochrom C in den verschiedensten Spezies auf. So konnte Tuppy mit seinen Mitarbeitern und zusammen mit seinen amerikanischen Kollegen Fitch und Margoliash das erste Mal Evolutions-Stammbäume beschreiben, die auf Proteinsequenzen beruhten. Und der Begriff einer „Molekularen Uhr“, a molecular clock, entstand zu diesem Zeitpunkt. Tuppy hatte auch schon damals an Evolution geglaubt. Und Hans Tuppy arbeitete in seinem Labor auch mit Hefe und mit Mitochondrien. Diese Breite der Themen ist sehr beeindruckend an Tuppys wissenschaftlichen Arbeiten (Abbildung 2). Tuppy war immer – und ist auch heute – ein Generalist! Abbildung 2. Tuppy war immer ein Generalist – hier eine unvollständige Kollektion seiner vielfältigen Themen.
Als 34-Jähriger wird Tuppy zum außerordentlichen Professor für Biochemie an der Universität Wien bestellt und wird als 39-Jähriger Ordinarius am Institut für Biochemie an der Medizinischen Fakultät der Universität Wien. Was vielleicht nur wenige wissen, Tuppy hatte damals auch schon vier Semester Medizin studiert, gab es aber auf, als er zum Professor ernannt wurde. Student und Professor zur gleichen Zeit – talk about conflicts of interest!
Tuppy war damals berühmt wie kein anderer Professor mit dem neuen Fach „Molekulare Biologie/Biochemie“ und so bin auch ich zu ihm gepilgert am Ende meines fünften Chemie Semesters, um ihn als Dissertationsvater zu bekommen. Ich hatte gehofft, dass das kein Problem sein würde, da ich der schnellste in meinem Chemie Jahrgang war. Insgeheim war ich aber doch besorgt, dass Tuppy mich nicht nehmen würde, weil es andere Chemiestudenten – einige Jahre zuvor – gab, die noch schneller als ich waren. Ich fürchtete dass Prof. Tuppy das sehr wohl wusste. Der Name eines dieser Chemie Studenten klingt so ähnlich wie Peter Schuster. Professor Tuppy war jedoch freundlich – im Englischen würde man „gracious“ sagen – er erwähnte Peter Schuster, Gott sei gedankt, nicht und akzeptierte mich gleich in sein Labor. Ich trage es Peter Schuster, unserem früheren Präsidenten der Österreichischen Akademie der Wissenschaften, bis heute noch nach, dass er im Studium schneller war als ich.
Mein eigenes Dissertationsthema war wieder ein neues Arbeitsgebiet, das Tuppy initiiert hatte. Es hatte mit Neuraminsäuren zu tun, die Bestandteile jeder Zelle sind und vor allem auf der Oberfläche von Zellen anzutreffen sind. Tuppy hatte dieses Gebiet mit Peter Meindl von Böhringer Ingelheim entwickelt – und das zeigt wieder, wie visionär Tuppy damals war. Neuraminsäure-Derivate mit antiviraler Aktivität sind heute FDA-zugelassene Medikamente, die gegen saisonale und pandemische Influenza höchst wirksam sind. Und noch ein Wort in eigener Sache. Meine eigene Karriere am Mount Sinai in New York baut direkt auf dem Arbeitsgebiet auf, das Hans Tuppy vor vielen Jahrzehnten einem jungen Dissertanten gegeben hatte.
Tuppy ist mir damals wie heute ein Vorbild für wissenschaftliche Qualität, großes wissenschaftliches Talent, persönlichen Einsatz, Engagement und Optimismus für das Gute in der Wissenschaft. Tuppy ist eine unglaubliche wissenschaftliche Begabung, die ich sonst nie mehr in meinem Leben das Privileg hatte anzutreffen. Prof. Tuppy war immer fair, offen und tolerant im Umgang mit seinen Kollegen und Studenten. Obwohl wir alle seine religiöse Überzeugung kannten, hatten wir im Labor – auch die jugendlichen Heiden oder Agnostiker – immer das Gefühl, dass wir Hans Tuppys Achtung und Verständnis hatten. Tuppy schaffte in seinem Labor ein wunderbares Klima. Ich habe in all den Jahren, die ich bei ihm war, ihn nie im Laboratorium über Politik oder Religion diskutieren gehört. Es herrschte im Labor strikt ein Klima, das die wissenschaftliche Arbeit zum Zentrum hatte. Wir hatten nur Angst vor einem – und das war Tuppys Gedächtnis. Tuppy konnte sich nach Monaten noch besser an Experimente erinnern als wir, die sie selbst ausführten. In der Wissenschaft muss man oft die einzelnen Teile/Experimente zu einem großen Puzzle Bild zusammensetzen. Und darin war Tuppy ein Meister.
Hans Tuppy war immer ein harter Arbeiter – ein Job von 9 bis 17 Uhr war nicht das, was Hans Tuppy uns vorlebte. Viele Abende sahen wir Licht in seinem Büro – und auch seine Freunde wussten, wo er zu finden war.
Besuch eines Fotofilmhändlers?
Ich erinnere mich an einen späten Abend im Institut in der Wasagasse. Es läutete und ein schmächtiger Herr fragte, ob er Prof. Tuppy sprechen könnte und nannte auch seinen Namen, der so ähnlich wie Perutz klang. Die Älteren unter Ihnen werden sich vielleicht noch an den Markennamen „Perutz“ für Fotofilme erinnern. Ich ging also in Tuppys Büro und habe vielleicht eher unwirsch gesagt, dass da schon wieder jemand vom Film draußen ist. Professor Tuppy war wahrscheinlich – sicher sogar! – etwas geschwinder in seinen gedanklichen Assoziationen als ich, sprang auf, lief um mich herum und begrüßte auf das freundlichste seinen Freund, den Nobelpreisträger Max Perutz, der dem Bohrgasse Laboratorium hier in Wien seinen Namen gegeben hat. Ich muss meine damalige Naivität eingestehen, aber ich hatte keine Idee wer Max Perutz war!
Diese Geschichte von Max Perutz ist nur zur Illustration, dass Tuppys Institut wirklich im Zentrum einer neuen jungen Wissenschaftsrichtung war. Wir hatten Besucher aus dem angelsächsischen Raum, die bei Tuppy ein Sabbatical machten und wir hatten eine Reihe von Assistenten und Post-Doktoranden, die später erfolgreiche wissenschaftliche Karrieren machten. Mehr als ein Dutzend Mitarbeiter von Hans Tuppy haben sich habilitiert und einige sind auch Mitglieder der Österreichischen Akademie der Wissenschaften geworden.
Wissenschaftliche Nachkommenschaft
Lassen Sie mich Gottfried Schatz erwähnen, der von Wien über Cornell in den USA an das Biozentrum in Basel ging und den wissenschaftlichen Anstoß, ein großer Mitochondrienforscher zu werden, von Tuppy bekommen hatte. Schatz war auch lange Jahre Präsident des Schweizerischen Wissenschafts- und Technologierats. Vielleicht auch das eine Tuppy Inspiration!
Manfred Karobath, ein Mediziner, der Biochemie in Tuppys Labor lernte, stieg zum Forschungsleiter von Rhone Poulenc Rorer (RPR) auf. RPR ist jetzt Teil des weltweit drittgrößten Pharmakonzerns Sanofi-Aventis. Und Österreichs Wissenschaft und Pharmaindustrie hat durch Schüler Tuppys große Impulse bekommen.
Ich muss hier Günther Kreil vom Salzburger Institut für Molekulare Biologie nennen, Erhard Wintersberger, der lange Jahre als Chef der Wiener Medizinischen Biochemie lehrte, Gregor Högenauer, der Biochemie Ordinarius in Graz war, und Peter Swetly, der nicht nur eine Führungsrolle bei Böhringer Ingelheim inne hatte, sondern auch den Sprung zurück in die akademische Welt wagte und unter anderem als erfolgreicher Vizerektor für Forschung an der Veterinärmedizinischen Universität in Wien arbeitete.
Von den jüngeren Schülern und Schülern von Schülern möchte ich auch Andrea Barta nennen, die auf RNA-Protein Komplexen arbeitet, also wie es der Zelle gelingt von RNA zu Proteinen zu kommen. Andrea hat ihre Mitgliedschaft in der Akademie der Wissenschaften auch dazu genutzt molekularbiologische Forschung für die breitere Öffentlichkeit leicht verständlich und erlebbar zu machen.
An ihren Taten sollt ihr sie erkennen!
Tuppy hat nicht nur viele von uns Schülern auf den richtigen Lebensweg geführt und für die Zukunft beflügelt, sondern er hatte auch großen Einfluss durch sein persönliches Engagement. Tuppy hat Generationen von Medizinern moderne medizinische Molekularbiochemie beigebracht und dann mit gewaltigem persönlichem Einsatz auch geprüft.
Er hat als Präsident des Fonds zur Förderung der Wissenschaftlichen Forschung vielleicht den nachhaltigsten Einfluss auf Österreichs Forschungslandschaft gehabt. Er hat internationale Spielregeln eingeführt, die Österreich einen Platz in der internationalen Wissenschaftsgemeinschaft gesichert haben. Tuppys Nachfolger Kurt Komarek, Helmut Rauch, Arnold Schmidt, Georg Wick, Christoph Kratky und Pascale Ehrenfreund haben dieses System des Peer Review weiter gefestigt und zu einem unumstößlichen Bestandteil der Begutachtung aller Projektanträge durch ausschließlich im Ausland tätige Wissenschaftler gemacht.
Tuppys Dienst an Österreichs Wissenschaft hat mit der Präsidentschaft des FWF nicht geendet. Er war Dekan, er war Rektor der Universität Wien und wurde vor fast 30 Jahren auch zum Präsidenten dieser Akademie gewählt. Mit Tuppy ist wieder eine Gelehrtenkapazität an die Spitze der Akademie gekommen und auch seine Nachfolger Welzig, Mang, Schuster, Denk und Zeilinger sind solche Gelehrte besonderer Statur. Schuster und Zeilinger sind auch Mitglieder der National Academy of Sciences der Vereinigten Staaten und Mang ist Mitglied der National Academy of Engineering der Vereinigten Staaten – das wird man nicht so leicht von Österreich aus!
Tuppy war also Dekan, Rektor, Präsident des FWF und Präsident der Akademie der Wissenschaften. Sind jede diese einzelnen forschungspolitischen Funktionen schon ein Lebenswerk für sich, Tuppy hat sich nicht ausgeruht. Als „Zoon Politikon“ hat er auch die höchste politische Wissenschaftsposition im Lande inne gehabt, er war Bundesminister von 1987 bis 1989. Auch in dieser Stellung ist Tuppy seinen Idealen treu geblieben. Er war unter anderem dafür verantwortlich, dass auch in anderen Sprachen an der Universität gelehrt werden darf. Diese Internationalisierung, gefördert durch Tuppy, hat zum Erfolg der österreichischen Wissenschaft wesentlich beigetragen. Solche Initiativen, gepaart mit der Gründung des Vienna Biocenters und eine positive Einstellung zur pharmazeutischen Industrie, haben Österreich wieder zu einem intellektuellen, wissenschaftlichen und industriellen Zentrum in Europa gemacht. Besonders hervorzuheben wäre auch, dass er sogar in dieser Phase der übervollen Terminkalender immer Zeit gefunden hat, den Wünschen oder Sorgen seiner Professorenkollegen zuzuhören und sich um entsprechende Lösungen zu bemühen.
Ausblick
Hans Tuppy ist 90 Jahre jung, bei meinem letzten Besuch am 22. Juli bei einem Heurigen – wie könnte es auch anders sein in Wien?!– hat Hans Tuppy von der Zukunft gesprochen und welch große Möglichkeiten vor allem in der biologischen / medizinischen Forschung vor uns liegen. Hans Tuppy hat Österreichs Wissenschaft maßgeblich und höchst positiv beeinflusst und er hat es immer verstanden, in die Zukunft zu blicken. Heute blüht Epigenetik, CRISPR Technologie oder Haploid Zellforschung in Österreich mit jungen Wissenschaftlern, die als wissenschaftliche Enkelkinder oder wissenschaftliche Urenkel Hans Tuppys bezeichnet werden können. Lassen Sie mich Josef Penninger, Emmanuelle Charpentier und Anton Wutz nennen, die wichtige Impulse von Österreich bekommen haben.
Wir verdanken dies einem Mann, der nicht aufgehört hat, Träume in die Wirklichkeit umzusetzen und der ein Leben für die Wissenschaft gelebt hat und lebt.
Sehr geehrter Herr Professor, wir wünschen Ihnen und Frau Mag. Erika Tuppy, die mit großer Energie und intelligenter Zuversicht ihrem Mann stets frohgemut zur Seite steht, eine harmonische und weiterhin aktive und gesunde Zukunft! Alles Gute – und ad multos annos!
Auch ScienceBlog.at schließt sich der Schar der Gratulanten (Abbildung 3) an!! Abbildung 3. Gratulanten bei der Geburtstagsfeier in der ÖAW (Rudolf Burger, dahinter Norbert Rozsenich, Hans Lassmann, Erika Tuppy)
[1] Klaus Taschwer, DER STANDARD, 9.7.2014 http://derstandard.at/2000002850615/Hans-Tuppy-zieht-Bilanz-Immer-etwas-...
[2] http://www.oeaw.ac.at/oesterreichische-akademie-der-wissenschaften/news/...
[3] APA/red, derStandard.at, 23.09.2014 http://derstandard.at/2000005916692/Republik-ehrt-Hans-Tuppy-mit-Ehrenze...
[4] F.Sanger, H. Tuppy “The amino-acid sequence in the phenylalanyl chain of insulin. 1. The identification of lower peptides from partial hydrolysates” Biochem J. Sep 1951; 49(4): 463–481.
Redaktionelle Bemerkung
ScienceBlog.at ist stolz, eine Reihe von Tuppys Schülern - Günther Kreil, Peter Palese, Gottfried Schatz, Peter Swetly – und von Tuppys Nachfolgern in verschiedenen Funktionen - Helmut Denk, Pascale Ehrenfreund, Heinz Engl, Christoph Kratky, Herbert Mang, Helmut Rauch, Peter Schuster, Georg Wick - zu seinen Autoren zählen zu dürfen!
Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1
Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1Fr,26. 09.2014 - 19:41 — Inge Schuster
ScienceBlog.at veranstaltete eine zweitägige Exkursion an das CERN: unsere Gruppe erhielt Spezialführungen durch namhafte Vertreter des österreichischen Instituts für Hochenergiephysik (HEPHY, ÖAW), die am CERN arbeiten. Sie zeigten uns, wie dort mit Hilfe eines immensen Teilchenbeschleunigers und riesiger Detektoren – vor allem des CMS - fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und deren Wechselwirkungen gewonnen werden. Die Eindrücke überstiegen alle unsere Erwartungen, waren Faszination pur! Um die Vielfalt des Erlebten – wenn auch nur in knappster Form – Revue passieren zu lassen, erscheint der Report in zwei Teilen.
Fast auf den Tag genau vor 60 Jahren wurde das CERN (Conseil Européen pour la Recherche Nucléaire – Europäische Organisation für Kernforschung) von 12 europäischen Staaten gegründet, weitere 9 Staaten (darunter auch Österreich) und Israel als erster Staat außerhalb Europas kamen später dazu. Das in der Nähe von Genf angesiedelte CERN wurde ein Platz der Superlative: es ist das weltgrößte Forschungszentrum für Teilchenphysik. Der größte und leistungsstärkste Teilchenbeschleuniger der Welt, der LHC (Large Hadron Collider), ermöglicht dort den Aufbau der Materie zu erforschen – von den kleinsten Elementarteilchen des Mikrokosmos bis hin in die unendlichen Weiten des Universums, vom Ursprung des Universum bis hin in seine Zukunft. Es sind Experimente hart an der Grenze des menschlichen Wissens und des technisch Machbaren. Mehr als 10 000 Gastwissenschafter aus aller Welt und mehr als 3000 CERN-Mitarbeiter sind daran beteiligt – ein einzigartiges Vorbild internationaler Zusammenarbeit in einem äußerst kameradschaftlichen Klima. Unkompliziert erfolgt das Veröffentlichen von Ergebnissen – die Aufzählung der beteiligten Autoren kann über mehrere Seiten gehen -, unkompliziert ist in diesem multikulturellen, multinationalem Konglomerat auch die Unterhaltung, nämlich in der lingua franca „bad english“.
Der ScienceBlog hat zu seiner ersten Veranstaltung, einem Besuch des CERN, eingeladen. Zahlreiche Leser waren daran interessiert, eine beträchtliche Gruppe an Teilnehmern ist zustande gekommen.
Wir starten unser Besuchsprogramm
Die meisten von uns sind mit dem frühen Morgenflug von Wien gekommen. An der Rezeption des Besucherzentrums des CERN treffen wir weitere Teilnehmer (u.a. aus Deutschland). Einige der Teilnehmer kennen einander bereits, die anderen holen schnell auf; nach einigen Stunden ist eine bunte, sich fröhlich unterhaltende Gruppe entstanden (Abbildung 1). Ein leichtes Nieseln macht der Stimmung keinen Abbruch. Abbildung 1. Gruppenbild mit Globe. Unsere (fast vollständige) Gruppe vor dem 27 m hohen und 40 m breiten Globe of Science and Innovation (das Bild wurde allerdings erst am 2. Tag bei freundlicherem Wetter aufgenommen). Der Globe befindet sich vis a vis vom Besucherzentrum des CERN und ist ein Symbol unseres Planeten. Zur Zeit ist im Globe die Ausstellung Universe of Particles zu besichtigen (Bild: K. Klein)
In einem Seminarraum des Besucherzentrums geht es dann los. Vorerst gibt es zwei Vorträge:
Für unsere Besichtigungen sind zweifellos Kenntnisse über den Zoo der Elementarteilchen von Vorteil. Da diese aber nicht vorausgesetzt werden können, hält Matthias Wolf eine Einführung (Abbildung 2). Matthias versucht Teilchenphysik und die Grundbegriffe einiger Experimente am CERN zu erläutern – alles in laiengerechter Form. Diese Themen sollen hier aber nur so knapp als möglich umrissen werden, da ausführliche Darstellungen in Artikeln von Manfred Jeitler im ScienceBlog vorliegen [1 – 4]. Abbildung 2. Wieweit lässt sich Materie teilen? Oben: Matthias Wolf erzählt über Elementarteilchen. Unten: Vom Atom zu den Elementarteilchen. Links: Der Durchmesser eines Atoms wird durch das Ausmass der Elektronenhülle bestimmt und beträgt etwa 1 Zehnmillionstel Millimeter, der Kern selbst ist noch zehntausendmal kleiner. Protonen und Neutronen bestehen aus jeweils drei Quarks, Kraftteilchen (Gluonen - blassviolette Spiralen) „kitten“ die Quarks zusammen. Rechts: Quarks und Leptonen der ersten Generation (rot eingerahmt) sind die Bausteine der uns bekannten Materie, rechts davon sind zunehmend instabilere Quarks und Leptonen, wie sie in der kosmischen Strahlung und durch Kollision im Teilchenbeschleuniger entstehen (Bilder oben: Karin Klein, rechts unten: CERN)
Wieweit lässt sich Materie teilen?
Alle Materie besteht aus Molekülen, diese wiederum aus Atomen. In Widerspruch zu ihrem Namen sind Atome aber nicht unteilbar, sondern setzen sich aus Elektronenhülle und Atomkern zusammen, der Atomkern aus positiv geladenen Protonen und elektrisch neutralen Neutronen, welche wiederum aus Quarks bestehen. Elektronen (sie gehören, wie auch Neutrinos, zur Familie der Leptonen) sind ebenso wie Quarks unteilbar und damit Elementarteilchen. Unterschiedliche Typen von Kraftteilchen vermitteln die Wechselwirkungen zwischen den Teilchen (Abbildung 2, unten links). Die uns umgebende Materie ist aus stabilen Leptonen (Elektronen und Neutrinos) und Quarks der ersten Generation zuammengesetzt.
Bei extrem hohen Energien, wie sie unmittelbar nach dem BigBang vorlagen und wie sie in der kosmischen Strahlung und durch Kollisionen im Teilchenbeschleuniger entstehen, werden auch Leptonen und Quarks der 2. und 3. Generation generiert; diese sind schwerer und äußerst instabil. Dass es zu jedem der Elementarteilchen auch ein entgegengesetzt geladenes Antiteilchen gibt, wurde auf Grund quantenphysikalischer Betrachtungen vorhergesagt und später experimentell bestätigt (z.B. Elektron – Positron). Alle Teilchen und die Wechselwirkungen zwischen diesen (außer der besonders schwachen Gravitation) sind im Standardmodell der Elementarteilchenphysik zusammengefasst, das nahezu alle bisher beobachteten teilchenphysikalischen Phänomene erklären kann und dessen Voraussagen – beispielsweise des Higgs-Boson – experimentell bestätigt wurden.
Ein Blick zurück - Geschichte des CERN
Es folgt der Vortrag eines betagten, aber enorm vitalen Herrn. Er erzählt von den Anfängen des CERN vor 60 Jahren, als man im Nachkriegseuropa die daniederliegende Wissenschaft fördern, einen Leuchtturm der Grundlagenforschung errichten wollte. Dies ist das CERN auch tatsächlich geworden – es gab dort viele bahnbrechende Entdeckungen zum Aufbau der Materie, für die Nobelpreise verliehen wurden (an Georges Charpak, Simon Van der Meer, Carlo Rubbia, Peter Higgs und Francois Englert) und es entstanden weltverändernde Technologien aus spin-offs de CERN – beispielsweise das Worlwide Web, Touchscreens oder die Positron-Emission Tomography (PET).
Unser Vortragender zeigt Bilder von den Mitgliedsstaaten, von den an den Projekten beteiligten Organisationen – mit Ausnahme eines Großteils des afrikanischen Kontinents, gibt/gab es Zusammenarbeiten mit nahezu allen Regionen der Erde.
Fundamentale Bedeutung für die Forschung am CERN haben natürlich Teilchenbeschleuniger, in welchen auf nahezu Lichtgeschwindigkeit beschleunigte Protonen (aber auch andere Teilchen) auf einander prallen, und Detektoren, die messen, was bei den Kollisionen entsteht. Ein Bild, das wir an nahezu allen Stationen unseres Besuchs vorfinden, zeigt schematisch alle diese Einrichtungen (Abbildung 3, links): vom ersten, 1957 in Betrieb genommenen, Synchrocyclotron bis hin zum LHC – Large Hadron Collider – der größten Maschine der Welt, die 2009 in Betrieb ging und an der 2012 das vorhergesagte Higgs-Boson entdeckt wurde.
Der LHC ist gigantisch. Es ist ein Synchrotron in einem ringförmigen, 27 km langen Tunnel, der unterirdisch in einer Tiefe von 50 bis 175 Metern verläuft, ein Großteil der Anlage ist bereits auf französischem Staatsgebiet. Der LHC beschleunigt Hadronen (dazu gehören Protonen) in gegenläufigen Strahlröhren nahezu auf Lichtgeschwindigkeit und bringt diese dann an vier Stellen zum Zusammenstoß (Abbildung 3 rechts). An diesen Orten befinden sich in riesigen unterirdischen Kavernen die Detektoren ATLAS, ALICE, LHCb und CMS. Den wahrscheinlich schönsten von allen, den CMS, wollen wir später besuchen. Abbildung 3. Teilchenbeschleuniger am CERN – der größte davon ist der unterirdisch in einem Tunnel verlaufende LHC (Bilder: CERN)
Vorerst geht es aber zum ersten Synchrotron am CERN
Wir werden in eine dunkle Halle geführt mit einem blauen Lichtband am Boden. Fotos an den Wänden des Eingangs zeigen die Chronik des CERN, dessen Anfänge und wichtige Ereignisse bis heute. Hier steht nun der Methusalem des CERN, das 1957 gebaute Synchrocyclotron (SC).
Abbildung 4. Das Synchrocyclotron (1957 - 1990) – jetzt ein Showobjekt.
Es hat die ersten erfolgreichen Versuche in der Teilchenphysik ermöglicht und später als Vorbeschleuniger fungiert. Das SC war ein äusserst langlebiges Produkt; erst nach 33 Dienstjahren wurde es in den Ruhestand geschickt. In einer Licht- und Ton-Show werden 3D-Bilder auf den Beschleuniger projiziert und lassen uns diesen voll in Aktion miterleben – an seinem historischen Originalarbeitsplatz, der nun, nach Jahrzehnten, hinreichend "abgekühlt" ist, um Besucherführungen durchführen zu können. (Abbildung 4)
Als wir aus dem Gebäude heraustreten, hat der Regen aufgehört. Ein CERN-Bus wartet bereits auf uns. Er benötigt etwas länger als eine halbe Stunde, um uns an die gegenüber liegende Seite des LHC zum Detektor Compact Muon Solenoid (CMS) zu bringen, dem unzweifelhaften Höhepunkt des Tages.
An der CMS-Station des LHC
Vor einer eher schmucklosen Halle werden wir abgesetzt.
Für die Besichtigung des CMS sind Manfred Jeitler und Claudia Wulz unsere Führer – beide sind am CERN arbeitende Wissenschafter vom HEPHY (Institut für Hochenergiephysik der österreichischen Akademie der Wissenschaften). Das HEPHY hat bereits wichtige Beiträge zur Konzeption, zur Hardware, Software und zum Betrieb der Experimente am CMS geleistet hat. Insbesondere engagiert sich das Institut bei der Suche nach der Physik jenseits des Standardmodells (welches bei sehr hohen Energien keine adäquate Beschreibung der Physik liefern dürfte. Eine Erweiterung - die Theorie der Supersymmetrie – kann am CMS überprüft werden.)
Zur Führung werden wir in zwei Gruppen geteilt. Ich bin in der Gruppe von Manfred Jeitler. Ebenso wie Jeitler als Autor im ScienceBlog hochkomplizierte Sachverhalte humorvoll und leichtverständlich aufbereitet, gestaltet er auch unsere Tour im CMS.
Zuerst erfahren wir noch genauer was im LHC geschieht und was der CMS-Detektor misst:
Aus einer Kette von Vorbeschleunigern kommende (positiv geladene) Protonen werden in die beiden benachbarten Strahlrohre des LHC im und gegen den Uhrzeigersinn eingespeist und durch ein hochfrequentes elektrisches Wechselfeld bis sehr nahe an die Lichtgeschwindigkeit (entsprechend 7 Teraelektronenvolt) beschleunigt. Eine Protonenfüllung (die bei normalem Betrieb bis zu einem Tag in der Strahlröhre verbleiben kann) besteht dabei aus rund 2800 Protonenpaketen, jedes Paket enthält ca. 115 Milliarden Protonen. In den Röhren herrscht ein Hochvakuum, um Zusammenstöße mit fremden Partikeln zu vermeiden.
Die Protonen werden durch supraleitende Dipolmagnete auf ihrer ringförmigen Bahn gehalten und durchlaufen die 27 km lange Strecke 11 000 mal pro Sekunde. An vier Stellen des Ringes (siehe Abbildung 3) werden die beiden gegenläufigen Protonenstrahlen gekreuzt und zur Kollision gebracht. Supraleitende Quadrupolmagnete haben zuvor die Teilchenpakete auf einen Durchmesser von 16 µm bei 8 cm Länge fokusssiert (squeezed). Die Betriebstemperatur der Magnete - 1,9o Kelvin - liegt nahe dem absoluten Nullpunkt, dies wird mit flüssigem Helium erreicht.
Bei der Kreuzung von zwei Paketen treffen im Schnitt 20 – 40 Protonen beider Pakete aufeinander, dies ergibt bis zu 800 Millionen Kollisionen in der Sekunde. Je höher die Beschleunigung der Protonen, desto größer ist ihre kinetische Energie und desto mehr neue Teilchen entstehen bei den Kollisionen. Es werden damit Bedingungen simuliert, wie sie nach dem Urknall vorgelegen sein könnten, als sich die heute bekannte Materie erst zu formen begann.
Jetzt kann es endlich zum CMS gehen – der Prinzessin des LHC
Mit einem Lift geht es in zwei Gruppen schnell 100 m in die Tiefe. Wir haben rote Helme aufgesetzt und kommen uns etwas merkwürdig vor – jedenfalls bietet der Anblick viele Anlässe zum Fotografieren. Warum wir die Helme brauchen? Typisch die Antwort von Manfred Jeitler: „Damit uns nichts passiert, wenn unten alles einstürzt und uns auf den Kopf fällt!“ Derart beruhigt wandern wir zum CMS (Abbildung 5).
Abbildung 5. Behelmt und daher geschützt.
Der Anblick, der sich uns dann bietet ist atemberaubend, die riesige – gute fünf Stockwerke hohe – Kaverne mit dem gewaltigen, raumfüllenden CMS hat beinahe sakralen Charakter. Von vorne gesehen gleicht das CMS den Rosetten gotischer Dome, ebenso schön, aber bei einem Durchmesser von 15 m viel, viel größer (Abbildung 6).
Um bei der Kunst zu bleiben: Michi Hoch gesellt sich kurz zu unserer Gruppe, er ist ein Mitarbeiter am CERN, macht traumhaft schöne Fotos – vor allem vom CMS, das er als „Princess of Science“ bezeichnet. Mit seiner Initiative Art@CMS versucht er Laien für Wissenschaftsthemen zu interessieren. (Er hat sofort zugesagt für ScienceBlog.at einen entsprechenden Bildbeitrag zu liefern.)
Abbildung 6. Von vorne betrachtet erinnert das CMS (oben links) an die Rosetten gotischer Kirchen (oben rechts: Rosette Notre Dame – Süd). Unten links: das 21 m lange CMS besteht aus 11 Scheiben, Blick auf 2 Scheiben. Mitte: Unsere Helmfraktion. Rechts: Wir lernen Michi Hoch, einen Mitarbeiter des CERN, herausragenden Fotografen und Wissenschaftskommunikator, kennen: zu seinem Art@CMS siehe: weiterführende Links.
Wie funktioniert der CMS-Detektor?
Der 21 m lange Detektor besteht aus 11 Scheiben, die einzeln von der Oberfläche in die Kaverne hinuntergelassen und dort zusammengebaut wurden. Er ist ein Universaldetektor, ausgerüstet um jegliche Teilchen, die bei Protonenkollisionen entstehen, detektieren und charakterisieren zu können. Seinem Namen Compact Muon Solenoid entsprechend besitzt er Schichten, die speziell auf die Detektion von Myonen ausgerichtet sind (s.u.). Sein Kernstück ist ein supraleitender, 13 m langer Spulenmagnet (= Solenoidmagnet), der einen Durchmesser von 6 m hat und ein Magnetfeld erzeugt, das 100 000 mal stärker ist, als das Magnetfeld der Erde. Aus der Krümmung der Teilchenspur in diesem Magnetfeld lässt sich das Verhältnis Ladung zu Masse der Teilchen bestimmen. Ein schematischer Querschnitt durch den Detektor in Abbildung 7 zeigt seinen Aufbau aus mehreren Schichten, die jeweils die Bestimmung bestimmter Teilchentypen ermöglichen. Im Inneren der Magnetspule treffen die durch Kollision entstandenen Teilchen auf einen aus Siliciumstreifen aufgebauten Spurdetektor zum Nachweis geladener Teilchen. Andere Teilchen werden in Kalorimetern absorbiert und geben dabei ihre Energie ab, die z.B. als Szintillationslicht oder Ionisierung gemessen wird. Myonen durchdringen diese Schichten innerhalb des Spulenmagneten. Ausserhalb der Magnetspule wird das Magnetfeld durch ein aus Ringen bestehendes, massives Eisenjoch begrenzt, deren Zwischenräume mit gasgefüllten Kammern versehen sind. Myonen, die auch das Strahlrohr durchdringen, werden in diesen Myonenkammern detektiert. Abbildung 7. Schema de CMS-Detektors. Der mehrschichtige Aufbau innerhalb und außerhalb der Magnetspule ermöglicht eine präzise Bestimmung aller Teilchen, die bei den Kollisionen der Protonen entstanden sind. (Bilder: modifiziert nach Wikipedia)
Ein sehr wichtiger Beitrag zur Reduktion der ungeheuren Datenmengen, die bei der Analyse der Kollisionen anfallen würden, kommt hier vom Hephy: Der Level-1 Trigger. Dies ist ein speziell entwickeltes Elektroniksystem, das im 25 Nanosekundentakt on-line jede Kollision analysiert und entscheidet ob diese für weitere Analysen geeignet ist. Damit reduziert der Level-1 Trigger die 600 Millionen Kollisionen pro Sekunde 400-fach, ein weiterer Trigger der High Level Trigger reduziert weiter auf nur mehr einige hundert Ereignisse pro Sekunde, die gespeichert werden.
Im Zusammenhang mit der Datenflut: wir haben heute auch am CCC (CERN Control Centre) vorbei geschaut, von dem aus die gesamte Infrastruktur des CERN rund um die Uhr zentral gesteuert und überwacht wird – von der Steuerung der Vorbeschleuniger über die Energieversorgung, Lüftungs-und Klimageräte, Sicherheitssysteme bis hin zu den Kommunikationssystemen.
Ausklang
Alles war gigantisch und muss erst noch verdaut werden!
Unter dem Eindruck des Gesehenen und Gehörten sind wir ziemlich müde und auch durstig geworden. Der Bus bringt uns zum CERN-Besucherzentrum zurück, von dort geht es per Öffis zu unseren Hotels. Das morgige Programm lässt wieder einen äußerst spannenden, aber auch anstrengenden Tag erwarten.
Der Report zu Tag 2 folgt.
[1 – 4] Artikel von Manfred Jeitler im ScienceBlog
06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.
23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?
21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?
07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen
Weiterführende Links:
Publikumsseiten des CERN http://home.web.cern.ch/about
Overview of CERN, LHC and CMS: 7 Videos http://cms.web.cern.ch/content/cms-videos
The Large Hadron Collider - CERN Video 7:28 min
http://www.youtube.com/watch?v=lYt1-SMTbOs
CERN: Jahresbericht 2013: https://cds.cern.ch/record/1710503/files/AnnualReport.pdf
C.W.Fabjan: Österreich am CERN http://www.hephy.at/fileadmin/user_upload/CERN-AT/Presse/Oesterreich_am_...
HEPHY http://www.hephy.at/
Website von Manfred Jeitler am Hephy: http://wwwhephy.oeaw.ac.at/u3w/j/jeitler/www/
Website von Claudia-Elisabeth Wulz am HEPHY http://www.hephy.at/institut/mitarbeiter/?no_cache=1&user_mitarbeiter_pi1[item]=25
Michael Hoch: https://artcms.web.cern.ch/artcms/ photographiert und arbeitet im Art@CMS Projekt mit professionellen Künstlern und Studenten zusammen. Mit Art@CMS wird versucht Menschen aus nichtwissenschaftlichen Fachbereichen an unserer Wissenschaftsthematik und an unserem Wissenschaftapparatus zu interessieren und wenn möglich einzuladen daran teilzunehmen.
Weitere Videos
CMS in ACTION by Paul Schuster Video 2,58 min http://www.youtube.com/watch?v=0J8Hpr6gojs&feature=youtu.be
Flight over CMS, Video 2,26 min http://www.youtube.com/watch?v=B1NKaEty1QU&feature=youtu.be
Openning CMS 'The Princess of Science' for service 2013/ 2014 Video 2,26 min http://www.youtube.com/watch?v=LXHnbX4U05M
Website der Deutschen Forscher am CMS http://www.weltmaschine.de/experimente/cms/
Universe of Particles Video 2:00 min, http://outreach.web.cern.ch/outreach/expos_cern/univers_particules.html
Open Science (Freies Wissen) – ein Abend auf der MS Wissenschaft
Open Science (Freies Wissen) – ein Abend auf der MS WissenschaftFr, 19.09.2014 - 04:20 — Inge Schuster
Ein umgebautes Frachtschiff tourt seit mehreren Jahren als schwimmendes Science-Center „MS Wissenschaft“ durch Deutschland und Österreich - jedes Jahr unter einem anderen Motto. Im Schiffsbauch finden Ausstellungen in Form einer „Wissenschaft zum Anfassen“ statt, in einem Zeltaufbau an Deck Vortrags-und Diskussionsveranstaltungen. Im Rahmen des diesjährigen Motto „Digital unterwegs“ gab es vor wenigen Tagen in Wien die Veranstaltung: „Dialog an Deck: Wissenschaft und Freies Wissen - Fortschrittsmotor und Gemeingut der Informationsgesellschaft".
Mit unglaublicher Rasanz hat das digitale Zeitalter von uns Besitz ergriffen. Digitale Technologien sind aus Beruf und Privatleben nicht mehr wegzudenken. Neue Kommunikationsformen vernetzen auf unserem Globus Jeden mit Jedem, verändern die sozialen und ökonomischen Fundamente unserer Lebensumwelt und damit unsere Gesellschaften. Wissenschaft und Forschung haben diese Revolution ausgelöst und treiben den Prozess weiter fort, werden aber in gleicher Weise von diesem verändert. In einer Art von Goldgräberstimmung werden in den meisten Wissenszweigen unabsehbar große Datenmengen - „Big Data“ - generiert und gespeichert in der Hoffnung deren enormes Potential in positiver Weise nutzen zu können. Ein möglichst breiter und freier Zugang zu Forschungsergebnissen bietet beispiellose Chancen, birgt aber Risiken, die heute noch kaum absehbar sind.
Digitale Gesellschaft und „Open Science“ im Wissenschaftsjahr 2014
Das Deutsche Bundesministerium für Bildung und Forschung ruft seit mehr als einem Jahrzehnt Wissenschaftsjahre aus, die wichtigen Disziplinen gewidmet sind. In Zusammenarbeit mit dem Ministerium organisiert dann die Initiative „Wissenschaft im Dialog“ zahlreiche Veranstaltungen, mit dem Ziel Wissenschaft und Gesellschaft ins Gespräch zu bringen und vor allem das Interesse der Jugend für Forschung zu wecken. Heuer steht das Thema der digitalen Revolution und deren Folgen für unsere Gesellschaft im Mittelpunkt. Wie auch in den vergangenen Jahren wurde die MS Wissenschaft quer durch Deutschland und Österreich auf Tour geschickt, diesmal mit der Ausstellung „Digital unterwegs“ und thematisch entsprechenden Vortrags-und Diskussionsveranstaltungen.
Nach viereinhalb Monaten und insgesamt 38 Stationen ging die Reise nun in Wien zu Ende. Die letzte Veranstaltung an Bord der MS Wissenschaft befasste sich unter dem Titel „Wissenschaft und Freies Wissen - Fortschrittsmotor und Gemeingut der Informationsgesellschaft“ mit dem Thema der “Open Science“. Dieser Vortrags- und Diskussionsabend erhielt Unterstützung vom Fond zur Förderung der wissenschaftlichen Forschung (FWF) und wurde von den Wikimedia-Vereinen Österreich, Deutschland und Schweiz und der Open Knowledge Foundation aus Österreich und aus Deutschland organisiert. Impressionen von der MS Wissenschaft. Oben: Es wird bereits Abend, als die Veranstaltung beginnt. Mitte: „Dialog an Deck“ das Podium B.Brembs, S.Spiekermann, C-H.Buhr, W.Eppenschwandtner, G.Dubochet (von l nach r). Unten: der Ausklang – viele Teilnehmer sind schon gegangen.
Offenheit der Wissenschaft im digitalen Zeitalter…
Dies wurde in Form von Podiumsdiskussionen unter reger Beteiligung der Zuhörer erörtert, wobei Kurzvorträge (a 5 min.) als Impulsgeber fungierten. Das Podium war mit hochkarätigen Experten aus Wissenschaft und europäischer Politik und engagierten Verfechtern von „Open Science“ besetzt. Es waren dies:
- der Neurobiologe Björn Brembs, Professor an der Universität Regensburg,
- die Wirtschaftsinformatikerin Sarah Spiekermann (Professor an der Wirtschaftsuniversität Wien), die seit über 10 Jahren zu sozialen Fragen der Internetökonomie und Technikgestaltung forscht und Beraterin bei der EU-Kommission und OECD ist,
- der Wirtschafts- und Computerwisssenschafter Carl-Christian Buhr, der als Mitglied im Kabinett der EU-Kommissionsvizepräsidentin für Digitale Agenda (u.a. Cloud Computing, Big Data strategy, Digital Futures) zuständig ist, der Mathematiker Wolfgang Eppenschwandtner, der „Executive Coordinator“ der Plattform „Initiative for Science in Europe“ ist und
- der Computerwissenschafter Gille Dubochet, der Senior Scientific Officer für Ingenieurwissenschaften bei „Science Europe“ ist, einer neuen Vereinigung von „European Research Funding Organisations“ (RFO) und „Research Performing Organisations“ (RPO) in Brüssel.
…was hat man sich darunter vorzustellen, was wäre erstrebenswert, was wurde erreicht?
Open Science
Feststeht: eine allgemein akzeptierte Definition des Begriffs „Open Science“ - offene Wissenschaft - existiert (noch) nicht. Jedenfalls sollte aber der wissenschaftliche Prozess von der ersten Idee bis zur finalen Publikation geöffnet werden, um diesen möglichst nachvollziehbar und für alle nutzbar zu machen. Der Vorstellung der Open Knowledge Foundation (OKF) entsprechend sollte dies bedeuten: “free to use, re-use and re-distribute for all”, also ein auf rechtlicher Ebene Verwenden, Abändern sowie Weitergeben von Wissen.
Aus Platzgründen kann hier nur eine sehr unvollständige Wiedergabe der rund eineinhalb Stunden dauernden Veranstaltung gegeben werden. Für grundlegend hielt ich die sechs Prinzipien, die Stefan Kasberger (OKF Austria, OKFAT) in seinem Einführungsvortrag als Basis von „Open Science“ nannte:
- Open Methodology: eine relevante Dokumentation von Methoden und ihrer Anwendung
- Open Source: Verwendung quelloffener Technologie (Soft- und Hardware) und Offenlegung eigener Technologien
- Open Data: Erstellte Daten frei zur Verfügung stellen
- Open Access: offen publizieren, für jeden nutzbar und zugänglich machen
- Open Peer Review: Transparente und nachvollziehbare Qualitätssicherung durch offenen Peer Review
- Open Educational Resources: Freie und offene Materialien für Bildung und in der universitären Lehre verwenden
Nach der Klärung, dass der Begriff „Science“ sich im Wesentlichen auf (angewandte) Naturwissenschaften bezieht, gab es eine rege Diskussion zur Veröffentlichungspraxis. B.Brembs etwa meinte, dass die Art und Weise, wie heute noch immer Daten veröffentlicht werden, den Einzug in Digitale Zeitalter völlig verschlafen habe – dem und der Akzeptanz zu „Open Access“ wurde von Podium und Publikum weitgehend zugestimmt. Als bereits existierendes Vorbild einer auf „Open Access“ beruhenden Kooperation wurde das Polymath-Projekt genannt, in welchem zahlreiche Leser eine Blogs kommunizierten, um Lösungen für ein schwieriges mathematisches Problem zu finden. In der Frage nach der Öffnung der Technologien gab es dagegen unterschiedliche Meinungen – von absolut notwendig bis hin zu impraktikabel, da viel zu aufwendig (dagegen wurde die bereits bestehende und durchaus erfolgreiche Praxis bei z.B. ResearchGate eingewendet). Auch beim Ersatz des heute praktizierten Peer-Review gab es unterschiedliche Ansichten (meiner Ansicht nach ist es ein Ersetzen eines - zugegebenermaßen - unbefriedigenden Filters durch ein noch viel mehr durch Willkür gekennzeichnetes Vorgehen.)
Open data
Der darauffolgende Impulsvortrag von Peter Kraker (TU Graz und OKFAT) leitete die Diskussion zu „Open data“ ein. Open Data bedeutet Untersuchungsergebnisse zu veröffentlichen ohne deren weitere Verwendung einzuschränken, wie dies bereits in der Erstellung und Nutzung von offenen Datenbanken der Fall ist.
Kraker verwendete ein aktuelles Beispiel, um aufzuzeigen, wie wichtig es ist auf breite offene Datenbanken zugreifen zu können: Um die Ursache des Bienensterbens zu untersuchen, hatte die amerikanische Biologin Diana Cox-Foster die von Mikroorganismen stammende Erbinformation mehrerer Kolonien erkrankter Bienen mit der von gesunden Bienenvölkern verglichen. Sowohl gesunde als auch kranke Bienen waren von einer Fülle von Bakterien, Pilzen und Viren besiedelt. Der Vergleich mit in Datenbanken gespeicherten Sequenzen ermöglichte rasch und ohne langdauernde, komplizierte und kostenintensive Untersuchungen ein Virus (IAPV) zu identifizieren, das nahezu ausschließlich in den kranken Bienen vorkam und damit Auslöser für das Bienensterben sein dürfte.
Offene Datenbanken gibt es weltweit bereits sehr viele, beispielsweise in Europa die Datenbanken des European Bioinformatics Intitute EMBL-EBI zu biologischen Fragestellungen (http://www.ebi.ac.uk/), in den USA die GenBank des National Center for Biotechnology Information (NCBI) oder die japanische DNAdatabank. Auch dafür, wie publizierte Daten am besten zugänglich gemacht und wiederverwendet werden können, gibt es klare Empfehlungen, die der englische Chemiker Peter Murray-Rust in den Panton Principles festgelegt hat.
Die Diskussion zum Thema „Open Data“ berührte vor allem die Fragen: wo sind Open Data notwendig, was geht verloren, wenn diese nicht vorhanden sind? Zweifelsfrei wurde das Beispiel von "Offene Daten Österreichs“ –https://www.data.gv.at – als sehr positiv vermerkt. Diese Datenbank kann freigenutzt werden – zur persönlichen Information und auch für kommerzielle Zwecke wie Applikationen oder Visualisierungen - und stellt einen Meilenstein in der Transparenz der öffentlichen Verwaltung dar, die ja mit öffentlichen Geldern finanziert wird.
Schwierigere Fragen waren: Wem gehören die offenen Daten? Inwieweit werden Daten verwendet/abgeändert ohne den Urheber zu zitieren? Welche negativen Auswirkungen auf die wissenschaftliche Karriere sind damit zu befürchten? Hier ist zweifellos die Politik gefordert Standards zu setzen, neue Maßstäbe für die Bewertung und Akzeptanz wissenschaftlicher Arbeiten zu entwickeln und damit Barrieren der wissenschaftlichen Karriere abzubauen. Öffentliche Befragungen und Workshops zu diesen Themen sollen in Abwägung des öffentlichen Nutzens zu entsprechenden Empfehlungen der EU-Kommission führen.
Citizen Science
Auf Grund der bereits stark fortgeschrittenen Zeit geriet der letzte Abschnitt des Programms leider ziemlich kurz. Der Biophysiker Daniel Mietchen (Museum für Naturkunde Berlin/Wikimedia DE/Wikimedia CH/Open Knowledge Foundation DE) referierte über ein Thema, das auch ein zentrales Anliegen unseres ScienceBlog ist: Wie können wissenschaftliche Laien für wissenschaftliche Fragestellungen interessiert werden, in die Durchführung von Forschungsprojekten einbezogen werden?
Um die erstrebte Relation von Wissenschaftern und Bevölkerung darzustellen, verwendete Mietchen die Metapher der Fußballweltmeisterschaft: während nur wenige Mannschaften zu je 11 Personen aktiv sind, verfolgen mit großem Interesse Millionen Menschen die Spiele, den gesamten Prozess und geben Kommentare ab. Ein derartiges Interesse kann auch für die Wissenschaft geweckt werden. Dies zeigen zahlreiche naturwissenschaftliche Projekte, für die Laien Beobachtungen, Messungen und Datenauswertungen zur Verfügung stellten. Beispiele reichen von einem Atlas der Mücken Deutschlands bis hin zur Entdeckung von Asteroiden oder dem Design von Proteinstrukturen.
Fazit
Das Thema Open Science/Open Data steht im Mittelpunkt der Wissenschaftskommunikation.
Die Veranstaltung glänzte durch hochkarätige Experten und war gut besucht (das Vortragszelt war fast voll).
Viele Anregungen kamen aus den Impulsvorträgen, die in minimaler Zeit ein Maximum an Information boten.
Leider war der Zeitrahmen viel zu kurz bemessen, die Diskussionen kamen zu kurz, einige meiner Ansicht nach wichtige Fragen wurden nicht berührt - vor allem das Problem der Wissenschaftskommunikation in einer für Laien verständlichen Form – also „understandable open data“.
Weiterführende Links
Zur MS Wissenschaft: Video 1:50 min auf http://www.ms-wissenschaft.de/
Innovation im digitalen Zeitalter mit Dr. Sarah Spiekermann Video 1:50 min http://www.youtube.com/watch?v=raghScJmJZ8
Offene Daten Österreichs Video https://www.data.gv.at/infos/video-was-ist-open-data/
P. Kraker et al., The Case for an Open Science in Technology Enhanced Learning http://know-center.tugraz.at/download_extern/papers/open_science.pdf
Bienensterben in den USA Ein Virus bringt die Bienen um.
http://www.sueddeutsche.de/wissen/bienensterben-in-den-usa-ein-virus-bri... (abgerufen am 18.9.2014)
Panton Principles http://pantonprinciples.org/
Themenschwerpunkt: Biokomplexität
Themenschwerpunkt: BiokomplexitätFr, 12.09.2014 - 07:54— Redaktion
„Über Generationen hin haben Wissenschafter Teile unserer Umwelt separiert untersucht – einzelne Spezies und einzelne Habitate. Es ist an der Zeit, zu verstehen, wie diese Einzelteile als Ganzes zusammenwirken. Biokomplexität ist ein multidisziplinärer Ansatz um die Welt, in der wir leben, zu verstehen“ (Rita Colwell, 1999 [1]).
Der Begriff Komplexität ist ein Modewort geworden und aus dem Alltagsleben nicht mehr wegzudenken. Was früher als kompliziertes, aber mit entsprechendem Einsatz als durchaus lösbares Problem angesehen wurde (also beispielsweise ein Uhrwerk zu reparieren), erhält nun häufig das Attribut „komplex“.
Was ist Komplexität?
Tatsächlich ist Komplexität etwas anderes. Komplexe Prozesse sind dadurch gekennzeichnet, dass sie nicht durchschaubar sind, ihre Ergebnisse durch sehr viele Faktoren beeinflussbar und nicht vorhersagbar sind. Auch, wenn man die Ausgangsbedingungen eines komplexen Systems – also seine Einzelelemente und die Wechselwirkungen zwischen diesen - genau analysiert hat, führt deren Zusammenspiel zu Phänomenen, die nicht aus der Summe der einzelnen Eigenschaften/Wechselwirkungen hergeleitet werden können, zur sogenannten Emergenz. Dies lässt sich damit erklären, dass bei den Wechselwirkungen mehrerer Elemente miteinander (Mehrkörperproblem) Rückkopplungen entstehen, dass über die Zeit hin die Wechselwirkungen sich ändern können. Es besteht also keine lineare Beziehung zwischen Ursache und Wirkung. Diese nichtlineare Dynamik kann zu einem chaotischen System führen, aber auch ermöglichen, dass Systemelemente zu makroskopischen Strukturen zusammentreten (Selbstorganisation). Beispiele aus der unbelebten Natur sind u.a. durch den Wind verursachte Musterbildungen auf Sandoberflächen, Entstehung von Gewittern, Tornados, etc.
Die Komplexitätsforschung nahm ihren Ausgang von der Systemtheorie und Mathematik in den 1960er Jahren und entwickelt sich seitdem zu einer Leitwissenschaft, die gleichermaßen in den (angewandten) Naturwissenschaften, sozialen, wirtschaftlichen und politischen Bereichen hilft komplexe Systeme mit entsprechenden Computermodellen zu untersuchen, zu verstehen und Prognosen zu erstellen. Dementsprechend ist Komplexitätsforschung heute weltweit in zahlreichen Instituten angesiedelt.
Als Flaggschiff dieses Gebietes kann das Santa-Fe Institut in New Mexico bezeichnet werden. Es wurde vor 30 Jahren gegründet, als ersichtlich wurde, dass Fortschritte in der Behandlung nicht-linearer Prozesse und in Computermodellierungen nun erstmals eine Abkehr von rein reduktionistischen Betrachtungsweisen hin zu komplexen Systemen ermöglichten. Dem stark zunehmendem Spezialistentum wurde eine Philosophie interdisziplinärer Zusammenarbeit entgegengesetzt: es kooperieren eine kleine Gruppe Vollzeit-angestellter Wissenschafter und eine international zusammengesetzte, große dynamische Gruppe „Externer Fakultätsmitglieder“ aus den verschiedensten Fachgebieten, welche das Institut auf regulärer Basis „besuchen“.
Was ist Biokomplexität?
Biokomplexität ist ein junger interdisziplinärer Forschungszweig, der auf systembiologischen Ansätzen aufbaut und über diese weit hinausgeht. Erste Erwähnungen von „biocomplexity“ finden sich in den Literaturdatenbanken erst knapp vor der Jahrtauendwende; zurzeit gibt es in Google-scholar schon rund 11 000 Eintragungen. Eine zunehmende Zahl an Institutionen widmet sich bereits diesem Forschungszweig, an einer Reihe von Universitäten ist Biokomplexität als Studienrichtung etabliert. Einige Beispiele sind, neben dem Santa-Fe Institut, die University Illinois (Urbana-Champaign, US), das „Center for Biocomplexity“ an der Princeton Universität (NJ, US), die „Biodiversity and Biocomplexity Unit“ am Okinawa Institute of Science and Technology (Japan), die Abteilung „Hydrodynamik, Strukturbildung und Biokomplexität“ am Max-Planck Institut für Dynamik und Selbstorganisation (Göttingen, D), „Biocomplexity“ am Alfred Wegener Institut (Bremerhaven, D), an den Universitäten Münster und Utrecht, usw…..
Was alles unter dem "Dach" Biokomplexität verstanden wird, ist noch nicht klar umrissen. Eine sicherlich nicht umfassende Beschreibung dieser Disziplin könnte lauten: Biokomplexität verknüpft Biodiversität mit ökologischer Funktion:
- untersucht auf vielfachen biologischen Organisationsebenen, räumlichen und zeitlichen Skalen die komplexen biologischen, sozialen, chemischen, physikalischen Wechselwirkungen von Lebewesen mit ihrer Umwelt,
- strebt an den Menschen als Teil der Natur zu verstehen, eng gebunden an sein Habitat an Land und Wasser und an die Gemeinschaften der Lebewesen,
- untersucht wie die Umwelt den Menschen formt, ebenso wie die Auswirkungen der Aktivitäten des Menschen auf seine Umwelt.
Rita Colwell hat 2001 - damals war sie Direktor der US National Science Foundation - in einer Rede ein praktisches Beispiel von Biokomplexität gegeben:
„Warum sind Eicheln anscheinend mit einem Ausbruch der Lyme-Krankheit (durch Zecken übertragene Borreliose) assoziiert?
Dies ist tatsächlich der Fall: Wenn Eichen übermäßig Eicheln produzieren, dann kommen in dieses Gebiet mehr Hirsche, die sich von den Eicheln ernähren. Mehr Hirsche bedeuten mehr Zecken auf den Hirschen. Mehr Zecken lassen sich in eine höhere Wahrscheinlichkeit für Lyme-Krankheit übersetzen. Wissenschafter sind der Überzeugung, dass sie aus der Menge der in einem bestimmten Jahr produzierten Eicheln den Ausbruch der Lyme-Krankheit zwei Jahre später vorhersagen können.“ [2; aus dem Englischen übersetzt]
Biokomplexität im ScienceBlog
Komplexität ist die Grundstruktur des Lebens. Komplexität führt auf allen Organisationsebenen belebter Materie zur Diversität der Spezies: zur Vielzahl der Spezies, zur Variabilität innerhalb der Spezies und zu deren verschiedenen Erscheinungsformen. Die Spezies selbst prägen ihre Umwelt und werden von dieser geprägt.
Kernthemen dieser Disziplin sind daher: Komplexität, Biodiversität und Ökosysteme.
Zu diesen Themen sind bereits 18 Artikel von insgesamt 10 Autoren erschienen, die nun im neuen Schwerpunkt zuammengefasst sind und durch neue Artikel laufend ergänzt werden. Eigentlich müßte hier auch das Thema Evolution mit seiner fundamentalen Rolle in der Entstehung von Diversität vertreten sein. Da Evolution ein zentraler Aspekt unseres Blogs ist, wurde ihr- auf Grund der Fülle einschlägiger Artikel- ein eignener Schwerpunkt gewidmet: http://scienceblog.at/evolution
Komplexität
- Peter Schuster; 03.11.2011: Gibt es Rezepte für die Bewältigung von Komplexität?
- Peter Schuster; 13.09.2012: Zentralismus und Komplexität
Biodiversität
- Gottfried Schatz; 14.02.2014: Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken
- Inge Schuster; 24.01.2014: Cytochrom P450-Enzyme: Tausendsassas in allen Bereichen unserer Biosphäre
- Gottfried Schatz; 22.09.2011: Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten
- Peter Schuster; 24.05.2013: Letale Mutagenese — Strategie im Kampf gegen Viren
- Gottfried Schatz; 31.05.2013: Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden
- Tobias Deschner; 15.08.2014: Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos
Ökosysteme
- Reinhard F. Hüttl; 01.08.2014: Vom System Erde zum System Erde-Mensch
- Peter Schuster; 30.11.2013: Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft
- Gerhard Glatzel; 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren?
- Gerhard Glatzel;24.01.2013: Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler
- Gerhard Glatzel; 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 - Energiewende und Klimaschutz
- Gerhard Glatzel; 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2 - Energiesicherheit
- Gerhard Glatzel; 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse
- Julia Pongratz & Christian Reick; 18.07.2014: Landwirtschaft pflügt das Klima um
- Gerhard Markart; 16.08.2013: Hydrologie: Über die Mathematik des Wassers im Boden
- Gerhard Herndl; 21.02.2014: Das mikrobielle Leben in der Tiefsee
[1] Rita Colwell (1999) zitiert in J. Mervis, Biocomplexity Blooms in NSF’s Research Garden. Science 286:2068-9 [2] Rita Colwell (2001), Future Directions in Biocomplexity. Complexity 6,4:21-22
Der Kampf gegen Darm- und Durchfallerkrankungen
Der Kampf gegen Darm- und DurchfallerkrankungenFr, 29.08.2014 - 06:23 — Bill and Melinda Gates Foundation
Durch Infektionen hervorgerufene Darm- und Durchfallerkrankungen sind vermeidbar und behandelbar. In Entwicklungsländern gehören sie zu den Hauptursachen der Kindersterblichkeit und können zudem zu Mangelernährung und in Folge zu Wachstumsstörungen, Beeinträchtigungen der geistigen Entwicklung und damit zu lebenslangen gesundheitlichen Problemen führen. Die Bill & Melinda Gates Foundation verwendet eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen und die hohe Zahl von Sterbefällen zu verringern. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen. Er ist Bestandteil des Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" .
Darm- und Durchfallerkrankungen gehören zu den Hauptursachen der Kindersterblichkeit in Entwicklungsländern: Rund eine Million Kinder unter fünf Jahren sterben jährlich daran. Die Krankheiten, zu denen durch Rotaviren (s.u.) verursachter Durchfall, Cholera und Typhus zählen, werden durch fäkal-orale Infektionen ausgelöst. Wiederholte schwere Durchfallerkrankungen im Kindesalter können lebenslange starke gesundheitliche Beschwerden nach sich ziehen.
Darmerkrankungen können zu Mangelernährung, Wachstumsstörungen und einer Beeinträchtigung der geistigen Entwicklung führen. Dies bedeutet für Millionen von Menschen ein Leben mit weniger Chancen und geringer Produktivität.
Die Folgen von Darm- und Durchfallerkrankungen sind bislang überwiegend unbeachtet geblieben. Das Kinderhilfswerk der Vereinten Nationen UNICEF und die Weltgesundheitsorganisation WHO haben in den siebziger und achtziger Jahren mithilfe des Diarrheal Diseases Control Program einige bedeutende Erfolge errungen. Dennoch mangelt es weiterhin an adäquater Forschung, Finanzierung und politischem Engagement, um eine globale Antwort auf diese Krankheiten zu finden. Es ist weitgehend unbekannt, wie viele krankheitsauslösende Erreger, darunter Viren, Bakterien und Parasiten es gibt und wie sie aufgebaut sind. Auch die Umweltbedingungen, die zu ihrer Verbreitung beitragen, sind noch unerforscht.
Obwohl einige wirksame Programme und Instrumente zur Verfügung stehen, kommen sie in den Entwicklungsländern aufgrund hoher Kosten, begrenzter Verfügbarkeit und mangelnder Bekanntheit nicht zu einem breit angelegten Einsatz.
Ansätze zur Bekämpfung von Darm- und Durchfallerkrankungen
In den Industrieländern haben eine Verbesserung der Wasserqualität, adäquate Sanitäreinrichtungen, der Einsatz von Antibiotika und hohe Durchimpfungsraten zu einem spürbaren Rückgang der Todesfälle infolge von Darm- und Durchfallerkrankungen geführt. Die gleichen Ansätze und Instrumente könnten verwendet werden, um Kinder in armen Ländern vor diesen Krankheiten zu schützen und sie zu behandeln.
Abbildung 1- Wasserholen in einer ländlichen Gegend bei Mosambik
Gegen Rotaviren, Cholera und Typhus existieren sichere und wirksame Impfstoffe. Die WHO empfiehlt die Aufnahme von Impfungen gegen Rotaviren in den Impfkalender aller Länder. Die GAVI Alliance ist eine öffentlich-private Partnerschaft, die Impfungen von Kindern in den ärmsten Ländern unterstützt. Sie plant eine Ausweitung der Impfungen gegen Rotaviren auf rund 40 Länder bis zum Jahr 2015. Dies könnte 2,46 Millionen Menschen bis zum Jahr 2030 das Leben retten. Neue Impfstoffe befinden sich aktuell im Entwicklungsstadium und könnten in den kommenden Jahren zu einer Vergrößerung des Markts für Rotavirusimpfstoffe und einer Erweiterung der Kapazitäten führen. Der Choleraimpfstoff Shanchol wurde bereits in Indien zugelassen und erhielt 2011 die WHO-Präqualifikation. Mehrere Typhusimpfstoffe sind ebenfalls in Entwicklung, darunter ein Kombinationsimpfstoff gegen Typhus und Paratyphus sowie Impfstoffe gegen enterotoxische Escherichia-coli-Bakterien (ETEC).
Kostengünstige Maßnahmen zum Schutz von Kleinkindern gegen eine Infektion und mögliche tödliche Folgen einer schweren Durchfallerkrankung stehen heute zur Verfügung. Dazu gehören Trinklösungen zur Rehydrierung, Vitamin A und Zink in Form von Nahrungsergänzungsmitteln sowie Zugang zu sauberem Wasser und adäquaten sanitären Einrichtungen. Auch eine größere Körper- und Haushaltshygiene und volles Stillen bis zum sechsten Lebensmonat zählen dazu.
Strategien der Gates Foundation
Darm- und Durchfallerkrankungen werden durch eine Reihe von Erregern ausgelöst, gegen die nicht immer ein Impfstoff vorliegt. Wir verwenden daher eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen. Sauberes Wasser, verbesserte Sanitär- und Hygienebedingungen sowie volles Stillen bis zum sechsten Lebensmonat können zum Schutz der Kinder vor den meisten Darmerkrankungen beitragen. Mithilfe von kosteneffizienten Impfstoffen kann schweren Erkrankungen und sogar Todesfällen vorgebeugt werden. Erkrankte Kinder müssen rasch behandelt werden, wobei bewährte Präparate wie Trinklösungen zur Rehydrierung und Zink zum Einsatz kommen.
Wir fördern Ursachenforschung im Bereich von Darmerkrankungen, die zu Mangelernährung, Beeinträchtigungen der geistigen Entwicklung und sogar zum Tod führen können. Außerdem untersuchen wir, welche globalen und regionalen Belastungen diese Krankheiten bedeuten. Es müssen informierte Entscheidungen darüber getroffen werden, wann und wie neue Maßnahmen umgesetzt und bestehende Initiativen ausgeweitet werden sollen. Im Rahmen unserer Strategie arbeiten wir mit internationalen Organisationen zusammen, die die Gesundheit von Kindern zum Ziel haben. Wir wollen sicherstellen, dass die einzelnen Länder, Geber und Partner für die Bekämpfung von Darm-und Durchfallerkrankungen ausreichende Ressourcen zur Verfügung stellen und ihre Anstrengungen miteinander abstimmen.
Welche Schwerpunkte setzt die Gates Foundation?
Rotaviren
Die meisten Durchfallerkrankungen, die bei Kindern unter fünf Jahren einen Krankenhausaufenthalt notwendig machen oder sogar zum Tod führen, werden durch Rotavirusinfektionen verursacht. Existierende Rotavirusimpfstoffe haben zu einer erheblichen Reduzierung der Zahl an Krankenhauseinweisungen und Todesfällen geführt. Die WHO empfiehlt daher die Einführung dieser Impfung, insbesondere in Ländern, in denen Durchfallerkrankungen zu den Hauptursachen der Kindersterblichkeit zählen.
Rotavirusimpfungen wurden in den USA und einigen lateinamerikanischen Ländern erstmals 2006 durchgeführt. Erst 2012 wurden die Impfstoffe jedoch auch in mehreren Entwicklungsländern eingesetzt. Eine große Anzahl weiterer Länder hat sich zur Einführung der Impfung in den kommenden zwei bis drei Jahren entschlossen. Im Rahmen einer engen Zusammenarbeit mit der GAVI Alliance und anderen Länderregierungen übernehmen wir einen Teil der Kosten der Rotavirusimpfstoffe. Außerdem unterstützen wir ihre Einführung dort, wo sie am meisten gebraucht werden und fördern die Verbreitung von Routineimpfungen von Kindern gegen eine Vielzahl anderer Krankheiten. Langfristig arbeiten wir auf die Einführung von Rotavirusimpfungen in mindestens 50 weiteren Ländern mit geringem und mittlerem Einkommensniveau hin.
Abbildung 2. Ghanas First Lady Ernestina Naduu impft ein Baby Wir kooperieren zudem mit PATH (siehe Links) und Impfstoffherstellern in Schwellenländern wie Indien, Brasilien, Indonesien und China. Es müssen neue Rotavirusimpfstoffe entwickelt werden, die zur einer Diversifizierung und Ausdehnung des Angebots führen und damit auch zu einer Kostensenkung.
Mittel und Präparate
Die meisten Todesfälle bei Kindern infolge von Durchfallerkrankungen (keine Ruhr) könnten durch die Einnahme einfacher Präparate wie Trinklösungen zur Rehydrierung und Zink verhindert werden. Diese sind jedoch nicht sehr weit verbreitet. Wir arbeiten mit Partnern in Indien, Nigeria und Burkina Faso zusammen, um eine größere Verfügbarkeit und breitere Anwendung dieser Präparate zu erreichen. Unsere Wahl fiel auf diese Länder, da in den dortigen Bevölkerungsgruppen besonders Kinder unter Krankheit leiden, eine große Bereitschaft zur Innovation besteht und wir auf starke Partnerorganisationen zurückgreifen können. So unterstützen wir beispielsweise im indischen Bundesstaat Uttar Pradesh die Clinton Health Access Initiative und andere Partnerorganisationen, die mithilfe von Öffentlichkeitskampagnen für die Verwendung von Trinklösungen und Zink als Behandlungsmitteln gegen Durchfall werben.
Wir wollen im Rahmen von Forschungsarbeiten die Haupthindernisse für eine breitere Anwendung der Präparate besser verstehen lernen. Außerdem kooperieren wir mit Herstellern und Vertreibern von Trinklösungen und Zinkpräparaten, um bei Verbrauchern eine höhere Akzeptanz zu schaffen, beispielsweise durch eine neue Geschmacksrichtung oder eine neue Verpackung.
Wir unterstützen zudem die Entwicklung von Produkten, die Beschwerden von Durchfallerkrankungen bekämpfen und Dehydrierung behandeln. Trinklösungen führen zu einer Rehydrierung des Körpers, ohne jedoch den Durchfall zu stoppen und andere Symptome unmittelbar zu mildern. Daher ziehen Pflegekräfte oft andere, weniger wirksame Mittel vor. Wir unterstützen die Bemühungen von PATH bei der Erforschung und Entwicklung neuer Mittel und Präparate, die einen übermäßigen Flüssigkeitsverlust verhindern, Beschwerden lindern und zu einer verstärkten Verwendung von Trinklösungen und Zink führen können.
Typhus
Typhus und Paratyphus zusammen kosten jährlich bis zu 250.000 Menschen, die meisten davon Kinder, das Leben. Beide Krankheiten können durch Impfstoffe bekämpft werden. Ein wirksamer und erschwinglicher Impfstoff ist kurzfristig die beste Lösung, um Typhus in Ländern mit unzureichendem Zugang zu sauberem Wasser und schlechten Sanitär- und Hygienebedingungen sowie mit einer hohen Antibiotikaresistenz einzudämmen.
Wir arbeiten in diesem Zusammenhang mit dem International Vaccine Institute, Shantha Biotechnics, dem Sabin Vaccine Institute und anderen Partnern zusammen. Ziel ist es, einen Kombinationsimpfstoff zu entwickeln, der über eine längere Schutzwirkung als aktuelle Stoffe verfügt und auch für Kinder unter zwei Jahren geeignet ist. Wir benötigen darüber hinaus bessere Diagnosetests und Daten, um die Auswirkungen dieser Krankheiten in ihrem ganzen Umfang zu erfassen.
ETEC- und Shigella-Erreger
ETEC und Shigella sind bakterielle Erreger, die in den meisten Teilen der Welt weit verbreitet sind. Insbesondere in den Entwicklungsländern stellen sie eine ständige Bedrohung für Kinder und Erwachsene dar. Jährlich fallen nach Schätzungen 200.000 Kinder unter fünf Jahren einer durch ETEC- oder Shigella-Erreger verursachten Infektion zum Opfer. Schon eine einmalige Infektion durch Shigella-Erreger ist ausreichend, um dem Magen-Darm-System schwere Schäden zuzufügen.
Unser wichtigster Partner bei der Entwicklung neuer Impfstoffe gegen ETEC- oder Shigella-Infektionen ist die PATH Enteric Vaccine Initiative. Um die Chancen für die schnelle Zulassung eines Impfstoffkandidaten zur erhöhen, unterstützen wir gleichzeitig mehrere Impfstoffkandidaten mit unterschiedlichen Ansätzen. Doch selbst für die in dieser Hinsicht vielversprechendsten ETECShigella-Impfstoffkandidaten ist eine praktische Anwendung in frühestens zehn Jahren denkbar.
Risikofaktor Umwelt
Wir wollen verstehen, wie Umwelt und andere Faktoren zur Entstehung und zu den Auswirkungen von Durchfallerkrankungen beitragen, die wiederum bei Kindern zu Nährstoffmangel führen. In armen Gemeinschaften nimmt diese Entwicklung im Kleinkindalter ihren Anfang und hält die gesamte Kindheit hindurch an. Die Folgen sind häufig Wachstumsstörungen, Beeinträchtigungen der geistigen Entwicklung, erhöhte Anfälligkeit gegenüber Infektionskrankheiten und Tod.
Wir stehen bei der Erforschung der Zusammenhänge zwischen einer veränderten Darmfunktion, Mangelernährung und unzureichender Entwicklung noch ganz am Anfang. Ein wesentlicher Teil unserer Förderleistungen in diesem Bereich geht an das Malnutrition and Enteric Diseases (MAL-ED) Consortium. Das internationale Projekt beschäftigt sich mit Bevölkerungsgruppen, die stark von Mangelernährung und Durchfallerkrankungen betroffen sind. Die Untersuchungen des MAL-ED bieten wichtige Informationen für die Entwicklung und Erprobung neuer Ansätze bei der Prävention und Behandlung dieser Krankheiten.
Cholera
Jedes Jahr sterben fast 130.000 Menschen bei Choleraepidemien und in Endemiegebieten. In mindesten 51 afrikanischen Staaten südlich der Sahara und Asiens ist Cholera endemisch. Einige der letzten Epidemien wie in Simbabwe, Guinea und Sierra Leone sowie auf Haiti haben den Druck auf die bereits schlecht ausgestatteten Gesundheitssysteme dieser Länder noch verstärkt.
Ein von der WHO 2012 veröffentlichter Bericht stellte einen großen Schritt nach vorn dar. Die Organisation fordert darin die globale Bevorratung von Schluckimpfstoffen gegen Cholera und definiert Kriterien für den Einsatz der Impfstoffe im Zusammenspiel mit anderen bewährten Maßnahmen wie der Verbesserung der Wasserqualität und der Sanitärversorgung.
Wir unterstützen die Bevorratung von 2 Millionen Dosen an Choleraimpfstoffen. Eine konstante Nachfrage nach Impfstoffen führt zu einer Vergrößerung des Angebots und zu günstigeren Preisen. In von Cholera stark betroffenen Ländern wird davon die Nachfrage wiederum angekurbelt.
Wir fördern zudem die Entwicklung evidenzbasierter Richtlinien für den Einsatz von Schluckimpfstoffen bei einem Epidemieausbruch und sprechen uns für eine bessere Datenerhebung aus, die die Forderung nach Verwendung von Choleraimpfstoffen in endemischen Gebieten mit Fakten untermauert. Wir fördern die Entwicklung eines preisgünstigen, einmalig zu verabreichenden Choleraimpfstoffs für den Einsatz während eines Epidemieausbruchs und zur allgemeinen Kontrolle von Epidemien. Voraussetzung für die Angebotsausweitung ist eine WHO-Präqualifikation von mindestens einem zusätzlichen Hersteller preisgünstiger Totimpfstoffe gegen Cholera.
Monitoring und Überwachung
Wir haben dem Global Enterics Multi-Center Study (GEMS) umfangreiche Förderleistungen zur Verfügung gestellt, um eine genauere Datenerhebung in Bezug auf die Ursachen und Folgen von Durchfallerkrankungen bei Kleinkindern in Afrika und Asien zu ermöglichen. Auch die Haupterreger von Durchfallerkrankungen müssen weiter erforscht und die Wirksamkeit von Maßnahmen überprüft werden. Daher unterstützen wir die Entwicklung fortschrittlicher Diagnosetests und eine Ausweitung des Bewertungssystems.
Wir arbeiten auf regionaler und landesweiter Ebene mit bestehenden Netzwerken wie dem GEMS, dem African Cholera Surveillance Network (Africhol) und dem Typhoid Surveillance in sub-Saharan Africa Program (TSAP) zusammen, um spezifische Erreger wie Rotaviren, Cholera, Typhus und Paratyphus zu überwachen. Die Kenntnisse, die wir zu Ursachen und Folgen von Darm- und Durchfallerkrankungen in diesen Ländern gewonnen haben, sollen genutzt werden, um weitere Initiativen zu entwickeln: Zusätzliche Erreger wie Cryptosporidium müssen überwacht und Laborkapazitäten in Entwicklungsländern ausgebaut werden.
Fazit
Die Gates Foundation verwendet eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen. Dazu zählen Impfungen als kostengünstige Maßnahmen gegen die Infektion mit spezifischen Erregern, Verbesserung der Wasserqualität, der Sanitär- und Hygienebedingungen und Präparate wie Trinklösungen und Mikronährstoffe.
* http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Enteric-and-D...
Weiterführende Links
http://www.gatesfoundation.org/de/
WHO Durchfallerkrankungen: http://www.who.int/mediacentre/factsheets/fs330/en/
Gavi, the Vaccine Alliance: http://www.gavi.org/about/
PATH: international nonprofit health organization driving transformative innovation to save lives. http://www.path.org/
Video Kampf gegen Durchfall und Cholera in Somalia | UNICEF 2.53 min (englisch) https://www.youtube.com/watch?v=02kkcr1z6AU
Graphen – Wunderstoff oder Modeerscheinung?
Graphen – Wunderstoff oder Modeerscheinung?Fr, 05.09.2014 - 05:18 — Klaus Müllen
Zwei Phänomene werden für die Zukunft unserer Gesellschaft entscheidend sein: Energieversorgung und Informationsverarbeitung. Die Qualität unserer Lösungsansätze dazu hängt von den Materialien ab. Graphen, ein monolagiger Ausschnitt aus dem Graphit, wird gegenwärtig als Wunderstoff gehandelt. Der Chemiker Klaus Müllen, Direktor des Max-Planck Instituts für Polymerforschung (Mainz) [1], erörtert welche Forderungen zu erfüllen sind, dass auf Basis von Graphen robuste zukunftsträchtige Technologien entstehen [2]..
Kohlenstoffmaterialien wie Ruße oder Aktivkohle spielen technologisch eine bedeutende Rolle. Ihre Strukturen sind aber schlecht definiert, weil sie aus variablen Anteilen geordneter und ungeordneter Bereiche bestehen. Kohlenstoffe mit definierter Struktur sind etwa der Graphit und der Diamant, aber es gibt auch diskrete Kohlenstoffpartikel wie Kohlenstoffröhrchen oder Kohlenstoffkugeln (Abbildung 1).
Abbildung 1. Kohlenstoff kann in vielen Kristallstrukturen vorliegen – als extrem harter Diamant, als weicher Graphit, als sphärische Partikel, zu denen Kohlenstoffröhrchen und Kohlenstoffkugeln gehören (von der Redaktion eingefügt: Abbildung 3 aus http://scienceblog.at/wunderwelt-der-kristalle).
Was bedeutet Graphen?
Graphit kommt in der Natur vor, kann aber auch durch Hochtemperatur-Pyrolyse aus kohlenstoffhaltigen Vorläufermaterialien gewonnen werden. Im Graphit sind einzelne Schichten übereinandergestapelt, wobei jede Schicht als aus Sechsecken zusammengefügte Honigwabe betrachtet werden kann. Eine einzelne Schicht, die dann nur atomar dick ist, heißt Graphen.
Graphene wurden seit den 60er Jahren des letzten Jahrhunderts erzeugt und untersucht, eine besonders einfache Form der Graphengewinnung ist das Abpellen einzelner Schichten aus dem Graphit mit Tesafilm. Diese Methode wurde übrigens seit jeher von Physikern zur Reinigung von Graphitoberflächen benutzt. Die russischen Wissenschafter Andre Geim und Konstantin Novoselov hatten die Idee, die losgelösten Schichten auf Substraten zu deponieren und physikalisch zu charakterisieren. Und die physikalischen Eigenschaften, die sie fanden, sind in der Tat herausragend: So ist Graphen optisch weitgehend transparent, und Ladungen können innerhalb dieser Graphenschicht mit sehr hoher Beweglichkeit transportiert werden. (Anm. d. Redaktion: für ihre bahnbrechenden Arbeiten wurden Geim und Novoselov 2010 mit dem Nobelpreis für Physik ausgezeichnet [3].)
Graphene - Miniaturisierung elektronischer Schaltkreise?
Bis hierhin würde das für Aufregung bei Grundlagenforschern sorgen, hätte aber noch keine technologische Bedeutung. Schauen wir deshalb auf die digitale Elektronik. Wichtige Bauelemente sind Feldeffekttransistoren, Einheiten mit drei Elektroden, die zum Schalten von Strom dienen. Je höher die Beweglichkeit der Ladungen ist, desto schneller lassen sich diese Transistoren schalten.
Und hier kommt eben das Graphen ins Spiel (vgl. Abbildung 2). Denn es hat das Potential, zum Konkurrenten des Siliciums, des zentralen Materials der Halbleitertechnologie, zu werden. Dies umso mehr, als dass die klassische Silicium-Halbleitertechnologie im Zuge der angestrebten Miniaturisierung an ihre Grenzen stößt.
Abbildung 2: Feldeffekttransistor auf Graphen-Basis. © K. Müllen/MPI für Polymerforschung
Allerdings tauchen hier zwei neue Probleme auf:
- das Abpellen von Graphen aus dem makroskopischen Graphit wird nie und nimmer Grundlage einer Technologie sein, es braucht andere Verfahren zur Erzeugung von Graphen.
- Weiterhin ist eine elektronische Besonderheit des Graphens, dass die Energielücke zwischen besetzten und unbesetzten Energieniveaus verschwindend klein ist. Diese Eigenschaft führt dazu, dass bei aller hohen Ladungsbeweglichkeit ein aus Graphen gebauter Schalter nie ausgeschaltet werden könnte.
Man wird deshalb sagen können, dass ohne weitere Entwicklung keine digitale Elektronik aus Graphenen hergestellt werden kann.
Ein Trick zur Öffnung der Bandlücke ist, statt der ausgedehnten zweidimensionalen Graphenschicht Streifen aus dieser Schicht zu benutzen. Das bringt uns wieder zurück auf die Frage, wie Graphen und wie Graphennanostreifen hergestellt werden.
Herstelllung von Graphen und Graphen-Nanostreifen
Zunächst wird in der Forschung intensiv versucht, das Abpellen oder, vornehmer gesagt, die Exfolierung nicht mithilfe von Tesafilm, sondern im Zuge chemischer oder elektrochemischer Reaktionen oder unter Assistenz durch Lösungsmittel zu erreichen.
Alternativ kann man Graphene durch sogenanntes epitaktisches Wachstum aus Siliciumcarbid (SiC) bei hohen Temperaturen erzeugen. Wiederum eine andere Methode ist die chemische Dampfabscheidung, bei der kleine Kohlenstoff-Einheiten (C1, C2) auf Metalloberflächen deponiert werden und dann zu dem geschilderten Honigwabennetzwerk kondensieren. Gerade dieses Verfahren wird in jüngster Zeit intensiv beforscht, weil man in der Elektronik sogenannte Fensterelektroden benötigt, dabei aber mit der Verwendung der klassischen Indiumzinnoxid-Elektroden wegen des beschränkten Vorkommens von Indium an Grenzen stößt.
Solche Fensterelektroden müssen transparent für Licht, aber gleichzeitig elektrisch leitfähig sein. Sie werden zum Beispiel in der Photovoltaik, aber auch in Leuchtdioden benötigt. Zu bedenken ist noch, das es nicht nur um die Erzeugung von Graphenschichten geht, sondern auch darum, diese von der Metallunterlage abzulösen und etwa in Druckverfahren einzuführen. Die hohe Attraktivität von Graphennanostreifen sowohl für die Grundlagenforschung als auch für eine zukünftige Halbleitertechnologie ruft erneut nach geeigneten Verfahren. Hier haben Physiker die lithographische Bearbeitung von Graphit oder das Aufschneiden von Kohlenstoffnanoröhren ins Spiel gebracht, ohne dadurch aber strukturdefinierte Kanten erreichen zu können.
Unsere Gruppe hat einen chemischen Weg zu Graphen-Nanostreifen entwickelt, den man auf den Punkt gebracht als Bottom-up-Konzept beschreiben kann. Dabei gehen wir eben nicht von makroskopischem Graphit, sondern von kleinen Kohlenstoff-Bausteinen aus und fügen sie durch chemische Synthese zu zunehmend größeren Graphenscheiben zusammen. Genau genommen geht man in zwei Stufen vor: Man kombiniert die Sechsecke (Benzole) zuerst zu dreidimensionalen Strukturen und überführt sie dann durch eine Planarisierung, gewissermaßen eine chemische Graphitisierung, in Scheiben oder Streifen. Dies ist uns sowohl in Lösung als auch nach Deposition der kleinen Bausteine auf Oberflächen gelungen (vgl. Abbildung 3).
Abbildung 3: Beispiele von Graphennanobändern synthetisiert nach dem Bottom-up-Verfahren. (a)Rastertunnelmikroskopie (STM)-Aufnahmeund (b) Hochauflösende Transmissionselektronenmikroskopie (HRTEM)- Aufnahme von löslichen Graphennanobändern 1; (c), (d) und (e) STM-Aufnahme und Dichtefunktionaltheorie (DFT)-basierte Simulation (mit teilweise überlagertem Molekülmodell) von unlöslichen Graphennanobändern 2 (nach der oberflächenunterstützten Cyclodehydrierung).© K. Müllen/MPI für Polymerforschung & R. Fasel/EMPA
Die Stoffherstellung ist das eine, die Nutzung in Bauelementen oder gar die Einführung in reife Technologien ist das andere; das erfordert noch Jahre, wenn nicht Jahrzehnte, weiterer Entwicklung. Eine faszinierende Besonderheit des Graphens ist aber, dass es zwar in Gestalt von Halbleiterkomponenten oder transparenten Elektroden für die Elektronik benutzt werden kann, aber auch Potential für die Entwicklung neuer Energietechnologien bietet. Dies sei kurz am Beispiel der Batterien und der Brennstoffzellen geschildert.
Graphene, Batterien und Brennstoffzellen
In einer Batterie möchte man möglichst viel elektrische Energie speichern, und in der Tat wurden Graphitmaterialien schon vielfach als Anoden in Lithiumbatterien verwendet. Leider ist aber die spezifische Aufnahmefähigkeit des Graphits für negative Ladungen sehr begrenzt. Deshalb wurde versucht, die Elektroden mehr und mehr zu laminieren, was im Hinblick auf die Betriebssicherheit ein heikles Unterfangen ist. Warum also nicht Stoffe mit höherer Ladungsspeicherkapazität anstreben? Nun zeigt sich, dass anorganische Materialien wie Silicium oder Metalloxide eine viel höhere Ladungsspeicherkapazität haben als Graphit, dass sie aber erhebliche Probleme hinsichtlich der strukturellen Stabilität der Elektroden und der Geschwindigkeit der Beladungs- und Entladungsprozesse aufweisen. Hier haben wir das Beste aus zwei Welten kombinieren können, nämlich Metalloxidnanoteilchen durch Graphenschichten umhüllt, die einerseits noch Elektronen- und Ionentransport erlauben, aber andererseits das Metalloxidteilchen wie Papier ein Bonbon einpacken und damit strukturell stabilisieren (vgl. Abbildung 4).
Abbildung 4: Umhüllung von Metalloxidnanoteilchen in Graphenschichten zur Herstellung von Materialien mit höherer Ladungsspeicherkapazität. © K. Müllen/MPI für Polymerforschung
Ein für die Energietechnologie gleichermaßen bedeutsames Element ist die Brennstoffzelle, die darauf beruht, die Knallgasreaktion zu zähmen, also Sauerstoff und Wasserstoff in kontrollierter Form unter Energiegewinnung zu Wasser umzusetzen. Auch hier tauchen wichtige Anforderungen an die Materialforschung auf. Man benötigt Membranen hoher Protonenleitfähigkeit, aber auch das Problem der Katalysatoren ist ungelöst. Würden wir, wie es bisher geschieht, ausschließlich Platin als Katalysator verwenden, wären der technologischen Entwicklung der Elektromobilität sehr enge Grenzen gesetzt. Wir haben nun entdeckt, dass Graphene, die in ihrer Peripherie mit Stickstoff dotiert sind, hinsichtlich ihrer katalytischen Aktivität, aber auch hinsichtlich anderer Prozessparameter dem Platin als Katalysatoren der Sauerstoffreduktion überlegen sind (vgl. Abbildung 5).
Die Frage nach Verfügbarkeit und Preis beantwortet sich von selbst.
Abbildung 5: Stickstoff-dotierte Graphene als Katalysator für Brennstoffzellen. (Knallgasreaktion:2H2 + O2= 2H2O) © K. Müllen/MPI für Polymerforschung
Fazit
Man könnte die Liste der sich aus Graphen entwickelnden Anwendungen noch fortführen, genannt seien Sensorik und Diagnostik oder Membrantechnologien. Klar ist, dass auf diesem Weg noch vielfältige Forschung im Bereich der Physik und Ingenieurwissenschaften nötig ist. Ebenso klar ist aber auch, dass die Bereitstellung der Materialien, nicht zuletzt durch die Methoden der synthetischen Chemie, über die letztendliche Nutzung von Graphen in Technologien mitentscheidend sein wird. Die Anfänge sind gemacht, und die EU hat die enorme Bedeutung der Graphene durch die Auslobung des Flagship-Programms [4] anerkannt. Industriekonsortien in der ganzen Welt befassen sich mit interdisziplinärer Graphenforschung. Das Max-Planck-Institut für Polymerforschung ist dabei ein gewichtiger Akteur, weil es eine breite Palette notwendiger Kompetenzen von Synthese und Verarbeitung zu Theorie und weiter zu Bauelementphysik beitragen kann.
[1] Max-Planck Institut für Polymerforschung (Mainz) http://www.mpip-mainz.mpg.de/home/en
[2] Der im Jahrbuch 2014 der Max-Planck Gesellschaft erschienene, gleichnamige Artikel http://www.mpg.de/7685547/MPI-P_JB_20141?c=8236817 wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne die im Original vorhandenen Literaturzitate (Literatur auf Anfrage erhältlich).
[3] http://www.nobelprize.org/nobel_prizes/physics/laureates/2010/;
[4] Graphene Flagship: Im Okober 2013 gestartetes Forschungsprogramm der EU, das 10 Jahre dauern soll und mit 1 Milliarde € gefördert wird. : http://graphene-flagship.eu/
Weiterführende Links
Nobel Lectures (in Englisch)
Andre Geim (2010), Random Walk to Graphenes,Video 34 min http://www.nobelprize.org/mediaplayer/index.php?id=1418
Konstantin Novoselov (2010), Graphenes: Materials in the Flatland, Video 35 min, http://www.nobelprize.org/mediaplayer/index.php?id=1420
Hintergrund und Visionen
Graphen (WeltderPhysik) Video 6:10 min Janina Maultzsch von der TU Berlin über das Material Graphen Graphen - der Stoff, aus dem die Zukunft ist | Projekt Zukunft. Video 3:31 min Es soll vor allem die Kommunikationstechnik revolutionieren, aber auch effektivere Energiespeicher und ultraleichte Werkstoffe für den Flugzeugbau ermöglichen: Graphen gilt als Wunderstoff der Zukunft. Tanz um ein Wundermaterial: Graphen | Projekt ZukunftVideo 4:33 min. Jari Kinaret, Initiator von Graphene Flagship will auf einem Kongress in Toulouse Wissenschaft und Wirtschaft zusammenbringen (2014). Graphen - Wundermaterial in zwei Dimensionen // scinexx.deVideo 2:10 min Graphene Flagship Video 2:07 min, Cambridge University (englisch) FET Flagships GrapheneVideo 19:45 min Presentation of the Graphene Flagship Project by Jari Karnet at the FET Flagship Pilots Conference(Brussels on 9th July 2012).
Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenkt
Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenktFr, 22.08.2014 - 06:35 — Gottfried Schatz
Im Vergleich zum (zweit)kleinsten Genom des Bakteriums Mycoplasma genitalium, das diesem gerade das Überleben ermöglicht, enthält das Genom des Menschen nur fünfzigmal mehr Gene. Wie daraus dennoch eine ungeheure Vielzahl und Vielfalt an Proteinen entstehen, die aus der Struktur unseres Genoms nicht eindeutig ablesbar sind und jeden von uns zum unverwechselbaren molekularen Individuum machen, schildert der prominente Biochemiker Gottfried Schatz..
Wer bin ich? Wie unerbittlich bestimmen meine Gene, wer ich bin - oder sein könnte? Bin ich einmalig - oder nur eine von sechs Milliarden identischen biochemischen Maschinen? Diese Fragen konnte mir während meiner ersten Lebenshälfte nur große Kunst beantworten. Philosophie und Wissenschaft ließen mich im Stich, da sie noch nicht erkannt hatten - oder nicht wahrhaben wollten -, dass der Schlüssel zum Verständnis lebender Wesen im chemischen Aufbau lebender Materie liegt.
Diese Erkenntnis schenkten uns während meiner zweiten Lebenshälfte Physik und Biologie, die damit nach langer Verbannung wieder zu Eckpfeilern der Philosophie wurden. Sie enthüllten die immense Komplexität lebender Zellen, den gemeinsamen Ursprung alles Lebens auf unserer Erde und die Einmaligkeit jedes Menschen. Vielleicht werden sie uns auch bald zeigen, dass wir mehr sind als vorprogrammierte biochemische Maschinen. Wenn ihnen dies gelänge, würden sie uns von einer unserer bedrückendsten Kränkungen erlösen.
Diese Kränkung ist ein ungewolltes Nebenprodukt der wissenschaftlichen Schau unserer Welt und ist nie überzeugend widerlegt worden. Im Gegenteil, die Entdeckung der Gene und ihrer Wirkungsweise sowie die Aufklärung der chemischen Struktur der gesamten menschlichen Erbsubstanz (des menschlichen Genoms) festigten die Vorstellung, dass ererbte Gene unerbittlich unsere Handlungen und unser Schicksal bestimmen.
Könnte der Informationsreichtum unseres Genoms die Tyrannei der Gene unterlaufen? Lebende Zellen sind die komplexeste Materie, die wir kennen. Da die Komplexität eines Objektes ein Maß für die Menge an Information zur vollständigen Beschreibung des Objekts ist, verkörpert eine lebende Zelle sehr viel mehr Information als zum Beispiel ein Gestein. Diese Information ist im Genom jeder Zelle in fadenförmigen DNS-Riesenmolekülen in einer chemischen Buchstabenschrift gespeichert. Das Genom des einfachsten bekannten Bakteriums, Mycoplasma genitalium, hat 580 700 Buchstaben, die etwa 500 Gene beschreiben. Da die meisten Gene Bauplan für ein bestimmtes Protein sind, kann Mycoplasma genitalium etwa 500 verschiedene Proteine herstellen. Diese reichen knapp zum Überleben, so dass Mycoplasma genitalium auf keines seiner Proteine verzichten kann. Alle Zellen einer Mycoplasma-Kolonie sind deshalb, von seltenen Mutanten abgesehen, im Wesentlichen identisch.
Lesen und interpretieren
Unser eigenes Genom ist im Kern jeder Zelle gelagert und hat 3,2 Milliarden Buchstaben. Obwohl es fast sechstausendmal grösser als das von Mycoplasma genitalium ist, hat es nur fünfzigmal mehr (bis zu 25 000) Gene. Der Grund ist, dass über 95 Prozent unseres Genoms keine für uns erkennbaren Gene trägt. Unsere Körperzellen besitzen von den meisten unserer 25 000 Gene eine mütterliche und eine väterliche Variante und können deshalb theoretisch über 50 000 verschiedene Proteine bilden. In Wirklichkeit ist diese Zahl noch wesentlich höher, da unsere Zellen Gene verschiedenartig lesen können: Sie können an verschiedenen Stellen im Gen zu lesen beginnen, nur einzelne Teile lesen oder die gelesene Information nachträglich verändern. So können sie aus einem Gen bis zu zehn oder mehr verschiedene Proteine hervorzaubern.
Darüber hinaus können sie bereits gebildete Proteine durch Anheften oder Abspalten chemischer Gruppen weiter verändern. Da wir die meisten dieser Veränderungen aus der Struktur unseres Genoms nicht eindeutig ablesen können, wissen wir nicht, wie viele verschiedene Proteine unser Körper herstellen kann. Wahrscheinlich sind es über hunderttausend. Der Reichtum unseres genetischen Erbes liegt also nicht nur in seiner Größe, sondern auch in der Virtuosität, mit der wir uns seiner bedienen. Bakterien lesen ihr Genom; wir interpretieren unseres. Wir gleichen Musikern des 17. und 18. Jahrhunderts, die einen vorgegebenen Generalbass verschieden erklingen lassen konnten. Unsere Gehirnzellen scheinen zudem einige ihrer Proteine als Antwort auf Umweltreize chemisch zu verändern, so dass die Variationsmöglichkeit unserer Zellproteine praktisch unermesslich wird.
Jeder Mensch ist deshalb ein unverwechselbares molekulares Individuum. Dies gilt selbst für genetisch identische eineiige Zwillinge. Ein eineiiger Zwillingsbruder Roger Federers sähe zwar seinem berühmten Bruder ähnlich, könnte aber durchaus ein eher mittelmässiger Tennisspieler sein. Der Informationsreichtum des Genoms schenkt jedem von uns Einmaligkeit. Der Informationsgehalt des Genoms bestimmt den Rang eines Lebewesens in der Hierarchie des Lebens. Ein informationsarmes Genom ist der Erzfeind von biologischer Freiheit und Individualität. Je mehr Information ein Genom trägt, desto mehr Freiraum gewährt es dem reifenden Organismus für die Entwicklung seiner Einmaligkeit.
Die 10 000 Milliarden funktionell vernetzten Zellen unseres Körpers enthalten so viel Information, dass es vielleicht grundsätzlich unmöglich ist, die Handlungen eines Menschen präzise zu steuern oder vorherzusagen. Vielleicht braucht es für das Verständnis derart komplexer Systeme völlig neue Denkansätze. Unsere Naturgesetze gelten nur innerhalb gewisser Grenzen - viele der Gesetze, die in unseren sinnlichen Erfahrungen fußen, versagen bei extrem kleinen Dimensionen oder extrem hohen Geschwindigkeiten. Könnte es sein, dass auch extrem komplexe Systeme eigenen Regeln gehorchen?
Kein Gesetzbuch
Unser Genom ist zudem kein ehernes Gesetzbuch, sondern eher eine Sammlung flexibler Regeln. Die Gene unseres Immunsystems tauschen spontan Teile untereinander aus, um uns ein möglichst großes Spektrum schützender Immunproteine zu schenken. Im reifenden Mäusegehirn scheinen kurze Genstücke spontan ihren Platz im Genom zu wechseln und dabei die Entwicklung der Nervenzellen zu beeinflussen. Auch in Bakterien können Genstücke im Genom umherspringen, wenn Hitze oder Gifte die Zellen bedrohen. Die Umwelt spricht also mit Genen und kann sie verändern. Ist dieses Wechselspiel präzise gesteuert - oder ist es ein Würfelspiel? Und wenn schon die Umwelt mit unserem Genom würfelt, könnte es sein, dass auch wir dies tun, ohne es zu wissen?
Der Physiker Erwin Schrödinger hat als Erster vermutet, dass der hierarchische Aufbau lebender Materie die Zufälligkeit molekularer Würfelspiele auf ganze Lebewesen übertragen und diese unvorhersagbar machen könnte. Im Gegensatz zu einem typischen Kristall sind in lebenden Zellen die einzelnen Moleküle nicht gleichwertig, sondern Glieder streng organisierter Befehlsketten. In einigen Zellen scheinen Schlüsselmoleküle dieser Befehlsketten in so geringen Stückzahlen vorzuliegen, dass ihre Reaktionen mit Partnermolekülen statistisch schwanken und quantitativ nicht mehr vorhersagbar sind. Diese zufälligen Schwankungen könnten das Verhalten eines ganzen Lebewesens beeinflussen und es zumindest teilweise aus den Fesseln genetischer Vorprogrammierung befreien.
Könnte diese Befreiung uns Willensfreiheit schenken? Die Frage bleibt offen. Wir wissen noch zu wenig über unser Gehirn und unser Bewusstsein, um zu verstehen, was «Willensfreiheit» bedeutet.
Zufällige Fluktuationen in den Reaktionen biologischer Steuermoleküle dürften jedoch erklären, weshalb genetisch identische und unter gleichen Bedingungen aufgezogene Fadenwürmer auf Hitze verschieden reagieren und verschieden lange leben; weshalb Zellen einer genetisch homogenen Bakterienkolonie auf Gifte oder Nahrungsstoffe individuell verschieden ansprechen; und weshalb genetisch identische Bakterienviren ihre Opfer auf unterschiedliche Art infizieren können. In seinem Streben nach Vielfalt lässt das Leben offenbar nichts unversucht, um eine Tyrannei der Gene zu verhindern. Was an mir ist gigantisch verstärktes molekulares Rauschen? Wie stark unterläuft dieses Rauschen meine genetische Programmierung? Manche mögen in ihm den göttlichen Atemzug verspüren. Mir erzählt es vom Wunder meines Daseins als hochkomplexe Materie in einem chemisch urtümlichen Universum.
Weiterführende Links
Artikel von Gottfried Schatz zu verwandten Themen auf ScienceBlog.at
- Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken
- Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind
Zum humanem Genom
- The Human Genome Project (HGP)
- ENCODE (ENCyclopedia Of DNA Elements): Folgeprojekt des HGP, das vom National Human Genome Research Institute (NHGRI, US) initiiert wurde mit dem Ziel alle funktionellen Elemente des menschlichen Genoms sowie das Transkriptom zu identifizieren und zu charakterisieren
- Epigenetik: molekulare Mechanismen, die zu einem stärkeren oder schwächeren Ablesen von Genen führen, ohne Veränderung der gespeicherten Information.
- Epigenetik. Artikelserie in Spektrum http://www.spektrum.de/thema/epigenetik/1191602
- Epigenetik Video 3,27 min (deutsch)
- Epigenetik und Krebs: Vom Ein- und Ausschalten der Gene. Video 50:19 min
- NIH Roadmap Epigenomics Program Research to transform our understanding of how epigenetics contributes to disease.
Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos
Konkurrenz, Kooperation und Hormone bei Schimpansen und BonobosFr, 15.08.2014 - 10:13 — Tobias Deschner
Die Erforschung von Gemeinsamkeiten und Unterschieden im Verhalten und in der Physiologie von Menschen und Menschenaffen verhilft zu einem immer besseren Verständnis der menschlichen Evolution. Der Primatenforscher Tobias Deschner (Max-Planck-Institut für evolutionäre Anthropologie in Leipzig) beschreibt anhand von Verhaltensbeobachtungen und Messungen physiologischer Parameter frei lebender Menschenaffen, wie sich Konkurrenz und Kooperation auf die Exkretion verschiedener Hormone auswirken*.
Gängige Theorien zur Evolution des Menschen basieren überwiegend auf der Annahme, dass sich der Mensch aus einem schimpansenähnlichen Vorfahren entwickelt hat. Dass Bonobos, die Schwesternart der Schimpansen, genauso eng mit uns verwandt sind wie diese, wird dabei oft außer Acht gelassen. Bonobos unterscheiden sich jedoch in einer Reihe grundlegender Faktoren in ihrer Sozialstruktur und ihrem Verhalten von Schimpansen. Um eine genauere Vorstellung davon zu entwickeln, wie die menschliche Evolution verlaufen sein könnte, ist es daher notwendig, ein detailliertes Bild von dem Verhalten wild lebender Bonobos zu erhalten, um dieses mit den bekannten Verhaltensmustern von Schimpansen und derzeit lebenden Menschengruppen zu vergleichen.
Konkurrenz der Männchen um Weibchen bei Schimpansen…
Bei Schimpansen sind Männchen dominant über Weibchen und konkurrieren mit aggressivem Verhalten um empfängnisbereite Weibchen. Diese Aggression richtet sich nicht nur gegen andere Männchen, sondern wird auch häufig dazu benutzt, um Weibchen gefügig zu machen. In einem solchen Paarungssystem zahlt es sich für Männchen aus, in Verhaltensweisen und Physiologie zu investieren, die ihre körperliche Konkurrenzfähigkeit maximieren. Dies kann zum Beispiel über den Testosteronspiegel geschehen. Testosteron hat eine anabole Wirkung, was bedeutet, dass es zu einem Zuwachs an Muskelmasse führt. Diese bietet dem Tier einen Vorteil in einer aggressiven Konkurrenzsituation. Außerdem steigert Testosteron allgemein die Bereitschaft, sich auf aggressive Auseinandersetzungen einzulassen. In einem Paarungssystem wie dem der Schimpansen, in dem sich das Durchsetzungsvermögen in aggressiven Interaktionen mit anderen Männchen direkt in einen gesteigerten Paarungs- und Reproduktionserfolg überträgt, wäre es also nur folgerichtig, wenn der Testosteronspiegel der Männchen im Beisein empfängnisbereiter Weibchen ansteigen würde. Tatsächlich hat man das bei wilden Schimpansen gefunden. Zum anderen haben höherrangige Männchen, welche die höchsten Paarungs- und Fortpflanzungserfolge erzielen, einen höheren Testosteronspiegel als niederrangige. Es stellt sich natürlich die Frage, warum nicht alle Männchen in hohe Testosteronspiegel investieren. Die Antwort ist, dass Testosteron auch negative Effekte haben kann. Ein hoher Testosteronspiegel wirkt sich nachteilig auf das Immunsystem aus, und gesteigerte Aggressivität führt auch zu einem erhöhten Verletzungsrisiko.
…Bonobos machen es anders
Wissenschaftler am Max-Planck-Institut für evolutionäre Anthropologie untersuchten das Verhalten von Bonobos an einer Gruppe, die in LuiKotale in der Nähe des Salonga Nationalparks in der Demokratischen Republik Kongo beheimatet ist (Abbildung 1), und haben sich dabei für einige Zeit auf die Fortpflanzungsstrategien der Männchen konzentriert.
Abbildung 1. Männlicher Bonobo in LuiKotale, Demokratische Republik Kongo. © Max-Planck-Institut für evolutionäre Anthropologie/ Deimel
Welches Bild ergibt sich in diesem Zusammenhang nun für Bonobos? Bei den Bonobos sind die Männchen nicht dominant über die Weibchen, und in den meisten Gruppen werden sogar die höchsten Rangplätze von Weibchen belegt. Die bei Schimpansen verbreitete Strategie, aggressiv um Weibchen zu konkurrieren, könnte sich daher für Bonobo-Männchen als weniger erfolgreich erweisen, da das Weibchen immer in einer Position sein könnte, in der es sich dem Männchen verweigern kann. Wie gestalten sich nun männliche Fortpflanzungsstrategien und die korrespondierenden Testosteronspiegel bei Bonobos? Die Ergebnisse unterschieden sich erheblich von den bei Schimpansen gewonnenen Erkenntnissen. Obwohl ranghohe Männchen ebenfalls aggressiver waren als rangniedere und die Anwesenheit empfängnisbereiter Weibchen zu einem Anstieg von Aggression führte, richtete sich diese nie gegen das attraktive Weibchen. Außerdem gab es bei den Männchen keinen positiven Zusammenhang zwischen Rang und Testosteronspiegel (Abbildung 2).
Abbildung 2. Testosteronspiegel im Urin und Dominanzstatus männlicher Bonobos in Anwesenheit. empfängnisbereiter Weibchen. © Max-Planck-Institut für evolutionäre Anthropologie / Surbeck
Im Gegenteil, in Anwesenheit empfängnisbereiter Weibchen passierte etwas Verblüffendes: Während der Testosteronspiegel bei rangniederen Männchen leicht anstieg, fiel er bei ranghohen Männchen sogar ab, was zu einem negativen Zusammenhang zwischen Rang und Testosteron führte. Trotzdem erzielten ranghohe Männchen einen höheren Paarungserfolg. Anstatt sich aggressiv gegen andere Männer durchzusetzen und Weibchen einzuschüchtern, suchen erfolgreiche Bonobo-Männer die Nähe der Weibchen und bemühen sich, mit diesen eine enge Beziehung aufzubauen. Männchen, die noch eine Mutter in der Gruppe haben, werden zudem von dieser in ihren Bemühungen tatkräftig unterstützt. Diese Nähe zu empfängnisbereiten Weibchen ist allerdings nicht ohne Kosten zu haben. Hochrangige Männchen, die sich häufiger in der Nähe empfängnisbereiter Weichen aufhalten, haben höhere Cortisolspiegel als andere Männchen, was auf ein erhöhtes Stressniveau hindeutet.
Die Ergebnisse deuten darauf hin, dass beim Bonobo, einem der nächsten Verwandten des Menschen, nicht aggressives Verhalten bei der Maximierung des Fortpflanzungserfolgs im Vordergrund steht, sondern dass Bonobo-Männchen erfolgreicher sind, wenn sie in enge Beziehungen zu Weibchen investieren. Diese neu gewonnenen Einsichten eröffnen eine neue Perspektive auf die Evolution der menschlichen Paarbeziehung. Wie die Weibchen nun auf diese Situation reagieren und nach welchen Kriterien sie ihre Fortpflanzungspartner auswählen, ist Thema einer Folgestudie, die zurzeit an den Bonobos in LuiKotale durchgeführt wird.
Sozialbeziehungen: Lausen ist nicht gleich Lausen und warum ein gemeinsames Essen so wichtig sein kann
Was sind die physiologischen Grundlagen für den Aufbau von Beziehungen? Es ist bekannt, dass bei einer der grundlegendsten Beziehungen bei Säugetieren, der Mutter-Kind-Beziehung, das Hormon Oxytocin, ein Neuropeptid, eine wichtige Funktion für den Aufbau dieser Beziehung hat. Kann Oxytocin aber auch das Verhalten gegenüber nicht verwandten Individuen beeinflussen? Hier zeigen zum Beispiel experimentelle Studien beim Menschen, dass die Anwendung eines oxytocinhaltigen Nasensprays dazu führt, dass Teilnehmer in einem Spiel erhöhtes Vertrauen, aber auch Großzügigkeit zeigen.
Abbildung 3: Zwei erwachsene männliche Schimpansen bei der gegenseitigen Fellpflege. © Max-Planck-Institut für evolutionäre Anthropologie / Gomes
Wissenschaftler am MPI für evolutionäre Anthropologie untersuchten, wie sich die Qualität von Beziehungen bei Interaktionen zwischen wild lebenden Schimpansen auf die Oxytocinausschüttung auswirkt, und machten sich dabei zunutze, dass Oxytocin nun auch im Urin von Menschen und Menschenaffen gemessen werden kann. Sie beobachteten das Fellpflegeverhalten (Abbildung 3) und seine Auswirkungen auf die Oxytocinausschüttung bei wild lebenden Schimpansen im Budongo-Forest Reserve, Uganda. Einige Minuten an Fellpflege führten tatsächlich zu einer erhöhten Oxytocinkonzentration im Urin. Allerdings war der Effekt stark von der Identität des Fellpflegepartners abhängig. War der Fellpflegepartner ein Tier, mit dem eine enge Beziehung unterhalten wurde, dann kam es zu einem stärkeren Oxytocinanstieg (Abbildung 4). Dieser Effekt war unabhängig davon, ob das Tier mit dem Partner verwandt war oder nicht. Das bedeutet, dass bei Schimpansen die Qualität der Partnerbeziehung auch zwischen nicht verwandten Tieren einen Einfluss auf die Oxytocinausschüttung hat.
Abbildung 4: Oxytocinspiegel im Urin von Schimpansen in Abhängigkeit von der Qualität der Beziehung zu ihrem Fellpflegepartner. Fehlerbalken kennzeichnen die Standardabweichung © Max-Planck-Institut für evolutionäre Anthropologie / Crockford
Wie kann es aber überhaupt zu der Bildung von engen, kooperativen Beziehungen zwischen nicht verwandten Tieren kommen? Eine weitere Studie könnte darauf erste Hinweise geben: Hier zeigte sich, dass Oxytocin im Vergleich zu Kontrollsituationen bei Tieren ansteigt, die das Futter miteinander teilen, und zwar unabhängig davon, ob das Tier der Geber oder Nehmer ist. Es könnte also sein, dass Bindungsmechanismen, die sich ursprünglich zwischen Mutter und Kind entwickelt haben, bei einigen Tierarten, darunter Mensch und Schimpanse, so generalisieren ließen, dass sie nun auch zwischen nicht miteinander verwandten Tieren funktionieren.
Physiologische Messmethoden angewandt bei wild lebenden Tieren
Die Erforschung physiologischer Vorgänge bei frei lebenden Menschenaffen stellt eine große Herausforderung dar. Ein Großteil der etablierten Messmethoden wurde für die Verwendung an menschlichem Blut entwickelt. Die Aufgabe besteht nun darin, die Methoden zum einen für die Verwendung bei einer anderen Art und dann noch für Urin oder Kot anzupassen. Für diese Art von Methodenvalidierung werden oft Proben benötigt, die unter standardisierten Bedingungen von Zootieren gesammelt wurden. Neben vielen anderen haben vor allem die Zoos in Frankfurt und Leipzig die Forscher am Max-Planck-Institut für evolutionäre Anthropologie in den letzten Jahren hervorragend unterstützt.
Die Schwerpunkte bei der Methodenentwicklung liegen in den Bereichen Ernährung und Energiebilanz, Modulierung von Sozialbeziehungen, Stress und Ontogenese. In Zusammenarbeit mit der Abteilung „Human Evolution“ am Institut wurden Methoden entwickelt, die es gestatten, Nahrungsknappheit durch Messung von stabilen Isotopen von Kohlenstoff und Stickstoff (13C und 15N) im Urin und von Fleischverzehr in Haaren von Menschenaffen nachzuweisen.
*[1] Der im Jahrbuch 2013 der Max-Planck Gesellschaft erschienene, gleichnamige Artikel http://www.mpg.de/6778152/MPI_EVAN_JB_2013?c=7291695 wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne die im Original vorhandenen Literaturzitate.
Weiterführende Links
Organisationen, die sich für den Schutz von freilebenden Menschenaffen einsetzen:
- Bonobo Alive wurde von Bonoboforschern ins Leben gerufen, um die Bonobos und ihren Lebensraum im südwestlichen Teil des Salonga Nationalparkes, DR Kongo, zu schützen
- Wild Chimpanzee Foundation: Ziel ist es, die verbliebenen 20.000 bis 25.000 freilebenden Schimpansen zu retten sowie deren Lebensraum, den tropischen Regenwald überall im tropischen Afrika
KuBus: Das Max-Planck-Institut für evolutionäre Anthropologie - de Video 13:44 min.
„Du bist, was Du isst“ Sozialer Status beeinflusst den Zugang zu hochwertiger Nahrung bei Bonobos (2011)
Erfolgreiche Muttersöhnchen. Hoher sozialer Rang und Unterstützung der Mütter sind entscheidend für den Paarungserfolg von Bonobo-Männchen (2010)
Bonobos - die sanften Vettern der Schimpansen: Gottfried Hohmann (Max-Planck-Institut für evolutionäre Anthropologie) Video 8:03 min
Schimpansen
Der Film „Schimpansen“ (Disney, Regie Alastair Fothergill und Mark Linfield, 2013):
Disney zeigt im Kino, wie Schimpansen frei leben – dass alles, was gezeigt wird auch wissenschaftlich authentisch ist, hat das Leipziger Affenforscherteam ermöglicht. Tobias Deschner berichtet über die Arbeit mit Kamerateam und tierischen Hauptdarstellern: http://www.schimpansen.mpg.de/18056/hintergrund_zum_film
Dossier: Schimpansen - der Film und die Realität - Ein Blick auf Forschung und Forscher hinter dem Disney-Naturfilm http://www.scinexx.de/dossier-631-1.html
Der Film „Schimpansen“ (2013) Trailer http://www.disney.de/disneynature/filme/schimpansen/
TV total - Dr. Tobias Deschner – Schimpansen: http://video.de.msn.com/watch/video/tv-total-dr-tobias-deschner-schimpan... Video 11:55 min
Zum Film Schimpansen - Tim im Turm vom 23.05.2013, Interview mit Tobias Deschner http://www.leipzig-fernsehen.de/?ID=12899 Video 25 min
Film Clips: Tobias Deschner filmte während seiner Forschungsarbeit im Taï-Nationalpark. Dabei entstanden kurze Film-Clips, die Schimpansen u.a. beim Nüsseknacken, Spielen und bei der Fellpflege zeigen: http://www.schimpansen.mpg.de/12014/Videos
Wenn bei Primaten die Chemie stimmt: Durch das so genannte Kuschelhormon lässt sich Freundschaft bei Primaten physiologisch darstellen. Tobias Deschner: http://www.zdf.de/ZDFmediathek/beitrag/video/2003424/Wenn-bei-Primaten-d... Video 2:07 min
Europas Sterne — Erfolgsmodell Europäischer Zusammenarbeit am Beispiel Astronomie und Weltraumwissenschaften
Europas Sterne — Erfolgsmodell Europäischer Zusammenarbeit am Beispiel Astronomie und WeltraumwissenschaftenFr, 07.08.2014 - 12:22 — Franz Kerschbaum
Eine multinationale europäische Zusammenarbeit ermöglicht die Errichtung und den Betrieb von Großforschungsanlagen zur Erkundung von Sonnensystem und Universum. Österreichs Mitgliedschaft bei Organisationen wie der Europäischen Südsternwarte (ESO) oder der Europäischen Weltraumagentur (ESA) bietet eine große Chance für die zuliefernde Österreichische Wirtschaft und weite Bereiche der angewandten Forschung. Nach dem schwindelerregenden Erfolg der Rosetta-Mission durch das Erreichen des Kometen 67P/Tschurjumow-Gerasimenko vor 2 Tagen wirft Franz Kerschbaum, Astrophysiker der Universität Wien, einen Blick auf die Strukturen, die solche Erfolge heutzutage ermöglichen..
Moderne Großforschungseinrichtungen wie CERN werden heutzutage meist von großen internationalen Konsortien errichtet und betrieben. Auch die daraus hervorgehenden wissenschaftlichen Publikationen zählen oft mehrere hundert bis über tausend Autoren. Diese Forschungspraxis unterscheidet sich grundlegend von den Gegebenheiten in der ersten Hälfte des zwanzigsten Jahrhunderts und der Zeit davor.
So wurde bis dahin astronomische Forschung typischerweise von der Genialität Einzelner vorangetrieben, maximal unterstützt durch wenige zuarbeitende Beobachter oder Rechenhilfskräfte. Erst die zunehmende Technisierung der Forschung mit der Errichtung der ersten Großsternwarten auf Bergen fern der Städte – zuerst in den Vereinigten Staaten von Amerika um 1900 – führte zu einer schrittweisen Verlagerung der Forschungsarbeit auf größere Gruppen. Europa verlor dabei schnell den Anschluss – das Drama des ersten Weltkrieges und die Zwischenkriegszeit verlangte ganz andere Prioritätensetzungen und so mussten etwa hochfliegende Pläne der Astronomen der Donaumonarchie zum Bau moderner Bergsternwarten im Restösterreich ad acta gelegt werden. Selbst im Europäischen Kontext wurde österreichische, astronomische Forschung geradezu marginalisiert.
Gründung der Europäischen Südsternwarte (ESO) in Chile und…
Eine weitere Einschränkung der Europäischen Astronomie im Vergleich mit der USA wurde bald evident: die meteorologisch ausgezeichneten Bedingungen Kaliforniens fanden sich nirgendwo am Europäischen Kontinent und hätten auch nicht durch große Investitionen kompensiert werden können. Konsequenter Weise gründeten im Jahr 1962 Belgien, Deutschland, Frankreich, Niederlande und Schweden die Europäische Südsternwarte (ESO) mit dem gemeinsamen Ziel, auf der Südhalbkugel ein den nordamerikanischen Sternwarten zumindest ebenbürtiges Observatorium zu errichten. Als 1969 die ersten Teleskope auf La Silla, Chile in Betrieb gingen, begann der bis heute so erfolgreiche gemeinsame Europäische Weg der astronomischen Forschung. Mit Meilensteinen wie dem New Technology Telescope, dem SEST Submillimeter Teleskop, dem Very Large Telescope wurde in vielen technologischen Aspekten eine weltweite Vorreiterrolle übernommen und der Europäischen Forschung einzigartige Arbeitsmittel in die Hand gegeben. Abbildung 1. Das Very Large Telescope (VLT) am Paranal-Observatorium. Oben links: Das Observatorium in der Atacama Wüste, der vermutlich trockensten Wüste der Welt im Norden Chiles, besteht aus 4 „Unit telescopes“ (Einzelteleskopen) mit Hauptspiegeldurchmessern von 8,2 m, deren Spiegel zusammengeschaltet werden können und 4 weiteren Hilfsteleskopen. Unten links: Innenansicht eines der VLT-Units, bereit für die nächtliche Beobachtung. Oben rechts: Nebel Messier 17 (Omega-Nebel) im Sternbild Schütze in einer Entfernung von 6000 Lichtjahren. Man sieht ungeheure Gas- und Staubwolken, bescienen vom Licht junger Sterne. Unten rechts: Beobachtung des Zentrums der Milchstraße; das mit adaptiver Optik ausgestattete Teleskop erzeugt einen künstlichen Leitstern („Laser Guide Star“) zur Korrektur der Turbulenzen der Atmosphäre. (Quelle: alle Bilder http://www.eso.org/public/images/; cc-license)
Österreich schloss sich erst sehr spät dieser Entwicklung an. In den 1960er Jahren stand zuerst der Aufbau moderner lokaler Beobachtungseinrichtungen im Mittelpunkt, in den darauf folgenden drei Jahrzehnten wurden alle Vorstöße der sich internationalisierenden österreichischen Forschungsgemeinde zu einem ESO-Beitritt von Seiten der Politik abschlägig behandelt. Als die Bemühungen letztlich 2009 Erfolg zeitigten, durfte sich eine international bereits sehr gut aufgestellte, moderne österreichische Astronomie als 14. Mitgliedsland bei der ESO einreihen.
Abbildung 2. So wird das European Extremely Large Telescope (E-ELT) aussehen. Es wird das größte im sichtbaren und nahen Infrarot- Bereich arbeitende Teleskop der Welt sein und am Beginn der nächsten Dekade in Betrieb gehen. Für die adaptierbare Optik des riesigen Spiegels mit 39 m Durchmesser (unten) hat das Linzer Johann Radon Institute for Computational and Applied Mathematics (RICAM, ÖAW) "extrem schnelle mathematische Methoden zur adaptiven Optik" geliefert, die eine effiziente Korrektur der atmosphärischen Turbulenzen erlauben. (Quelle: alle Bilder http://www.eso.org/public/images/; cc-license)
Das weltweit leistungsfähigste Radiointerferometer ALMA oder das zukünftig größte Teleskop E-ELT mit seinen knapp 40 Metern Durchmesser stehen uns so gleichberechtigt mit unseren Europäischen Partnern zur Verfügung. Der jährliche österreichische Beitrag von etwa 3,4 Mil. Euro (2013, 2,5% des ESO-Budgets) bietet zusätzlich vielen österreichischen Firmen die Möglichkeit, an den nötigen technologischen Entwicklungen mitzuarbeiten. Das oben erwähnte Radiointerferometer ALMA ist als Kooperation von ESO mit amerikanischen und japanischen Einrichtungen ein Beispiel für die sich etablierende noch weitere globale Bündelung der Kräfte bei den größten wissenschaftlichen Unternehmungen.
…Entwicklungen am Sektor Weltraumforschung
Die Entwicklungen am Sektor Weltraumforschung ist in vielen Bereichen mit der Kooperation zur Errichtung erdgebundener Sternwarten wie der ESO vergleichbar, weist aber auch einige charakteristische Unterschiede auf. Die beginnend im frühen zwanzigsten Jahrhundert, maßgebend in Europa entwickelte Raketentechnik bildete nach dem zweiten Weltkrieg die Basis für den Wettlauf ins All zwischen den Vereinigten Staaten und der Sowjetunion. In Europa konzentrierten sich Staaten wie Frankreich, Großbritannien, Niederlande oder Deutschland einerseits auf den Aufbau eigener weltraumwissenschaftlicher bzw. weltraumtechnologischer Programme und versuchten parallel, in bilateralen Kooperationen mit den USA oder der UdSSR an deren Missionen teilzunehmen. Zusätzlich wurde Europäische Zusammenarbeit unter den Organisationen ELDO (European Launcher Development Organisation) bzw. European Space Research Organisation (ESRO) ab den 1960er Jahren gebündelt. Als 1975 die Nachfolgeorganisation European Space Agency (ESA) gegründet wurde, war Österreich schon an ersten Programmen beteiligt, ab 1981 assoziiert und ab 1987 Vollmitglied. Davor und auch später noch gab es eine Vielzahl von bilateralen Beteiligungen österreichischer Forschergruppen an europäischen, asiatischen und amerikanischen Projekten.
Noch viel mehr als im Bereich der astronomischen Grundlagenforschung bedeutet die österreichische Mitgliedschaft bei ESA mit einem jährlichen österreichischen Beitrag von etwa 52 Mil. Euro (2012, 1,8% des ESA-Budgets) eine große Chance für die zuliefernde Österreichische Wirtschaft und weite Bereiche der angewandten Forschung. Das Prinzip des mittelfristig ausgeglichenen finanziellen Returns an die Beitragsländer garantiert so eine substantielle Wertschöpfung in Österreich.
Die European Space Agency mit ihrem Fokus auf friedlicher Erforschung und Nutzung des Weltraums verfügt heute über das breiteste Spektrum an Satelliten und Sonden zur Erderkundung, der Erforschung des Sonnensystems und des Universums, hat Zugriff auf modernste Launcher europäischer Entwicklung und ist in vielen internationalen Kooperationen Partner der USA, von Russland oder Japan.
Fazit
Organisationen wie die Europäische Südsternwarte ESO oder die Europäische Weltraumagentur ESA haben sehr viel zur so erfolgreichen Entwicklung der einschlägigen Wissenschaften in Europa und insbesondere auch in Österreich beigetragen. Großforschungseinrichtungen sind heute nicht mehr von einzelnen Nationen zu errichten bzw. sinnvoll nutzbar. Nur die Bündelung der nationalen Expertisen, Mittel und Möglichkeiten unter einem Europäischen oder gar globalen Dach ermöglicht die Verwirklichung der ambitioniertesten Forschungsvorhaben der modernen Wissenschaften.
Literatur
Besser, B., Austria’s history in space, HSR-34, ESA Publications Division, 2004 Kerschbaum, F., ESO und Österreich, in: Mensch & Kosmos, OÖ Landesausstellung 1990, Band I, Linz Maitzen, H.M., Hron, J., Die Universitätssternwarte Wien – Pflanzstätte des Österreichischen ESO-Beitritts, in: Comm. in Asteroseismology 149, 2008
Weiterführende Links
Institut für Weltraumforschung (IWF) der ÖAW
European Southern Observatory (Hauptseite)
Österreichische Seite Video über das VLT (4:06 min)
Superschneller Algorithmus für Adaptive Optik des E-ELT kommt aus Österreich: h http://www.eso.org/public/austria/announcements/ann14012/
Artikel zu ähnlichen Themen auf ScienceBlog.at: finden Sie im Navigationsbereich links im Sachgebiet ›Astronomie & Weltraum‹
Vom System Erde zum System Erde-Mensch
Vom System Erde zum System Erde-MenschFr, 01.08.2014 - 07:44 — Reinhard F. Hüttl
Unser Planet bietet uns Lebensraum, die zum Leben notwendigen Rohstoffe, er ermöglicht uns Landbau, er schützt uns vor gefährlicher kosmischer Strahlung, kurzum: das Human Habitat auf dem Planeten Erde ist ein komplexer Mechanismus, der uns seit Millionen von Jahren Existenzbedingungen liefert, die der Mensch – evolutionstheoretisch gesehen – sehr erfolgreich nutzt. Reinhard Hüttl, Vorstandsvorsitzender des Deutschen GeoForschungsZentrums GFZ1 in Potsdam und Präsident der acatech2 zeigt die Bedeutung der Geowissenschaften für das zukünftige Überleben der Menschheit3.
Die Geowissenschaften betrachten die Erde als ein System, mit allen physikalischen, chemischen und auch biologischen Vorgängen, die in ihrem Innern und an der Oberfläche ablaufen. Sie untersuchen die zahllosen Wechselwirkungen zwischen den Teilen des Ganzen: zwischen
- der festen Erde (Geosphäre) und den Bereichen
- des Wassers (Hydrosphäre),
- des Eises (Kryosphäre),
- der Luft (Atmosphäre) und
- des Lebens (Biosphäre).
Das „System Erde“ ist dabei ein hochdynamisches Gebilde,
das seit jeher Änderungen unterliegt. Dazu gehören vergleichsweise langsame Prozesse wie die Bewegung der tektonischen Platten oder der Auf- und Abbau polarer Eismassen, aber auch sehr schnelle, schlagartige Umlagerungen von Masse und Energie. Erdbeben, Vulkanausbrüche und Stürme lassen uns die hohe Dynamik unseres Planeten in ganz drastischer Art und Weise erfahren. Abbildung 1.
Abbildung 1. Dynamik des Systems Erde. Langsame Prozesse wie die Plattentektonik (oben), rasche Prozesse wie Erdbeben (unten).
Für das System Erde sind diese Ereignisse Teil der normalen natürlichen Abläufe. Wir Menschen erleben diese Prozesse häufig als Naturkatastrophen, die meist viele Menschenleben fordern und enorme Schäden mit sich bringen.
Abschätzung des Risikos durch Naturgefahren – neue Möglichkeiten in den Geowissenschaften
Die Menschen sind der Natur aber nicht hilflos ausgeliefert. Die Geowissenschaften spielen eine entscheidende Rolle in der Abschätzung des Risikos durch Naturgefahren. Dazu gehören auf qualitativer Ebene die Bestimmung möglicher Ursachen und die Abschätzung der Folgewirkungen, aber auch die Entwicklung geeigneter Werkzeuge zur Quantifizierung der relevanten Prozesse. Sie spielen zudem beim Aufbau von Vorsorge- und Schutzmaßnahmen eine wichtige Rolle.
Satellitengeodäsie und Modellierungen
Für das Verständnis der komplexen, teilweise rückgekoppelten Dynamik des Systems Erde sind Raum-Zeit-Relationen sowie die integrative Betrachtung und Modellierung geologischer, physikalischer, hydrologischer und biologischer Prozesse notwendig. Vor allem die moderne Satellitengeodäsie und innovative Fernerkundungsmethoden haben unser heutiges Verständnis vom Planeten Erde besonders geprägt. Diese Ansätze haben in den letzten Jahren eine atemberaubende Entwicklung erfahren. Sie nehmen daher aktuell eine Sonderstellung in der geowissenschaftlichen Forschung und beim Monitoring des Systems Erde ein.
Mit ihnen ist es möglich geworden, in kurzer Zeitabfolge Messreihen von globalen bis zu regionalen Skalen zu erhalten. Die so gewonnenen Daten werden mit den Werkzeugen moderner Prozessierung und Modellierung bearbeitet und erhalten damit eine globale Konsistenz und Homogenität. Mit GPS-Methoden lassen sich beispielsweise kleinste Verschiebungen in der Erdkruste nachweisen. Zudem ist es möglich, den Zustand von Ionosphäre und Troposphäre zu überwachen – Daten, die für Wettervorhersagen und Klimaaussagen immer bedeutender werden. Aus Fernerkundungsdaten lassen sich zahlreiche charakteristische Eigenschaften der Böden und der Vegetation ableiten. Mit den Ergebnissen der Satellitenmissionen – mit GFZ Beteiligung - CHAMP, GRACE, GOCE und SWARM wird neben dem Magnetfeld insbesondere das Schwerefeld der Erde mit bisher nicht gekannter Detailgenauigkeit erfasst. Abbildung 2.
Abbildung 2. Die Potsdamer Schwerekartoffel. Schwerefeld der Erde bestimmt aus der präzisen Vermessung der Flugbahn der Geoforschungssatelliten LAGEOS, GRACE und GOCE sowie Oberflächendaten. Infolge der Massenunterschiede im Erdinnern ist das Schwerefeld nicht überall gleich. Diese Unregelmäßigkeiten sind in 13.000facher Überhöhung dargestellt. Südlich von Indien ist der Meeresspiegel um 110 m abgesenkt. (GFZ-Helmholtz-Zentrum Potsdam)
Mit Hilfe dieser Entwicklungen werden erstmals das Zirkulationsverhalten der Ozeane, Massenanomalien, Massentransport und Massenaustauschprozesse im Erdsystem sichtbar.
Die Forschungsergebnisse der letzten Jahre zeigen, dass sich Teilsysteme des Systems Erde ohne Berücksichtigung der Wechselwirkungen mit anderen Teilsystemen nicht vollständig untersuchen lassen. Dies läßt sich am Beispiel der Klimaveränderungen verdeutlichen.
Klimaänderungen
Es ist bekannt, dass sich das Klima in der Erdgeschichte immer wieder geändert hat. Weniger bekannt ist jedoch, dass sich das Klima gerade in den vergangenen 10.000 Jahren im Vergleich zur restlichen Erdgeschichte sehr stabil und damit außergewöhnlich verhalten hat. Das gegenwärtige Klima der Erde ist nicht repräsentativ für die längerfristigen Klimabedingungen, die auf der Erde seit etwa 600 Millionen Jahren und damit seit Beginn der intensiven Entwicklung des Lebens (Pflanzen, Tiere) geherrscht haben. Paläoklimatische bzw. geologische Studien zeigen, dass seit dieser Zeit ein viermaliger Wechsel von „Eishaus“ (mit großflächigen Vereisungen an den Polen) und „Treibhaus“ (keine Vereisung auf der Erde) stattgefunden hat. Der Normalzustand des Klimas ist aber nicht nur in langen Zeiträumen einem ständigen Wandel unterworfen. Ein bewegtes Auf und Ab, wie beispielsweise Temperaturänderungen von acht Grad innerhalb weniger Jahre im Spätglazial vor etwa 13.000 Jahren, wohingegen sich die heutigen Klimaschwankungen sehr gering abheben, ist Teil der Klimageschichte. Diese Variabilitäten auf verschiedenen Zeitskalen tragen wesentlich zum Verständnis der Klimadynamik bei und sind eine Basis für das Erkennen eines anthropogenen Einflusses, der heute aufgrund von Szenariensimulationen im Vordergrund der Diskussion steht.
Unwidersprochen findet, und zwar beginnend mit der Industrialisierung, ein Erderwärmungsprozess statt, wobei die globale Durchschnittstemperatur seit dem Jahr 2000 mehr oder weniger konstant geblieben ist. Ganz offensichtlich ist der Mensch durch ständig wachsende Treibhausgasemissionen an dieser rezenten Klimaerwärmung beteiligt. Abbildung 3.
Abbildung 3. Der Mensch als Klimafaktor. Schwankungen des CO2-Gehalts in der Atmosphäre.
Im Sinne einer vorsorgenden Umweltpolitik ist es deshalb richtig, eine Reduktion der Treibhausgasemissionen zu bewirken (Mitigation). Aufgrund der Trägheit des Klimasystems und der nach wie vor gegebenen Beteiligung natürlicher Faktoren an der Klimadynamik ist es ebenfalls ein Gebot der Stunde, Anpassungsstrategien mit Bezug auf Auswirkungen des Klimawandels zu entwickeln. Mit Bezug auf diese Anpassungsmaßnahmen, die immer auf bestimmte Regionen zugeschnitten werden müssen, sind regionalspezifische Veränderungen der Klimadynamik zu erforschen. Hier spielt auch die Paläoklimaforschung eine zentrale Rolle, weil der Blick in die erdgeschichtliche Vergangenheit mögliche Zukunftsszenarien eröffnet.
Bedarf an Nahrungsmitteln und erneuerbaren Rohstoffen
Hinzu kommt, dass die Menschheit mit einem steigenden Bedarf an Nahrungsmitteln und erneuerbaren Rohstoffen konfrontiert ist, der seine Ursache in einer wachsenden Weltbevölkerung und sich verändernden Konsumgewohnheiten hat. Dieser Trend und die zunehmende Exposition landwirtschaftlicher Systeme gegenüber klimatischen Veränderungen vor allem auf regionaler Skala erfordern eine Anpassung bestehender Landnutzungsformen und entsprechende technologische Weiterentwicklungen. Moderne biologische und technologische Erkenntnisse und Verfahren für die intensive und gleichzeitig nachhaltige Produktion, Bereitstellung und Verarbeitung von Biomasse sind also notwendig, um einen Wandel in der industriellen Rohstoffbasis herbeizuführen und zur Minderung der Belastung der Umwelt sowie Schonung der endlichen Ressourcen der Erde beizutragen. Besonderes Augenmerk gilt dabei der Ressource Boden. Abbildung 4.
Abbildung 4. Innovative Landnutzungsansätze, wie z. B. die Agroforstwirtschaft, ermöglichen hohe Erträge für Nahrungsmittel und Gehölze
Der landwirtschaftlich genutzte Boden ist ein bioökonomischer Produktionsfaktor, dessen langfristige ökonomische Leistungsfähigkeit sichergestellt werden muss. Innovative Landnutzungsansätze, wie z. B. die Agroforstwirtschaft, ermöglichen hohe Erträge für Nahrungsmittel und Gehölze bei gleichzeitigem Schutz der Ressource Boden und langfristiger Förderung der Kohlenstoffbindung.
Der Mensch als Geofaktor
Für unseren Planeten Erde gilt: Wandel ist die Konstante. Durch das rasche Wachstum der menschlichen Bevölkerung und den damit verbundenen Eingriffen in das System Erde hat sich der Mensch zum Geofaktor entwickelt. Somit steuern nicht nur – wie bislang in der erdgeschichtlichen Entwicklung – natürliche Faktoren und Prozesse die Dynamik unseres Planeten, sondern eben auch der wirtschaftende Mensch. Die dadurch induzierten Wirkungen werden häufig als globaler Wandel beschrieben, wobei der vom Menschen mitverursachte Klimawandel dieses neue Ursache-Wirkung-Gefüge in besonderer Weise belegt. Abbildung 5.
Abbildung 5. Vom System Erde zum System Erde-Mensch. Nicht nur natürliche Faktoren und Prozesse steuern die Dynamik unseres Planeten, sondern auch der wirtschaftende Mensch.
Vor diesem Hintergrund stellt sich im Kontext Diversität und Wandel die Frage neu, inwieweit die Technik diese Effekte beherrschen kann. Bislang ist es dem vernunftbegabten Menschen in seiner soziokulturellen Entwicklung gelungen, die jeweils vorherrschenden Herausforderungen cum grano salis adäquat zu lösen. Beispiele hierfür sind, wie oben exemplarisch erläutert, Land- und Forstwirtschaft, Wasserbewirtschaftung, Ressourcennutzung oder der Schutz vor Naturgefahren, wie z.B. Tsunami-Frühwarnungssysteme. Gleichwohl stellt sich die Frage nach der Beherrschbarkeit der regional sehr verschiedenen Auswirkungen des globalen Wandels im sogenannten Anthropozän in einer qualitativ und quantitativ neuen Dimension.
Wir sind noch weit davon entfernt, die Erde und ihre Prozesse zu verstehen. Bei der unüberschaubaren Anzahl an nichtlinearen Wechselwirkungen, Umwandlungsprozessen und nicht berechenbaren Singularitäten ist es auch die Frage, ob unsere derzeitige Physik diesen komplexen Apparat „Planet Erde“ überhaupt beschreiben kann. Andererseits ist die Anthroposphäre, sind wir Menschen aktives Teilsystem in unserem eigenen Human Habitat, wie uns die Debatte um Rohstoffe, das Klima, Eingriffe in die Ökosysteme zeigen. Wir müssen also das System Erde möglichst gut verstehen, um in ihm bestehen zu können.
Menschen können als einzige Spezies des Planeten Erde vernunftgesteuert agieren. Sie haben daher auch das Potenzial, nicht nur die Erde zu nutzen, sondern die unvermeidlichen, teils negativen Folgewirkungen dieser Nutzung zu minimieren – im eigenen Interesse. Krieg, Terrorismus und Gewalt bedrohen Millionen von Menschen seit langem, aber auch in diesem Augenblick. Die Beseitigung dieser Menschheitsgefahren hat höchste Priorität. Es darf aber auch nicht übersehen werden, dass die ungebremste und unkontrollierte Nutzung der Schätze unseres Planeten gerade die Gefahr neuer Gewalt in sich birgt, man denke nur daran, welches Konfliktpotential der Rohstoff Wasser in weiten Regionen der Welt hat.
Fazit
Es ist es keine Überschätzung, wenn man formuliert, dass die Geoforschung und ihre Anwendung eine Schlüsselwissenschaft für das zukünftige Überleben der Menschheit darstellt. Das Wachstum der Weltbevölkerung stellt uns vor die Aufgabe, die Nutzung unseres Heimatplaneten so zu gestalten, dass eine nachhaltige Existenzsicherung auch für die nachfolgenden Generationen möglich ist. Die Geowissenschaften, das Verständnis des Systems Erde-Mensch, sind daher Leitdisziplinen für die Zukunft. Wir haben keinen Reserveplaneten zum Auswandern. Der Umgang mit unserer Erde muss sorgfältig erfolgen. Und dazu muss man sie möglichst gut kennen und verstehen.
1 Deutsches GeoForschungsZentrum Helmholtz-Zentrum Potsdam GFZ http://www.gfz-potsdam.de/zentrum/ueber-uns/
2 Deutsche Akademie für Technikwissenschaften (acatech) http://www.acatech.de/index.php?id=1
3 Einen gleichnamigen Vortrag hat Reinhard Hüttl anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten, die im Rahmen der Kerner von Marilaun-Vorträge am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt ist unter http://www.oeaw.ac.at/kioes/confdocs/audio%20wandel/07_Reinhard%20Huettl... abrufbar, eine Auswahl der von ihm gezeigten Bilder unter: http://www.oeaw.ac.at/kioes/confdocs/DUW2014/07-Huettl-System%20Erde_Aus...
Weiterführende Links
GFZ-Journal System Erde: http://www.gfz-potsdam.de/medien-kommunikation/infomaterial/system-erde-...
Reinhard Hüttl: Was wissen wir vom blauen Planeten? ZEIT ONLINE 04/2008 S. 33 http://www.zeit.de/2008/04/Huettl−Nachwort
Warum ist Astrobiologie so aufregend?
Warum ist Astrobiologie so aufregend?Fr, 25.07.2014 - 05:18 — Pascale Ehrenfreund
Schon seit vielen Jahrzehnten gibt es großes Interesse, eine Spezialwissenschaft zur Evolution organischen Materials und der Entstehung des Lebens auf der Erde sowie der Suche nach Leben im Weltall zu gründen. Neben den Fachgebieten der Kosmobiologie und Exobiologie setzte sich in den 90er-Jahren das Spezialforschungsgebiet der Astrobiologie durch. Pascale Ehrenfreund, derzeit Präsidentin des FWF, die zu den Pionieren und renommiertesten Wissenschaftern der Astrobiologie gehört, beschreibt wesentliche Fragestellungen in dieser Disziplin.
Astrobiologie ist jene Wissenschaftsdisziplin, die sich mit dem Ursprung, der Entwicklung und Verteilung sowie der Zukunft des Lebens im Universum beschäftigt. Es ist ein interdisziplinäres Fachgebiet, das bewohnbare Gebiete in unserem Sonnensystem charakterisiert, Exoplaneten identifiziert sowie nach Spuren von präbiotischer Chemie und von Leben auf dem Mars sucht. Astronomische Beobachtungen, Laborstudien, „Field Work“, die sich mit der frühen Entwicklung des Lebens auf der Erde und anderen Planeten befassen, sowie Studien wie und wo sich Leben im Weltraum anpassen kann, sind integrierte Hauptthemen.
Das NASA Astrobiology Institute
Das im Jahr 1998 gegründete NASA Astrobiology Institute (NAI), dem ich seit 2008 angehöre, ist ein herausragendes Beispiel für so eine interdisziplinäre Forschung. Heute gibt es 15 Institute in denen Wissenschafterinnen und Wissenschafter aus unterschiedlichen Disziplinen wie Biologie, Chemie, Physik, Astronomie, Geologie etc., oft geografisch verteilt, erfolgreich zusammenarbeiten (http://astrobiology.nasa.gov/nai/). Das Astrobiologie-Programm der NASA konzentriert sich auf drei fundamentale Fragen:
- Wie ist Leben entstanden und wie hat es sich weiterentwickelt?
- Gibt es Leben außerhalb der Erde und – falls ja – wie können wir es entdecken?
- Wie wird sich die Zukunft des Lebens auf der Erde und im Universum gestalten?
Diese Fragen betreffen alle Menschen, und auch jene ohne wissenschaftliche Ausbildung möchten natürlich wissen, woher sie kommen und ob wir alleine im Universum sind.
Gibt es Leben außerhalb der Erde?
In der Astrobiologie gibt es ständig aktuelle Themen und Fragestellungen zur Erforschung des Sonnensystems sowie der Komplexität des Lebens. Eine besonders aufregende Raumfahrtmission bildet in diesem Jahr der Curiosity Rover auf dem Mars, welcher kontinuierlich neue Daten zur Bewohnbarkeit des Planeten liefert (Abbildung 1). Ein kompliziertes analytisches Instrument (SAM) aus den USA versucht derzeit, organische Stoffe auf dem Mars aus Bodenproben zu analysieren.
Abbildung 1. Der Curiosity Rover untersucht einen Stein auf dem Mars (Künstlerische Darstellung, NASA/JPL-Caltech; mehr dazu: http://www.astrobio.net/topic/solar-system/mars/curiosity-travels-ancient-glaciers-mars/#sthash.w08Z6RD0.dpuf )
Im November wird zum ersten Mal eine Raumsonde - sie trägt den Namen Rosetta – (auch mit österreichischer Beteiligung) auf einem Kometen landen, um seine Oberfläche zu untersuchen (siehe unten).
In unserem äußeren Sonnensystem gibt es immer wieder außergewöhnliche Monde, die auf bewohnbare Regionen schließen lassen. Die Auswertung von Daten des Kepler-Satelliten zur Entdeckung und Charakterisierung von Exoplaneten ist derzeit auf „full speed“. Tausende „potenzielle Exoplaneten“ sind bereits identifiziert worden bzw. werden derzeit kontrolliert und bestätigt (Abbildung 2). Abbildung 2. Möglicherweise “bewohnbare” (habitable) Exoplaneten. Der jüngst entdeckte Gliese 632c liegt mit 16 Lichtjahren Entfernung unserer Erde am nächsten. (PHL @ UPR Arecibo, http://www.astrobio.net/news-brief/high-score-easy-scale-gliese-832c-potentially-planetary-habitability/)
Und auch das Leben auf unserem eigenen Planeten bietet immer wieder neue Überraschungen. In den unglaublichsten Regionen und Nischen finden wir immer wieder neue und exotische, einfache Lebensformen. Es ist nicht zuletzt aus diesem Grund außerordentlich schwierig, das astrobiologische Schlagwort „habitability“ (Bewohnbarkeit) genau zu definieren.
Kann Leben nur auf der Erde bestehen, gab es jemals Leben auf dem Mars, oder gibt es vielleicht noch unbekanntes Leben in Nischen im „Untergrund“?
Kann es Leben in den Ozeanen auf Monden im äußeren Sonnensystem geben, und wie werden wir jemals Leben auf einem erdähnlichen Exoplaneten nachweisen können?
Das sind nur einige der Fragen, mit denen sich die Astrobiologie beschäftigt.
Stabilität von organischem Material im Weltraum
Meine eigene wissenschaftliche Tätigkeit beschäftigt sich vor allem mit der Suche nach Leben auf dem Mars. Meine Gruppe untersucht die Stabilität von organischem Material im Weltraum. Wir sind oft im „Feld“ und testen Bodenproben und Instrumente.
In den letzten zehn Jahren war ich kontinuierlich in die Entwicklung von Instrumenten für die Identifizierung von organischen Molekülen involviert. Für Astrobiologen ist das viel Arbeit, denn nicht alle Instrumente „schaffen“ es in den Weltraum. Einer, der es „geschafft“ hat, war der NASA-Kleinsatellit O/OREOS, bei welchem ich das wissenschaftliche Team leiten sowie beim Bau helfen durfte (Abbildung 4).
Abbildung 3. Der Kleinsatellit O/Oreos (Organism/Organic Exposure to Orbital Stresses). Etwa so groß wie ein Brotwecken und ca. 6 kg schwer, kann der Nanosatellit selbstständig biologische und chemische Experimente in der Exosphäre ausführen.
Dieser Satellit hat organische Moleküle und Mikroben in einer Umlaufbahn von 680 km auf ihr „Überleben“ erfolgreich getestet. Es war eine spannende Zeit, zu erleben wie ein Satellit geplant, gebaut und in den Weltraum lanciert wird, und dann auch noch ganz ausgezeichnet funktioniert. Das kommt gar nicht so oft vor …
Landung auf einem Kometen
Ein besonderes Highlight erwartet uns noch in diesem Jahr: Die Raumsonde Rosetta soll im November 2014 nach einer zehnjährigen Reise auf dem Kometen 67P/Tschurjumow-Gerasimenko landen (Abbildung 4).
Abbildung 4. Annäherung der Rosetta- Raumsonde an den Kometen 67P/Churyumov-Gerasimenko. Der Durchmesser von Rosetta beträgt 32 Meter, der des Kerns des Kometen wird auf 4 Kilometer geschätzt. Internationale Mission, angeführt von der European Space Agency (Paris), unterstützt von der NASA. (Bild: Simulation; Details: www.esa.int/rosetta und http://rosetta.jpl.nasa.gov)
Ziel ist es, den Ursprung von Kometen sowie die Beziehung zwischen Kometen und ihrer interstellaren Geburtswolke zu erforschen. Kometen entstanden, als sich Planeten wie unsere Erde geformt haben, sie sind daher Zeugen der ersten Entwicklung unseres Sonnensystems. Mit einem Eigengewicht von über drei Tonnen nähert sich Rosetta nun dem Kometen 67P/Tschurjumow-Gerasimenko auf der Suche nach einem Landeplatz. Instrumente auf dem „Orbiter“ sowie auf dem „Lander“ werden viele neue Erkenntnisse bringen. Das Landungsmanöver ist verständlicherweise unglaublich riskant. Es wird spannender als ein WM-Endspiel im Fußball. Für mich wird es bereits jetzt interessant, da ich sowohl an einem Instrument auf dem „Orbiter“ als auch an einem auf dem „Lander“ mitarbeite.
Fragen zur bemannten Raumfahrt
Auch mit der Möglichkeit der bemannten Raumfahrt zu Mond und Mars beschäftige ich mich und viele andere Astrobiologen. Bei welchen wissenschaftlichen Fragen ist der Einsatz von Menschen sinnvoll, und welche medizinischen und technischen Hürden müssen dafür in der Zukunft überwunden werden, sind einige der Fragen, die dabei beantwortet werden müssen. Eine neue Studie des US National Research Council, die wir gerade abgeschlossen haben, gibt hierzu einen breiten Überblick sowie Empfehlungen, wie das gelingen könnte ("Pathways to Exploration—Rationales and Approaches for a U.S. Program of Human Space Exploration": http://sites.nationalacademies.org/DEPS/ASEB/DEPS_069080.htm) . Die internationale Raumfahrtstation steht hierfür als ideales „Testbett“ zur Verfügung.
Aber die Kosten sind hoch und nur eine effiziente internationale Kooperation in der Raumfahrt wird es in der Zukunft ermöglichen, das große Ziel aller Weltraumagenturen – Menschen auf den Mars zu transportieren – zu erreichen.
Entstehung der ersten Protozelle
Kommen wir zurück auf die Erde und zum Fortschritt in der synthetischen Biologie und dem Aufbau der ersten Protozelle. Viel hat sich getan in den letzten Jahren, vor allem weil dieses Fachgebiet substanzielle Förderungsquellen hat. Wie sich die ersten Protozellen auf der Früherde gebildet haben, ist aber immer noch ungewiss, vor allem weil bestimmte Bedingungen wie die Atmosphärenzusammensetzung, die Existenz der Ozeane, geologische Aktivitäten, oder die Frequenz der Einschläge von Kleinkörpern aus dem Weltraum nur bedingt bekannt sind. Es ist aber essenziell zu wissen, ob Reaktionen, die jetzt im Labor getestet werden, auch unter diesen unwirtlichen Bedingungen auf der jungen Erde ablaufen konnten. Vielleicht waren in dieser Periode auch ganz andere Moleküle am Aufbau der ersten Zellstrukturen beteiligt. Viele offene Fragen …
Fazit
Astrobiologie ist manchmal anstrengend, da es fast unmöglich ist, alle neuen Informationen in diesem Fachgebiet zu verarbeiten. Aber es kommen so viele Teile des Puzzles unserer eigenen Existenz zusammen – und so bleibt es immer faszinierend.
Weiterführende Links
Websites
NASA Astrobiology: Website ”designed for ease of use by expert and non-expert users” http://astrobiology.nasa.gov/nai/
European Space Agency (ESA) http://www.esa.int/ESA und ESA-Österreich http://www.esa.int/ger/ESA_in_your_country/Austria
DLR - Forschungszentrum der Bundesrepublik Deutschland für Luft- und Raumfahrt. http://www.dlr.de/dlr/desktopdefault.aspx/tabid-10008/
Institut für Weltraumforschung (IWF) der ÖAW http://www.iwf.oeaw.ac.at/
Videos
Pascale Ehrenfreund: Leben im All - Wo bleiben die Außerirdischen? Video 41:34 min, ScienceCasts: Rosetta Comet Comes Alive. Video 4:06 min, Rosetta with the comet lander 'Philae' (›Mission Rosetta mit Kometenlander "Philae"‹. (DLR) Video 3:16 min.)
Komet Churyumov-Gerasimenko: Weder Kugel noch Kartoffel. Animated GIF (DLR)
Artikel zu ähnlichen Themen in ScienceBlog.at
finden Sie im Navigationsbereich links im Sachgebiet ›Astronomie & Weltraum‹
Landwirtschaft pflügt das Klima um
Landwirtschaft pflügt das Klima umFr, 18.07.2014 - 07:27 — Julia Pongratz & Christian Reick A
Seit der Erfindung von Ackerbau und Viehzucht wandelt der Mensch natürliche Vegetation in Acker- und Weideland um. Die Pflanzengemeinschaften der Kontinente bestimmen jedoch unser Klima auf vielfältige Weise mit. Der Mensch hat möglicherweise schon Klimaveränderungen verursacht, lange bevor er begann, massiv Öl und Kohle zu verbrennen. Dies zeigen Julia Pongratz und Christian Reick (Max-Planck-Institut für Meteorologie, Hamburg) in ihren Untersuchungen zur Ausbreitung der Landwirtschaft im letzten Jahrtausend [1].
Kirchenbücher als Studienobjekt von Wissenschaftlern – die meisten Menschen denken dabei wahrscheinlich an Theologen und Ahnenforscher. Nur die wenigsten kämen auf die Idee, dass sie auch für Klimaforscher wichtige Erkenntnisse bereithalten. Denn diese viele Jahrhunderte zurückreichenden Aufzeichnungen enthalten wichtige Informationen zur Bevölkerungsentwicklung und damit auch zur landwirtschaftlich genutzten Fläche. Wenn aber aus natürlicher Vegetation Äcker und Felder werden, hat dies Folgen für das Klima.
Für uns Klimaforscher ist es deswegen ein Glück, dass Demografen uns in den letzten Jahrzehnten schon die Arbeit abgenommen haben, aus historischen Dokumenten Daten zur weltweiten Bevölkerungsentwicklung abzuleiten. Daraus können wir den Einfluss des Menschen auf das Weltklima in früheren Zeiten ableiten.
Abbildung 1. Agrarwüste statt Urwald: In vielen Gebieten der Erde hat der Mensch natürliche Vegetation durch Wiesen und Felder ersetzt. Dies hat Folgen für das Klima.© Mauritius Images
Die vorindustrielle Zeit eignet sich besonders gut, um die Folgen der Landnutzung für das Klima zu analysieren. Denn vor 1850 war die weltweit voranschreitende Ausdehnung der Landwirtschaft die einzige „menschengemachte“ Störung des globalen Klimasystems. Da die gewonnenen Ackerflächen häufig durch Rodung von Wäldern entstanden, landete der im Holz gespeicherte Kohlenstoff über kurz oder lang als Bestandteil von Kohlendioxid in der Atmosphäre.
Erst ab Mitte des 20. Jahrhunderts setzt der Mensch deutlich mehr des Treibhausgases Kohlendioxid durch die Verbrennung fossiler Energieträger frei als durch die Änderung der Vegetation. Seitdem ist der gegenwärtig beobachtete weltweite Klimawandel hauptsächlich durch Abgase aus der Verbrennung von Kohle, Öl und Erdgas bestimmt.
Kontinente wirken als Kohlenstoffspeicher
Vernichtung von Vegetation führt also zum Ausstoß von Kohlendioxid. Gleichzeitig macht die Pflanzenwelt der Erde einen Teil des in die Atmosphäre entlassenen Kohlendioxids wieder unschädlich. Denn Pflanzen nehmen Kohlendioxid mithilfe der Fotosynthese aus der Atmosphäre auf und binden den darin enthaltenen Kohlenstoff unter Abgabe von Sauerstoff in organischen Verbindungen. So nahmen die Kontinente in den 1990er-Jahren von den jährlich etwa 6,4 Gigatonnen (Milliarden Tonnen) Kohlenstoff aus der Verbrennung von Kohle, Öl und Erdgas etwa eine Gigatonne wieder auf. Die Kontinente speichern also immerhin 15 Prozent der fossilen Emissionen jedes Jahr. Man spricht daher auch von einer sogenannten Land-Kohlenstoffsenke.
Abbildung 2. Pflanzen binden Kohlendioxid aus der Atmosphäre. Sie können somit den Anstieg des Treibhaus-Gases zumindest teilweise ausgleichen. Zerstörung von Vegetation führt deshalb zu höheren Kohlendioxid-Konzentrationen. © Fotolia
Die Vegetation der Kontinente kann auf diese Weise dem globalen Temperaturanstieg entgegenwirken. Denn die weltweite Erwärmung hängt direkt mit dem Anstieg der Kohlendioxid-Konzentration in der Atmosphäre zusammen: Kohlendioxid verringert die Durchlässigkeit der Atmosphäre für die Wärmerückstrahlung der Erde, wodurch sich die unteren Luftschichten aufheizen. Die Land-Kohlenstoffsenke vermindert also den Temperaturanstieg, den wir ansonsten als Folge der Verbrennung fossiler Energieträger und der Ausdehnung landwirtschaftlicher Flächen zu erwarten hätten.
Abbildung 3. Helle Wiesen reflektieren mehr Sonnenenergie als vergleichsweise dunkle Äcker und Wälder. Die Art der Vegetation bestimmt so das lokale Klima mit. © Corbis
Vegetation ist allerdings auch noch in anderer Hinsicht klimarelevant. Die unterschiedlichen Vegetationstypen beeinflussen den Energie-, Wasser- und Impulsaustausch zwischen Atmosphäre und Erdoberfläche. Sie wirken sich vor allem auf das regionale Klima aus. So erscheinen Graslandschaften aus der Vogelperspektive typischerweise heller als z. B. Wälder, Wissenschaftler sprechen von einer höheren Albedo. Dementsprechend reflektieren Grasflächen Sonnenlicht besser und erwärmen sich deshalb schwächer. Gleichzeitig verdunsten Wälder mehr Wasser über ihre Blätter und Nadeln, da sie oft tiefe Wurzeln besitzen, und kühlen deshalb stärker ab als flachwurzelnde Graslandschaften. Welcher Effekt überwiegt – Erwärmung durch Sonneneinstrahlung oder Selbstkühlung durch Verdunstung –, hängt unter anderem von Sonnenstand, der Verfügbarkeit von Wasser im Boden, Luftfeuchtigkeit und Pflanzentyp ab.
Die Pflanzendecke trägt so zusammen mit der vorherrschenden mittleren Sonneneinstrahlung, Windrichtung und Niederschlag wesentlich zum lokalen Klima bei. Am Max-Planck-Institut für Meteorologie untersuchen wir deshalb, wie stark Vegetationsänderungen die Absorption von Sonneneinstrahlung beeinflussen und welche Folgen diese Änderungen für den Kohlendioxid-Austausch zwischen den Landmassen und der Atmosphäre haben.
Weltkarte der Landwirtschaft
Seit dem Ende der letzten Eiszeit vor 10000 Jahren hat sich das Klima natürlicherweise verändert. Als Folge haben sich neue Pflanzengemeinschaften gebildet und ausgebreitet. Dazu kommt der Mensch: Durch Ackerbau, Forstwirtschaft und Urbanisierung hat er stark in die natürlichen Austauschprozesse zwischen Atmosphäre und den Pflanzen der Kontinente eingegriffen. Berechnungen zufolge werden heute etwa 24 Prozent des weltweiten Pflanzenwachstums durch den Menschen kontrolliert.
In den Jahrtausenden zwischen 9000 und 5000 Jahren vor heute entwickelten sich Ackerbau und Viehzucht in mindestens vier Regionen unabhängig voneinander: im sogenannten Fruchtbaren Halbmond Kleinasiens, in Teilen Chinas und in Mittel- und Südamerika. Von dort breiteten sich die Landwirtschaft treibenden Kulturen aus und verdrängten nach und nach geschichtlich ältere Jäger- und Sammlergesellschaften. Leider gibt es kaum genaue Aufzeichnungen darüber, wie viel Fläche in einer Region zu einem bestimmten Zeitpunkt landwirtschaftlich genutzt wurde. Dieser Mangel an Daten erschwerte bislang die Untersuchung von Veränderungen der globalen Vegetationsverteilung und deren Rolle im Klimageschehen.
Abbildung 4. Hypothek aus vorindustrieller Zeit: Seit vielen Jahrhunderten bearbeitet der Mensch seine Umwelt mit dem Pflug. Dadurch beeinflusste er den Wärmeaustausch zwischen Land und Atmosphäre - lange vor der massenhaften Verbrennung von Öl .© Archiv für Kunst und Geschichte
Deshalb mussten wir andere Informationsquellen, nämlich die bereits zu Beginn erwähnten Daten zur Bevölkerungsentwicklung nutzen. Die Größe der Bevölkerung und die landwirtschaftlich genutzte Fläche hängen eng zusammen. Vor der industriellen Revolution war Fernhandel auf wertvolle Güter wie etwa Gewürze beschränkt, Grundnahrungsmittel konnten kaum in ausreichender Menge über größere Entfernungen transportiert werden. Deswegen kann man für die Zeit zwischen Mittelalter und industrieller Revolution von der regionalen Bevölkerungszahl auf die benötigte landwirtschaftliche Fläche schließen.
Wir haben diesen Zusammenhang genutzt und haben einen Datensatz erstellt, der weltweit die Verteilung von Acker- und Weideflächen seit dem Jahr 800 nach Christus nachzeichnet. Unsicherheiten bezüglich der Bevölkerungsdaten und der Einfluss von sich ändernden Agrartechniken sind dabei berücksichtigt. Darüber hinaus haben wir rekonstruiert, wie die landwirtschaftliche Expansion die Verteilung von Wäldern und natürlichen Gras- und Strauchlandschaften beeinflusst. Demnach nimmt die natürliche Vegetation bereits in vorindustrieller Zeit zugunsten von Acker- und Weideflächen deutlich ab. Abbildung 5. (a) Zwischen 800 und 1850 n. Chr. wächst die Bevölkerung vor allem in Europa und Asien immer weiter an. (b) Globale Flächenentwicklung verschiedener natürlicher und landwirtschaftlicher Vegetationstypen. Parallel zur wachsenden Weltbevölkerung wurden schon in vorindustrieller Zeit große Gebiete natürlicher Vegetation in landwirtschaftliche Flächen umgewandelt. © MPI für Meteorologie
Kohlendioxid-Anstieg durch Pflug und Axt
Gerade das letzte Jahrtausend ist in dieser Hinsicht besonders interessant: Zwischen 800 und dem frühen 18. Jahrhundert verdreifachte sich die Weltbevölkerung auf eine Milliarde Menschen. Es muss also eine landwirtschaftliche Expansion von nie zuvor dagewesener Stärke stattgefunden haben. Wenn wir daher in diesem Zeitraum keine menschengemachte Klimaänderung nachweisen können, so ist dies auch für die vorangegangenen Jahrtausende nicht zu erwarten. Der Einfluss des Menschen auf das Klima hätte dann wie meist angenommen erst mit der massenhaften Verfeuerung von Öl und Kohle während der industriellen Revolution begonnen.
Wir kommen in unserer Studie allerdings zu einem anderen Ergebnis. Klimamodelle erlauben es uns heute, die Wechselwirkungen zwischen Vegetation, Atmosphäre und Ozean über lange Zeiträume auf Großrechnern zu simulieren. Mit der Rekonstruktion der Landnutzung im letzten Jahrtausend und einem an unserem Institut entwickelten Erdsystemmodell können wir abschätzen, wie sich der Kohlenstoffkreislauf und das Klima durch den Einfluss der Landwirtschaft verändert haben. Abbildung 6. Immer mehr Menschen benötigen immer mehr Nahrungsmittel: Ackerland im Jahr 800 (oben) und 2000 n. Chr. (unten). Der Farbbalken gibt den Anteil der landwirtschaftlich genutzten Fläche an der Gesamtfläche an (grau: 0%, violett: 100%). © MPI für Meteorologie
In den Zentren der historischen Landwirtschaft in Europa, Indien und China hat sich demnach die Landwirtschaft zwischen den Jahren 800 und 1850 auf Kosten von Waldgebieten stark ausgebreitet und zu einem Verlust von weltweit 53 Gigatonnen Kohlenstoff geführt. Gleichzeitig werden über die Land-Kohlenstoffsenke 25 Gigatonnen aufgenommen. Besonders in naturbelassenen Regionen wie den tropischen Regenwäldern wurde also fast die Hälfte der Emissionen wieder gespeichert. Pflanzen wachsen nämlich bei höheren Kohlendioxid-Werten schneller – dadurch können sie mehr von dem Treibhausgas binden und den Anstieg in der Atmosphäre zumindest teilweise kompensieren. Ein Prozess, den Wissenschaftler als „Kohlendioxid-Düngung“ der Pflanzen bezeichnen.
Lokaler Klimawandel auch ohne Industrie
Diese Zahlen belegen, dass durch die landwirtschaftliche Entwicklung in der vorindustriellen Zeit des letzten Jahrtausends netto etwa 28 Gigatonnen Kohlenstoff in die Atmosphäre entlassen wurden. Diese Emissionen blieben jahrhundertelang sehr klein und trugen erst zwischen dem 16. und 18. Jahrhundert stärker zur atmosphärischen Kohlendioxid-Konzentration bei, als durch natürliche Klimaschwankungen allein erklärbar wäre. Es sieht also so aus, als ob der Mensch zwar erst spät, aber noch vor der Industrialisierung die Kohlendioxid-Konzentration der Atmosphäre erhöht hat. Dieser Kohlendioxid-Anstieg ist allerdings zu gering, um die Temperatur global merklich zu ändern. Abbildung 7. Schon in vorindustrieller Zeit entwich Kohlenstoff als Kohlendioxid in die Atmosphäre. Zwischen 800 und 1850 verlieren besonders die landwirtschaftlich wichtigen Regionen Kohlenstoff (rosa bis dunkelrot), während viele naturbelassene Gebiete als Folge der landwirtschaftlichen Verluste eher Kohlenstoff aufnehmen (hell- bis dunkelblau). (Angaben in Milliarden Tonnen Kohlenstoff (GtC) pro Gitterzelle des Klimamodells) © MPI für Meteorologie
Auf regionaler Ebene hat der Mensch das Klima dagegen auch schon vor der Industrialisierung beeinflusst. Simulationen zeigen, dass der Mensch bereits vor über tausend Jahren die Energiebilanz einiger Regionen verändert hat, weil sich mit der Landnutzung auch die Albedo der Landoberfläche gewandelt hat. Besonders in Europa, Indien und China hat die aufgenommene Sonneneinstrahlung rund zwei Watt pro Quadratmeter abgenommen.
Eine solche Änderung ist lokal genauso stark wie der gegenwärtige Treibhauseffekt, allerdings hat sie einen entgegengesetzten – sprich abkühlenden – Effekt.
Sogar geschichtliche Ereignisse können sich durch solche biogeophysikalischen Effekte regional auf das Klima durchpausen: So hat sich der wachsende menschliche Einfluss im 14. Jahrhundert auf die Energiebilanz Europas deutlich abgeschwächt. Hervorgerufen wurde dies durch die Pestepidemie, der etwa ein Drittel der Bevölkerung zum Opfer fiel und in deren Folge weite landwirtschaftliche Flächen zeitweise aufgegeben wurden. Ähnliche Folgen hatten der Einfall der Mongolen im 13. Jahrhundert in China und die mit der Invasion der Europäer eingeschleppten Krankheiten bei den Hochkulturen Amerikas.
Klimaschutz durch Aufforstung?
Schon in vorindustrieller Zeit hat der Mensch somit die Energiebilanz regional verändert und den atmosphärischen Kohlendioxid-Gehalt angehoben. Er hat das Gleichgewicht des Kohlenstoffkreislaufs gestört und die Kohlenstoffsenke der Wälder durch Rodung verkleinert. All dies ließ die Menschheit schon mit einer gewissen Vorbelastung in die industrielle Ära eintreten. Die Landnutzung aus der Vergangenheit wirkt dadurch auf das heutige und zukünftige Klima weiter.
Während dieser Einfluss auf das Klima bislang nur ein unbeabsichtigter Nebeneffekt war, soll Landnutzung in der Zukunft zielgerichtet eingesetzt werden, um dem Klimawandel entgegenzuwirken. So wird vielfach die Wiederaufforstung landwirtschaftlicher Flächen gefordert, um der Atmosphäre Kohlendioxid zu entziehen und den gegenwärtigen Klimawandel abzuschwächen. Wiederaufforstung ist jedoch nicht immer ein Mittel gegen den Klimawandel, sie kann die Erwärmung auch beschleunigen: Studien zeigen, dass in den mittleren und hohen Breiten durch die Wiederbewaldung die Albedo so stark gesenkt und dadurch so viel mehr Sonnenstrahlung aufgenommen wird, dass der abkühlende Effekt der Kohlendioxid-Aufnahme nicht zum Tragen kommt. In den Tropen hingegen spielt die hohe Verdunstung der Wälder eine größere Rolle und wirkt zusammen mit der Kohlendioxid-Aufnahme kühlend.
Abbildung 8. Wald ist nicht gleich Wald. Die Wiederaufforstung von abgeholzten Waldflächen wirkt sich in den Tropen und in den gemäßigten Zonen unterschiedlich auf das Klima aus. © Istockphoto
Die Abholzung des tropischen Regenwalds zu stoppen, der gerodet wird, um landwirtschaftliche Nutzfläche zu gewinnen, könnte daher wirkungsvoller sein, als Wälder in gemäßigten Zonen wieder aufzuforsten. Die Entwicklung des Klimas wird also auch in Zukunft von landwirtschaftlichen Entscheidungen abhängen.
Glossar Albedo Ist ein Maß dafür, wie stark die Kontinente, Ozeane oder Wolken das Sonnenlicht zurückwerfen. Helle Flächen besitzen eine höhere Albedo als dunkle.
Kohlenstoffsenke Die Landmassen und Ozeane können Kohlenstoff aus der Atmosphäre entfernen und dauerhaft binden. Daran sind in erster Linie Pflanzen beteiligt: Diese nehmen Kohlendioxid auf und bilden daraus organische Verbindungen. Aber auch bei geologischen Prozessen wie der Bildung von Kalkgestein wird Kohlendioxid gebunden.
[1] Der im Wissenschaftsmagazin der Max-Planck Gesellschaft MPF 4/09 http://www.mpg.de/800435/W005_Umwelt-Klima_076-082.pdf erschienene, gleichnamige Artikel wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert.
Weiterführende Links
Max-Planck-Institut für Meteorologie, Hamburg, http://www.mpimet.mpg.de/startseite.html sehr gut gestaltete Seite mit reichhaltiger Information zu den Forschungsaktivitäten in den 3 Abteilungen: Atmosphäre im Erdsystem, Land im Erdsystem und Ozean im Erdsystem.
Landnutzung und Änderungen der Waldbedeckung: http://www.mpimet.mpg.de/kommunikation/filme-animationen/visualisierunge... (Animationen, in denen für verschiedene Szenarien und die Jahre 1850 bis 2300 die weltweite Entwicklung der Waldbedeckung (Säulenhöhe) parallel mit der Änderung der Kohlenstoffspeicherung gezeigt wird.)
Partnerschaft Erdsystemforschung, gemeinsame Aktivitäten zur Erforschung des Erdsystems : Max-Planck-Institut für Meteorologie (Hamburg) Max-Planck-Institut für Chemie (Mainz) und dem Max-Planck-Institut für Biogeochemie (Jena); Brochure: http://www.mpimet.mpg.de/fileadmin/communication/ESRP_d_low.pdf
Happy Birthday, ScienceBlog.at
Happy Birthday, ScienceBlog.atFr, 11.07.2014 - 07:05 — Redaktion
Fast genau vor drei Jahren haben wir den ScienceBlog gestartet. Seitdem erscheint wöchentlich – immer am Freitag – ein neuer Artikel. Nach dem Relaunch im April des vergangenen Jahres und der Übernahme aller bis dahin erschienen Beiträge auf unsere neue Website [1], hat der Blog mittlerweile ein beachtliches Volumen erreicht: 152 Artikel - eine bunte Vielfalt aus der Welt der Naturwissenschaften und verwandter Disziplinen -, die nun nach Themenschwerpunkten zusammengefasst werden [2]..
Wir feiern unseren 3. Geburtstag!
Dass die Blog-Artikel sich auch durch besondere Qualität und Seriosität ihrer Inhalte auszeichnen, verdanken wir unseren insgesamt 53 Autoren: alles „gestandene“, in vielen Fällen international höchst renommierte Wissenschafter, die aus ihren jeweiligen Kompetenzgebieten “Wissenschaft aus erster Hand” bieten. Dafür können wir nicht genug danken!
Für uns erfreulich ist die Resonanz, die ScienceBlog.at erhält: einen sehr hohen PageRank bei Google und viele, viele Aufrufe. Im Monat sind es durchschnittlich 11 000 bis 12 000 unterschiedliche Rechner (IP-Adressen), die im Schnitt rund 200 000 Dateien abrufen und mehr als 2 Minuten auf einer Seite bleiben. (Wermutstropfen: nur wenige Leser raffen sich zu Kommentaren auf). Unseren Lesern dafür herzlichsten Dank!
Die Aufrufe betreffen nicht nur die allerneuesten Artikel. Viele ältere Einträge, die häufig aufgerufen werden, unterstreichen, daß deren Aktualität weiterhin gegeben ist. Einer dieser vielgelesenen Artikel „Hat die Menschheit bereits den Boden unter den Füßen verloren?” stammt von dem prominenten Waldökologen Gerhard Glatzel. Es war der Startbeitrag vor 3 Jahren und bot eine kritische Auseinandersetzung mit der Ressource „Boden“, als Grundlage der Biomasseproduktion für die Ernährung der wachsenden Weltbevölkerung. Wir sehen diesen Beitrag in Hinblick auf die globale Entwicklung für sehr wichtig an und wollen unser 3-Jahres-Jubiläum mit dem nochmaligen Erscheinen des Artikels feiern.
[1] ScienceBlog in neuem Gewande — Kontinuität und Neubeginn
[2] ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und Weiterentwicklung
[3] Hat die Menschheit bereits den Boden unter den Füßen verloren?
Der Kampf gegen Vernachlässigte Infektionskrankheiten
Der Kampf gegen Vernachlässigte InfektionskrankheitenFr, 27.06.2014 - 13:22 — Bill and Melinda Gates Foundation
Mehr als 1 Milliarde Menschen leiden an Vernachlässigten Infektionskrankheiten. Die Bill & Melinda Gates Foundation arbeitet zusammen mit Partnern (Pharmakonzernen, Regierungen, NGO’s, der Weltbank und globalen Gesundheitsorganisationen) an der Entwicklung und Bereitstellung neuer Maßnahmen für die Bekämpfung und Ausrottung dieser Krankheiten.Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein.
Mehr als eine Milliarde Menschen in Entwicklungsländern leiden unter Infektionskrankheiten, für deren Bekämpfung zu wenig Geld gespendet wird. Zum größten Teil liegt das daran, dass diese Krankheiten in wohlhabenderen Ländern nur selten vorkommen. Bis vor kurzem gab es kaum Investitionen in die Behandlungs- und Vorsorgemethoden und der Zugang zu den existierenden Interventionsmethoden in den bedürftigen Gegenden war beschränkt.
Diese Krankheiten verursachen ernsthafte Gesundheitsprobleme und stellen eine erhebliche wirtschaftliche Belastung dar. Die Krankheiten können Anämie und Blindheit verursachen, das Wachstum von Kindern hemmen, sowie kognitive Behinderungen und Schwangerschaftskomplikationen zur Folge haben. Außerdem sind sie für hunderttausende von Todesfällen pro Jahr verantwortlich. Menschen, die in extremer Armut leben, leiden oft an mehr als einer dieser Krankheiten gleichzeitig. Das wiederum hat Auswirkungen auf ihre Erwerbstätigkeit und ihre Fähigkeit, aus der Armut heraus zu kommen. Vernachlässigte Infektionskrankheiten sind in vielen armen Ländern eine große Belastung für die öffentliche Gesundheitsversorgung und stehen dem Erreichen der Millenniums-Entwicklungsziele der Vereinten Nationen im Weg.
Die Chance
Für die Bekämpfung einiger vernachlässigter Krankheiten gibt es bereits sichere und effiziente Behandlungs- und Kontrollverfahren. Es ist jedoch schwierig, diese Behandlungen dorthin zu bringen, wo sie am meisten benötigt werden: arme und schwer erreichbare Gebiete in Entwicklungsländern, in denen die Menschen nur wenig Zugang zur Gesundheitsversorgung haben Trotz logistischer Herausforderungen, waren Initiativen zur Bekämpfung einiger dieser Krankheiten in den letzten Jahren sehr erfolgreich und wir sind optimistisch, dass wir einige davon unter Kontrolle bringen, auslöschen oder sogar völlig ausrotten könnten.
Zum Beispiel sank die Anzahl der gemeldeten Fälle der Medinawurmkrankheit (Dracontiasis) im Jahr 2012 auf den historischen Tiefpunkt von 541 Fällen in nur vier Ländern. Mehr als 120 Millionen Menschen sind mit Lymphatischer Filariose (Elephantiasis) infiziert, einer parasitären Krankheit, die von Moskitos übertragen wird. Aber seit dem Jahr 2000 konnten 2,7 Milliarden Behandlungen durchgeführt werden.
Der Fortschritt im Kampf gegen die Lymphatische Filariose ist weitgehend einer globalen Allianz zu verdanken, über die Menschen mit Medikamenten versorgt werden, die von Merck, Eisai und GlaxoSmithKline gestiftet werden. Trotz eingeschränkter wirtschaftlicher Anreize haben diese Pharmaunternehmen ihre Spenden erhöht und unterstützen die Forschung und Entwicklung neuer Behandlungsmethoden gegen vernachlässigte Krankheiten. Die jüngste Geschichte zeigt, dass diese Krankheiten vollkommen ausgerottet werden können, wenn sie zum Ziel strategischer, innovativer, kollaborativer und nachhaltiger Aktionen erklärt werden.
Durch eine zunehmende Entschlossenheit im öffentlichen und privaten Sektor können der Fortschritt beschleunigt und Initiativen mit größerem Umfang durchgeführt werden. Im Januar 2012 gab eine öffentlich-private Partnerschaft bestehend aus der Stiftung, 13 Pharmaunternehmen, der Regierungen der USA, des Vereinigten Königreichs und der Vereinigten Arabischen Emirate, der Weltbank und anderen globalen Gesundheitsorganisationen einen gemeinsamen Vorstoß bekannt: Bis zum Ende des Jahrzehnts sollen 10 vernachlässigte tropische Krankheiten unter Kontrolle gebracht oder sogar ausgerottet werden.
Unsere Strategie
Der Kampf gegen Infektionskrankheiten ist eine wichtige Priorität der Bill & Melinda Gates Foundation. Wir arbeiten eng mit den Regierungen aus Spender- und Entwicklungsländern zusammen, die gemeinsam den größten Teil der finanziellen Mittel für den Kampf gegen diese Krankheiten stellen, um sicherzustellen, dass unsere Investitionen andere Initiativen ergänzen. Wir konzentrieren unsere Ressourcen auf Bereiche mit hohem Finanzierungsbedarf, in denen unsere Hilfe eine Katalysatorwirkung haben kann oder in denen wir Risiken besser als andere Partner übernehmen können. Unsere Strategie zeigt, wo die Stiftung unseres Erachtens am besten positioniert ist, um gemeinsam mit zahlreichen anderen Handlungsträgern zur signifikanten Reduzierung vernachlässigter Infektionskrankheiten beizutragen.
Bisher haben wir mehr als 1,02 Milliarden US-Dollar an Fördergelder an Organisationen vergeben, die vernachlässigte Infektionskrankheiten bekämpfen. Unsere Investitionen haben sich hauptsächlich auf die Entwicklung neuer Maßnahmen und auf deren weit verbreitete Bereitstellung konzentriert. Zusätzlich zu unseren direkten Investitionen engagieren wir uns außerdem für zusätzliche internationale Spenden zur Unterstützung dieser Initiativen.
Viele Infektionskrankheiten könnte man als vernachlässigt bezeichnen. Bevor wir uns für eine Investition entscheiden, ziehen wir mehrere Faktoren in Betracht. Dazu gehören u.a. das Ausmaß und die Ernsthaftigkeit der Auswirkungen einer Krankheit, die soziale und wirtschaftliche Belastung einer Krankheit für Entwicklungsländer sowie die Wahrscheinlichkeit, dass durch strategische und mögliche Behandlungen, diese Krankheit unter Kontrolle gebracht, beseitigt oder vollkommen ausgerottet werden könnte.
Wir beschäftigen uns derzeit mit 18 vernachlässigten Infektionskrankheiten. Da sie sehr unterschiedlich sind, passen wir unseren strategischen Ansatz dementsprechend an.
Fokusbereiche
Ziele mit guten Chancen
Unsere Investitionen konzentrieren sich auf die Entwicklung neuer Behandlungsmethoden, Maßnahmen und Kontrollen und auf Möglichkeiten, diese weit verbreitet zur Verfügung zu stellen.
Der größte Teil unserer finanziellen Mittel ist für neun Krankheiten bestimmt, die die besten Möglichkeiten zur Kontrolle, Beseitigung oder Ausrottung aufweisen. Bei einigen dieser Krankheiten, haben groß angelegte Initiativen bereits gute Fortschritte erzielt, aber es muss noch mehr getan werden. Wir unterstützen die Entwicklung und Bereitstellung neuer Medikamente, Impfstoffe, Diagnosetests, Vektorkontrollen und Programmansätze und passen unsere Investitionen jeder Krankheit individuell an.
Eine Krankheit, bei der gute Chancen auf eine Ausrottung bestehen, ist die Onchozerkose (Flussblindheit), die durch einen parasitären Wurm verursacht wird, der über Stiche der Kriebelmücke auf den Menschen übertragen wird. Fast 18 Millionen Menschen sind infiziert, wobei die meisten Infektionen in Afrika vorzufinden sind. Durch die Massenbehandlung mit der gespendeten Arznei Ivermectin konnte die Krankheit in vielen Teilen Afrikas und Südamerikas beseitigt werden.
Ivermectin tötet jedoch lediglich die Wurmlarven ab. Der erwachsene Wurm bleibt am Leben und kann mehr Larven produzieren, durch die sich die Krankheit verbreiten kann. Das bedeutet, dass die Infizierten die medizinische Behandlung über ein Jahrzehnt oder sogar noch länger ein- oder sogar zweimal pro Jahr wiederholen müssen. Ein zusätzliches Problem ist, dass Millionen von Menschen in Westafrika mit dem Augenwurm Loa loa infiziert sind und somit kein Ivermectin vertragen. Für sie gibt es also keine wirksame Behandlung gegen die Flussblindheit.
Wir bekämpfen die Onchozerkose mit den aktuell verfügbaren Medikamenten, sofern dies möglich ist. Außerdem unterstützen wir Initiativen zur Entwicklung neuer Behandlungsmethoden, die wirksamer und häufiger eingesetzt werden könnten. Dazu gehören neue Methoden zur Kontrolle der Krankheitsübertragung und ein neues Medikament, das erwachsene Würmer angreift und auch bei Patienten mit Augenwurm sicher eingesetzt werden kann.
Eine weitere Krankheit auf unserer Liste ist das Denguefieber, eine durch Moskitos übertragene Viruserkrankung. Seit den 1960er Jahren ist die Anzahl der Fälle weltweit um das Dreißigfache gestiegen und ca. 50 Millionen Menschen werden jedes Jahr damit infiziert. Es gibt keine wirksame Behandlung und die aktuellen Methoden zur Kontrolle der Übertragung sind teuer und meist unwirksam, weil sie zu spät eingesetzt werden.
Das Denguefieber ist eine Krankheit mit guten Chancen auf Ausrottung, weil derzeit mehrere mögliche Impfstoffkandidaten entwickelt werden. Wir unterstützen Vorbereitungen zur Bereitstellung eines sicheren und erschwinglichen Impfstoffs, sobald dieser verfügbar ist. In der Zwischenzeit investieren wir in die Entwicklung neuer Methoden zur Moskitobekämpfung, um Epidemien zu vermeiden. Zudem fördern wir neue Möglichkeiten zur Erkennung oder Vorhersage von Denguefieber-Epidemien, um die Übertragung erfolgreich zu verhindern.
Die anderen Krankheiten mit guten Chancen auf Ausrottung sind: Japanische Enzephalitis, Humane Papillomaviren (HPV), Viszerale Leishmaniose (Schwarzfieber), Hakenwurmkrankheit, Dracontiasis (Medinawurm), Lymphatische Filariose (Elephantiasis) und Afrikanische Trypanosomiasis (Schlafkrankheit).
Integrierte Projekte
Abbildung 1. Ein Test- und Behandlungszentrum von Ärzte ohne Grenzen für vernachlässigte tropische Krankheiten im ländlichen Uganda.
Wir fördern die Entwicklung neuer Initiativen, mit denen gleichzeitig mehrere Infektionskrankheiten auf eine koordinierte und integrierte Weise bekämpft werden könnten. Dazu gehören drei Schwerpunktsbereiche:
Medikamentöse Massenbehandlung. In Gebieten, in denen mehrere Infektionskrankheiten vorkommen, die mit denselben Medikamenten oder einem ähnlichen Behandlungsschema behandelt werden können, unterstützen wir Bemühungen zur Koordinierung der einzelnen Bestandteile großer Medikamentenprogramme, wie die Beschaffung von Medikamentenspenden.
Überwachung der öffentlichen Gesundheit. Im Kampf gegen Infektionskrankheiten ist das Erfassen von Daten sehr wichtig, die angeben, in welchen Gebieten diese Krankheit bei Menschen und bei Moskitos, Fliegen, Würmern oder anderen Übertragungsvektoren vorkommt. Für zahlreiche vernachlässigte Krankheiten haben wir diese Daten nicht. Wir suchen Lösungen, wie gemeinsame Ansätze zur Erfassung, Verarbeitung und Bündelung von Daten sowie für die Entwicklung effizienter Überwachungsmaßnahmen.
Vektorkontrolle. Die meisten vernachlässigten Infektionskrankheiten werden von Insekten oder Würmern verursacht bzw. verbreitet, die nur mit großem Kostenaufwand und Schwierigkeiten zu kontrollieren sind. Die Kontrollmaßnahmen sind für alle Vektoren ähnlich und eine bessere krankheitsübergreifende Koordinierung würde die Effizienz der verschiedenen Vektorkontrollmaßnahmen verbessern. Wir fördern die Entwicklung einer krankheitsübergreifenden Methode, um die Verfügbarkeit und die Auswirkungen der Vektorkontrollmaßnahmen zu verbessern.
Übergangskrankheiten
Wir schließen derzeit unsere Arbeit an drei Krankheiten ab: Tollwut, Trachom und Zystizerkose (Bandwurminfektion). Mehrere unserer Partner nutzen im Kampf gegen diese Krankheiten die aktuell vorhandenen Behandlungsmethoden und Maßnahmen. Wir unterstützen ihre Arbeit mit unseren letzten Investitionen in diesem Bereich.
Neue Krankheiten
In aktuellen Forschungsarbeiten werden aktuell sechs weitere Krankheiten – Ascaris, Trichuris, Hakenwurm, Bilharziose, Buruli-Ulkus und die Chagas-Krankheit – untersucht. Wir möchten ihre Übertragungsmuster besser verstehen und herausfinden, welche Eingriffe zu ihrer Bekämpfung erforderlich sind.
* http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Neglected-Inf... (abgerufen am 25.6.2014)
Weiterführende Links
Bill & Melinda Gates Stiftung
Geschichte der Bill & Melinda Gates Foundation (abgerufen am 25.6.2014) Stiftungs-Datenblatt(abgerufen am 25.6.2014)
Konsortium will vernachlässigte Tropenkrankheiten besiegen (abgerufen am 25.6.2014)
WHO Tropical Diseases Tropical diseases encompass all diseases that occur solely, or principally, in the tropics. In practice, the term is often taken to refer to infectious diseases that thrive in hot, humid conditions, such as malaria, leishmaniasis, schistosomiasis, onchocerciasis, lymphatic filariasis, Chagas disease, African trypanosomiasis, and dengue.
Neglected tropical diseases, PDF-Download, WHO (2006) 52p
Videos
Vernachlässigte Tropenkrankheiten 6:57 min Vernachlässigte Krankheiten – Impfungen (Ärzte ohne Grenzen, 2013) 6:00 min Vernachlässigte Krankheiten – Chagas (Ärzte ohne Grenzen, 2013) 9:51 min Vernachlässigte Krankheiten - Schlafkrankheit (Ärzte ohne Grenzen, 2013) 6:50 min Indien -- Eine wirksame Behandlung gegen Kala-Azar (Ärzte ohne Grenzen, 2013) 2 min
Der digitale Zauberlehrling
Der digitale ZauberlehrlingFr, 20.06.2014 - 06:48 — Gerhard Weikum
Computer können heute digitales Wissen in großem Umfang automatisch sammeln und organisieren und für ein immer besser werdendes Sprachverständnis nutzen. Der Aufbau umfassender Wissensbasen ermöglicht die effiziente Suche nach relevanter Information in einer ungeheuren Flut an halbstrukturierten / unstrukturierten Daten im Internet. Was lässt sich dagegen tun, wenn Maschinen über einen Nutzer Fakten sammeln, die zu Angriffen auf dessen Privatsphäre werde nkönnen? Im Rahmen eines, durch einen ERC Synergy Grant geförderten Projekts wird das Konzept eines Privacy Advisor realisiert, der u.a. den Nutzer davor warnt, zu viele Informationen preiszugeben [1].
Haben Computer das Potenzial, dem Menschen intellektuell ebenbürtig oder gar überlegen zu sein? Die Informatik und ihr Teilgebiet, die künstliche Intelligenz, verfolgen diese Frage, seit Alan Turing vor mehr als fünfzig Jahren einen Test vorgeschlagen hat: Kann ein Computer, der mit einem menschlichen Dialogpartner über eine Textschnittstelle kommuniziert, sich so verhalten, dass der Mensch selbst nach längerer Zeit nicht festzustellen vermag, ob hinter dem Gesprächspartner ein Mensch oder eine Maschine steckt?
Menschliches Wissen – aus Büchern, Aufsätzen, Nachrichten und anderen Texten – ist heute nahezu lückenlos digitalisiert und systematisch organisiert . Das prominenteste Beispiel digitaler Wissenssammlungen ist die Online-Enzyklopädie Wikipedia. Für Computer ist Wikipedia allerdings zunächst nicht verständlich, da die Textinhalte für Menschen geschrieben sind.
Wissensbasen - Bedeutungszusammenhänge zwischen Begriffen
Das hat sich in den vergangenen Jahren geändert: Umfassende maschinenlesbare Wissensbasen wie der von Google genutzte Knowledge Graph ermöglichen Computern ein Textverständnis, das darüber hinausgeht, nur die Begriffe etwa einer Suchanfrage in einem Text zu erkennen. Sie stellen vielmehr zwischen den Begriffen einen Bedeutungszusammenhang her und erlauben somit semantisches Suchen. Sie können also auch Fragen mit mehrdeutigen Begriffen richtig beantworten. Und dank des semantischen Verständnisses kennen Computer auch die Bedeutung von Texten, welche sich, wie die Artikel der Wikipedia, an Menschen richten.
Die Wissensbasen, die das tiefere Sprachverständnis ermöglichen, wurden weitgehend automatisch erstellt und werden ständig aktualisiert und erweitert. Der Knowledge Graph kennt mehr als zwanzig Millionen Personen, Orte, Filme, Arzneimittel, Sportereignisse und vieles mehr, dazu mehr als eine Milliarde Fakten über diese Einheiten und ihre Beziehungen untereinander. Google nutzt das gewaltige Wissen, um Suchanfragen besser zu verstehen, Suchresultate besser in Ranglisten zu ordnen, bessere Empfehlungen für Nutzer von Youtube und anderen Webportalen zu geben sowie für intelligente Vorschläge zu Restaurants, Konzerten und anderem.
Vor allem drei Projekte haben die Methoden zur automatischen Konstruktion derartig umfassender Wissensbasen entscheidend vorangebracht: DBpedia an der FU Berlin und Uni Leipzig; Freebase, das von Google aufgekauft wurde und heute den Kern des Knowledge Graph bildet; und Yago, das wir seit dem Jahr 2005 am Max-Planck-Institut für Informatik entwickelt haben.
Wissensbasis Yago
Eine wichtige erste Dimension digitalen Wissens besteht darin, Einheiten – Entitäten genannt – zu sammeln, eindeutig zu benennen und in semantische Klassen wie Personen, Orte, Organisationen oder Ereignisse einzuordnen. Das macht im großen Stil vor allem Yago, indem es mit cleveren Algorithmen Kategorienamen aus Wikipedia mit dem manuell erstellten Thesaurus WordNet verknüpft. Die resultierende Wissensbasis enthält nahezu zehn Millionen Entitäten und mehr als 300 000 feinkörnige und hierarchisch organisierte Klassen wie Politiker, Musiker, Bassisten, Rockballaden, Heavy-Metal-Songs, Benefizkonzerte oder Freiluftopern.
Die zweite Dimension einer Wissensbasis sind Fakten über Entitäten. Das sind zum einen Merkmale wie die Größe eines Fußballtorhüters oder die Anzahl seiner Länderspiele; zum anderen Beziehungen zwischen Entitäten, etwa der Geburtsort eines Torwarts, die Vereine, für die er gespielt hat, seine Ehefrau, die Hauptstadt eines Landes oder die Vorstandsmitglieder eines Unternehmens.
Yago stellt logische, semantische Verknüpfungen zwischen Begriffen her und erkennt den Sinnzusammenhang. Als Beispiel: der berühmte deutsche Physiker Max Planck.
Die dritte Dimension schließlich sind Regeln, die generelle Zusammenhänge ausdrücken – unabhängig von konkreten Entitäten. Dazu gehören Gesetzmäßigkeiten wie etwa die, dass jede Person genau einen Geburtsort hat und dass Hauptstädte von Ländern im jeweiligen Land liegen müssen. Solche Regeln können allerdings auch mit Unsicherheiten behaftet sein, müssen also nicht immer hundertprozentig zutreffen. Eine Person wohnt wahrscheinlich in derselben Stadt wie der Ehepartner oder in der Stadt, in der sie arbeitet.
Solches Allgemeinwissen brauchen Maschinen, um mehrere Fakten logisch zu verknüpfen. Hat man zum Beispiel keine Anhaltspunkte über den Wohnort von Angela Merkel, weiß man aber, dass ihr Ehemann an der Humboldt-Universität Berlin arbeitet, kann der Computer daraus schließen, dass die Kanzlerin in Berlin wohnt.
Sprachverständnis der Computer….
Sprache ist oft mehrdeutig. Das mag an der Satzstruktur liegen, viel häufiger aber lassen Namen und Phrasen mehrere Interpretationen zu. Um dies zu illustrieren, betrachten wir den Satz: „Page played Kashmir on his Gibson.“ Handelt es sich hier um den Google-Gründer Larry Page, der sich mit dem Schauspieler und Regisseur Mel Gibson am Rande des Himalaja trifft? Das macht offensichtlich keinen Sinn! Menschen erkennen dies aufgrund ihres Erfahrungsschatzes sofort, die Maschine jedoch muss das systematisch und algorithmisch analysieren. Tatsächlich ist hier die Rede von dem Led-Zeppelin-Gitarristen Jimmy Page, der den Song Kashmir auf einer Les-Paul-Gitarre der Firma Gibson spielt.
Um einen Satz aber wirklich zu verstehen, muss die Maschine auch die Beziehungen zwischen den beteiligten Entitäten erkennen und semantisch interpretieren. So kann sich das Verb „play“ auf Spiele, Sport, Musik, Trickserei und vieles mehr beziehen. Die Wahrscheinlichkeit, dass „play“ im Sinne der Relation MusicianPerformsSong verwendet wurde, ist eben sehr hoch, wenn die mehrdeutigen Namen „Page“ und „Kashmir“ auf einen Musiker und ein Musikstück hinweisen.
Umgekehrt spricht in einem Satz, der „play“ mit der genannten Bedeutung von MusicianPerformsSong verwendet, vieles dafür, dass der Satz auch einen Musiker und einen Song erwähnt. Diese wechselseitigen Abhängigkeiten in der Interpretation der Verbal- und Nominalphrasen werden mithilfe von Optimierungsalgorithmen gelöst.
Digitales Wissen in Kombination mit reichhaltiger Statistik und schlauen Algorithmen ermöglicht der Maschine also ein verblüffend tiefes Sprachverstehen. Und natürlich bleibt man nicht bei einzelnen Sätzen in Aussageform stehen, sondern betrachtet außerdem Fragen, ganze Absätze, lange Essays oder wissenschaftliche Publikationen und auch Dialoge mit dem Menschen.
Ein schwieriges Beispiel für einen Fragesatz ist etwa: „Who did scores for westerns?“ Da muss man analysieren, dass sich „scores“ auf Filmmusik bezieht, mit „westerns“ Westernfilme gemeint sind und die saloppe Formulierung „did“ im Sinne der Relation ComposedMusic zu interpretieren ist. Mit diesem Sprachverständnis kann der Computer direkt eine Antwort aus seiner Wissensbasis liefern – etwa Ennio Morricone, der zum Beispiel die Musik zum Film Spiel mir das Lied vom Tod komponiert hat.
Die Wissens- und Sprachtechnologie von Computern unterliegt heute noch massiven Grenzen. Oft steht und fällt alles mit dem Reichtum der zugrunde liegenden Statistiken oder dem Ausmaß an Training für Lernverfahren. Auch gibt es Sprachen wie Mandarin, die einer Syntaxanalyse schwer zugänglich sind und ein viel komplexeres Maß an Mehrdeutigkeit aufweisen als das Englische oder Deutsche. Bei manchen Sprachen wie Bambara oder Urdu existiert kein großer Korpus an digitalen Texten und damit auch keine umfassende Statistik.
…. deren Fähigkeit den Turing Test zu bestehen…
Wenn wir jedoch den Fortschritt des vergangenen Jahrzehnts extrapolieren, kann man womöglich schon im Jahr 2020 mit Leistungen rechnen, die dem Bestehen des anfangs erwähnten Turing-Tests nahe kommen. Wir könnten dem Computer ein Schullehrbuch über Biologie „zum Lesen“ geben – und der Rechner würde anschließend Fragen auf dem Niveau einer mündlichen Abiturprüfung beantworten. Oder man denke an ein Spiel, in dem man gemeinsam mit anderen Onlinenutzern mit einer virtuellen Version des britischen Kochs Jamie Oliver Speisen zubereitet. Damit Jamie auf die Fehler seiner Lehrlinge bei der Zubereitung von Tiramisu richtig reagieren kann, muss der Computer die Gespräche und Gesten, die Mimik und visuellen Eindrücke analysieren und mit seinem Kochkunstwissen kombinieren.
…. und als beratende Assistenten zu fungieren
Im Bereich der medizinischen Diagnose gab es vor dreißig Jahren den heute belächelten Versuch automatischer Expertensysteme. Dieses damals gescheiterte Unterfangen rückt heute in variierter Form in Reichweite. Man stelle sich einen Arzt vor, der mit einem Patienten dessen Symptome und die Ergebnisse der ersten Labortests bespricht. Dabei hört der Computer zu und übernimmt die Rolle des beratenden Assistenten. Mit seinem enzyklopädischen Fachwissen kann dieser digitale Assistent entscheidende Hinweise liefern auf Diagnosehypothesen, die sich ausschließen lassen, oder zusätzliche Untersuchungen empfehlen, die unterschiedliche Hypothesen spezifisch diskriminieren. Der Computer kann sich auch als Gesprächspartner einschalten, mit Fragen an den Arzt oder den Patienten. In diesem Zukunftsszenario hat die Maschine eine sehr wesentliche Rolle, überlässt aber Entscheidungen und Verantwortung dem menschlichen Experten.
Wir werden potenziell zum Spielball von Effekten, um die wir nicht gebeten haben.
Digitales Wissen und intelligentes Sprachverstehen machen nicht bei Nachrichten, prominenten Personen und Allgemeinwissen halt, sondern sind auch methodische Bausteine, um Wissen über uns alle und unsere Vorlieben zu sammeln und für smarte Empfehlungen und Mensch-Maschine-Interaktionen zu nutzen. Die Quelle dafür sind unsere vielfältigen Interaktionen mit dem Internet – sei es über unsere Mitgliedschaften in sozialen Netzen oder über unser Smartphone und alles, was wir mit ihm machen.
Damit werden wir potenziell auch zum Spielball von Benutzertracking, Werbung und anderen Effekten, um die wir nicht unbedingt gebeten haben. Im Jahr eins nach dem NSA-Skandal ist offensichtlich, wie stark unser aller Privatsphäre dadurch beeinträchtigt werden kann. Dabei spielt digitales Hintergrundwissen eine wesentliche Rolle, wie das folgende fiktive Szenario vor Augen führt:
Zoe, eine junge Frau aus Namibia, die in Europa studiert, stellt Fotos und anderes Material auf ihre Seite in einem sozialen Netzwerk. Dort empfiehlt sie ihren Freunden außerdem Filme und Musik, unter anderem die grönländische Indie-Rock-Sängerin Nive Nielsen. Zoe ist im Netzwerk unter ihrem richtigen Namen bekannt und verfügt über ein öffentliches Kurzprofil.
Zoe hat Probleme mit ihrer Schilddrüse, nimmt das Medikament Synthroid („levothyroxine“) und leidet unter Nebenwirkungen. Sie findet ein Onlineforum zu Gesundheitsthemen, wird unter einem Pseudonym Mitglied und beteiligt sich an Diskussionen. Zu guter Letzt benutzt Zoe auch Suchmaschinen, um nach alternativen Medikamenten zu recherchieren, etwa Levothroid, aber auch nach Filmen über Apartheid oder nach ihrer Lieblingssängerin Nive Nielsen. Die Suchmaschinen erkennen Zoe nur als anonymen Nutzer, aber ein Internetbeobachter der Tracking- und Targeting-Branche kann ihre Such- und Clickhistorie über einen längeren Zeitraum sammeln.
Dieses vermeintlich harmlose Szenario hat es in sich. Ein Algorithmus mit Hintergrundwissen könnte Verknüpfungen zwischen Zoes drei Identitäten in der digitalen Welt herstellen. Der Angreifer könnte mithilfe einer Wissensbasis ermitteln, dass Synthroid und Levothroid Arzneien für dieselbe Art von Unterfunktion der Schilddrüse sind. Zusammen mit weiteren Hinweisen könnte er dann schließen, dass es sich im Gesundheitsforum und in der Suchhistorie um ein und dieselbe Person handelt.
Zudem gibt es eine extrem geringe statistische Wahrscheinlichkeit, dass sich zwei verschiedene junge Frauen aus Afrika für dieselbe grönländische Sängerin und andere Nicht-Mainstream-Themen interessieren. Der Angreifer kann somit die Suchhistorie mit Zoes Identität im sozialen Netzwerk verknüpfen. Schließlich folgt, dass Zoe dieselbe Person sein muss, die über ihre Schilddrüsenprobleme im Gesundheitsforum diskutiert. Das öffnet die Tür für unerwünschte Werbemails, mögliche Probleme mit der Krankenversicherung und andere – mehr als nur unangenehme – Konsequenzen.
Was wir hier skizziert haben, ist eine automatisierte Attacke auf Zoes Privatsphäre. Sie lebt von genau jener Wissens- und Sprachtechnologie des Computers, die wir zuvor als Segen und Hilfe für den Men-schen angesehen haben. Eine systematische, nachhaltig wirkende Gegenmaßnahme könnte selbst auf digitalem Wissen und Sprachverstehen beruhen: ein persönliches Softwarewerkzeug, genannt Privacy Advisor. Es beobachtet kontinuierlich Zoes Verhalten im Internet, kennt ihre Aktivitäten und Vorlieben. Und es analysiert permanent das Risiko, inwieweit Zoe kritische Dinge von sich preisgibt, die ein mächtiger Angreifer ausnutzen könnte. Wenn das Werkzeug Alarm schlägt, sollte es Zoe die Lage erklären und vorschlagen, wie sie sich alternativ zu verhalten hat, um das Risiko zu verringern.
Der Privacy Advisor
ist ein Konzept, das tatsächlich in hohem Maße auf maschinellem Wissen und Sprachverstehen basiert. Gegenüber potenziellen Angreifern besitzt es jedoch einen Vorteil: Es verfügt nicht nur über Welt- und Allgemeinwissen, sondern darüber hinaus auch über sehr persönliche Kenntnisse von Zoe. Damit Zoe dem Werkzeug vertrauen kann, muss es selbst als Open-Source-Software konzipiert und durch zahlreiche Programmierer überprüft sein. Seine Leistungsfähigkeit erhält es durch die an Zoe angepasste Konfiguration und die persönliche Wissensbasis.
An der Realisierung dieser Vision arbeiten Michael Backes (Universität des Saarlandes), Peter Druschel und Rupak Majumdar (Max-Planck-Institut für Softwaresysteme) sowie der Autor im Rahmen des durch einen ERC Synergy Grant geförderten Projekts im-PACT [2]. Das Projekt zielt auf ein wissenschaftlich fundiertes Verständnis aller relevanten Dimensionen des sozialen Basars, zu dem sich das Internet entwickelt hat, und ihrer potenziellen Spannungen: Zusätzlich zur Privatsphäre (Privacy) sind die Verantwortlichkeit der Nutzer (Accountability), die Spezifikationstreue von Diensten (Compliance) und das Vertrauen in Information und Wissen (Trust) fundamentale Pfeiler, die ein künftiges Internet haben sollte.
Ausblick
Dieser Artikel hat beleuchtet, inwieweit der Computer Wissen und Sprache – intellektuelle Fähigkeiten, die dem Menschen vorbehalten zu sein scheinen – zu erwerben vermag. Dabei haben wir gesehen, dass Maschinen heute digitales Wissen in großem Umfang automatisch sammeln und organisieren und für ein immer besser werdendes Sprachverständnis nutzen. Die folgenden Thesen mögen zum weiteren Nachdenken und Diskutieren anregen:
Maschinen werden dem Menschen in nicht zu ferner Zukunft in vielen Anwendungssituationen haushoch überlegen sein, wie etwa beim Beantworten wissensintensiver Fragen oder der automatischen Zusammenfassung langer Texte oder ganzer Korpora und deren Aufbereitung für Analysen. Maschinen werden auch in der Lage sein, Abiturprüfungen zu bestehen. Dem Bestehen des Turing-Tests werden Maschinen damit sehr nahe kommen. Man kann dies als Simulation intelligenten Verhaltens ansehen, die auf Wissen, Statistik und Algorithmen beruht. Für den Effekt in Anwendungen ist es irrelevant, ob wir es mit „künstlicher“ oder „echter“ Intelligenz zu tun haben.
In Situationen, die Einfühlungsvermögen und kognitive Flexibilität erfordern, wird die Maschine dem Menschen nicht wirklich überlegen sein, sich aber als unverzichtbarer Assistent erweisen. Ein Beispiel dafür ist die Hilfe bei medizinischen Diagnosen, wo der Computer als nahezu vollwertiger Gesprächspartner für Arzt und Patient fungieren kann. Es wird aber auch immer Situationen geben, in denen uns die Maschine nicht zu imitieren vermag: Humor, Ironie, Flirten und andere Emotionen bleiben sicher noch lange dem Menschen vorbehalten.
Da Computer zunehmend die Bedeutung von Texten in sozialen Medien analysieren und Zusammenhänge zwischen Begriffen herstellen, eröffnen sich ihnen völlig neue Anwendungsmöglichkeiten – aber nicht nur zum Besten der Nutzer: Das semantische Verständnis befähigt die Maschinen auch, uns Menschen umfassender zu analysieren. Doch wir müssen uns dem nicht ausliefern: Schließlich können wir Computern beibringen, uns mit ihrem Sinn für Bedeutungen und Zusammenhänge zu warnen, wenn wir im Internet zu viele Informationen preisgeben, die Algorithmen zu detaillierten Persönlichkeitsprofilen verknüpfen könnten.
[1] Der im Wissenschaftsmagazin der Max-Planck Gesellschaft MPF 1/14 http://www.mpg.de/8161388/MPF_2014_1.pdf erschienene, gleichnamige Artikel wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert. [2] Das Projekt „imPACT“ gewann im Dezember den mit 10 Millionen € dotierten ERC Synergy Grant, der die höchste Auszeichnung der Europäischen Union darstellt. Das Projekt hatte sich beim europaweiten Wettbewerb gegen rund 450 Projekte durchgesetzt. Siehe auch Video (3:00 min): http://sr-mediathek.sr-online.de/index.php?seite=7&id=22310&startvid=2 ;
Anmerkungen der Redaktion
Sprachverständnis und ›Hausverstand‹
Nicht unerwähnt bleiben sollte in diesem Zusammenhand die Cycorp Corporation, deren Inferenzmaschine (kann logische Schlussfolgerungen ziehen) cyc Sprachverständnis auf semantischem Niveau anstrebt. (Cycorp selbst spricht sogar von einer Ontologie.)
Cycorp stellt unter dem Namen OpenCyc die vollständige Engine unter einer freien Lizenz zur Verfügung.
Turing-Test
Brandaktuell: Vor wenigen Tagen hat Medienberichten zufolge eine Software erstmals den Turing-Test bestanden.
Allerdings nicht in der vom Autor beschriebenen Variante, nach der man dem System ein Lehrbuch zu lesen gibt und dann darüber spricht, sondern ›nur‹ in einem allgemeinen Gespräch, wobei das System vorgab, ein 13-Jähriger Ukrainer zu sein. Keine Artificial Intelligence im oben beschriebenen Sinne also, aber dennoch eine bemerkenswerte Leistung. Auch andere Kritik wurde geäußert.
Weiterführende Links
Homepage Max-Planck-Institut für Informatik: http://www.mpi-inf.mpg.de/de/home/
Semantic knowledge bases from web sources (2011). Hady W. Lauw, Ralf Schenkel, Fabian M. Suchanek, Martin Theobald, Gerhard Weikum. Video 45:08 min (Englisch) http://videolectures.net/ijcai2011_t5_semantic/
For a Few Triples More. G. Weikum, Keynote lecture at ISWC 2011, Bonn, Video 1:05:32 (Englisch) http://videolectures.net/gerhard_weikum/
Interview mit Gerhard Weikum (Siemens): http://www.siemens.com/innovation/apps/pof_microsite/_pof-spring-2011/_h...
Der weltberühmte Entwicklungsbiologe Walter Gehring ist tot
Der weltberühmte Entwicklungsbiologe Walter Gehring ist totFr, 13.06.2014 - 05:18 — Redaktion
Walter Gehring hat fundamentale Prinzipien der molekularen Entwicklungsbiologie entdeckt: die sogenannten Homeobox-Gene lösten die Frage, wie der Bauplan mehrzelliger Organismen in der Embryonalentwicklung festgelegt wird, das Homeobox-Gen Pax6 stellte sich als Hauptschalter in der Entwicklung des Auges in allen Tieren heraus - der Beweis, dass alle unterschiedlichen Augentypen – von den Plattwürmern bis hin zum Menschen - vom selben Prototyp abstammen. Über dieses letztere Thema hat Walter Gehring ScienceBlog.at einen Artikel: Auge um Auge - Entwicklung und Evolution des Auges gewidmet. Walter Gehring verstarb am 29. Mai an den Folgen eines schweren Verkehrsunfalles.
Walter Gehring (2014), ein faszininierender Wissenschafter von ansteckender Fröhlichkeit (Bild: Wikipedia)
Walter Gehring war mit Leib und Seele Wissenschafter. Er strahlte Begeisterung für seine Forschungsgebiete aus und konnte diese auch auf andere übertragen. Dass er Entwicklungsbiologie wurde, führte er auf ein frühkindliches Erlebnis zurück, das ihn offensichtlich für sein weiteres Leben prägte. Er hat gerne davon erzählt, etwa mit folgenden Worten:
„Als ich ein kleiner Bub war, schickte mir mein Onkel eine große Schuhschachtel, die viele kleine Löcher im Deckel hatte. Meine Mutter hat mir den beigelegten Brief vorgelesen. Drinnen stand, dass in der Schachtel ein paar Schmetterlingspuppen wären, und daß wir sie für’s Überwintern auf den Dachboden stellen sollten, damit im Frühling daraus Schmetterlinge würden. Ich war sehr neugierig und öffnete gleich die Schachtel, sah aber nur braungefleckte Kreaturen, die sich nicht bewegten und dachte, daß sie vermutlich beim Transport gestorben wären. Meine Mutter versicherte mir, daß die Puppen keinen Schaden erlitten hatten, wir stellten sie auf den Dachboden und ich vergaß darauf. Im Frühjahr habe ich auf dem Dachboden gespielt und die Schuhschachtel wieder gesehen und geöffnet. Da waren aus den Puppen wunderbare Schmetterlinge geworden.“[1]
Die Frage, wie eine derartige Verwandlung der Puppe zum Schmetterling erfolgen konnte, ließ Walter Gehring nicht mehr los. Sein zentrales Forschungsgebiet beschäftigte sich auch später mit den Mechanismen, welche die Entwicklung von mehrzelligen Organismen steuern: Wie es kommt, dass jede Zelle ihren festlegten Platz findet und ihre spezifische Funktionen erhält – obwohl doch jede einzelne Zelle die gleiche Erbinformation enthält. Von seinen fundamentalen Beiträgen zur Entwicklungsbiologie sollen im Folgenden nur zwei kurz umrissen werden, welche universelle Prinzipien darstellen.
Die Homeobox – Rosettastein der Entwicklungsbiologie
Als Doktorand des Entwicklungsbiologen Ernst Hadorn in Zürich machte Gehring eine entscheidende Entdeckung an der Taufliege Drosophila, die auch später das primäre Modell für seine Untersuchungen blieb. Eine Mutante dieser Fliege („Antennapedia“) trug anstelle von Fühlern (Antennen) Beine am Kopf. Gehring vermutete, daß das Gen, welches die Mutation trug, ein übergeordnetes Gen sein müsse, welches die Kaskade der in die Bildung von Antennen und Beinen involvierten Gene regulieren würde. Später wurde es klar, dass derartige Gene – sogenannte homeotische Gene - die Bildung der unterschiedlichen Körpersegmente aller Organismen und somit deren Grundbaupläne bestimmen. Mit molekularbiologischen Methoden konnte Gehring in diesen homeotischen Genen einen kurzen (180 Nukleotidbausteine langen) DNA-Abschnitt identifizieren, der für die Regulation der in die Bildung der Köpersegmente involvierten Genkaskaden bestimmend ist, und er benannte diesen „Homeobox“. Er wies auch nach, dass derartige Homeobox-Gene in allen Vielzeller-Organismen über die Evolution hoch konserviert sind und klärte in Zusammenarbeit mit Kurt Wütthrich den Mechanismus der Homeobox-Regulierung im atomaren Detail auf.
Das Pax6-Gen und die „Frankensteinfliege“
Mit dem Homeobox-Pax6- Gen entdeckte Walter Gehring ein weiteres fundamentales Prinzip der Entwicklungsbiologie: Mutationen in diesem Gen blockieren die Entwicklung der Augen bereits in frühesten Stadien. Mit seinem Experiment Pax6 an verschiedenen Stellen der Fliege – ektopisch – zu exprimieren, gelang es ihm die Bildung von funktionsfähigen Facettenaugen an völlig unerwarteten Stellen – an Beinen, Fühlern, Flügeln - zu induzieren. Das Bild einer Fliege mit 14 roten Augen an verschiedensten Körperstellen ging um die Welt – die „Frankensteinfliege“ sorgte für negative Schlagzeilen.
Pax6 ist ein Masterkontrollgen – eine Art Hauptschalter. Mit molekulargenetischen Untersuchungen konnte Walter Gehring zeigen, daß die verschiedenen Augentypen, die man im Tierreich findet, alle durch Pax6 gesteuert werden und somit – monophyletisch auf einen gemeinsamen Prototyp zurückgehen. Eine ausführliche Darstellung dieses Themas hat Walter Gehring in seinem ScienceBlog Artikel Auge um Auge - Entwicklung und Evolution des Auges gegeben.
Das Vermächtnis, das Walter Gehring hinterlässt, umfasst nicht nur seine sehr zahlreichen, hochzitierten Veröffentlichungen (Hirsch-Faktor 92), er hat am Biozentrum in Basel auch eine höchst erfolgreiche Gehring-Schule geschaffen, in der Doktoranden, Postdoktoranden und Wissenschafter aus aller Welt aus- und eingingen, von denen einige höchste Auszeichnungen erlangten - Christiane Nüsslein-Volhard und Eric Wieschaus – beides Postdoktoranden erhielten den Nobelpreis.
Für seine bahnbrechenden Beiträge zur Entwicklungsbiologie hat Walter Gehring selbst zahlreiche hohe Auszeichnungen erhalten, u.a. den Orden «Pour le Mérite», den Balzan Preis, den Kyoto-Preis. Eine detaillierte Auflistung sowie sein Curriculum vitae sind unter http://scienceblog.at/walter-jakob-gehring und [2] nachzulesen. Für diejenigen die Walter Gehring näher kannten, wird er stets als faszinierender Wissenschafter und großartiger Vortragender, ebenso wie als humorvoller, fröhlicher und warmherziger Freund in Erinnerung bleiben.
[1] The Journey of a Biologist http://www.gehring.biozentrum.unibas.ch/media/Autobiogr_BalzanDOC.pdf
[2] http://www.gehring.biozentrum.unibas.ch/cv.html
Weiterführende Links
Zum Ableben von Walter Gehring, audio: http://www.srf.ch/player/radio/rendez-vous/audio/schweizer-entwicklungsb...
Zur Verleihung des Balzan-Preises: http://www.balzan.org/de/preistrager/walter-gehring
Evolution of the eye
http://www.youtube.com/watch?v=7jEhzAn1hDc&feature=related 2:34 min (Englisch)
International workshop on Evolution in the Time of Genomics (7 – 9 May 2012)- part 07. 1:27:37. Vortrag von Walter Gehring rund 30 min (ab: 38 min). (in Englisch; setzt etwas an biologischen Grundkenntnissen voraus). http://www.youtube.com/watch?v=fdZJTmHO4is
Biologie der Stille. Das Wunder des Hörens – und des Schweigens
Biologie der Stille. Das Wunder des Hörens – und des SchweigensFr, 06.06.2014 - 07:20 — Gottfried Schatz
Unser Gehör ist von allen fünf Sinnen die schnellste und empfindlichste Sinneswahrnehmung. Es lässt uns Töne mit sehr knapp auseinander liegenden Frequenzen unterscheiden, ermöglicht eine präzise Orientierung im Raum und warnt vor Gefahren. Haarzellen, welche die zentrale Rolle im komplexen Vorgang des Hörens spielen, reagieren allerdings hochempfindlich auf zu lautes oder zu langes Beschallen..
Vor einigen Jahren kam mir die Stille abhanden. Sie verschwand unbemerkt und hinterließ in meinen Ohren ein sanftes Zirpen, das in lautlosen Nachtstunden Erinnerungen an schläfrige Sommerwiesen meiner Kindheit weckt - und mich an das Wunder meines Hörsinns erinnert.
Meine Ohren messen Luftdruckschwankungen und senden das Messresultat als elektrische Signale an das Gehirn. Keiner meiner Sinne ist schneller. Die Augen können höchstens zwanzig Bilder pro Sekunde unterscheiden - die Ohren reagieren bis zu tausendmal rascher. So erschließen sie uns das Zauberreich der Klänge von den schimmernden Obertönen einer Violine, die etwa zwanzigtausendmal pro Sekunde schwingen, bis hinunter zum profunden Orgelbass mit fünfzehn Schwingungen pro Sekunde. Keiner meiner Sinne ist präziser.
Ich kann Töne unterscheiden, deren Schwingungsfrequenzen um weniger als 0,05 Prozent auseinander liegen. Und keiner meiner Sinne ist empfindlicher, denn mein Gehör reagiert auf schallbedingte Vibrationen, die kleiner als der Durchmesser eines Atoms sind. Da meine zwei Ohren nicht nur die Stärke eines Schalls, sondern auch sein zeitliches Eintreffen mit fast unheimlicher Präzision untereinander vergleichen, sagen sie mir, woher ein Schall kommt, und schenken mir auch im Dunkeln ein räumliches Bild der Umgebung. Und dabei sind meine Ohren Stümper gegen die einer Eule, die eine raschelnde Maus in völliger Dunkelheit und aus großer Entfernung mit tödlicher Präzision orten kann.
Haarfein
Das Organ, das diese Wunderleistungen vollbringt, ist kaum grösser als eine Murmel und lagert sicher in meinem Schläfenbein (Abbildung 1).
Abbildung 1. Aufbau des menschlichen Ohres. Schallwellen gelangen durch den äußeren Gehörgang an das Trommelfell und versetzen es in Schwingungen, die via Gehörknöchelchen – Hammer, Amboss, Steigbügel - über das Mittelohr und das ovale Fenster an die Schnecke im Innenohr übertragen werden. (Bild: Wikipedia)
Sein Herzstück ist ein mit Flüssigkeit gefüllter spiraliger Kanal (Cochlea – Schnecke), dem zwei elastische Bänder als Boden und Decke dienen. Am Bodenband sind wie auf einer Wendeltreppe etwa zehntausend schallempfindliche Zellen stufenartig aufgereiht, die, wie Rasierpinseln, an der Oberseite feine Haare tragen (Stereocilia, Abbildung 2).
Abbildung 2. Querschnitt durch den spiralenförmig gewundenen Knochenraum der Schnecke (links). Der Steigbügel drückt auf die wässrige Flüssigkeit im Innern der Schnecke und erzeugt eine Wanderwelle; diese erregt die Haarzellen am Bodenband der Schnecke (rechts) zur Umwandlung der mechanischen Schwingungen in elektrische Signale, welche über die Nervenbahnen (gelb) an das Hörzentrum im Gehirn weitergeleitet werden. (Bild: OpenStax College. Anatomy & Physiology, OpenStax-CNX Web site. Creative commons license)
Diese Wendeltreppe ist vom Mittelohr durch eine feine Membran getrennt (ovales Fenster). Wird diese zum Schwingen angeregt, überträgt sie die Schwingung auf die Flüssigkeit und die beiden elastischen Bänder der spiraligen Wendeltreppe und verbiegt dabei die Haarspitzen der schallempfindlichen Zellen. Selbst die winzigste Verformung dieser Spitzen ändert die elektrischen Eigenschaften der betreffenden Zelle und erzeugt ein elektrisches Signal, das über angekoppelte Nervenbahnen fast augenblicklich die Gehörzentren des Gehirns erreicht. Jede Haarzelle unterscheidet sich wahrscheinlich von allen anderen in der Länge ihrer Haare und der Steife ihres Zellkörpers. Da eine Struktur umso langsamer schwingt, je grösser und flexibler sie ist, sprechen die verschiedenen Haarzellen auf verschieden hohe Töne an. Die Ansprechbereiche der einzelnen Zellen überlappen jedoch; mein Ohr berücksichtigt diese Überlappungen und kann mir so ein differenziert-farbiges Klangbild liefern.
Warum reagieren die Haarzellen meiner Ohren so viel schneller als die Netzhaut meines Auges? Wenn Licht auf die Netzhaut fällt, setzt es eine Kette relativ langsamer chemischer Reaktionen in Gang, die schliesslich zu einem elektrischen Signal führen. Wenn dagegen ein Ton die Haarzellen verformt, öffnet er in den Membranen der Haarzelle Schleusen für elektrisch geladene Kalium- und Kalziumionen und erzeugt damit augenblicklich ein elektrisches Signal. Während unsere Augen also erst das Feuer unter einer Dampfmaschine entfachen müssen, die dann über einen Dynamo Strom erzeugt, schliessen unsere Ohren den Stromkreis einer bereits voll aufgeladenen Batterie.
Die Haarzellen unseres Gehörs sind hochverletzlich.
Werden sie zu stark oder zu lang beschallt, sterben sie und wachsen nie mehr nach. Für die Entwicklung unserer menschlichen Spezies waren empfindliche Ohren offenbar wichtiger als robuste, denn mit Ausnahme von Donner, Wirbelstürmen und Wasserfällen sind extrem laute Geräusche eine «Errungenschaft» unserer technischen Zivilisation. Rockkonzerte, Düsenmotoren, Discos und Presslufthämmer bescheren uns immer mehr hörgeschädigte Menschen, die überlaute Musik bevorzugen und damit auch ihre Mitmenschen gefährden. Selbst ohne hohe Schallbelastung verliert unser Ohr mit dem Alter unweigerlich Haarzellen, vor allem solche für hohe Töne. Die meisten älteren Menschen können deshalb Töne, die schneller als achttausendmal pro Sekunde schwingen, nicht mehr hören. Im Allgemeinen ist dies kein Problem, doch für Konzertgeiger, die schnell schwingende Obertöne hören müssen, um in hohen Lagen rein zu intonieren, kann es das Ende der Karriere bedeuten. Schwerhörigkeit und Taubheit sind für unsere Gesellschaft ein viel gewichtigeres und teureres Problem als Blindheit.
Interpunktion
Die Qualität einer Sinnesempfindung hängt, wie die jedes Signals, vom Rauschabstand ab - von dem Verhältnis von Signalstärke zu zufälligem Hintergrundrauschen. Ein gesundes Ohr kann noch Geräusche wahrnehmen, die über eine Million Mal schwächer sind als solche, die an der Schmerzgrenze liegen. Dieser eindrückliche Rauschabstand schenkt uns nicht nur eine reiche Klangpalette, sondern lässt uns auch komplexe akustische Signale virtuos entschlüsseln. Hoher Rauschabstand ermöglicht Stille zur rechten Zeit - und auch die ist ein Signal. Was wären die drei Anfangsschläge von Beethovens «Eroica»-Sinfonie ohne die darauffolgende Pause? Ist es nicht vor allem das dramatische Anhalten vor wichtigen Aussagen, das eine meisterhafte Rede kennzeichnet? Und als Ludwig Wittgenstein schrieb: «Wovon man nicht sprechen kann, darüber muss man schweigen», meinte er vielleicht, dass auch Logik die Interpunktion präzise gesetzter Stille fordert.
Warum verweigert mir mein Gehör jetzt diese Stille? Senden einige meiner Hörnerven nach dem Tod ihrer Haarzellen-Partner Geister-Signale ans Gehirn? Oder können meine alternden Haarzellen ihre Membranschleusen für elektrisch geladene Teilchen nicht mehr richtig schliessen?
Die Zellen meines Körpers arbeiten deshalb so gut zusammen, weil sie nur die Gene anschalten, die sie für ihre besonderen Aufgaben gerade brauchen. Meine Zellen wissen viel, sagen aber stets nur das Nötige. In einer typischen Zelle meines Körpers sind die meisten Gene still. Doch nun, da mein alternder Körper sie nicht mehr so fest wie früher im Griff hat, werden sie unruhig. Meine Haut bildet spontan braune Pigmentflecken, und auf meinen Ohrläppchen spriessen einige regelwidrige Haare. Wenn nur nicht ein Gen, welches das Wachstum meiner Zellen fördert, seine Schweigepflicht zur falschen Zeit und am falschen Ort verletzt und mir die Diagnose «Krebs» beschert! Für die Funktion von Genen ist präzises Schweigen ebenso wichtig wie präzises Sprechen. Auch Gene kennen den Wert der Stille.
Der Artikel ist Teil des Themenschwerpunkts „Sinneswahrnehmung“.
Weiterführende Links
Das Ohr - Schulfilm Biologie 3:58 min
Wie hören wir? Gehör I Ohren 3:51 min
Wie funktioniert das Ohr? 4:46 min
Hermann von Helmholtz untersucht das Hören "Ich bin ganz Ohr" 4:08 min. Der Film entstand im Auftrag von Prof. Dr. Armin Stock von der Universität Würzburg, Adolf-Würth-Zentrum für Geschichte der Psychologie (http://www.awz.uni-wuerzburg.de/archi...) und wird hier innerhalb der ständigen Ausstellung gezeigt.
Cochlear animation 1:11 min
Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“
Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“Fr, 29.05.2014 - 23:16 — Alexander Petter-Puchner & Heinz Redl
Bei der Leistenbruchoperation werden heute Kunststoffnetze zur Verstärkung des Verschlusses eingesetzt. Die Fixierung dieser Netze mit Klammern und Nähten kann infolge der Verletzung von Nerven und Gefäßen dauerhafte Schmerzen verursachen. Die Anwendung des am LBI Trauma entwickelten Fibrinklebers führt zur schnellen und zuverlässigen Netzfixation ohne Gewebeschädigung und daher minimalen postoperativen Beschwerden.
Leistenbruchoperationen sind die häufigsten allgemeinchirurgischen Eingriffe überhaupt. In Österreich ist jeder 4. Mann und jede 10. Frau betroffen. Häufig bleiben Leistenbrüche (Leisten- oder Inguinalhernien) unbemerkt oder verursachen über lange Zeit keine oder kaum Beschwerden. Inguinalhernien stellen Bruchlücken der unteren Leibeswand dar, durch die Inhalt aus der Bauchhöhle austreten und einklemmen kann (Abbildung 1). Abbildung 1. Leistenbruch (Inguinalhernie). Links: Bei Schwachstellen in der Bauchwand entstehen sogenannte Brüche im Bereich des Leistenkanals. Rechts: Schematischer Aufbau einer Inguinalhernie; Beschreibung im Text (Bilder modifiziert nach: Wikimedia und http://www.surgwiki.com/wiki/File:Ch40-fig1.jpg )
Anatomie des Leistenbruchs
Hernien bestehen aus einer Bruchpforte (im Fall der Inguinalhernien entlang des Samenleiters beim Mann oder unmittelbar abgesetzt davon direkt in der Bauchwand), einem Bruchsack und Bruchsackinhalt (Abbildung 1, rechts). Meist handelt es sich dabei um Anteile des sogenannten großen Netzes (eine Fettschürze, die im Bauchraum auf dem Darmkonvolut liegt) oder Dünndarmschlingen, die in den Bruchsack der Hernie rutschen können. Manchmal sind aber auch Anteile des Dickdarmes bei linksseitigen bzw. der Wurmfortsatz (Appendix) bei rechtseitigen Hernien im Bruchsack zu finden.
Kann der Inhalt von selbst oder durch sanften manuellen Druck wieder zurückgleiten, spricht man von reponiblen Hernien. Ist der Inhalt eingeklemmt (inkarzeriert), muss davon ausgegangen werden, dass eine Mangeldurchblutung des betroffenen Gewebes vorliegt und es besteht eine Indikation zur akuten bzw. dringlichen Operation. Genauso verhält es sich, wenn eine Reposition zwar gelingt, diese aber, zB durch verzögerten Arztbesuch, erst Stunden nach der Inkarzeration erfolgt. Ist lediglich Fettgewebe inkarzeriert, wird diese Situation von den Patienten oft lange (über Jahre) toleriert, bis aufgrund einer akuten Durchblutungsstörung durch Nachrutschen von Bruchsackinhalt oder zusätzliches Einklemmen von Darmanteilen die Beschwerden schlagartig massiv werden. Die Beschwerden sind grundsätzlich ähnlich wie bei einer akuten Bauchfellentzündung, bzw. eines akuten Darmverschlusses und bestehen in plötzlich einsetzenden Bauchschmerzen mit Hartwerden der Bauchwand rund um die Bruchpforte, sowie plötzlicher Übelkeit und Erbrechen.
Grundsätzlich ist anzumerken, dass sehr große Hernien (größerer Durchmesser der Bruchpforte) weniger zur Inkarzeration neigen, da der Inhalt leichter hin-und hergleiten kann. Es besteht bei großen Hernien jedoch die Tendenz zu rascher, weiterer Größenzunahme, da es durch die Schwerkraft zum voranschreitenden Eintritt von Fettgewebe und Darmschlingen in den Bruchsack kommen kann. In der Literatur sind Fälle beschrieben, in dem das gesamte Darmkonvolut aus dem Bruchsack monströser Inguinalhernien im Zuge aufwendiger Operationen reponiert werden musste. Hodenbrüche (oder Skrotalhernien) bestehen, wenn im Zuge der Größenzunahme des Bruchsackinhaltes, dieser in den Hodensack (Skrotum) absinkt. Diese Bruchform besteht zumeist bei älteren Patienten, die wegen fehlendem Leidensdruck oder hohem Operationsrisiko bei kardiovaskulären Begleiterkrankungen erst spät in der chirurgischen Sprechstunde vorstellig werden.
Schenkel- oder Femoralhernien unterscheiden sich von Inguinalhernien durch die unterschiedliche Lokalisation der Bruchlücke. Inguinalhernien sind, wie durch die Bezeichnung ersichtlich, Schwachstellen der anatomisch klar definierten Leistenregion, während Femoralhernien an der Austrittsstelle aus dem Becken für die großen Gefäße der unteren Extremitäten zutage treten und bei Frauen häufiger sind als bei Männern.
Die operative Behandlung von Leistenbrüchen
In der Behandlung von Inguinalhernien kommen „offene“ (über Leistenschnitt, zB OP nach Lichtenstein) und minimal-invasive Verfahren (mit Kamera in Schlüssellochtechnik, zB „TAPP, TEP“) zum Einsatz. Die Implantation von Kunststoffnetzen aus Polypropylen oder Polyester zur Verstärkung des Verschlusses ist mittlerweile „state of the art“.
Obwohl durch die Einführung spannungsfreier, netzunterstützter Operationsmethoden sowohl die Rezidivrate (Häufigkeit des Wiederauftretens einer Hernie nach OP), als auch den chronischen Schmerz nach der Operation im Gegensatz zu reinen Nahtmethoden (Shouldice, Bassini-OP) drastisch gesenkt werden konnte, waren die Ergebnisse besonders hinsichtlich des Schmerzes und der Lebensqualität bis vor kurzem noch immer enttäuschend. In großen, internationalen Studien berichteten noch immer mehr als 5% aller Patienten von Dauerschmerzen nach Operationen zum Verschluss von Inguinalhernien mit Kunststoffnetzen. Eine eingehende Analyse des Problems konnte die Netzfixation, d.h. die Techniken, mit denen man die Netze am Gewebe festmacht, als die Hauptursache für das Entstehen chronischer Schmerzen identifizieren. Die bis dahin verwendeten Nähte und Klammern verursachen durch die unbeabsichtigte und unvermeidliche Verletzung von Nerven und Gefäßen dauerhafte Schmerzen mit einer oft beträchtlichen Beeinträchtigung des privaten, sozialen und beruflichen Alltages (Abbildung 2).
Abbildung 2. Die Rolle perforierender Netzfixation in der Schmerzentstehung. 30 Jahre alte Patientin, Status nach 2 laparoskopischen Leistenoperationen. Die roten Pfeile markieren die verwendeten Klammern. Die resultierende Nervenverletzung führte zu 18 Monaten Krankenstand. Dies hätte durch Netzfixation mit Fibrinkleber vermieden werden können.
Es ist selbstredend, dass diese Situation - abgesehen von der individuellen Betroffenheit (gestörtes Freizeit-und Sexualverhalten junger männlicher und weiblicher Patienten) - auch dem Gesundheitssystem enorme Kosten durch lange Krankenstände und eingeschränkte Produktivität aufbürdet. Es entwickelte sich also die Suche nach besseren und weniger schmerzhaften Fixationstechniken von Herniennnetzen (analog bei Bauchwand-, Nabel- und Zwerchfellhernien, die ebenfalls mit Netzen verschlossen werden) zu einem Forschungsziel ersten Ranges.
Fibrinkleber: Forschungsschwerpunkt am Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma)
Seit den 1970er-Jahren wird am LBI Trauma in Wien intensiv am Einsatz von Fibrinkleber in vielen medizinischen Bereichen gearbeitet [siehe dazu ScienceBlog Artikel: [1],[2].
Fibrinkleber bedient sich zweier wesentlicher Komponenten der natürlichen Gerinnungskaskade des Menschen: Fibrinogen und Thrombin. Fibrinogen und Thrombin bilden ein hochelastisches Geflecht, an dem sich die weißen Blutplättchen (Thrombozyten) anlagern. Gemeinsam dient dieser Thrombus dem Verschluss von Gefäßverletzungen (siehe [2]). Der so entstandene Thrombus ist nicht nur extrem elastisch, sondern auch stabil, wird aber vom Körper innerhalb von 10-14 Tagen auch wieder abgebaut. Fibrinkleber eignet sich daher zur
- Blutsstillung,
- zur Abdichtung von Gefäßnähten,
- von Lungengewebe im Rahmen von Tumoroperationen,
- sowie zur lokalen Verbesserung der Wundheilung nach Haut- und/oder Muskeltransplantationen,
- zur Behandlung von Verbrennungen und Deckung großer Defekte der Körperoberfläche.
Die verbesserte Wundheilung durch Fibrinkleber ist durch den hohen Gehalt an Wachstumsfaktoren für Bindegewebe und Gefäße zu erklären.
Fibrinkleber in der Hernienchirurgie…
Alle diese Eigenschaften ließen Fibrinkleber auch für die Anwendung zur Klebung von Kunststoffnetzen in der Hernienchirurgie interessant erscheinen. Die Arbeitsgruppe am LBI Trauma nahm im Jahre 2004 die Arbeit zu diesem Thema auf. Die klar definierten Ziele waren:
- Die Reduktion postoperativen Schmerzaufkommens,
- Vergleichbare Fixationssicherheit wie mit Klammern und Nähten.
Es galt dabei jedoch mit dem chirurgischen Dogma zu brechen, dass es für eine gute Einheilung (Integration) der Netze unabdingbar wäre, diese anfangs möglichst fest an der Unterlage anzubringen.
…führt zur schnellen und zuverlässigen Netzfixation ohne Gewebeschädigung…
Interessanterweise konnte rasch demonstriert werden, dass das flächenhafte Aufbringen, das mit einem Kleber möglich ist (während Nähte und Klammern stets nur punktuell halten), in einer hervorragenden mechanischen Festigkeit resultiert und dass die Integration des Netzes durch die verbesserte Anpassung an die Unterlage ebenfalls beschleunigt und stimuliert wird.
Darüber hinaus ist es erwähnenswert, dass die mechanische Festigkeit der Netzfixation mit Fibrinkleber über die ersten Tage kontinuierlich zunimmt. Der Kleber härtet nach Aufbringen noch weiter aus (er polymerisiert) und wird dann rasch von körpereigenen Zellen durchdrungen, die sich so frühzeitig an der Fixation des Netzes beteiligen. Nur 12 Tage nach dem Aufbringen des Fibrinklebers ist dieser vollständig abgebaut und das Netz sicher integriert. Der Fibrinkleber verursacht keinerlei Gewebsschädigung und kann auch in anatomischen Regionen der Leiste das Netz sichern, in welchen Nähte und Klammern wegen sich dort verzweigender Nervengeflechte nicht gesetzt werden sollen.
In den Experimenten am LBI konnte die zuverlässige Netzfixation mit Fibrinkleber einwandfrei gezeigt werden. Dabei wurden ca. 20 verschiedene Netze eingesetzt, um den Einfluss der Materialien, sowie der Webart (Porengröße, Netzgewicht, etc.) zu ermitteln. Außerdem wurden diverse Arten der Kleberapplikation (in Tropfen, als Spray - ) und verschieden Kleberkonzentrationen (wechselnder Thrombingehalt) getestet. Wie ein in Schlüssellochoperationen verwendeter Spraykopf für Fibrinkleber aussieht, ist in Abbildung 3 dargestellt.
Abbildung 3. Der im LBI Trauma entwickelte Spraykopf für die laparoskopische Fibrinkleber-Applikation
…und minimalen postoperativen Beschwerden
Die Frage nach dem Schmerzaufkommen und der Lebensqualität nach Leistenbruchoperationen mit Netzklebung konnte danach nur in einer chirurgischen Spitalsabteilung beleuchtet werden. In Kooperation mit der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital in Wien [3] wurden mehrere klinische Studien durchgeführt, die zeigen konnten, dass Patienten, die in dieser neuen Technik behandelt wurden, über exzellente Zufriedenheit und minimale Schmerzsymptomatik (beschränkt auf die unmittelbare Phase) berichteten. Diese Studien verglichen die Fibrinkleber-Netzfixation bei Leistenhernienoperationen in offener und minmal-invasiver (laparoskopischer) Technik mit den bis dahin angewandten Techniken mit Klammern [4]. In beiden Techniken (Lichtenstein und TAPP) konnte durch die Netzfixation mittels Fibrinkleber das postoperative Schmerzaufkommen bereits vor der Entlassung (im Durchschnitt 3 Tage nach der OP) reduziert und die Lebensqualität über mindestens 1 Jahr nach der Operation signifikant verbessert werden. Bei der Studienplanung konnte auf die eigenen Erkenntnisse aus den vorangegangenen Experimenten zurückgegriffen werden, was v.a. bei der Auswahl eines geeigneten Netzproduktes sehr hilfreich war. Im Zuge der klinischen Anwendungen im Rahmen dieser Studien wurden auch die Gerätschaften zum Sprayen des Fibrinklebers verbessert und weiterentwickelt (Abbildung 4).
Die erfreulichen Resultate der klinischen Studien wurden wie die experimentellen Vorarbeiten in internationalen, chirurgischen Topjournalen veröffentlicht und trugen zusammen mit zeitgleich erschienenen Arbeiten anderer Studiengruppen zur Übernahme der Fibrinkleber Netzfixation als Standardtechnik in den Empfehlungen der wichtigsten europäischen Fachgesellschaften bei.
Fazit
Die Kooperation*) des LBI Trauma mit dem Wilheminenspital am Gebiet der Herniennetzfixation mit Fibrinkleber ist ein gelungenes Beispiel der Translation von in der Grundlagenforschung gewonnenen Erkenntnissen in die Klinik mit rasch sicht- und messbarer Verbesserung der Behandlung. In diesem konkreten Fall ist der Nutzen durch die große Zahl betroffener Patienten und die signifikante Verbesserung der wichtigsten Messgrößen, Schmerz und Lebensqualität, als besonders hocheinzuschätzen.
[2] H.Redl: Kleben statt Nähen – Gewebekleber auf der Basis natürlichen Fibrins
[3] Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital in Wien (Vorstand K.Glaser)
[4] Studienleiter R.H. Fortelny, http://www.fortelny.at/index.html. Ergebnisse an rund 6000 Patienten sind bescrieben in: R H. Fortelny, A.H. Petter-Puchner, K.S. Glaser, H. Redl; Use of fibrin sealant (Tisseel/Tissucol) in hernia repair: a systematic review. Surg Endosc (2012) 26:1803–1812
*) An der Kooperation von LBI Trauma und Wilheminenspital zur Herniennetzfixation mit Fibrinkleber beteiligt sind:
Alexander Petter-Puchner (Autorenprofil),
René H. Fortelny, Facharzt für Chirurgie, Leitung und Aufbau der experimentellen Herniengruppe am LBI Trauma, Leitung des zertifizierten Hernienzentrums an der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital.
Simone Gruber-Blum, Projektleiterin in der Forschungsgruppe zur Behandlung von Bauchwanddefekten im LBI Trauma, Ausbildungsassistentin an der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital.
Heinz Redl, Direktor des LBI Trauma, Autorenprofil.
Karl Glaser, Vorstand der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital, Wien
Weiterführende Links
A. Petter-Puchner beschreibt die Technik der Netzfixation mittels Fibrinkleber in Chirurgie, 1 (2014) p. 14: How I do it: Netzfixierungen bei der laparoskopischen Hernienchirurgie (PDF-Download)
Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma) Minimal –invasive Operation eines Leistenbruchs in TAPP Technik (Netzfixierung mit Fibrinkleber), Video: 9:18 min M.K. Terris (2009) Use Of Tissue Sealants And Hemostatic Agents (Slide show, English) B. Iyer (2013) Tissue sealant essentials (Slide show, English) DB111 Tisseel Gewebekleber Video 2:47 min
Gibt es einen Newton des Grashalms?
Gibt es einen Newton des Grashalms?Fr, 23.05.2014 - 06:36 — Peter Schuster
Die von Isaac Newton aufgestellten Gesetze beschreiben den Aufbau des Universums aus unbelebter Materie. Lässt sich aber die Entstehung eines Lebewesens, beispielsweise eines Grashalms, aus unbelebter Materie erklären? Kant hat diese Frage verneint. Die modernen molekularen Lebenswissenschaften scheinen jedoch imstande zu sein, die Kluft zwischen unbelebter und lebender Materie zu schließen.
Im Jahr 1790 stellte Immanuel Kant in seiner „Kritik der Urteilskraft“ die berühmte Behauptung auf, dass es wohl nie einen „Newton des Grashalms“ geben werde, weil der menschliche Geist nie fähig sein würde zu erklären, wie Leben aus unbelebter Materie entstehen könne (Originaltext in Abbildung 1).
Abbildung 1. Immanuel Kant: Critik der Urtheilskraft, §75 (Zweyte Auflage, bey F.T.Lagarde, Berlin 1793; Bild: kant.bbaw.de)
Eben als ein solcher „Newton des Grashalms“ wurde Charles Darwin rund 70 Jahre später von dem deutschen Naturalisten Ernst Haeckel gefeiert. Allerdings teilten die Zeitgenossen Haeckels keineswegs die Begeisterung über Darwin und auch heute ist sie endendwollend, wenn auch die bahnbrechende Rolle von Darwins Untersuchungen keineswegs in Zweifel gezogen wird.
Die amerikanische Physikerin, Molekularbiologin und Philosophin Evelyn Fox Keller meint dazu, daß es einfach falsch ist, Darwin als einen Newton der Biologie zu betrachten: Darwin selbst habe ja systematisch vermieden sich die Frage zu stellen, wie Leben aus unbelebter Materie entstehen könne. Seine natürliche Selektion beginne ja erst mit der Existenz lebender Zellen.
Kants Satz hat eine philosophische Dimension, in welcher das populäre Problem der Entstehung von Leben angesprochen wird - ein Aspekt, der hier nicht weiter verfolgt werden soll. Gleichzeitig wird aber auch eine historische und eine naturwissenschaftlich, technische Seite ersichtlich. Diese lässt sich auf das Problem reduzieren, ein Gebäude der modernen Biologie auf einem gesicherten Fundament von Physik und Chemie und unterstützt durch die Mathematik zu errichten oder - anders ausgedrückt - die Trennung zwischen Physik und Chemie auf der einen Seite und Biologie auf der anderen Seite zu überbrücken. Wie die Beziehung zwischen diesen Fachgebieten im Licht der historischen Entwicklung bis zu den modernen Lebenswissenschaften zu sehen ist, ist Gegenstand des vorliegenden Artikels.
Die Liaison zwischen Mathematik und Physik
markiert den Anfang der Naturwissenschaften in der westlichen Welt – ein Bündnis, das sich als überaus stabil und ungemein erfolgreich erwiesen hat. Zwei populäre Zitate aus der Vergangenheit unterstreichen dies:
Galileo Galilei meinte „Das Buch der Natur ist in der Sprache der Mathematik geschrieben und ihre Buchstaben sind Dreiecke, Kreise und andere geometrische Figuren, ohne die es ganz unmöglich ist auch nur einen Satz zu verstehen, ohne die man sich in einem dunklen Labyrinth verliert“[1].
Und Immanuel Kant formulierte „Ich behaupte nur, dass in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist.“ [2] Die Mathematik stellte und stellt von Anfang an die Hilfsmittel zur Verfügung, um physikalische Phänomene quantitativ zu erfassen, die Physik befruchtet seit jeher die Mathematik und lässt aus dieser neue Disziplinen entstehen. Eine Vielzahl neuer und sehr erfolgreicher Entwicklungen in der Mathematik hatte ihren Ursprung in Problemen der Physik, die auf ihre Formalisierung in der Mathematik warteten. Als eindrucksvolles Beispiel dafür steht hier die Differentialgleichung, welche - am Ende des 17. Jahrhunderts von Isaac Newton und Gottfried Leibniz unabhängig entwickelt - zur Grundsäule physikalischer Berechnungen wurde. In der Jetztzeit hat die gegenseitige Befruchtung von Mathematik und Physik zur Dynamischen Systemtheorie und hier insbesondere zur Theorie des Deterministischen Chaos geführt.
Viele andere Beispiele könnten angeführt werden; zu den bestbekannten zählen die Relativitätstheorie und die Quantenmechanik in der ersten Hälfte des 20.Jahrhunderts; ebenso die Theorie der Brownschen Bewegung, der Diffusion und die Entwicklung mathematischer Formalismen zur Beschreibung stochastischer (zeitlich geordneter, zufälliger) Prozesse.
Fazit: Die heutige Mathematik wäre nicht dieselbe, hätte nicht die intensive und fruchtbare gegenseitige Wechselwirkung mit der Physik stattgefunden.
Die Kluft zwischen Biologie und Mathematik
Die Wechselwirkung der Biologie mit der Mathematik ist grundlegend anders als die von Physik und Mathematik und die Entwicklung der wissenschaftlichen Betrachtungsweise verlief anders.
Im Mittelalter waren mathematische Modelle im Bereich der Lebenswissenschaften durchaus bekannt: ein Beispiel ist das im 13. Jahrhundert von Fibonacci erstellte Modell der Vermehrung von Kaninchen (Abbildung 2).
Abbildung 2. „Quot paria coniculorum in uno anno ex uno pario germinentur“. Der italienische Mathematiker Leonardo da Pisa, genannt Fibonacci („filius Bonacij“), beschreibt in seinem Liber abbaci („Buch der Rechenkunst“, ca. 1227) wie viele Kaninchenpaare innerhalb eines Jahres aus einem einzigen Paar entstehen (Voraussetzung: jedes Paar bringt ab dem zweiten Lebensmonat monatlich ein weiteres Paar zur Welt). Bild: Wikipedia
Ein herausragendes Beispiel einer erfolgreichen Abstraktion eigener Beobachtungen und von Beobachtungen, die Andere aufzeichneten, ist das von Charles Darwin aufgestellte Prinzip der Evolution. Das ungemein komplexe Phänomen der Evolution wird hier auf drei essentielle Parameter reduziert: Vermehrung, Variation und Selektion. Allerdings stellt dies Darwin in seinem Buch „Über die Entstehung der Arten“ dar ohne eine einzige mathematische Formel zu gebrauchen. Auch das 125 Jahre später (1984) erschienene Buch „Die Entwicklung der Biologischen Gedankenwelt“ des deutsch-amerikanischen Evolutionsbiologen Ernst Walter Mayr kommt ohne eine mathematische Gleichung aus. Sogar das berühmte Buch „Über Wachstum und Form“ (1917) von D’Arcy Thompson, das als Beginn der mathematischen Biologie angesehen wird, enthält nur sehr wenig Mathematik.
Die offensichtlich zwischen Biologie und Mathematik bestehende Kluft wird auch ersichtlich, wenn man das Zusammenführen von Genetik und Evolutionstheorie betrachtet. Die Gründungsväter der Populationsgenetik – R.A. Fisher, J.B.S. Haldane und S. Write – hatten bereits in den 1920 – 1930er Jahren ein Modell erstellt, das die Darwinsche Selektion und die Mendelsche Genetik in sich vereinte. Es sollte aber noch mehr als 20 Jahre dauern bis ein derartiges vereinigendes Konzept, von experimentell arbeitenden Biologen in Angriff genommen, in eine sogenannte „Synthetische Theorie“ mündete. Diese verzögerte Aufnahme macht den Unterschied zur Physik besonders deutlich: wann immer dort eine neue Theorie am Horizont physikalischen Denkens erscheint, bricht eine Hektik unter allen renommierten, experimentell arbeitenden Gruppen aus, um dieses Konzept zu unterstützen oder zu widerlegen.
Zugegeben, die Dinge in der Biologie erscheinen viel, viel komplexer als in der Physik und darüber hinaus besteht auch begründete Skepsis gegenüber der Theoretischen Biologie in der Vergangenheit.
Warum ist die Theorie in der Physik so erfolgreich?
Ein Grund ist sicherlich die Tatsache, daß Theoretische Physik auf Mathematik wurzelt und auf Fragestellungen präzise Antworten liefert. Experimentalphysik ist erstaunlich erfolgreich darin, Messungen mit hoher Präzision auszuführen, die mit den Vorhersagen der Theorie in Einklang stehen oder diesen auch widersprechen. Der Determinismus – die Vorstellung, daß alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind – hat die frühe Entwicklung der Physik, bis in die zweite Hälfte des 19. Jahrhunderts, bestimmt. Als dann unregelmäßige Vorgänge auf atomarem Niveau Eingang ins physikalische Denken fanden, waren die untersuchten Ensembles so groß, dass statistische Betrachtungen kaum eine Rolle spielten.
Im Unterschied zur Physik haben Gesetzmäßigkeiten, die man in der Biologie beobachtet, fast immer einen inhärent statistischen Charakter – die Mendelschen Gesetze der Vererbung sind hier ein prominentes Beispiel. Da mit kleinen Ensembles oder wenigen Objekten gearbeitet wird, die darüber hinaus nicht einheitlich sind, können einzelne Experimente schlecht oder gar nicht reproduzierbar ausfallen.
Experimentell zugängliche Bezugsysteme in der Physik…
Eine mathematische Beschreibung läuft auf eine Reduktion hinaus: eine beobachtete Regularität kann nur dann mathematisch formuliert werden, wenn auf einen Aspekt oder auf nur sehr wenige Aspekte Bezug genommen wird und nur eine kleine Zahl an sonstigen Eigenschaften wichtig genug erscheint, um als Parameter eingeführt zu werden. Die Erstellung eines mathematischen Modells wird enorm erleichtert, wenn ein experimentell zugängliches Bezugsystem mit reduzierter Komplexität existiert.
Newtons Bezugsystem war das der Himmelsmechanik (Abbildung 3). Ohne sein Genie kleinreden zu wollen - die Entwicklung der Theorie der Anziehung der Massen (Gravitation) wäre wohl verzögert oder vielleicht sogar unmöglich gewesen, hätten damals die Kenntnisse der Planetenbewegung gefehlt. Diese, durch die Gesetze der Massenanziehung verursachten Bewegungen hatten sich am Himmel frei von Komplikationen wie Reibung, Wind, Thermik und anderen Phänomenen beobachten lassen, Komplikationen, die in der Erdatmosphäre den Vorgang des freien Falls „verschleiern“. Es scheint mir alles andere als eine einfache Abstraktion zu sein, aus den alltäglichen Beobachtungen zu schließen, dass alle Körper senkrecht mit derselben Beschleunigung (und Geschwindigkeit) fallen!
…und in der Biologie
Verglichen mit der Physik – deren Anfänge häufig mit den Entdeckungen von Archimedes im 3. vorchristlichen Jahrhundert gleichgesetzt werden - ist die Biologie eine relativ junge Disziplin, deren Name überhaupt erst anfangs des 19. Jahrhunderts auftaucht.
Abgesehen von der riesig großen Zahl an unterschiedlichen molekularen „Akteuren“, der Komplexität der Wechselwirkungen zwischen diesen und der Multidimensionalität der biologischen Netzwerke (Abbildung 3), besteht in der Biologie das Problem ein geeignetes Bezugssystem zu finden. Es fehlt eine „Himmelsbiologie“ (in Anlehnung an Newtons Himmelsmechanik), die essentielle Eigenschaften ohne entbehrliche Komplikationen abbildet. Abbildung 3. Die Planetenbahnen im kopernikanischen Weltbild: links (Quelle: Scenograph systematis copernicani, Andreas Cellarius: Harmonia macrocosmica seu atlas universalis et novus, totius universi creati cosmographiam generalem, et novam exhibens. 1661) und Systembiologische Darstellung des Netzwerks der Protein-Protein Wechselwirkungen in Hefe: rechts (Bild: Hawoong Jeong, KAIST, Korea; MIT OpenCourseWare)
Dies bewirkt auch die unterschiedliche Einstellung, die Experimentatoren in Biologie und Physik zu Theorie und Mathematik zeigen. Welche Ergebnisse in der Biologie durch mathematische Theorien erzielt wurden, ohne geeignete Bezugssysteme (weil damals unbekannt) zu haben, soll hier an Hand von zwei Beispielen illustriert werden: i) der Mendelschen Genetik und ii) der embryonalen Entwicklung (Morphogenese).
i) Gregor Mendel erkannte die statistische Natur der Vererbung von Merkmalen und er postulierte, daß die Erbinformation in Paketen gespalten vorliegt („Segregationsregel), die aus einem Pool heraus voneinander unabhängig rekombiniert werden (Unabhängigkeitsregel)[3]. Erst 100 Jahre später zeigte die Molekularbiologie, wie in der Reduktionsteilung der Keimzellen (Meiose) Segregation und Rekombination tatsächlich verlaufen. Mendel hatte zwar noch kein passendes Bezugssystem für seine Theorie, seine Abstraktion der Vorgänge und die daraus gezogenen Schlussfolgerungen stellten sich aber als richtig heraus.
ii) Alan Turing veröffentlichte 1952 eine faszinierende, bahnbrechende Arbeit zur chemischen Basis der Morphogenese und initiierte damit einen höchst erfolgreichen Forschungszweig, der sich mit der spontanen Ausbildung von Strukturen (pattern formation) in chemischen Reaktions-Diffusionssystemen befasste. Der Anwendung seines Modells auf die biologische Musterbildung – Turings ursprüngliches Ziel – war über die Zeit hin jedoch kein Erfolg beschieden. Die auf Basis der nicht-linearen Dynamik von Produktion und Diffusion von Signalmolekülen berechneten Muster zeigten nur geringe quantitative Übereinstimmung mit den experimentellen Beobachtungen und reagierten überdies enorm empfindlich auf Randbedingungen – schienen also nicht stabil genug zu sein um die Entwicklung eines Organismus zu gewährleisten. Der Grund war im unpassenden Bezugssystem zu finden: wie Untersuchungen am Embryo der Taufliege zeigten, startet die Pattern Formation nicht in einem homogenen Medium, sondern in bereits räumlich separierten Strukturen [4]. Auf die aufgeklärten molekularbiologischen Vorgänge soll hier nicht weiter eingegangen werden.
Die moderne Biologie
unterscheidet sich von der Biologie der Vergangenheit in vielfacher Hinsicht. Ich möchte drei Aspekte herausgreifen, die relevant erscheinen, den eingangs diskutierten Kantschen Satz vom Newton des Grashalms einer Revision zu unterziehen:
i) Eine Fülle neuer experimenteller Techniken eröffnet heute den Zugang zur Analyse der „Chemie lebender Systeme“. Die daraus resultierenden, exponentiell wachsenden Datenmengen sind von enormer Bedeutung für jegliches tiefere Verständnis von „Leben“. Zu deren weltweiter Sammlung und Speicherung in frei-zugänglichen Datenbanken wurde bereits viel erreicht. Zweifellos bedarf es einer Theoretischen Biologie, welche das Rüstzeug bietet alle diese Information in brauchbarer Form abzurufen, ebenso einer Standardisierung der aus vielen unterschiedlichen Quellen stammenden, multidisziplinären Daten und vor allem einer neuen, systematischen Sprache, welche das derzeitige, auf Laborjournalen basierende Kauderwelsch ablöst.
ii) Der Mechanismus der Evolution, der zentrale Punkt der Biologie, konnte auf ein zellfreies molekulares System reduziert werden, welches - solange man im wesentlichen auf den Selektionsprozeß fokussiert ist - ein vollständiges bottom-up Modellieren in chemischen Reaktionssystemen ohne Kompartimentierung und unter völliger Kontrolle der Bedingungen erlaubt. Dieser Ansatz hat eine neue Richtung in der Biotechnologie begründet, welche das Prinzip der Evolution ausnützt, um neue, für definierte Zwecke maßgeschneiderte Moleküle zu designen.
iii) Computer Simulationen in der Systembiologie zielen auf ein Zusammenführen von holistischen und reduktionistischen Ansätzen hin, um – basierend auf den molekularen Lebenswissenschaften - die Eigenschaften von ganzen Zellen bis hin zu vollständigen Organismen zu modellieren. Der Ansatz der rechnergestützten Problemlösung, Analyse und Vorhersage ist zu einem gleichwertigen Partner der Mathematik-basierten Theorie und des Experiments geworden. Die enorme Steigerung der Rechnerleistung, ebenso wie die Entwicklung hocheffizienter Algorithmen machen die Untersuchung großer, stark wechselwirkender Netzwerke möglich, welche der mathematischen Analyse nicht zugänglich sind.
Um schlussendlich die Titelfrage zu beantworten:
Ich bin der Überzeugung, daß es einen Newton des Grashalms geben wird. Darwin war kein derartiger Newton, da er die Kluft zwischen unbelebter und lebender Materie nicht schließen konnte. Die modernen molekularen Lebenswissenschaften sind dazu imstande, indem sie das molekulare Niveau als Bezugssystem zur Erstellung von Modellen wählen, welche den Vorteil bieten auf einem ziemlich sicheren Grund zu stehen.
[1] Galileo Galilei: II Saggiatore (1623) Edition Nazionale, Bd. 6, Florenz 1896, S. 232
[2] Immanuel Kant: "Metaphysische Anfangsgründe der Naturwissenschaft, A VIII"(1786)
[3] Mendel, G. 1866. Versuche über Pflanzen-Hybriden. Verhandlungen des Naturforschenden Vereins zu Brünn 4: 3-47 (PDF-Downlaod).
[4] StJohnston, D., Nüsslein-Volhard, C. 1992. The Origin of Pattern and Polarity in the Drosophila Embryo. Cell 68:201-219 Weiterführende Literatur zu einzelnen Aspekten dieses Artikels sind auf Anfrage vom Autor erhältlich.
Weiterführende Links
Artikel zu verwandten Themen im Blog unter:
Peter Schuster
Zum Ursprung des Lebens
- Gibt es Rezepte für die Bewältigung von Komplexität?
- Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen
- Wie universell ist das Darwinsche Prinzip?
- Gibt es Rezepte für die Bewältigung von Komplexität?
- Eine stille Revolution in der Mathematik
- Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften
- Wie Computermethoden die Forschung in den Naturwissenschaften verändern
Gottfried Schatz
Christian Noe
Siehe auch: Themenschwerpunkt Evolution
Rezept für neue Medikamente
Rezept für neue MedikamenteFr, 16.05.2014 - 05:18 — Peter Seeberger
Im 20. Jahrhundert hat die Pharmaindustrie, zumal in Deutschland, die Entwicklung neuer Wirkstoffe entscheidend vorangetrieben. Aber in jüngerer Zeit wurde, nicht zuletzt aus Kostengründen die Forschung deutlich zurückgeschraubt. Dabei brauchen wir dringend neue Wirkstoffe gegen Krebs, Demenz und viele weitere Krankheiten. In den Entwicklungsländern ist das Problem existenziell. Der Chemiker Peter Seeberger, Direktor am Max-Planck Institut für Kolloid- und Grenzflächenforschung in Potsdam, plädiert für ein radikales Umdenken – und die Einbeziehung der Grundlagenforschung*.
Die Lebenserwartung in Deutschland hat sich seit 1900 fast verdoppelt und ist allein zwischen 1960 und 2008 von 70 auf 80 Jahre gestiegen. Verbesserte Hygiene und Ernährung hatten an dieser Entwicklung einen sehr großen Anteil. Ein weiterer Grund ist sicher die Verbesserung der medizinischen Versorgung. Immer neue Medikamente haben uns die Angst genommen, an ehemals tödlichen Krankheiten wie bakteriellen Infektionen zu sterben. Impfstoffe verhindern, dass wir an viralen und bakteriellen Krankheiten wie Polio erkranken. Selbst bis vor Kurzem noch tödliche Erkrankungen wie HIV bedeuten heute zumindest kein Todesurteil mehr.
Seit Anfang des 20. Jahrhunderts hat die pharmazeutische Industrie die Entwicklung der verschiedenen Wirkstoffe vorangetrieben. In dieser Zeit erwarb sich Deutschland wegen vieler Arzneientwicklungen den Titel „Apotheke der Welt“ und wurde zum Vorbild für diese Branche in vielen anderen Ländern. Wenn man bedenkt, was die Produkte der Pharmaindustrie zum Wohl der Bevölkerung insgesamt beigetragen haben, dann mag es verwundern, wie wenig Sympathie dieser Industriezweig genießt. In Umfragen erreichen etwa die Automobilhersteller ein weit besseres Ansehen.
Die Pharmaindustrie gilt als reich, mächtig und intrigant. An diesem Ruf ist die Branche nicht völlig schuldlos. Es ist sicher richtig, Verfehlungen anzuprangern und zukünftigen Fehlentwicklungen vorzubeugen. Dabei darf die Kritik an Bayer, Sanofi und anderen jedoch nicht dazu führen, die Gesamtsituation aus den Augen zu verlieren. Denn die Entwicklung der Branche muss uns Sorgen machen.
Die Krise der Pharmabranche
Weltweit steckt die Pharmabranche in einer massiven Krise, die seit einem Jahrzehnt anhält. Während die Pharmariesen noch immer große Gewinne einfahren, kannibalisieren sie ihre wissenschaftliche Substanz zunehmend. Natürlich muss man sich fragen, ob das Wohl sehr rentabler Firmen wirklich gesellschaftlich von Belang ist. Gleichzeitig aber stockt die Arbeit an neuen Medikamenten und Impfstoffen – eine Situation, die für die Allgemeinheit besorgniserregend ist.
Das Problem beginnt damit, dass die Entwicklung neuer Medikamente immer riskanter und damit teurer wird. Heute betragen die entsprechenden Kosten pro Medikament oder Impfstoff zwischen 500 Millionen und 1,3 Milliarden Euro (Abbildung 1). Die Kostenexplosion hat viele Gründe. Einerseits sind die „einfachen“ Medikamente bereits auf dem Markt, andererseits verkompliziert der wissenschaftliche Fortschritt die Entwicklung der Medikamente. Und die Regulationsbehörden kontrollieren mit verbesserten Analysemethoden dementsprechend mehr.
Abbildung 1. Die Kosten um ein neues Medikament oder ein “Biologischen“ Wirkstoff auf den Markt zu bringen sind explosionsartig gestiegen (links), nicht aber die Zahl der neuen Medikamente/Biologicals (rechts). Quelle: Efpia – The Pharmaceutical Industry in Figures.
Trend zu Blockbuster
Das hat schwerwiegende Auswirkungen auf die Firmenpolitik: Pharmaunternehmen konzentrieren sich derzeit auf die Entwicklung von blockbuster drugs; so werden Medikamente bezeichnet, die mehr als eine Milliarde Euro pro Jahr einbringen, meist deshalb, weil sie eine sehr häufige Krankheit in reichen Industrieländern lindern oder heilen. Nur noch mit solchen Wirkstoffen können die Firmen innerhalb weniger Jahre – bis zum Erlöschen des Patentschutzes – satte Renditen erzielen. Beliebt ist die Umwandlung tödlicher in chronische Krankheiten, denn die Patienten sind dann gezwungen, dauerhaft ein bestimmtes Medikament einzunehmen. Krankheiten wie Malaria, an denen vor allem Menschen in Schwellen- oder Entwicklungsländern leiden und sterben, sind für die Pharmaindustrie aus Kostengründen unattraktiv. Ebenso übrigens wie die Vermarktung teurer Medikamente in Ländern mit geringer Kaufkraft – was dazu führt, dass viele wichtige Wirkstoffe in Entwicklungsländern für die meisten Menschen unerschwinglich bleiben.
Generika
Eine oft geforderte (und in Indien staatlich durchgesetzte) Lösung ist: bestehende Patente aufheben und die Hersteller billiger Nachahmerpräparate, sogenannter Generika, fördern. Aus Sicht etwa der indischen Regierung lässt sich dieses Vorgehen völlig nachvollziehen. Und es ist kurzfristig sehr effektiv. Allerdings: Die Pharmafirmen der Industrieländer werden sich künftig noch weniger an kostspielige Forschung heranwagen, wenn sie danach mancherorts enteignet werden. Denn noch haben die Schwellenländer keine innovativen Pharmafirmen hervorgebracht, die neue Medikamente entwickeln, um die Gesundheitsprobleme der Region zu lösen. Es gibt Hoffnung, dass sich diese Situation irgendwann ändert. Aber momentan ist noch nichts außer Nachahmerpräparaten in Sicht – und oft nicht einmal das.
Krebstherapeutika
Ein Beispiel für die Kluft zwischen Industrie- und Schwellenländern sind die Krebspharmazeutika. In Europa ist derzeit jedes dritte Mittel, das neu auf den Markt kommt, ein Krebsmedikament. „Neu“ ist dabei nicht immer deutlich besser, sondern bedeutet oft nur eine minimale Veränderung im Vergleich zu bisherigen Wirkstoffen. In Deutschland gibt es jährlich etwa eine halbe Million Krebskranke, deren medikamentöse Behandlung mit diesen neuen Mitteln jeweils etwa 80.000 Euro pro Jahr kostet.
Der Grund für diese erstaunliche Menge an neuen Medikamenten – nach Schätzungen sind etwa 600 bis 800 in der Entwicklung – sind nicht etwa die Zunahme von Krebserkrankungen oder verbesserte Behandlungsmethoden, sondern schlicht der Markt. Er ist das Regulativ, das die Medikamentenforschung, -versorgung und -produktion steuert. Krebsmedikamente machen nur zwei Prozent der verschriebenen Pharmazeutika aus, aber ein Viertel der Medikamentenkosten der Krankenkassen entstehen durch Krebsmedikamente. Aus diesem Grund gibt es viele neue Medikamente, auch wenn diese oft keinen grundlegenden Behandlungsfortschritt bedeuten.
Das genau gegenteilige Bild bietet sich in den Schwellen- und Entwicklungsländern. Wie in den Industriestaaten sind auch dort Brust- und Gebärmutterhalskrebs die häufigsten Krebserkrankungen bei Frauen. In den Industrieländern gibt es gute Behandlungsmöglichkeiten und Medikamente. In Afrika dagegen bedeuten sie ein sicheres Todesurteil. Nach einer Diagnose, wenn es sie denn gibt, leben die Kranken im Durchschnitt noch etwa vier Monate – ohne jede Behandlung. Die Krebsmedikamente der Industriestaaten können sich nur die wenigsten Patienten in den afrikanischen Ländern leisten.
Ähnliches gilt für China und Vietnam, wo die Menschen aufgrund verbesserter Lebensbedingungen und Gesundheitsversorgung immer älter werden und dadurch die Anzahl der Krebserkrankungen stark ansteigt. Auch in diesem Fall reguliert der Markt die Menge der Pharmazeutika. Da sich so gut wie niemand die teuren Arzneien der Industrieländer leisten kann und es auch keine Krankenkassen gibt, werden dort kaum Krebsmedikamente angeboten.
Die Vorstellung, der Markt regele alles, ist also gleichzeitig richtig und falsch. Der Markt ist tatsächlich das Regulativ, aber diese Art der Regelung ist aus einer übergeordneten systemischen Sicht nicht immer sinnvoll. In den Entwicklungs- und Schwellenländern wäre eine Minimalversorgung mit Krebsmedikamenten äußerst sinnvoll, aber dazu müsste es neue, extrem billige Krebsmedikamente geben. Und die werden von den Pharmafirmen der Industrieländer nicht erforscht, weil billige Medikamente keine hohen Profitmargen haben.
Der Wirkstoff Artemisinin
Malariamedikamente, die aus dem aus einer Pflanze extrahierten Wirkstoff Artemisinin hergestellt werden, wirken auch gegen Krebs. Eine Artemisininbehandlung gegen Malaria kostet etwa einen Euro. Klinische Studien zeigen seit mehr als zehn Jahren, dass Artemisinin gegen viele Krebsarten ähnlich wirksam ist wie heutige Krebsmedikamente.
Aber kein pharmazeutisches Unternehmen macht sich an die Zulassung von Artemisininderivaten als Krebsmittel, weil der Hersteller die hohen Kosten für die klinischen Zulassungsphasen zu tragen hätte, letztlich aber kein wirksames Patent anmelden könnte. Denn der Wirkstoff ist bereits als Malariamedikament zugelassen.
So behindert die marktwirtschaftliche Logik die Erforschung und Zulassung eines massentauglichen Krebsmedikaments für Afrika, Asien – und letztlich auch für die Industriestaaten.
Diese Fehlsteuerung ist nicht das Ergebnis finsterer Machenschaften böser Menschen in gierigen Pharmafirmen. Aber solche Missstände achselzuckend zur Kenntnis zu nehmen ist sicher nicht genug. Hier ist die politische und wissenschaftliche Intelligenz aufgerufen, innovative Lösungsansätze zu präsentieren. Eine Erkenntnis ist vielleicht, dass es für unterschiedliche gesellschaftliche Bedingungen ganz verschiedene Lösungsansätze braucht. „Die“ Pharmaindustrie mit einheitlicher Forschung für die ganze Welt ist vermutlich nicht die beste Lösung.
Wie geht die Pharmabranche vor?
Zurück zur Situation in den Industriestaaten. Als weiterer Effekt der hohen Entwicklungskosten, gepaart mit dem Druck der Finanzmärkte, lässt sich ein Konsolidierungskurs beobachten. Um Synergien zu nutzen, sind immer größere Pharmaunternehmen entstanden: Bayer etwa schluckte die Schering AG, Sanofi und Aventis fusionierten, wobei Aventis selbst aus der Fusion von Hoechst und Rhône-Poulenc hervorgegangen war. Abbildung 2 zeigt die Entstehung des bis vor kurzem weltgrößten Pharmaunternehmens Pfizer. Und mit der Größe der Konglomerate und ihrer Börsenwerte stieg auch in der Pharmaindustrie die Bedeutung des Shareholder Value.
Figure 2. Pfizer, der bis vor kurzem weltgrößte Pharmakonzern, hat zwischen 2000 und 2009 mehrere große Pharmakonzerne akquiriert, die selbst aus Fusionen und Übernahmen anderer Konzerne entstanden sind.
Viele Firmen wurden daher mit Blick auf die Bilanzen optimiert: Wirtschaftlich gesehen, ist zum Beispiel die Forschung an neuen Medikamenten ein Risiko, das minimiert werden muss. Etwa, indem man fast alle Teile der Wertschöpfungskette solcher Entwicklungen in Billiglohnländer verlagert. Ja, das war kostensparend und – ein Pyrrhussieg! Denn es bedeutete auch einen massiven Verlust hoch qualifizierter Mitarbeiter in den Industrieländern.
Freilich: Einschnitte in den Forschungsetats, etwa die Schließung von Zentrallabors, fallen kurzfristig am wenigsten auf. Langfristig ist diese Strategie aber existenzbedrohend. Seit einiger Zeit haben Firmen wie Pfizer keine eigenen neuen Medikamente mehr auf den Markt gebracht, sondern ausschließlich von Zukäufen gelebt, weil ihre Entwicklungspipelines leer waren. Von nichts kommt nichts. Und ein Pharmaunternehmen sollte idealerweise mehr sein als eine Bank mit Entwicklungsabteilung.
Dass viele Pharmafirmen heute noch hohe Umsätze haben, liegt vor allem daran, dass sie sich erfolgreiche Produkte durch die Übernahme anderer Firmen einverleiben. Das täuscht über den großen Trend hinweg: Die Perspektive der ganzen Branche ist geradezu prekär. In Deutschland schließt die „Apotheke der Welt“, Generika werden billig im Ausland produziert, und Zehntausende hoch qualifizierter Arbeitsplätze sind auch in Europa und den USA bereits verloren gegangen – etwa bei Merck, Pfizer, AstraZeneca und fast allen anderen Pharmafirmen.
Das Management der meisten großen Pharmaunternehmen hat natürlich die immensen Herausforderungen erkannt und versucht gegenzusteuern, um auch auf Dauer profitabel zu arbeiten. Doch die Begleitumstände sind alles andere als einfach: Neue Medikamente mit hohen Umsätzen zu entwickeln und gleichzeitig die Erwartungen der Finanzmärkte zu befriedigen ist extrem schwierig; das jedenfalls zeigen diverse fehlgeschlagene Versuche im vergangenen Jahrzehnt. Dabei tendieren die Pharmariesen zu einer Art Herdentrieb, gewissen Modeerscheinungen zu folgen.
So wurden in der vergangenen Dekade von mehreren Firmen Milliardenbeträge in die RNAi Technologie (eine spezifische Stilllegung von Genen) investiert, die nach großen anfänglichen Hoffnungen keine Erfolge brachte. Oftmals aber feiern Produkte, an die man wenige Erwartungen geknüpft hat, immense kommerzielle Erfolge. Während bis ins Jahr 2000 die Regel galt, dass Impfstoffe zwar für Volkswirtschaften ein effektives Mittel seien, aber nur wenig Gewinne einbringen könnten, änderte sich das Denken mit Jahresumsätzen von ungefähr fünf Milliarden US-Dollar für den Pneumokokkenimpfstoff Prevenar durch Pfizer (entwickelt von Wyeth). Plötzlich sind auch Impfstoffe kommerziell interessante Produkte, wenn sie eine zahlungskräftige Kundschaft ansprechen. In den vergangenen fünf Jahren wurden mehrere Impfstofffirmen von größeren Pharmaunternehmen aufgekauft.
Derzeit wird versucht, die eigene Forschung möglichst zu verkleinern, um Kosten und Risiken gering zu halten. Die Entdeckung neuartiger Therapie- und Diagnostikkonzepte soll an Forschungseinrichtungen und in kleinen Unternehmen stattfinden. Der Plan besteht darin, vielversprechende Verbindungen und Techniken einzukaufen, wenn die Risiken überschaubarer sind. Dann ist der Preis zwar höher, aber die Pharmaunternehmen können ihre Stärken ausspielen: Erfahrung in der klinischen Untersuchung und der Entwicklung – nicht mehr der Entdeckung! – von Medikamenten.
Die immensen Kosten der späten Entwicklungsphase können nur große und finanzkräftige Unternehmen tragen. Das Risiko dieses Ansatzes sind natürlich die fehlende Kontrolle über die frühe Entwicklungsphase und die Gefahr, im Rahmen der Konkurrenz um die besten Projekte zu viel zu bezahlen.
Von der Gewinnmaximierung zur „Gesundheitsmaximierung“
Dabei besteht dringender Handlungsbedarf: Wir brauchen essenziell neue Wirkstoffe gegen Krebs, Demenz und viele weitere Krankheiten. In den Entwicklungsländern ist das Problem existenziell. Dort werden vor allem Impfstoffe gegen Malaria, HIV/Aids und bakterielle Infektionskrankheiten benötigt. Es ist längst eine Binsenweisheit, dass ein gutes Gesundheitswesen wirksam gegen Überbevölkerung hilft – ganz anders, als Zyniker vermuten.
Privatinitiativen wie die Bill & Melinda Gates Foundation sind ein erfolgversprechender Ansatz. Ihre Förderung bietet einen Anreiz für Unternehmen, an Medikamenten zu arbeiten, die ohne die Förderung nie entwickelt würden. Aber ein solches privates Mäzenatentum genügt nicht, um das Grundproblem zu lösen: Das derzeit praktizierte marktwirtschaftlich getriebene Modell der Wirkstoffentwicklung ist das beste, das ich kenne – aber es ist nicht gut genug.
Wir alle werden radikal umdenken müssen: Das Ziel der Gewinnmaximierung muss von dem der „Gesundheitsmaximierung“ abgelöst werden. Dann würden wir Wirkstoffe ganz anders entwickeln. An Expertenwissen in Firmen und Forschungsinstituten mangelt es jedenfalls nicht. Allein meine Max-Planck-Arbeitsgruppe entwickelt zurzeit fünf neue Impfstoffe, auch gegen vernachlässigte Tropenkrankheiten, die noch immer Hunderttausende Menschenleben fordern. Die Grundlagenforschung und auch die angewandte akademische Biomedizinforschung in den westlichen Industrieländern sind stark wie nie zuvor.
Gleichzeitig haben die (noch) bestehenden Pharmafirmen (noch) große Erfahrung darin, neue Produkte durch die Testphasen zur Marktreife zu bringen. Es fehlt auch nicht an Anstrengungen, das von Experten so genannte Tal des Todes zwischen akademischer Forschung und industrieller Entwicklung zu überbrücken. Aber die Erfolge bleiben überschaubar, weil die Marktstrukturen nicht passen. Es stellt sich also die Frage, mit welchen politischen Werkzeugen die Anreize neu und besser gesetzt werden können.
Gesellschaftliche Teilhabe an der Entwicklung von Medikamenten
Ich propagiere nicht, dass ein staatliches Organ die Medikamentenentwicklung steuern soll. Es muss aber eine größere gesellschaftliche Teilhabe an der Entwicklung von Medikamenten geben. Pharmafirmen müssen in Zukunft eine finanzielle Unterstützung für die Entwicklung von Wirkstoffen gegen die kleineren Krankheiten bekommen können. Vielleicht brauchen wir Finanzierungsmodelle durch öffentliche Fonds oder staatlich garantierte Anleihen. Die Steuerzahler müssten dann aber nicht nur am Risiko, sondern auch an den Gewinnen beteiligt werden.
Genug Geld ist ja anscheinend vorhanden! Die Steuern, die für die Rettung einer einzigen Bank ausgegeben wurden, hätten gereicht, um zehn oder mehr neue Impfstoffe zu entwickeln, die Hunderttausenden Menschen das Leben hätten retten können. Und gleichzeitig hätten sie einen Innovationsschub für viele hoch qualifizierte Jobs geschaffen.
Was kann die Max-Planck Gesellschaft beitragen?
Unsere Aufgabe ist es, absolute Spitzenforschung im Bereich der Grundlagenforschung zu erbringen – und nicht, gezielt nach praktischen Lösungen für die Misere im Arzneimittelsektor zu suchen. Wirklich grundlegende Durchbrüche im chemischen, biologischen und medizinischen Bereich bringen aber oft komplett neue Ansätze zu Diagnostika, Impf- und Wirkstoffen mit sich. Während diese Art der Forschung nicht zielgerichtet maßgeschneiderte Lösungen für spezifische Probleme liefert, sind die fundamentalen Fortschritte von umso größerer Tragweite.
Ein Wissen um mögliche Anwendungen und aktuelle Herausforderungen durch den aktiven Diskurs mit der Industrie sowie die Bereitschaft, aus der Wissenschaft auch eine Anwendung werden zu lassen, zwingt uns oft aus unserer wissenschaftlichen „Komfortzone“. Es gibt bereits einige wenige Ansätze, systematisch Ergebnisse der Grundlagenforschung in unserer Gesellschaft weiterzuentwickeln, um sie in eine Anwendung zu überführen. Weitere Anstrengungen von beiden Seiten – der Max-Planck-Gesellschaft und der Pharmaindustrie – werden benötigt, um als faire Partner das meiste aus den Erfindungen zu machen. Max-Planck-Forscher sind keine billige „verlängerte Werkbank“ oder Ideenquelle, die durch Steuerzahlung abgegolten ist. Es müssen faire und effektive Wege gefunden werden, um die verbesserte Vernetzung von Wissen und Anwendung so zu organisieren, dass am Ende die Gesellschaft als Ganzes und nicht einige wenige profitieren.
Grundlagenforschung an Max-Planck-Instituten hat zu wichtigen Produkten geführt, auch in der Gesundheitswirtschaft. Allzu oft ist das aber kaum bekannt. Ich würde mir eine Zukunft wünschen, in der Max-Planck-Forscher neue Lösungsansätze erdenken und durch ein gesteigertes Problembewusstsein diese auch in Grundzügen umsetzen. Damit können wir der Gesellschaft einen return of investment bescheren, der weit über den monetären Wert der Förderung hinausgeht.
Fazit
Das Thema neue Wirkstoffe muss auf die gesellschaftliche Agenda! Wir müssen uns mit dem Gedanken vertraut machen, das Überleben einer nur scheinbar boomenden Pharmabranche zu sichern. Und die Pharmaindustrie muss sich mit dem Gedanken vertraut machen, dass es mehr Werte gibt als den von Aktien.
*Der im Forschungsmagazin der Max-Planck Gesellschaft MPF 4/13 erschienene Artikel http://www.mpikg.mpg.de/186657/Biomolecular_Systems wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und mit zwei von der Redaktion eingefügten Abbildungen.
Weiterführende Links
Forschungsprogramme von Peter Seeberger:
Abteilung Biomolekulare Systeme am Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Wissenschaftspark Potsdam-Golm http://www.mpikg.mpg.de/186657/Biomolecular_Systems
Blog der Abteilung Biomolekulare Systeme https://bms.mpikg.mpg.de/
Videos mit Peter Seeberger
Forscher fragen: Gesunde Chemie Video 1:28:06 Breaking the Wall of Expensive Vaccines Video 13:47 min Der Zucker Code Geheimwaffe gegen Krebs und Malaria 5-teilige Serie Teil 1, 9:17 min Teil 2: 8:42 min Teil 3: 8:23 min Teil 4: 9:52 min Teil 5: 6:48 min
Webseite der Max-Planck Gesellschaft
Verwandte Themen im ScienceBlog
Der Kampf gegen Malaria
Der Kampf gegen MalariaFr, 02.05.2014 - 06:02 — Bill and Melinda Gates Foundation
In den letzten Jahrzehnten führten globale Bemühungen zu enormen Erfolgen im Kampf gegen Malaria: von 2000 – 2011 konnte die Todesrate auf 20% gesenkt werden. Dennoch erkranken noch jährlich Hunderte Millionen Menschen an dieseḿ heimtückischen Erreger (erst kürzlich erlag ihm der österreichische Regisseur Michael Glawogger). Die Bill & Melinda Gates Stiftung hat sich der Ausrottung dieser Krankheit verschrieben und stellt großzügige Ressourcen zur Entwicklung von Diagnosetests, Behandlungsmethoden (Medikamenten ebenso wie Impfstoffen) sowie zur Bekämpfung der übertragenden Stechmücken bereit. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein.
Malaria tritt in fast 100 Ländern weltweit auf und stellt eine riesige gesundheitliche, soziale und wirtschaftliche Belastung für Entwicklungsländer dar, vor allem für die afrikanischen Staaten südlich der Sahara und in Südasien. Im Jahr 2010 erkrankten mehr als 200 Millionen Menschen an Malaria, und ca. 655'000 Menschen starben an der Krankheit. Die meisten Opfer waren Kinder unter fünf Jahren.
Abbildung 1.Malaria Risikogebiete (WHO 2011)
Malaria wird durch Parasiten ausgelöst, die durch Stechmücken übertragen werden. Sogar in leichten Fällen sind die Anzeichen der Krankheit hohes Fieber, Schüttelfrost, grippeähnliche Symptome und Blutarmut, was besonders für schwangere Frauen gefährlich sein kann. Kinder, die eine schwere Malariaerkrankung überstehen, können lebenslang geistig behindert sein. Der von der Krankheit verursachte wirtschaftliche Verlust wird auf jährlich mehrere Milliarden US-Dollar geschätzt.
Die Chance
Malaria ist vermeidbar und kann behandelt werden. Die Geschichte zeigt, dass die Krankheit sogar ausgerottet werden kann. Vor weniger als einem Jahrhundert war Malaria weltweit verbreitet, darunter auch in Europa und Nordamerika. In reichen Ländern konnte sie durch aggressive Präventionsmaßnahmen und wirksamere Überwachung nach und nach kontrolliert und schließlich eliminiert werden. Laut Weltgesundheitsorganisation bedeutet das, dass über einen Zeitraum von mindestens drei Jahren kein einziger Fall einer Übertragung der Krankheit durch Stechmücken gemeldet wird. Die USA erreichten diesen Meilenstein 1951.
In den Entwicklungsländern wurden bei der Eindämmung von Malaria gewaltige Fortschritte erzielt. Durch eine Kombination verschiedener Maßnahmen ist die Zahl der Malariaerkrankungen in einem Drittel der Länder, in denen die Krankheit endemisch ist, um mindestens 50% gefallen. Diese Fortschritte sind das Ergebnis einer Kombination aus verschiedenen Maßnahmen, wie rechtzeitige Diagnose und Behandlung dank zuverlässiger Tests und Malariamittel, die Besprühung von Innenräumen mit ungefährlichen Insektiziden und der Einsatz langlebiger, mit Insektiziden behandelter Moskitonetze zum Nachtschutz.
Die aktuellen Hilfsmittel und Behandlungsmethoden haben sich jedoch bei dem Versuch, Malaria auszurotten, in vielen Ländern als unzureichend erwiesen. In der Zwischenzeit kann sich die Malariakrankheit schnell wieder ausbreiten, weil Parasiten gegenüber den verfügbaren Insektiziden und Behandlungen resistent werden. Beide Formen der Resistenz sind zu einer starken potenziellen Bedrohung für eine effektive und erschwingliche Malariakontrolle geworden.
Es sind Innovationen notwendig, um diesen Herausforderungen gerecht zu werden und im Kampf gegenüber Malaria weiterhin Fortschritte zu machen. Nachhaltige Forschung und Entwicklung sind notwendig, um Methoden zur Behandlung und Prävention von Malaria zu entwickeln und so die Abhängigkeit von einigen wenigen Malariabekämpfungsmethoden zu vermeiden, die als effektive Malariakontrolle erwiesenermaßen riskant sind.
Zum Glück ist die Weltgemeinschaft dazu bereit, gemeinsam gegen Malaria anzutreten und sie hat die dafür bereitgestellten Mittel seit 2003 versechsfacht. Die Weltgesundheitsorganisation (WHO) und die Roll Back Malaria Partnership koordinieren im Rahmen des Global Malaria Action Plans internationale Maßnahmen. Aber wir benötigen weitere, effektive Richtlinien sowie zusätzliche Gelder, um auch weiterhin Fortschritte im Kampf gegen eine der größten Bedrohungen für die Gesundheit des Menschen machen zu können.
Unsere Strategie
Malaria ist eine der Top-Prioritäten der Bill & Melinda Gates Foundation. Wir stellen großzügige Ressourcen bereit, aber sie leisten nur einen geringen Beitrag zur weltweiten Finanzierung der Bekämpfung der Krankheit. Um sicherzugehen, dass unsere Investitionen auch andere Projekte ergänzen, konzentrieren wir unsere Ressourcen auf Bereiche, in denen es nur beschränkte existierende Finanzierungsmöglichkeiten gibt, in denen unsere Unterstützung eine Katalysatorwirkung hat und in denen wir Risiken auf uns nehmen können, die für andere eine zu große Herausforderung wären. Unsere Strategie richtet sich auf die Bereiche, in denen die Stiftung im Vergleich zu zahlreichen anderen Partnern besser positioniert ist, die Fälle von Malariaerkrankungen zu verringern.
Wir fördern die Entwicklung effektiverer Behandlungsmethoden und Diagnosetests, Maßnahmen zur Kontrolle von Stechmücken sowie sichere und wirksame Malariaimpfstoffe. Wir fördern auch die Entwicklung von Strategien zu weiteren Fortschritten bei der Ausrottung von Malaria. Bis heute haben wir die Bekämpfung der Malaria mit fast 2 Milliarden US-Dollar gefördert. Wir haben darüber hinaus dem Globalen Fonds zur Bekämpfung von AIDS, Malaria und Tuberkulose (GFATM), der den Einsatz von Präventions- und Therapiemaßnahmen zur Bekämpfung von Malaria, HIV/AIDS und Tuberkulose unterstützt, 1,4 Milliarden US-Dollar bereitgestellt. Über unsere direkten Förderleistungen zum Kampf gegen Malaria hinaus setzen wir uns auch für eine nachhaltige und steigende Finanzierung von Maßnahmen zur Kontrolle und Ausrottung von Malaria seitens der Geberländer und Länder ein, in denen die Krankheit endemisch auftritt.
Fokusbereiche
Wir arbeiten mit einer Vielfalt von Partnern in verschiedenen Bereichen zusammen, darunter Regierungsbehörden, multilateralen Organisationen, Nichtregierungsorganisationen (NGOs), akademischen Einrichtungen, wie auch Organisationen des Gemeinwesens und der Privatwirtschaft. Gemeinsam verfolgen wir das Ziel, Malaria zunächst unter Kontrolle zu bringen und dann zu eliminieren, um sie letztendlich auszurotten.
Medikamente und Diagnose
Malaria wird derzeit mit einer artemisininhaltigen Kombinationstherapie (ACT) behandelt. Die ACT-Therapie ist wirksam und wird von Patienten gut vertragen. Allerdings kaufen Patienten aufgrund der hohen Therapiekosten oft billigere und weniger wirksame Medikamente von schlechter Qualität, oder sogar gefälschte Medikamente, wodurch sich das Risiko medikamenten-resistenter Malariaerreger erhöht. In Südostasien konnte bereits Resistenz beobachtet werden.
Um die Verfügbarkeit von Behandlungsmethoden zu verbessern und schließlich eine Einzeldosisheilungsmethode für Malaria zu entwickeln, ist es wichtig, die Medikamentenprojekte zu diversifizieren und in die Forschung und Entwicklung wirksamer Behandlungsmethoden zu investieren, die nicht auf Artemisinin basieren.
Unsere Strategie fördert die wirksame Verabreichung von ACTs, die Ausrottung einer Artemisinin-Resistenz und die Erforschung neuer Malariamedikamente. Bei diesem Projekt werden wir hauptsächlich von der gemeinnützigen Organisation Medicines for Malaria Venture (MMV) unterstützt, welche das bisher umfangreichste Medikamenten-Projekt für Malariamedikamente entwickelt hat. Wir unterstützen außerdem den Einsatz wirksamer Diagnosetests, um für Patienten eine schnelle Diagnose und entsprechende Behandlung zu gewährleisten.
Abbildung 2.Eine Krankenschwester verabreicht ein Malariamedikament zur Behandlung eines infizierten Kindes in Tansania.
Zu unseren Investitionen zählen:
- Die Entwicklung neuer, nicht auf Artemisinin basierender Medikamente zu Präventionszwecken (einschließlich Langzeitprophylaxe), zur Behandlung des Erregerbefalls in der Leber und zur Verhinderung von Übertragungen.
- Die sichere Versorgung mit qualitativ hochwertigem Artemisinin durch die Einführung von Hochertragspflanzen und biosynthetischem Artemisinin.
- Mehr Zugang zu erschwinglichen Kombinationstherapien, insbesondere durch die Privatwirtschaft.
- Verhinderung zunehmender Resistenzentwicklung durch die Bekämpfung qualitativ minderwertiger Medikamente bzw. gefälschter Medikamente und die Bekämpfung von Monotherapien.
- Verbesserung von Überwachungssystemen und Programmen zur Malariakontrolle, den zunehmenen Einsatz von Diagnosehilfsmitteln, zur Behandlung, Überwachung und Ausrottung von Malaria. Wir wollen die Wirksamkeit der entwickelten und bereitgestellten Medikamente und Diagnosetests messen und untersuchen, inwieweit sie die Ausbreitung der Krankheit verhindern können.
Außerdem bewerten wir die Toleranz von Parasiten in Südostasien gegenüber dem Wirkstoff Artemisinin.
Mittel zur Bekämpfung von Krankheitsüberträgern
Die Innenraumbehandlung mit Insektiziden und widerstandsfähige, mit Insektiziden behandelte Moskitonetze stellen derzeit die beiden wirksamsten Interventionsarten im Kampf gegen die Ausbreitung und Übertragung von Malaria dar. Leider wird diese Wirksamkeit durch die zunehmende Pestizidresistenz von Steckmücken bedroht. Die Innenraumbehandlung mit Insektiziden und Moskitonetze erweisen sich als wenig wirksam bei Stechmückenarten, die am Tag und im Freien aktiv sind.
Wir unterstützen die Verbesserung existierender Mittel zur Bekämpfung von Krankheitsüberträgern sowie die Entwicklung neuer Methoden, die in allen Situationen vor Übertragungen schützen. Zu unseren Investitionen zählen:
- Die Verbesserung existierender Mittel zur Bekämpfung von Krankheitsüberträgern durch Innenraumbehandlung mit langwirkenden Insektiziden, die Entwicklung von Insektiziden, die mit anderen Mitteln kombiniert werden können, um vor Resistenz zu schützen sowie die Entwicklung aktiver Wirkstoffe, die vor dem bekannten Resistenzmechanismus geschützt sind.
- Die Untersuchung neuer Aspekte der Lebensbedingungen und des Verhaltens krankheitsübertragender Stechmücken mit Hilfe neuer Instrumente und Strategien, wie Räucherspiralen, Zuckerfallen und die Behandlung von Tieren.
- Identifizierung der Instrumente, die einzeln oder in Kombination mit anderen unter bestimmten Umständen am besten zur Ausrottung beitragen können.
Gemeinsam mit unseren Partnern, darunter insbesondere dem Innovative Vector Control Consortium, werden wir die Wirksamkeit neuer oder verbesserter Instrumente überwachen. Wir werden auch den Fortschritt bei der Identizierung optimaler Kombinate von Mitteln zur Bekämpfung von Krankheitsüberträgern überwachen, um die Übertragung von Malaria zu stoppen.
Impfstoffe
Ein wirksamer Impfstoff könnte einen entscheidenden Erfolg in der Bekämpfung von Malaria bedeuten, aber die Entwicklung eines Impfstoffes erfordert jahrelange wissenschaftliche Arbeit. Kürzlich durchgeführte Studien der klinischen Phase III zeigen, dass der Malaria-Impfstoff RTS,S nicht die erwünschte Wirksamkeit hat. Allerdings zeigen die Daten, dass eine Impfung gegen einen Parasiten möglich ist — ein bedeutender Fortschritt.
Aktuelle Impfstoffkandidaten könnten eine wichtige Rolle bei der Reduzierung des Krankheitsrisikos in verschiedenen Zielgruppen spielen. Der Erfolg bei der Ausrottung von Malaria hängt jedoch letztendlich von wirksameren Impfstoffen der zweiten Generation ab, die eine Übertragung in gesamten hochriskanten Bevölkerungsgruppen verhindern. Die Impfstoffentwicklung wird derzeit jedoch durch unzureichende Kenntnisse der Funktionsweise des menschlichen Immunsystems gebremst.
Wir fördern die Entwicklung von Impfstoffen, die die Übertragung von Malaria stoppen können. Dazu gehören auch ein Impfstoff der zweiten Generation oder ein neuer, auf Antigenen basiernder Impfstoff, welche die Übertragung verhindern. Wir unterstützen auch Forschung, die für eine wirksamere Impfstoffentwicklung richtungsweisend ist.
Integrierte Intervention
Eine Reihe von Behandlungsmethoden hat sich im Einsatz gegen Malaria als sehr wirksam erwiesen, aber es ist noch unklar, wo und wie sie am besten eingesetzt werden. Welche Auswirkungen wird eine verstärkte Anwendung dieser Behandlungsmethoden haben? In welchen Ländern ist die Ausrottung derzeit möglich? Was ist die optimale Kombination von Behandlungsmethoden zur Ausrottung von Malaria für bestimmte Übertragungsarten?
Wir beteiligen uns daran, Antworten auf diese Fragen zu finden und teilen das, was wir über die Auswirkungen lernen, um die Behandlungsmethoden auszubauen und erhalten. Wir wollen auch mehr darüber lernen, wie die Finanzierung und das Engagement von Antimalaria-Projekten aufrecht erhalten werden können.
Öffentlichkeitsarbeit, Richtlinien und Finanzierung
Der Kampf gegen Malaria konnte dank der wachsenden Zahl von Partnern, einem starken gemeinsamen politischen Willen und umfangreicher finanzieller Mittel wesentlich vorangetrieben werden. Dieser positive Trend muss allerdings langfristig beibehalten werden. Um weitere Forschung und Entwicklung zu ermöglichen und Länder bei ihren Präventions- und Behandlungsprojekten zu unterstützen, sind zusätzliche Mittel notwendig.
In den letzten zehn Jahren hat sich die Förderung der Malariakontrolle von 300 Millionen US-Dollar im Jahr 2003 auf geschätzte 2 Milliarden US-Dollar im Jahr 2011 erhöht. Dieser starke Anstieg ist den gemeinsamen Anstrengungen des Globalen Fonds zur Bekämpfung von AIDS, Malaria und Tuberkulose (GFATM), der Malariainitiative des US-amerikanischen Präsidenten, dem britischen Ministerium für internationale Entwicklung, UNITAD, der Weltbank und anderen multilateralen Organisationen zu verdanken.
Dennoch werden Schätzungen des Global Malaria Action Plan zufolge weitere 5 Milliarden US-Dollar benötigt, um Malariabehandlung weltweit nachhaltig zu erreichen und bereitzustellen, sowie um Forschungs- und Entwicklungsvorhaben fortsetzen zu können. Im Rahmen unserer Strategie fördern wir das anhaltende finanzielle Engagement durch derzeitige wichtige Spender und versuchen, weitere neue Geber für Forschung und Entwicklung im Malariabereich zu gewinnen und Projekte zu unterstützen, die den Fortschritt bei der Malariabekämpfung auf Landesebene verfolgen.
Fortschritte bei Malariaprogrammen und Öffentlichkeitsarbeit werden unter dem Gesichtspunkt der weltweiten Finanzierung der Malariabekämpfung und Forschung und Entwicklung in diesem Bereich durch bilaterale, multilaterale und private Quellen evaluiert.
Der Fortschritt wird auch gemessen an der Verabschiedung wirksamer Gesetze zur Verbesserung der Malariabekämpfung.
Malaria - Bill & Melinda Gates Foundation http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Malaria[19.04.2014 19:30:36] Stiftungs-Datenblatt
Zur Geschichte der Bill & Melinda Gates Foundation
World Malaria Report (2013) 286 p. (free download)
Comments
Wie Covid sich auf den Kampf gegen die Malaria auswirkt
Referat von Bill Gates:
https://b-gat.es/307b0BJ
- Log in to post comments
Der Kampf gegen Tuberkulose
Der Kampf gegen TuberkuloseFr, 09.05.2014 - 05:03 — Bill and Melinda Gates Foundation
Tuberkulose, eine durch das Mycobacterium tuberculosis verursachte bakterielle Infektionskrankheit, ist auch heute noch eine der weltweiten Haupttodesursachen. Jährlich werden weltweit fast 9 Millionen neue Fälle von Tuberkulose gemeldet, wobei eine steigende Zahl dieser Erkrankungen durch Erreger verursacht wird, die gegen vorhandene Medikamente Resistenz aufweisen. In Zusammenarbeit mit globalen Partnern im Gesundheitswesen unterstützt die Bill & Melinda Gates Foundation die Entwicklung und Bereitstellung verbesserter Impfstoffe, Behandlungsmethoden und Diagnosetests. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein..
Die Herausforderung
Die weltweite TB-Sterblichkeitsrate ist zwischen 1990 und 2009 um 35% gefallen, aber TB ist auch weiterhin eine der weltweiten Haupttodesursachen. Jedes Jahr werden fast 9 Millionen neue Fälle gemeldet.
Der aktuell verwendete TB-Impfstoff bietet nur begrenzten Schutz für Neugeborene und Kinder und keinen Schutz vor Lungentuberkulose bei Erwachsenen. Diese Form der Tuberkulose ist die weltweit häufigste.
Die Stiftung arbeitet daran, die Anzahl der weltweit auftretenden TB-Fälle schnell zu senken und investiert dazu in die Entwicklung und Bereitstellung besserer Impfstoffe, Behandlungsmethoden und Diagnosetests. Außerdem möchten wir Regierungen, multinationale Organisationen und den privaten Sektor für den Kampf gegen die Tuberkulose gewinnen.
Wir konzentrieren uns hauptsächlich auf die Länder mit den häufigsten TB-Fällen, wie Indien, China und Südafrika. Der Verantwortliche für unsere TB-Strategie, die zuletzt 2011 aktualisiert wurde, ist Trevor Mundel, Interim-Direktor der Initiative, die zum Bereich Global Health der Stiftung gehört.
In den letzten zwei Jahrzehnten wurden wichtige Fortschritte im Kampf gegen Tuberkulose (TB) erzielt. Zwischen 1990 und 2009 ist die TB-Sterblichkeitsrate und 35% gefallen. Dank der weltweiten gemeinsamen Bemühungen und des Einsatzes der DOTS-Strategie, der in den Achtzigerjahren empfohlenen Behandlung für TB, konnten zwischen 1995 und 2010 55 Millionen TB-Infektionen behandelt werden, 46 Millionen davon erfolgreich. Im Vergleich zu früheren Behandlungsmöglichkeiten konnten mit diesem Ansatz fast 7 Millionen Menschenleben gerettet werden. In den Jahren 2005 bis 2010 konnten durch die gemeinsame Behandlung von TB und HIV schätzungsweise fast 1 Million Menschenleben gerettet werden.
Trotz dieses Fortschritts bleit TB weltweit weiterhin eine der Haupttodesursachen. 2010 wurden fast 9 Millionen neue Fälle gemeldet. In den letzten Jahren wurden Projekten zur Eindämmung von TB aufgrund des gestiegenen Vorkommens multiresistenter TB-Fälle (MDR-TB, Abbildung 1) Dringlichkeit eingeräumt. Diese Form der Krankheit ist gegen die Erstlinien-Medikamente resistent. Es gibt auch extrem arzneimittelresistente TB-Erreger (XDR-TB), die auch gegen einige Zweitlinien-Medikamente resistent sind. MDR-TB kommt mittlerweile in fast jedem Land der Welt vor. Im Jahr 2008 wurden ca. 440.000 neue Fälle verzeichnet. Die Behandlung dieser Krankheitsformen ist besonders schwierig und kostenaufwendig. Sie sind die direkte Folge jahrelanger unzureichender Diagnosen und Behandlungen. In Ländern mit einer hohen Anzahl an HIV-Infizierten hat die TB-Epidemie stark zugenommen. 2010 starben 350.000 Menschen, die sowohl mit TB als auch mit HIV infiziert waren.
Abbildung 1. Resistenz: Gemeldete Fälle von MDR-Tuberkulose im Jahr 2012. MDR (multi-drug resistant) bedeutet, daß die Erkrankten (zumindest) auf die Behandlung mit den Standardmedikamenten Rifampicin und Isoniazid nicht ansprechen. Insgesamt gab es im Jahr 2012 rund 8,6 Millionen Neuerkrankungen an TB – davon etwa 450 000 geschätzte MDR-Fälle - und 1,3 Millionen Menschen starben daran. (Abb. Von der Redaktion eingefügt: Quelle: WHO)
Die aktuellen Ansätze zur Verhinderung, Diagnose und Behandlung von TB-Infektionen sind nicht ausreichend. Der aktuell verwendete TB-Impfstoff bietet nur beschränkten Schutz für Neugeborene und Kinder und keinen Schutz vor Lungentuberkulose bei Erwachsenen. Diese Form der Tuberkulose ist die weltweit häufigste. Das meistgenutzte Diagnosetool ist das Mikroskop, mit dem sich jedoch nur die Hälfte aller Fälle erkennen lässt. Diese Art der Diagnose ist für Gesundheitsdienstleister zudem sehr arbeitsaufwendig. Die standardisierte DOTS-Behandlung hat zwar gute Erfolge gezeigt, aber ein Patient muss dazu sechs bis neun Monate lang täglich eine komplizierte Kombination von Tabletten einnehmen, die starke Nebenwirkungen haben. Es wird auch vorausgesetzt, dass ein Mitarbeiter des Gesundheitswesens die gesamte Behandlung überwacht. Daher wird die Behandlung von vielen Patienten frühzeitig abgebrochen.
Die Chance
Im letzten Jahrzehnt wurde viel in die Bekämpfung der TB-Epidemie investiert und es wurden zahlreiche neue, vielversprechende Bekämpfungsmöglichkeiten entwickelt. Neue Medikamente, Diagnosetechnologien und schließlich ein neuer Impfstoff könnten den Umgang mit TB weltweit drastisch verbessern. Es ist jedoch noch mehr Forschungs- und Entwicklungsarbeit erforderlich, bis diese Bekämpfungs- und Behandlungsmethoden einfach zugänglich, erschwinglich und einfach anzuwenden sind. Ein wirksamerer Impfstoff wäre das beste und wirksamste Mittel, um die Anzahl der TB-Fälle zu senken. Einigen Prognosen zufolge könnte die Anzahl der TB-Erkrankungen auch durch einen nur teilweise wirksamen neuen Impfstoff bis zum Jahr 2050 um 39 bis 52 Prozent gesenkt werden. Zum ersten Mal seit Jahrzehnten gibt es einen neuen TB-Impfstoffkandidaten. Er befindet sich aktuell in einer Wirksamkeitsstudie für Säuglinge (Phase IIb), mit der gezeigt werden soll, wie gut der Impfstoff in einer kleinen Bevölkerungsgruppe wirkt.
Aber die Suche nach einem neuen Impfstoff kann viele Jahre in Anspruch nehmen. Daher ist es wichtig, auch kurz- und mittelfristige Strategien zu entwickeln, mit denen die TB-Infektionsrate gesenkt werden kann. Beispielsweise können neue TB-Diagnosetests Behandlungsverzögerungen verkürzen und die Wahrscheinlichkeit einer Frühdiagnose erhöhen, bevor ein Erkrankter weitere Menschen infiziert. Außerdem würde eine einfachere und kürzere Behandlung mit Medikamenten dazu führen, dass mehr Patienten ihre Behandlung erfolgreich abschließen.
Eine Reihe von Impfstoffen, Diagnosetests und Medikamenten befinden sich aktuell in der klinischen Entwicklungsphase. Sie erreichen die Menschen, die sie am meisten benötigen, jedoch nur dann, wenn sie erschwinglich sind und wirksam eingesetzt werden können. Im Bereich der Forschung und Entwicklung sind beträchtliche finanzielle Ressourcen erforderlich. Industrieländer, Länder mit TB-Epidemien, die Pharmaindustrie und Stiftungen müssen daher nachhaltig in die Bekämpfung investieren.
Unsere Strategie
Die TB-Strategie der Bill & Melinda Gates Foundation für die Jahre 2011-2016 geht auf eine Vielzahl der zur TB-Epidemie gehörigen Faktoren ein.
Ein neuer Impfstoff wäre die wirksamste Lösung, um die Anzahl der TB-Fälle zu senken. Daher liegt unser Schwerpunkt auf der Entwicklung neuer Impfstoffe und innovativer Möglichkeiten, Impfstoffe schneller bereitzustellen. Die Kombination aus Impfstoffbereitstellung, Diagnosetests und Medikamenten ist jedoch im Kampf gegen die Epidemie ausschlaggebend.
Außerdem konzentrieren wir uns auf die Entwicklung kürzerer und einfacherer Behandlungsmethoden. Patienten, die Ihre Behandlung nicht abschließen, können andere Menschen mit TB infizieren und arzneimittelresistente Bakterienstämme entwickeln, die bis zu zwei Jahre lang mit wesentlich teureren Zweitlinien-Medikamenten behandelt werden müssen.
Ein weiterer Fokusbereich ist die Entwicklung schnellerer und präziserer Diagnosetests, die zu einem früheren Behandlungsbeginn und zu einer geringeren Übertragungsrate der Krankheit führen würden. Aber solche neuen Lösungen können die Anzahl der TB-Fälle nur dann senken und Millionen von Menschenleben retten, wenn sie schnell und effizient dort eingesetzt werden, wo sie am dringendsten benötigt werden. Wir investieren daher in Forschungsvorhaben in Indien und China, wo insgesamt fast 40 Prozent aller weltweiten TB-Fälle vorkommen, sowie in Südafrika, wo mehr als ein Fünftel aller TB-Fälle in Afrika vorkommt. Außerdem leben dort viele Menschen, die sowohl mit HIV als auch mit TB infiziert sind.
Wir setzen uns auch für eine adäquate Finanzierung für den Kampf gegen TB ein. Dabei unterstützen wir Bemühungen um eine erhöhte finanzielle Unterstützung für Forschung und Entwicklung. Wir arbeiten dabei mit weltweiten Finanzierungsorganisationen, wie dem Global Fund to Fight AIDS, Tuberculosis and Malaria sowie mit UNITAID, um die Kosten für innovative Technologien zu senken und deren Akzeptanz zu beschleunigen.
Fokusbereiche
Verbesserte Impfstoffe
Wir investieren in die Entwicklung und behördliche Zulassung von wirksameren TB-Impfstoffen. Unser Ziel ist, bis 2016 einen Impfstoffkandidaten in klinischen Phase-III-Studien sowie weitere neue TB-Impfstoffkandidaten zu haben.
Gleichzeitig arbeiten wir daran, die Hindernisse zu beseitigen, die der Entdeckung und Entwicklung weiterer TB-Impfstoffe im Wege stehen. Die Funktionsweise des Schutzmechanismus durch TB-Impfung wird immer noch nicht vollkommen verstanden und es gibt keine bekannten Biomarker, die die Wirksamkeit eines TB-Impfstoffkandidaten vorhersagen können. Daher erfolgt die Entwicklung von Impfstoffen derzeit in langwierigen und kostspieligen Studien.
Wir haben infolgedessen ein TB-Impfstoff-Beschleunigungsprogramm entwickelt, mit dem vielversprechende Impfstoffkonzepte als Alternativen zu den schon bestehenden erkannt werden. Sie könnten unser Verständnis der TB-Krankheit potenziell verbessern und somit zur Entwicklung eines effizienteren Impfstoffs führen.
Wirksamere medikamentöse Behandlung
Der TB-Erreger wird schnell gegen ein einzelnes Medikament resistent. Daher ist bei der Behandlung immer eine Kombination aus mehreren Medikamenten erforderlich. Die konventionelle Arzneimittelentwicklung erfordert allerdings, dass neue TB-Medikamente in klinischen Studien separat getestet werden. Medikamente können erst dann in Kombination getestet werden, wenn jedes für sich bereits genehmigt wurde. Das bedeutet, dass die Entwicklung einer effizienteren TB-Behandlung Jahrzehnte in Anspruch nehmen könnte. Um dieses Hindernis zu überwinden, haben wir uns mit Partnern zusammengeschlossen und gemeinsam die Initiative Critical Path to TB Drug Regimens (CPTR) gegründet. Bei dieser Initiative arbeiten führende internationale Pharmaunternehmen, Experten des Gesundheitswesens, Nichtregierungsorganisationen sowie Aufsichtsbehörden aus mehreren Ländern zusammen, um schneller vielversprechende TB-Medikamentenkandidaten in Kombination zu testen. Außerdem sollen neue Zulassungsverfahren und andere Lösungswege für eine schnellere Medikamentenentwicklung geschaffen werden.
Wir benötigen zudem neue Medikamente, mit denen die Behandlungsdauer drastisch verkürzt werden kann. Daher unterstützen wir das TB Drug Accelerator-Programm, mit dem nach neuen Möglichkeiten zur Bekämpfung von Bakterien gesucht wird, die gegen die aktuellen Medikamente resistent sind. Dabei sollen Möglichkeiten für die Entwicklung neuer Medikamente gefunden werden, mit denen die Behandlungsdauer verkürzt wird.
Neue Diagnosewerkzeuge
Abbildung 2. Der Mikroskopieraum in einem auf Tuberkulose und Atemwegskrankheiten spezialisierten Krankenhaus in Neu-Delhi, Indien.
Wir entwickeln kostengünstigere und wirksamere Diagnosewerkzeuge, die mehr TB-Patienten erreichen und an Ort und Stelle und nicht in einem weit entfernten Labor eingesetzt werden können (Abbildung 2). Im Verlauf wird auch nach neuen Biomarkern der TB-Infektion sowie nach Therapien geforscht, die die Erkennung und klinische Behandlung von TB verbessern. Eine von uns finanziell unterstützte neue Technologie, GeneXpert, kann möglicherweise die Geschwindigkeit und Genauigkeit der TB-Diagnose wesentlich verbessern. Wir müssen Möglichkeiten finden, um dieses Werkzeug möglichst vielen Menschen zur Verfügung zu stellen, denn eine schnelle und präzise Diagnose ist die Grundlage für einen raschen Behandlungsbeginn und verhindert somit die weitere Ausbreitung der Krankheit.
Verbreitung von Innovationen in der TB-Kontrolle
Wir führen Pilotstudien zur Entwicklung innovativer Werkzeuge zur Eindämmung von TB und Bereitstellungsmöglichkeiten für Medikamente in Indien, China und Südafrika durch. Die gefundenen wirksamsten Ansätze werden an andere weitergeleitet. Eines unserer Projekte befasst sich mit der Suche nach der kostengünstigsten Bereitstellung schnellerer und präziserer Diagnosewerkzeuge in Südafrika. In Indien haben wir die indische Regierung, die Weltgesundheitsorganisation (WHO), USAID und die Weltbank zusammengebracht, um innovative Arbeiten zur Eindämmung von TB zu unterstützen. Wir erhalten auch Unterstützung vom privaten Sektor in Indien, um die Forschung und Entwicklung im Bereich TB-Diagnose und -Behandlung voranzutreiben. Dank der Arbeit unserer Interessengruppen in China wurde die MDR-Tuberkulose von den Krankenversicherungen des Landes als „sehr erstattungsfähige Krankheit“ eingestuft. So erhalten an MDR-TB erkrankte chinesische Patienten leichter finanzielle Unterstützung zu Ihrer Behandlung.
Zugang, Wirksamkeit und Kostenreduzierungen
Durch unsere Zusammenarbeit mit globalen Partnern im Gesundheitswesen, wie dem Global Fund to Fight AIDS, Tuberculosis and Malaria, der WHO und UNITAID, können diese Organisationen ihre Ressourcen und Investitionen optimal einsetzen und so die Kosten der Entwicklung innovativer Technologien senken. Außerdem können auf diese Art und Weise auch genügend Hersteller gefunden werden, um stabile und erschwingliche Preise für neue TB-Therapien zu garantieren und die Akzeptanz neuer, effizienter Lösungen im Kampf gegen die Tuberkulose zu beschleunigen.
Interessengruppen
Wir treten für mehr politisches Engagement und finanzielle Unterstützung im Kampf gegen die TB ein, vor allem für die Forschung und Entwicklung in den späteren Phasen der klinischen Studien. Wir glauben, dass starke Partnerschaften mit Geberländern, multinationalen Institutionen, der Pharmaindustrie und der Biotechnik, sowie mit den Regierungen der TB-endemischen Länder im Kampf gegen die Krankheit enorm wichtig sind. Diese Partnerschaften führen letztlich zu größeren Investitionen in die Forschung und Entwicklung sowie in die Bereitstellung vorhandener und neuer Diagnose- und Therapiewerkzeuge.
http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Tuberculosis
Weiterführende Links
Bill und Melinda Gates Stiftung
Videos
Das ABC des Dr Robert Koch Tuberkulose. Video 2:56 min http://www.youtube.com/watch?v=FYRyoAPhH8E Tetanus und Tuberkulose - Dokumentation über die Entdeckung der Bakterien, die Tetanus und Tuberkulose verursachen : Teil 1 14:31 min. Teil 2 14:31 min. Vernachlässigte Krankheiten – Multiresistente Tuberkulose (Ärzte ohne Grenzen). Video 6:20 min
Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt
Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der AussenweltFr, 25.04.2014 - 06:35 — Redaktion
Zur Wahrnehmung der Außenwelt haben Lebewesen im Laufe der Evolution Sinnesorgane entwickelt und diese an die jeweiligen Gegebenheiten adaptiert, um ihre vitalen Bedürfnisse in entsprechender Weise zu decken und sich situationsgerecht zu verhalten.Unsere Sinne
Bereits Aristoteles hatte die Wahrnehmung der Außenwelt (aisthesis) in fünf Kategorien – die klassischen fünf Sinne – eingeteilt: Sehen, Hören, Riechen, Schmecken und Fühlen. Licht, Schall, chemische und mechanische Reize der Außenwelt werden über spezifische Sensoren - Rezeptoren – von spezialisierten Zellen unserer Sinnesorgane Augen, Ohren, Haut, Nase und Zunge wahrgenommen, in elektrische Signale umgewandelt und über Nervenfasern in das zentrale Nervensystem, das Gehirn, weitergeleitet. Hinsichtlich des Fühlens sind in unserem größten Sinnesorgan, der Haut, unterschiedliche Typen von Rezeptoren lokalisiert, welche durch Berührung, Temperatur oder Schmerz angenehme und unangenehme Empfindungen auslösen und bereits im frühesten Alter die Welt „begreifbar“ machen. Aus dem Tierreich ist überdies auch die Wahrnehmung elektrischer Felder (bei verschiedenen Fischen/Meerestieren) und Magnetfelder (nicht nur bei Zugvögeln) bekannt.
Abbildung 1. Die 5 Sinne. Der Sinneseindruck Geschmack resultiert häufig aus einem sehr raschen Zusammenspiel von Neuronen, die in unterschiedlichen Regionen der Hirnrinde Geschmack, Geruch, Haptik und Temperatur der Nahrung prozessieren.
Im Gehirn werden die eintreffenden Informationen in entsprechenden Regionen der Hirnrinde gefiltert und einem konstruktiven Prozess unterworfen, der sie auf Grund von genetisch tradiertem Wissen, erfahrungsabhängiger Entwicklung (epigenetischer Überformung) analysiert, neu sortiert und bewertet [1]. Dies erfolgt in hochkomplexen raum-zeitlichen Erregungsmustern, an denen Netzwerke enorm vieler Nervenzellen aus unterschiedlichsten Gehirnregionen beteiligt sind (Abbildung 1).
Die „untere Ebene“ der Sinneswahrnehmung
Der primäre Schritt im Prozess der Sinneswahrnehmung – wie Reize aus der Außenwelt mit den Rezeptoren der Sinnesorgane wechselwirken und, von Nervenzellen in elektrische Impulse umgewandelt, weitergeleitet werden – ist zum großen Teil gut verstanden. Vorwiegend mit diesen molekularen Grundlagen der „unteren Ebene“ der Wahrnehmung beschäftigen sich die Artikel, die wir nun im Themenschwerpunkt „Sinneswahrnehmungen“ zusammenfassen (Tabelle), und durch weitere Aspekte aus dem „Reich der Sinne“ laufend ergänzen werden.
Kapitel | Autor | Titel |
---|---|---|
Rezeptoren | Inge Schuster | Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren |
Sehen | Walter Gehring | Auge um Auge — Entwicklung und Evolution des Auges |
Gottfried Schatz | Wie «unsichtbarer Hunger» die Menschheit bedroht | |
Riechen, Schmecken | Wolfgang Knoll | Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Sehen und Hören |
Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren | ||
Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen Nase | ||
Gottfried Schatz | Meine Welt — Warum sich über Geschmack nicht streiten lässt | |
Magnetsinn | Gottfried Schatz | Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen |
Schmerz | Gottfried Schatz | Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält |
Tabelle 1. Themenschwerpunkt: Sinneswahrnehmung
„Mittlere Ebene“ der Sinneswahrnehmung
Wenn auch der Aufbau von Nervenzellen und die Mechanismen der Signalübertragung von niedrigen wirbellosen Tieren bis hin zum Menschen gleich geblieben sind, so hat sich die „mittlere Ebene“ der Wahrnehmung, die Signalverarbeitung, ungleich komplexer entwickelt.
Das menschliche Gehirn ist ein sich selbst organisierendes System aus rund 100 Milliarden Nervenzellen -von denen jede Zelle wieder mit Tausenden anderen Nervenzellen in direktem Kontakt steht -, die temporär zu funktionellen Einheiten zusammentreten. Die Vernetzung zwischen den Zellen hängt auch von der lokalen Verfügbarkeit sogenannter Neurotransmitter ab, mittels derer Zellen miteinander kommunizieren. Wie hier neuronale Netzwerke funktionieren um kohärente Aktivitätsmuster herauszubilden, die uns Modelle der wahrgenommenen Realität präsentieren, ist seit rund 20 Jahren Gegenstand intensiver neurowissenschaftlicher Forschung; Neurobiologie ist zu einer Leitwissenschaft unserer Zeit geworden [1].
Das Manifest der Hirnforschung
Vor zehn Jahren haben elf führende deutsche Gehirnforscher ein Manifest verfasst, in welchem sie die Grenzen ihrer Forschung aber auch die Fortschritte, die sie darin erhofften, zu optimistisch darstellten [2]. Tatsächlich existieren heute zur Frage, wie ein kohärentes Bild der Welt um uns herum erhalten wird (Bindungsproblem), zwar Hypothesen, aber noch keine Konsens-fähige Antwort. Seit kurzem kommt die Rechenleistung der Super-Computer nun an die Rechenleistung von unserem Gehirn heran – ein Nachbilden komplexer Gehirnprozesse auf dem Computer mittels mathematischer Modelle wird damit möglich.
Nach wie vor sind sehr viele Aspekte ungeklärt, von erkenntnistheoretischen Fragen (Was ist Bewusstsein, was das Ich?), bis hin zu den gezielten Behandlungsmöglichkeiten von neurodegenerativen Erkrankungen, die man auf Grund der Kenntnis von deren molekularbiologischen, genetischen Grundlagen erwartet hatte [3].
Zum 10-Jahres Jubiläum des Manifests ist kürzlich das Buch "Kann das Gehirn das Gehirn verstehen?" erschienen in welchem der Autor Matthias Eckoldt u.a. die Mehrzahl der am Manifest beiteiligten Wissenschafter interviewt und damit nicht nur den aktuellen Stand der Neurowissenschaft und ihrer Probleme von der Warte unterschiedlicher kompetenter Meinungen aufzeigt, sondern auch eine Brücke zur Philosophie baut [4, 5].
Zu einigen Aspekten der „mittleren Ebene“ der Sinneswahrnehmung erscheinen demnächst Artikel in ScienceBlog.at.
[1] Wolf Singer : "In unserem Kopf geht es anders zu, als es uns scheint" Video 2013 (© 2013 www.dasGehirn.info) 20:26 min
http://www.youtube.com/watch?v=pHV7qTISDTQ
[2] Das Manifest - Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung (2004) http://www.gehirn-und-geist.de/alias/hirnforschung-im-21-jahrhundert/das...
[3] Scobel: Enttäuschte Hoffnungen: Video (3. April 2014) 57:34 min http://www.3sat.de/mediathek/?mode=play&obj=42785
[4] Matthias Eckoldt : „ Kann das Gehirn das Gehirn verstehen?“( 2014). http://www.carl-auer.de/programm/978-3-8497-0002-7. Daraus eine Leserprobe: https://www.carl-auer.de/pdf/leseprobe/978-3-8497-0002-7.pdf
[5] Scobel: Besprechung von: „ Kann das Gehirn das Gehirn verstehen?“ Video (3. April 2014) 2:33 min. http://www.3sat.de/mediathek/?mode=play&obj=42811
Weiterführende Links
www.dasGehirn.info (ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe) hat sich zum Ziel gesetzt, das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton:
- Von Stäbchen und Zapfen
- Christof Koch über visuelle Wahrnehmung Video 32,4 min
- Riechen & Schmecken
- http://dasgehirn.info/wahrnehmen/hoeren/
- http://dasgehirn.info/wahrnehmen/fuehlen-koerper/
Kosmos Gehirn: eine von der Neurowissenschaftlichen Gesellschaft (http://nwg.glia.mdc-berlin.de/de) herausgegebene, reich bebilderte Broschüre, in der renommierte Experten in umfassender, leicht verständlicher Form Aufbau, Entwicklung, Funktion (darunter auch die Rolle in den Sinnesempfindungen: „Im Reich der Sinne“ ) und Erkrankungen des Gehirns darstellen (134 p, free download): http://nwg.glia.mdc-berlin.de/media/pdf/kosmos-gehirn.pdf
Wolf Singer: vom Bild zur Wahrnehmung Video (2012) 2:03:05 (Wie man vom Bild auf der Netzhaut zur Sinneswahrnehmung kommt.) http://www.youtube.com/watch?v=5YM0oTXtYFM&list=PLc6DBeqxu-DGAGg1J4UeEIL...
Humberto Maturana und Francisco Varela: Der Baum der Erkenntnis. Die biologischen Wurzeln menschlichen Erkennens. (Übersetzung von: El árbol del conocimiento.1984, 1987.) Frankfurt 2010. ISBN 978-3-596-17855-1. U.a. Die autopoietische Funktion (Selbstorganisation) des Nervensystems, das Milieu löst seine Reaktion aus, determiniert sie aber nicht.
Meine Welt — Warum sich über Geschmack nicht streiten lässt
Meine Welt — Warum sich über Geschmack nicht streiten lässtFr, 18.04.2014 - 11:30 — Gottfried Schatz
Jeder von uns nimmt die Umwelt in unterschiedlicher Weise wahr. Die moderne Biologie zeigt auf, dass und wie unsere Sinne für Geschmack, Geruch, Sehen, Hören und Tasten auf der Zusammensetzung und den individuellen Eigenschaften von spezifischen Sensoren (Rezeptor-Proteinen) beruhen. .
Bin ich allein? Kann ich die Welt, die ich sehe und empfinde, mit anderen teilen – oder bin ich Gefangener meiner Sinne und der Armut meiner Sprache? Als unsere Vorfahren noch in Gruppen jagten, war Alleinsein Gefahr. Heute haben wir Angst vor Einsamkeit. Angst ist Furcht vor Unbekanntem, also sollte Wissenschaft sie uns überwinden helfen. Die moderne Biologie lehrt mich zwar, dass jeder von uns die Welt anders sieht, schmeckt, riecht und fühlt. Sie tröstet mich aber auch mit der Erkenntnis, dass meine Sinne mir Einmaligkeit schenken.
Bitter oder nicht
Dass Menschen Geschmack unterschiedlich empfinden, offenbarte ein unerwarteter Luftzug, der dem amerikanischen Chemiker Arthur Fox im Jahre 1931 ein Pulver (Abbildung 1) von seinem Experimentiertisch wegblies. Sein Tischnachbar verspürte sofort einen bitteren Geschmack, Fox dagegen nicht.
Abbildung 1. Phenylthioharnstoff.
Der Geruch des giftigen Stoffes wird von vielen Menschen nicht wahrgenommen.
Heute wissen wir, dass die Fähigkeit, dieses Pulver als bitter zu schmecken, erblich ist. Bitter zu erkennen, ist deshalb wichtig, weil die meisten pflanzlichen Gifte bitter sind. Wir haben in Menschen etwa 125 verschiedene Bitter-Sensoren identifiziert, wissen aber von den meisten noch nicht, welche Bitterstoffe sie erkennen.
Menschen unterscheiden sich stark in ihren Bitter-Sensoren. Fast jeder Westafrikaner, aber nur etwa die Hälfte aller weissen Nordamerikaner kann das von Arthur Fox untersuchte Pulver als bitter erkennen. Westafrikaner sind die genetisch vielseitigste aller Menschengruppen und unterscheiden sich untereinander besonders deutlich in den Varianten ihrer Gene. Wahrscheinlich hat ein kleines Häufchen von ihnen vor etwa 25 000 bis 50 000 Jahren Nordeuropa besiedelt und uns nur einen kleinen Bruchteil der westafrikanischen Genvarianten mitgebracht. Deshalb müssen wir Nordeuropäer und unsere Abkömmlinge mit dem beschränkten Geschmacksrepertoire dieser wenigen afrikanischen Auswanderer auskommen und sind deshalb für gewisse Bitterstoffe blind.
Wir empfinden nicht nur bitter, sondern auch süss, sauer, salzig – und umami, den Geschmack von Natriumglutamat, das vielen chinesischen Gerichten ihren besonderen Reiz verleiht. Unsere Sensoren für sauer und salzig sind noch wenig erforscht, doch die für süss und umami sind gut bekannt. Wir besitzen von ihnen etwa ein halbes Dutzend Grundtypen und dazu noch viele persönliche Varianten, so dass verschiedene Menschen süssen Geschmack wahrscheinlich mit unterschiedlicher Intensität wahrnehmen. Kein Mensch ist jedoch gegenüber süss oder umami ganz unempfindlich. Wahrscheinlich hat die Evolution den Verlust von Sensoren für süss und umami verhindert, da sie uns kalorien- und stickstoffreiche Nahrung anzeigen. Katzen, die keine süssen Kohlenhydrate essen, haben ihre Sensoren für süss jedoch verloren und sind für süssen Geschmack unempfindlich. – Unsere Geschmackssensoren beeinflussen nicht nur die Wahl unserer Nahrung, sondern vielleicht auch die unserer Suchtmittel. Da die Neigung zu Alkohol- oder Nikotinsucht zum Teil erblich ist, könnte es sein, dass die individuellen Geschmackssensoren manchen Menschen Alkohol oder Zigarettenrauch besonders schmackhaft machen. Wenn dies zuträfe, könnten wir die dafür verantwortlichen Sensoren vielleicht durch Medikamente beeinflussen. Genetische Untersuchungen werden wohl auch bald zeigen können, wer zu Alkoholismus oder Nikotinsucht neigt oder wer gewisse Getränke oder Speisen bevorzugt. Hoffentlich werden wir diese Möglichkeiten nicht missbrauchen.
Dumpfes Zauberreich, helle Augen
Der «Geschmack» unserer Nahrung wird auch vom Geruch bestimmt – und Gerüche sind ein verwirrendes Zauberreich. Wir erkennen Millionen verschiedener Duftstoffe und setzen dafür etwa 400 verschiedene Sensoren ein. Im Verein mit unseren Geschmackssensoren können wir so über 10 000 verschiedene Aromen unterscheiden. Mäuse und Ratten fänden dies nicht bemerkenswert, denn ihre hochempfindlichen Nasen sind mit weit über 1000 verschiedenen Geruchssensoren bestückt. Unsere fernen Vorfahren hatten wahrscheinlich fast ebenso viele – nämlich mindestens 900. Im Verlauf unserer Entwicklung während der letzten 3,2 Millionen Jahre liessen wir jedoch mehr als die Hälfte von ihnen verkümmern und schleppen ihre verrotteten Gene immer noch von einer Generation zur anderen. Um Homo sapiens zu werden, mussten wir nicht nur Neues lernen, sondern auch Ererbtes über Bord werfen. Auf unserem langen Entwicklungsweg hatten wir den Mut, das dumpfe Zauberreich der Düfte gegen die helle Präzision unserer Augen zu vertauschen.
Unsere Augen arbeiten mit vier verschiedenen Lichtsensoren. Der Sensor in den Stäbchen unserer Netzhaut ist sehr lichtempfindlich, kann jedoch keine Farben erkennen. In der Dunkelheit verlassen wir uns nur auf ihn – und sehen dann alle Katzen grau. Bei hellem Licht schalten wir auf drei Farbsensoren in unseren Zäpfchen: einen für Blau, einen für Grün und einen für Rot. Sie sind zwar nicht besonders lichtempfindlich, zeigen uns aber Farbe und dazu noch für jede Farbe etwa hundert verschiedene Farbintensitäten. Da unser Gehirn die Signale der Sensoren miteinander vergleicht, können wir bis zu zwei Millionen Farben sehen. Viele andere Tiere, wie Insekten und Vögel, besitzen bis zu fünf verschiedene Farbsensoren und können daher nicht nur viel mehr Farben als wir Menschen unterscheiden, sondern zum Teil auch ultraviolettes oder infrarotes Licht erkennen, für das wir blind sind. Da die ersten Säugetiere meist Nachtjäger waren, begnügten sie sich mit zwei Farbsensoren, so dass fast alle heutigen Säugetiere nur etwa 10 000 verschiedene Farben sehen. Erst die frühen Menschenaffen entwickelten wieder einen dritten Farbsensor, so dass ihre heutigen Nachfahren – und auch wir Menschen – die Welt in Millionen von Farben sehen.
Etwa vier Prozent aller Menschen sehen jedoch viel weniger Farben, weil ihnen der Grün- oder der Rotsensor fehlt; sie sind farbenblind. Umgekehrt dürften manche Frauen bis zu 100 Millionen Farben unterscheiden können, weil sie einen vierten Farbsensor besitzen. Sie haben es wahrscheinlich nicht immer leicht, da ihnen die Farben auf Fotos oder Fernsehschirmen falsch erscheinen dürften. Sie könnten aber auch aus subtilen Farbänderungen des Gesichts Lügner erkennen oder farbige Diagramme besonders schnell begreifen. Weltweit könnte es fast 100 Millionen solcher «Superfrauen» geben; allerdings haben wir noch keine eindeutig identifiziert, da wir Farbempfindungen nicht objektiv messen können. Männer können solche Frauen nur neidisch bewundern. Aber bevor sie sie heiraten, sollten sie bedenken, dass wahrscheinlich jeder zweite ihrer Söhne farbenblind wäre. Liebe zu diesen Frauen würde nicht nur blind, sondern auch farbenblind machen.
Jeder von uns sieht, riecht und schmeckt also auf seine Weise, und dies gilt auch für unser Hören und unsere Schmerzempfindlichkeit (Abbildung 2). Abbildung 2. Pietro Paolini (1603 -1683): Allegorie der 5 Sinne. Von links: Geschmack (Mann, der einen Weinkrug leert), Hören (Lautenspielerin), Sehen (Mann, der Brille hält), Geruch (Jüngling, der an Melone riecht). (Tastsinn (2 Kämpfer) ist nicht gezeigt).
Unsere Sinne zeigen uns eine Welt, die anderen verschlossen bleibt. Entspringt Kunst der Sehnsucht, dieser persönlichen Welt zu entrinnen und ihr allgemeine Gültigkeit zu geben?
Weiterführende Links
www.dasGehirn.info hat sich zum Ziel gesetzt, das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton:
Christof Koch über visuelle Wahrnehmung (Video 32,4 min)
Verwandte Artikel auf ScienceBlog.at
Walter Gehring: Auge um Auge — Entwicklung und Evolution des Auges
Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir?
- Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Sehen und Hören.
- Teil 2. Aufbau und Funktion physiologischer Geruchssensoren
- Teil 3: Konstruktion einer biomimetischen Nase
Gottfried Schatz:
- Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen
- Wie «unsichtbarer Hunger» die Menschheit bedroht
ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und Weiterentwicklung
ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und WeiterentwicklungFr, 12.04.2014 - 05:18 — Redaktion
Fast auf den Tag genau vor einem Jahr – und nach bereits beinahe zwei Jahren Bloggeschichte – kündigte ScienceBlog.at den Provider und zog auf eine neue Website um, diesmal auf eigener Infrastruktur. Unverändert blieb unser Anspruch, „Wissenschaft aus erster Hand“ zu bieten: nach wie vor sind die Blog-Artikel von Topexperten verfasst, die über ihre Forschungsgebiete in einer für Laien leicht verständlichen Sprache schreiben..
Verändert hat sich die Gestaltung der Seite, und diese Entwicklung geht weiter in Richtung optimiertes Layout, möglichst hohe Benutzerfreundlichkeit und eine Strukturierung, welche uns erlaubt, von den vielen Möglichkeiten, die das System uns bietet, Gebrauch zu machen. Eine dieser Weiterentwicklungen ist das Gruppieren der Artikel nach Themenschwerpunkten, die wir Ihnen – heute beginnend mit „Evolution“ – in den folgenden Wochen einzeln vorstellen möchten.
Ein Jahr auf der neuen Website
Unter dem Titel „ScienceBlog in neuem Gewande — Kontinuität und Neubeginn“ [1] erschien am 12. April des Vorjahrs der erste Beitrag auf der neuen Seite. Der Artikel beschrieb die Themen des Blogs, den Qualitätsanspruch an Inhalte und Autoren und die Resonanz, die der Blog auf seiner alten Seite hatte. Weitere Details finden sich im Artikel „Der ScienceBlog zum Jahreswechsel 2013/2014“ [2].
Ein sehr dickes Buch
Als Naturwissenschafter wird es einem heute immer deutlicher vor Augen geführt, dass und wie die Grenzen zwischen einzelnen naturwissenschaftlichen Disziplinen verschwimmen: Ein Biochemiker, beispielsweise, ebenso wie ein Biologe, muss heute Wissen und Technologien aus Fächern wie analytischer, organischer und physikalischer Chemie, aus Strukturbiologie, Molekularbiologie, Genetik, Physiologie und vielleicht auch Pathologie anwenden. Darüber hinaus benötigt er auch einige Kenntnisse in Datenverarbeitung und -speicherung. Auch die moderne Medizin („science-based medicine“) ist eine molekulare Wissenschaft geworden, benötigt neben medizinisch/pharmazeutischen Grundlagen chemisch/biologische Expertise und ein Arsenal an physikalischen/chemischen Untersuchungs- und Analysenmethoden. Ähnlich komplexe, fächerübergreifende Zusammenstellungen finden sich in den meisten anderen naturwissenschaftlichen Disziplinen.
Mit ScienceBlog.at wollten wir von Anfang an der transdisziplinären Natur der meisten naturwissenschaftlichen, auch auf andere Gebiete angewandten, Problemstellungen Rechnung tragen. Die Artikel sollten Naturwissenschaften in ihrer ganzen Breite umspannen, es sollte daraus etwas entstehen, das Aspekte aus allen Gebieten darstellte, und die so – als immer wieder neu zusammenstellbare Bausteine – ein „Kaleidoskop der Naturwissenschaft“ schaffen würden.
Nachdem bereits alle auf der alten Seite erschienenen wissenschaftlichen Artikel auf die neue Seite transferiert sind (ihre Inhalte hatten nichts an Gültigkeit der Information und der Aussagen eingebüßt), liegen mit den wöchentlich neu erscheinenden Beiträgen nun insgesamt 140 Artikel vor. Zur Förderung von Lesbarkeit und Verständnis weisen die meisten Artikel Illustrationen auf und verfügen über weiterführende Links: seriöse, leicht verständliche und frei zugängliche Literatur und – wenn möglich – auch Videos. Bei einer durchschnittlichen Länge der Artikel von rund 1'600 Wörtern plus den weiterführenden Links, entsprechen alle Artikel zusammengenommen dem Volumen eines Buchs von mindestens 1'000 Seiten im Printformat.
Ein derartiges Buch („Kaleidoskop der Naturwissenschaft“) benötigt eine Strukturierung in Kapitel und Unterkapitel – eine Anwendung, die durch das verwendete Content-Managing-System „Drupal“ unseres Blogs durchaus ermöglicht wird. Wir haben die bis jetzt erschienenen Artikel nach ihren Themen einem oder auch mehreren Schwerpunkten zugeordnet und entsprechende Schlagwortlisten erstellt. Neue Artikel werden dementsprechend laufend eingegliedert und bei Bedarf neue Schwerpunkte gesetzt. Die Schwerpunkte geben die Möglichkeit, ein Thema von den Gesichtspunkten unterschiedlicher Disziplinen aus kennenzulernen, wobei jede Disziplin durch darin international ausgewiesene Experten repräsentiert wird, die ihr Wissen und ihre Standpunkte in leicht verständlicher Form kommunizieren.
Es entsteht somit ein neues Format, eine Art „e-Blogbook“, das über Themenschwerpunkte ein Vorgehen nach Art eines e-Books erlaubt, darüber hinaus aber die Möglichkeit einer breiten Diskussion im Blog bietet.
Zu den Autoren
Bis jetzt konnten wir 54 Autoren rekrutieren, davon 17 im Vorjahr. Die meisten Autoren haben österreichische Wurzeln und sind international hochrenommierte Experten. Das Navigationssystem des Blogs bietet unter „Autoren“ zumeist ausführliche (wissenschaftliche) Lebensläufe der alphabetisch aufgelisteten Personen und Links zu ihren im Blog erschienenen Artikeln.
In unserem Konzept, renommierte Wissenschafter als Kommunikatoren ihrer Fächer auftreten zu lassen, sehen wir eine Parallele zum „Botschafterprogramm“, einem Pilotprojekt der US National Academy of Sciences (NAS), „um der Notwendigkeit eines allgemein besseren Verständnis für wissenschaftliche Belange begegnen zu können. […] Aufbauend auf der Hochachtung, welche die Bevölkerung für Wissenschafter und Technologen empfindet [..wurde von der NAS..] ein Team erfahrener Wissenschafter und Technologen aus dem akademischen Umfeld, der Industrie und dem staatlichen Bereich ausgewählt, die als Botschafter der Wissenschaft dienen sollen.“ [3]. Auch in unserem Land (ebenso wie in anderen EU-Ländern) hält der überwiegende Teil der Bevölkerung Wissenschafter selbst für wohl am besten geeignet, um die Auswirkungen von wissenschaftlichen und technologischen Entwicklungen auf die Gesellschaft zu durchleuchten und zu erklären [4].
Resonanz auf den ScienceBlog.at
Seit dem Relaunch der Seite sehen wir steigende Zugriffszahlen (Abbildung 1). Im vergangenen Monat März zählte unsere Serverstatistik (Webalizer) bereits 12'771 Besucher (unterschiedliche IP-Adressen), die in diesem Zeitraum 151'011 Seiten abfriefen. Jeder Besucher hatte also offensichtlich wesentlich mehr als nur eine Seite gelesen. In den vergangenen 12 Monaten wurden rund 1,4 Millionen Seiten abgerufen, sodass unser Server etwa 52 Terabyte auslieferte.
Abbildung 1. Die Zahl der Besucher mit unterschiedlichen IP-Adressen und der Seitenaufrufe steigen laufend an. (Daten: eigene Messung mit Webalizer)
Einen Vergleich mit den dominierenden deutschsprachigen Wissenschafts-Portalen Scienceblogs.de und Scilogs.de – beides aus jeweils mehreren Dutzend Einzelblogs bestehende Portale – brauchen wir nicht zu scheuen (Tabelle 1). Der Serverdienst Alexa sieht uns im globalen Ranking zwar noch hinter beiden Portalen, in Österreich jedoch liegen wir bereits klar voran. Vor allem zeichnet sich unser Blog durch eine wesentlich niedrigere Absprungrate aus und – im Einklang mit der vielfach höheren Seitenanzahl pro Besucher – durch eine 20fach (sic) längere Verweilzeit.
Blog | Rang global | Rang Österreich | Absprung- rate [%] |
Tägl. Seiten-aufrufe/Besuch | Tägl.Besuchs- dauer [min] |
PageRank (google) |
---|---|---|---|---|---|---|
Scienceblogs.de | 97'549 | 4'858 | 59,6 | 1,70 | 2,34 | 6/10 |
Scilogs.de | 163'701 | 8'368 | 63,7 | 1,59 | 2,18 | 6/10 |
ScienceBlog.at | 228'533 | 1'182 | 35,8 | 30,00 | 46,05 | 7/10 |
Tabelle 1. Statistische Daten zu den dominierenden deutschsprachigen Wissenschafts-Portalen Scienceblogs.de und Scilogs.de sowie ScienceBlog.at (Daten von alexa.com abgerufen am 11.4.2014, 14:00).
Insbesondere hat unsere Seite in der Google-Bewertung „PageRank“ ein '7/10' erhalten – eine Bewertung, die bis jetzt nur sehr wenige Wissenschaftsblogs erzielten (z.B. das amerikanische Format Science-Based-Medicine). Wir sind über diese hohe Wertschätzung sehr glücklich und hoffen, dass wir dieser mit unserem Anspruch auf höchste Qualität an Autoren, Inhalte und Form der Kommunikation auch weiterhin gerecht werden. AC
Themenschwerpunkt Evolution
„Evolution“ ist ein zentrales Thema auf ScienceBlog.at, ist Leitmotiv von Artikeln aus unterschiedlichsten Disziplinen und lässt sich wohl am besten durch das Zitat des Evolutionsbiologen Theodosius Dobzhansky aus dem Jahr 1973 charakterisieren „Nichts macht Sinn in der Biologie, wenn man es nicht im Lichte der Evolution betrachtet.“
Evolution als Hauptthema ihrer Beiträge haben bis jetzt 7 Autoren gewählt; sie repräsentieren state-of-the-art-Standpunkte aus den Disziplinen Mathematik, Informatik, Physik, Astrophysik, Chemie, Biochemie und Biologie. Die insgesamt 20 Beiträge geben ein umfassendes Bild, das von der Evolution des Kosmos und der Entstehung von Molekülen, die als Bausteine des Lebens fungierten (chemische Evolution) zur Entstehung des Lebens und primitiver Lebensformen führten und von hier zur Entwicklung und Modellierung von immer komplexeren biologischen Systemen (biologische Evolution) bis hin zu Vorgängen zur Umgestaltung von Gesellschaften und deren Verhaltensweisen (Tabelle 2).
Unterkapitel | Autor | Titel |
---|---|---|
Ursprung des Kosmos | Peter Aichelburg | Das Element Zufall in der Evolution |
Christian Noe | „Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle | |
Entstehung des Lebens, primitive Lebensformen | Gottfried Schatz | Die grosse Frage – Die Suche nach ausserirdischem Leben |
Der kleine warme Tümpel - Was urtümliche Einzeller von der Frühzeit des Lebens berichten | ||
Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt | ||
Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken | ||
Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte | ||
Peter Schuster | Zum Ursprung des Lebens- Konzepte und Diskussionen | |
Letale Mutagenese — Strategie im Kampf gegen Viren | ||
Evolution komplexer Lebensformen | Walther Gehring | Auge um Auge - Entwicklung und Evolution des Auges |
Evolution der Gesellschaft | Karl Sigmund | Die Evolution der Kooperation |
Peter Schuster | Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft | |
Gottfried Schatz | Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspüren | |
Wie geht es weiter? | Peter Schuster | Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie |
Können wir Natur und Evolution übertreffen? Teil 2: zum design neuer Strukturen | ||
Uwe Sleytr | Evolution – Quo Vadis? | |
Theoretische Aspekte der Evolution | Peter Schuster | Wie universell ist das Darwinsche Prinzip? |
Unzähmbare Neugier, Innovation, Entdeckung und Bastelei | ||
Gibt es Rezepte für die Bewältigung von Komplexität? | ||
Zentralismus und Komplexität |
Tabelle 2. Artikel auf ScienceBlog.at zum Hauptthema Evolution
Aktivitäten 2014
Wissenschaftskommunikation muss und kann aber nicht nur in Schriftform erfolgen – nicht von ungefähr ist „be-greifen“ ein Synonym für „verstehen“. In diesem Sinne bemüht sich ScienceBlog.at auch dort um den Brückenschlag zwischen Wissenschaft und Gesellschaft, wo das mit dem geschriebenen Wort kaum möglich ist und wo die Anschauung schneller und direkter zum Ziel führt: der Teilchenbeschleuniger LHC (Large Hadron Collider) des CERN (Centre Européenne pour la Recherche Nucléare) in der französischen Schweiz erfährt derzeit eine größere Abschaltung wegen Servicearbeiten und für ein Upgrade, und ScienceBlog.at nützt die freundliche Einladung von Angehörigen des Instituts für Hochenergiephysik der ÖAW, um eine Besichtigung zu organisieren, die im Herbst heurigen Jahres stattfinden wird. Letzte Kleinigkeiten sind noch zu organisieren, doch schon in den nächsten Wochen werden wir Details zur Anmeldung bekannt geben können. Wir erhoffen eine rege Publikumsteilnahme, sodass wir schon jetzt anregen, die entsprechende Ankündigung geistig zu notieren.
Aber auch abseits von der reinen Vermittlung naturwissenschaftlicher Inhalte versuchen wir, uns nach den uns zur Verfügung stehenden Möglichkeiten einzubringen: die Universität Berkeley hat ein Software-Framework „BOINC – Berkeley Open Infrastructure for Network Computing“ geschaffen, über das jeder mit dem Internet verbundene Computer Wissenschaftern auf der ganzen Welt Rechenleistung zur Verfügung stellen kann. Rechenintensive Projekte verteilen über die BOINC-Server Arbeitspakete, die man auf dem eigenen Gerät mit der unbenützten CPU-Zeit abarbeitet und die Ergebnisse hochlädt. ScienceBlog.at beteiligt sich an 13 (von ungefähr hundert möglichen) Projekten, die uns wichtig erscheinen: von der Beherrschung von Malaria über die Simulation von Wirkmechanismen neuer Medikamente und Klimasimulation bishin zu – und hier schließt sich ein Kreis – der Auswertung von LHC-Daten ist der Bogen gespannt. Unter 2,7 Millionen Rechenanlagen, die weltweit teilnehmen oder -nahmen, performen wir mittlerweile unter den top 3‰.
Und freilich bedarf auch Internes der kontinuierlichen Pflege:
- Benutzern von Mobilgeräten wird nun eine vereinfachte Seite ausgeliefert, was hoffentlich die ohnehin gute Ladezeit (SpeedScore 90/100, üblich ist 75-85) auf Mobilgeräten weiter verbessert. Natürlich steht auch auf Mobilgeräten der volle Funktionsumfang inklusive Suche und Navigationsbaum weiterhin zur Verfügung!
- Außerdem haben wir vor kurzem die CPU-Kapazität unseres Servers verdreifacht, um dem gestiegenen Aufkommen gerecht zu werden. Dem Speicher steht ebenso wie der Bandbreite der Netzwerkanbindung Ähnliches unmittelbar bevor, sodass wir hoffen dürfen, technisch für die nächsten Jahre gerüstet zu sein.
- Außerdem können wir ankündigen, dass unsere Seiten in den nächsten Wochen eine professionelle, graphische Überarbeitung erfahren werden.
Fazit
ScienceBlog.at unterscheidet sich von anderen Wissenschaftsblogs:
- Er stellt nicht ein spezielles Fachgebiet dar, sondern umspannt die Naturwissenschaften in ihrer ganzen Breite. Damit entspricht ScienceBlog.at dem transdisziplinären Charakter der modernen Grundlagen- und angewandten Forschung in „Science and Technology“.
- Zahlreiche renommierte Experten garantieren dafür, dass die Inhalte der Beiträge kompetent und state-of-the-art, dabei aber auch in einer für Laien verständlichen Sprache abgefasst sind. Das Autorenkollektiv entspricht damit der Vorstellung der Bevölkerung (nicht nur in unserem Land), dass Wissenschafter wohl am besten geeignet sind, um Wissenschaft und Technologie zu kommunizieren.
- Mit dem Strukturieren der Beiträge in Form eines Buches und dem Setzen von Kapiteln – Themenschwerpunkten – entsteht ein neues Format (e-Blogbook), das sowohl nach Art eines e-Books informiert, darüber hinaus aber die Möglichkeit zu einer blogtypischen, breiten Diskussion über das gesamte Spektrum der Naturwissenschaften auf dem durch unsere Autoren garantierten höchsten Niveau bietet!
- Evolution ist nicht nur ein Hauptthema unseres Magazins, es unterliegt auch selbst einem Evolutionsprozess: der fortlaufenden Optimierung in einer sich stark verändernden wissenschaftlichen Landschaft. Neben seiner Kerntätigkeit der Wissenschaftskommunikation bringt ScienceBlog.at sich nach Maßgabe der Möglichkeiten auch in den Wissenschaftsbetrieb ein.
[1] ScienceBlog in neuem Gewande — Kontinuität und Neubeginn - [2] Der ScienceBlog zum Jahreswechsel 2013/2014
- [3] Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft
- [4] Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)
Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika
Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer TherapeutikaFr, 04.04.2014 - 05:20 — Bernhard Rupp
Vor hundert Jahren schlug mit der Verleihung des Nobelpreises an Max von Laue für seine Entdeckung der Beugung von Röntgenstrahlen an Kristallgittern nicht nur die Geburtsstunde der Kristallographie [1], sondern auch die Geburtsstunde von Max Perutz, einem Pionier der Röntgenkristallographie von Proteinen. Der ursprünglich aus Österreich stammende Chemiker hat – zusammen mit dem Engländer John Kendrew - trotz unüberwindlich scheinender Schwierigkeiten in Jahrzehnte langer Arbeit gezeigt, daß man die Struktur von Proteinen bestimmen kann.
Jeder von uns kennt Kristalle - aus Mineraliensammlungen ebenso wie aus dem Alltagsleben, aus dem die Kristalle kleiner Moleküle wie u.a. von Kochsalz und Zucker nicht wegzudenken sind. Mit Kristallen assoziieren wir üblicherweise Eigenschaften wie Härte, Dauerhaftigkeit und Schönheit.
Auch sehr große Moleküle, selbst die größten Eiweissmoleküle (Proteine), können sich in Form geordneter Kristalle organisieren. Protein-Kristalle sind – wie Abbildung 1 zeigt - nicht weniger schön als die der Mineralien, weisen aber einen entscheidenden Unterschied auf. Sie wachsen zu nur sehr kleinen Kristallen heran und sind sehr empfindlich und zerbrechlich.
Abbildung 1 Proteinkristalle. Auch große Proteinkristalle sind meistens nur wenige Zehntel Millimeter groß und werden unter dem Mikroskop betrachet. Diese Eigenschaften lassen sich unmittelbar aus den Kristallstrukturen ableiten: i) Die Wechselwirkungen, welche die einzelnen Proteinmoleküle im Kristallgitter zusammenhalten sind schwach im Vergleich zu den Wechselwirkungen zwischen den Atomen im Kristallgitter der Mineralien und ii) der Raum zwischen den Protein-Molekülen – im Mittel an die 50 % - ist mit der Mutterlauge gefüllt, in welche r die Kristalle heranwuchsen (Abbildung 2). Besonders überraschend war es, als die ersten Kristallstrukturen von Proteinen das Fehlen jeglicher Symmetrie in den Molekülen selbst zeigten, diese jedoch schöne symmetrische Kristalle bildeten. Abbildung 2. Proteinmoleküle im Kristallgitter. Die völlig asymmetrischen Proteinmoleküle organisieren sich zu geordneten Kristallen (vereinfachte zweidimensionale Darstellung). Die intermolekularen Wechselwirkungen zwischen den einzelnen Proteinen (rote, blaue, grüne Pfeile, rechtes Bild) sind relativ schwach. Der verbleibende Raum zwischen den Proteinmolekülen (im Durchschnitt 50 % des Kristallvolumens) ist mit Mutterlauge gefüllt.
Wie Proteinkristalle wachsen, kann in einem kurzen Video beobachtet werden [2].
Proteine – von sehr klein bis ganz groß
Proteine sind biologische Makromoleküle mit höchst unterschiedlichem Aufbau, die zahllose, für jedes Leben essentielle Funktionen ausüben:
Proteine regulieren u.a. das Ablesen der in der DNA gespeicherten genetischen Information und deren Übersetzung in Proteine, sie fungieren als Katalysatoren (Enzyme) in Stoffwechselvorgängen, synthetisieren und metabolisieren andere Proteine und bauen Fremdstoffe ab. Proteine, die als Rezeptoren in den Zellmembranen sitzen, ermöglichen den Informationsaustausch zwischen den Zellen und deren Umgebung. Proteine fungieren als Transporter für Moleküle und wiederum andere Proteine bilden die strukturellen Gerüste der Zellen.
Grundbausteine aller Proteine in allen Organismen sind 20 verschiedene Aminosäuren (L-alpha-Aminosäuren), die in unterschiedlicher Reihenfolge (Sequenz) zu linearen Ketten verknüpft (als sogenannte Polypeptide) vorliegen und durch Faltung zu verschiedenartigsten, funktionsspezifischen Strukturen führen. Um dabei räumliche Voraussetzungen zu schaffen, die einzelne biochemische Funktionen ermöglichen, sind Ketten mit mindestens 40 – 50 Aminosäuregruppen notwendig. Von dieser unteren Grenze weg, können Proteine aber auch mehrere tausend Aminosäuregruppen groß werden und dann mehrere funktionelle Domänen enthalten und daher mehrere Funktionen ausüben (Abbildung 3 A, B).
Wenn Proteine mit sich selbst oder mit anderen großen Biomolekülen assoziieren, können noch größere Strukturen entstehen. Beispielsweise treten tausende Aktin-Moleküle (zu je rund 375 Aminosäureresten) zusammen um eine einzige Aktin-Faser zu erzeugen – eine für die Stabilität und Motilität von Zellen, ebenso wie für die Muskelkontraktion essentielle Struktur. Ein weiteres Beispiel sind die Ribosomen – die Maschinerie der Proteinbiosynthese -, riesige Komplexe, die sich aus vielen unterschiedlichen Proteinen und den ribosomalen Ribonukleinsäuren (rRNA‘s) zusammensetzen (Abbildung 3C).
Es ist der Leistungsfähigkeit der Kristallographie, ebenso wie der Ausdauer der Strukturbiologen zu verdanken, daß die Strukturen auch dieser sehr großen Komplexe bis ins atomare Detail bestimmt werden konnten. Abbildung 3. Mittels Röntgenkristallographie bestimmte Proteinstrukturen, Beispiele: A) Trypsininhibitor aus Rinderpankreas (PDB 1bpi); ein kleines, aus 58 Aminosäuren bestehendes Protein mit einem Molekulargewicht 8000 Da, notwendig zur Regulierung der Proteinverdauung B) Neurotoxin des Bakteriums Clostridium botulinum (PDB 3bta); die giftigste natürliche Substanz die wir kennen (1 mg tötet ein Pferd): das Protein enthält drei Domänen mit unterschiedlichen Funktionen: (i) Zelladhäsion an Nervenzellen, (ii) Transport in die Nervenzellen, wo (iii) durch die Proteasefunktion der dritten Domäne (links in Abb. B) die Spaltung eines wichtigen intraneuronalen Proteins und in Folge Inaktivierung der Vesikelfusion stattfindet. Die dadurch blockierte Freizsetzung der Neurotransmitter führt zur Muskelparalyse und Erstickung. Darauf beruht auch die kosmetische Wirkung bei subkutaner Injektion: Falten, die durch Anspannung der Gesichtsmuskel entstehen, glätten sich. C) Ribosom – S50 Untereinheit eines Bakteriums (PDB 1ffk); Die 2 000 000 Da große Struktur enthält 27 unterschiedliche Proteine und die ribosomale 5S RNA und 23S RNA. Ribosomen selbst sind die zellulären Maschinen der Proteinproduktion. Alle Strukturen sind als Bändermodelle dargestellt (Längenangaben in Ångstrom (1Å = 0,1 Nanometer), Masse in Dalton (atomare Masseneinheit, 1 Da entspricht der Masse eines Protons)).
Von den ersten 3D-Proteinmodellen bis heute
Für die ersten Röntgenstrukturanalysen von Proteinen erhielten der aus Wien stammende Chemiker Max Perutz und der englische Biochemiker John Kendrew den Nobelpreis im Jahre 1962 - fünfzig Jahre nach der Entdeckung der Röntgenstrahlbeugung an Kristallgittern durch Max von Laue [1]. Perutz hatte während seines Studiums an der Universität Wien von faszinierenden biochemischen Untersuchungen in Cambridge gehört und war 1936 für die Erstellung seiner Doktorarbeit dorthin aufgebrochen. 1937 begann er am Cavendish Laboratory die ersten Röntgenbeugungsversuche an Kristallen des Hämoglobin auszuführen, dem relativ kleinen, in den roten Blutkörperchen konzentriert vorliegenden Protein, welches Sauerstoff in der Lunge aufnimmt und im Blutkreislauf an Organe des Körpers wieder abgibt. Zehn Jahre später kam John Kendrew in das Perutz-Labor und begann an der Röntgenstrukturanalyse des Myoglobin zu arbeiten. Dieses, mit Hämoglobin strukturverwandte, aber nur ein Viertel so große Protein dient in den Muskelzellen von Säugetieren der Speicherung und Abgabe von Sauerstoff. Die Versuche von Perutz und Kendrew führten erst in den 1950er Jahren zu ersten brauchbaren Resultaten. Wie die ersten Modelle der Proteinstrukturen aussahen, ist in Abbildung 4 aufgezeigt. Abbildung 4. Wie Proteinmodelle anfänglich aussahen. Oben links: Myoglobin: dasWurstmodell* von John Kendrew (späte 1950er-Jahre) zeigt nur die Faltung der Aminosäurekette, Oben rechts: Hämoglobin Modell aus Balsaholz von Max Perutz (1959)*. Holzscheiben markieren den Verlauf der Aminosäureketten der 4 Untereinheiten (2 weiße, 2 schwarze). Unten links: John Kendrew und Max Perutz vor dem „Wald von Stäbchen“*, die Kendrew als Basis für die Konstruktion des Myoglobin aus den Aminosäuren benutzte (1960) (Kendrew Modell). Unten rechts: zu restaurierendes Kendrew Modell des Arabinose-Bindungsproteins aus E. coli, welches von Gary Gilliland, Florante Quiocho and George Philips (Rice University) in den frühen 1970-Jahren in den Maßen 1 x 1,5 x 2,5 m erstellt wurde. (* Fotos mit Genehmigung des MRC Laboratory of Molecular Biology).
In seiner Laudatio anlässlich der Nobelpreisverleihung führte G. Hägg dies so aus: „Als Ergebnis der Arbeiten von Kendrew und Perutz wird es nun möglich die Prinzipien zu sehen, welche dem Aufbau globulärer Proteine zugrundeliegen. Dieses Ziel wurde nach 25 Jahren Arbeit mit anfänglich nur äußerst mäßigen Erfolgen erreicht. Wir bewundern die beiden Wissenschafter daher nicht nur für ihre Genialität und Fertigkeiten, mit denen sie ihre Untersuchungen ausführten, sondern auch für ihre Geduld und Ausdauer, welche die anfangs unüberwindlich scheinenden Schwierigkeiten bewältigten. Wir wissen jetzt, daß man die Struktur von Proteinen bestimmen kann und es ist sicher, daß eine Reihe neuer Bestimmungen bald folgen wird“ [3]
Rund 50 Jahre später sind bereits an die 100 000 Strukturmodelle von Proteinen aus Menschen, Tieren, Pflanzen und Mikroorganismen in der frei zugänglichen Protein Datenbank (PDB) [1, 4] gespeichert. Im Laufe der Jahre wurden die analysierten Strukturen immer größer und komplexer (Abbildung 5). Die Interpretation neuer Beugungsdaten, d.h. die Erstellung von 3D-Struktur-Modellen, erfolgt heute auf Basis all dieser akkumulierten Informationen – ganz zum Unterschied zu den frühen Tagen der Kristallographie, wo die Forscher noch auf keinerlei Basiswissen über Proteinstrukturen zurückgreifen konnten. Auch die Versuchsführung selbst hat sich grundlegend verändert: der gesamte Vorgang von der Kristallisation, Probenahme, Überführung zur Röntgenstrahlungsquelle, raschen Sammlung der Messdaten bis zur hocheffizienten 3D-Strukturbestimmung wurde weitgehend automatisiert und enorm beschleunigt [5]. Die ungeheure Steigerung in Rechenleistung und Speicherfähigkeit moderner Computer ermöglicht, daß auch preiswerte Desktop- oder Laptop-Computer innerhalb von Minuten bis Stunden komplexe kristallographische Berechnungen ausführen können. Abbildung 5. Röntgenstrukturanalysen von Proteinen und Proteinkomplexen. Die Zahl an aufgeklärten Strukturen steigt exponentiell an – seit 2008 ist sie auf insgesamt rund 100 000 Strukturen angewachsen [1] - und die untersuchten Moleküle/Molekülkomplexe werden immer größer. Abbildung zusammengestellt von Christine Zardecki, Protein Data Bank (USA).
Die Möglichkeit Moleküle bis in die atomaren Details betrachten zu können, hat zu einer Revolution im Verstehen der Zusammenhänge von Struktur und Funktion der Proteine geführt und damit die Chance geschaffen, Eigenschaften von Proteinen und damit auch deren Funktionen gezielt zu modulieren. Derartige zielgerichtete Veränderungen sind von grundlegender Bedeutung u.a. in dem Prozess, der zum Auffinden neuer Arzneistoffe führt.
Wie wirken Arzneistoffe?
Um neue Arzneistoffe zu entdecken oder bereits vorhandene entscheidend zu verbessern, werden deren therapeutische Angriffspunkte (Targets) identifiziert - in den meisten Fällen sind dies Proteine, die sich von mit der Krankheit ursächlich verbundenen dysregulierten oder defekten Genen herleiten. Ist ein derartiges Target-Protein gefunden, wird es mittels biotechnologischer Methoden in ausreichender Menge hergestellt (exprimiert), aufgereinigt und nach Möglichkeit zur Kristallisation gebracht. Die Kristallbildung erfolgt häufig vollautomatisch im Hochdurchsatz(High Throughput)-Verfahren, wobei die Kristallisation auch in Gegenwart einer Reihe kleiner Moleküle (Liganden) ausgeführt wird. Aus der Kristallstrukturanalyse des Protein-Liganden Komplexes wird dann ersichtlich, ob und welche Liganden dort andocken und die Funktion des Proteins und damit einen im Zusammenhang stehenden Krankheitsprozess maßgeblich beeinflussen könnten. Derartige Moleküle dienen dann als Leitverbindungen – sogenannte „Leads“ - für die Entwicklung neuer, spezifischer Arzneistoffe. Der Prozess ist in Abbildung 6 vereinfacht dargestellt. Abbildung 6. Entdeckung neuer Wirkstoffe. Unterschiede in der Genexpression von krankem (z. B Krebs) versus gesundem Gewebe (Differential Genomics) weisen auf falsch regulierte und/oder defekte Gene hin: deren Genprodukte – Proteine – können geeignete Targets für die Auffindung neuer Arzneistoffe sein und werden, wie im Text beschrieben, untersucht. Als Beispiel der röntgenkristallographischen Untersuchungen an bakteriellen Zielproteinen ist im unteren Teil des Bildes dargestellt, wie die aktive Form des gegen Tuberkulose angewandten Standard-Medikaments Isoniazid (als Stäbchenmodell) in einer Bindungstasche des bakteriellen Target-Enzyms positioniert ist, darunter die Struktur eines Moleküls, das als Leitverbindung für die Synthese eines neuen, effizienteren Arzneistoffes gegen Antibiotika-resistente Bakterien dient.
Die Röntgenkristallographie zeigt auf, wie und warum kleine Moleküle etwa bakterielle Proteine blockieren, die essentiell mit der Funktion eines Krankheitserregers verknüpft sind, oder wie sie beispielsweise als Inhibitoren von Rezeptorproteinen fungieren, welche Tumorzellen für ihr unkontrolliertes Wachstum benötigen. Darüber hinaus erlaubt es die genaue Kenntnis der Geometrie und der elektrochemischen Eigenschaften des Bindungsortes Strukturen zu designen, die sich an die Gegebenheiten optimal anpassen und damit zu höherer therapeutischer Wirksamkeit führen sollten.
Als Beispiel sei hier Isoniazid angeführt, ein bereits seit langem verwendetes Standard-Medikament gegen Mykobakterien, die Erreger der Tuberkulose. Dieses sehr kleine (synthetische) Molekül wird erst im Bakterium in eine aktive Form (isonicotinic acyl-NADH) überführt, die dann an ein Enzym bindet, das für die Synthese bestimmter langkettiger Fettsäuren (Mykolsäuren) in der bakteriellen Zellwand verantwortlich ist. Die Kristallographie demonstriert, wie diese aktive Form in der Bindungstasche des Enzyms positioniert ist, bestätigt damit den Wirkungsmechanismus und zeigt Lead-Strukturen zur Optimierung der Bindung und Wirksamkeit auf (Abbildung 5, unten). Zum Glück haben menschliche Zellen nicht die gleichen Fettsäure-reichen Zellwände wie die Mykobakterien, und wir benötigen daher auch kein Enzym für die Synthese der Mykolsäuren. Der Inhibitor Isoniazid wird daher von Patienten weitgehend problemlos vertragen, während die infektiösen Mykobakterien absterben. Aufkommender Resistenzentwicklung auf Grund von Mutationen in der Proteinstruktur kann in vielen Fällen mit der Strukturanalyse des veränderten Proteins und der Anpassung des Wirkstoffes an die neuen Voraussetzungen begegnet werden.
Fazit
In den nun 100 Jahren ihres Bestehens hat die Röntgenkristallographie enorm zum Fortschritt aller Disziplinen von Wissenschaft und Technologie beigetragen, die sich mit kristallisierbaren Materialien beschäftigen. Auf der Basis der bis in die atomaren Details analysierten Kristallstrukturen werden die Eigenschaften von Materialien verstanden, können verbessert oder auch neu geplant werden, ob es nun Materialien aus der anorganischen Welt sind – wie beispielsweise Halbleiter, Legierungen und Stoffe, die in der Raumfahrt verwendet werden. In den Biowissenschaften ermöglicht die Kristallographie den rasanten Fortschritt in unseren Kenntnissen zu Aufbau und Wirkungsmechanismen von Biomolekülen und schafft die Basis gezielt effiziente Wirkstoffe gegen Krankheiten zu entwickeln.
[1] Bernhard Rupp, Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag
[2] Proteinkristallen beim Wachsen zusehen: Video von George Sheldrick and Students (Göttingen) http://www.ruppweb.org/iycr/low.m1v (low resolution, 1.8MB);
http://www.ruppweb.org/iycr/high.m1v (high resolution, 5MB)
[3] Award Ceremony Speech, Presentation Speech by Professor G. Hägg, member of the Nobel Committee for Chemistry of the Royal Swedish Academy of Sciences.
http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1962/press.html
[4] Protein Data Bank http://www.wwpdb.org/stats.html
[5] Von den Kristallen bis zur 3D-Struktur eines Proteins (Phosphodiesterase). Video (ca 4 min; Englisch). www.ruppweb.org/cryscam/drugs_and_bots_small.wmv
Weiterführende Links
- Homepage von Bernhard Rupp: http://www.ruppweb.org/iycr/IYCr_2014.htm
- Bernhard Rupp: Biomolecular Crystallography: Principles, Practice, and Application to Structural Biology (2009): das umfassende Lehrbuch über Grundlagen, Techniken und Anwendungen der Kristallographie in der Strukturbiologie. http://www.ruppweb.org/garland/default.htm
- Internationales Jahr der Kristallographie: http://www.iycr2014.de /
- Max Perutz: X-ray analysis of haemoglobin, Nobel Lecture, December 11, 1962; http://research.chem.psu.edu/sasgroup/chem540/downloads/perutz-lecture.pdf
- Gottfried Schatz: Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst.
- What is a Protein? http://www.rcsb.org/pdb/education_discussion/educational_resources/what_...
- Video: Celebrating Crystallography 3:05 min. (Englisch) http://www.richannel.org/celebrating-crystallography
- Video: Introduction to X-ray crystallography 17.26 min (harvardbmw’s videos; Englisch)) http://vimeo.com/7643687
- Video: Myoglobin - A brief history of structural biology. 4,37 min (Englisch) http://www.richannel.org/collections/2013/crystallography#/myoglobin-a-b...
- Video: A case of crystal clarity http://www.richannel.org/collections/2013/crystallography#/a-case-of-cry... 2,37 min. (Englisch)
Eine stille Revolution in der Mathematik
Eine stille Revolution in der MathematikFr, 28.03.2014 - 06:16 — Peter Schuster
Ausgelöst und gesteuert durch die spektakuläre Entwicklung der elektronischen Rechner, ist in den letzten Jahrzehnten der Unterschied zwischen reiner und angewandter Mathematik fast völlig verschwunden. Computer-Modellieren hat in der Wissenschaft – ob es sich nun um Physik, Chemie oder Biologie handelt - weiteste Verbreitung gefunden.
Noch vor fünfzig Jahren existierte eine klare Trennlinie zwischen der reinen und der angewandten Mathematik: die reine Mathematik war im hehren Olymp der akademischen Wissenschaften angesiedelt, während die Angewandte Mathematik in Forschung und Lehre den Technischen Hochschulen überlassen wurde. Noch vor wenigen Jahren fragte ein Kollege vom Institut für Mechanik der Werkstoffe und Strukturen der TU Wien halb scherzhaft, halb gekränkt: „In unserem Mathematikinstitut betreiben unsere Leute reine Mathematik. Ist denn das, was ich mache, schmutzige Mathematik?“.
Tatsächlich hat die Mathematik in den vergangenen Jahrzehnten eine stille Revolution durchlebt und der einst als fundamental betrachtete Unterschied zwischen reiner und angewandter Mathematik ist fast vollständig verschwunden. Computer-Modellieren hat in der Wissenschaft weiteste Verbreitung gefunden und praktisch jede Universität beherbergt auch ein Department für Computerwissenschaften.
Der Wettstreit zwischen dem algorithmischen Rechnen (links) und dem Verwenden eines Rechners (Abacus; rechts). Im Hintergrund steht die personifizierte Arithmetica als Schiedsrichterin. Holzschnitt aus dem Buch „Margarita Philosophica“ von Georg Reisch (1504).
Fortschritt im Computerunterstützten Rechnen – durch Verbesserungen in Hardware oder Algorithmen?
Seit den 1960er Jahren steigen Schnelligkeit der Rechenleistung und digitales Speichervermögen exponentiell an - die Verdopplungsrate beträgt bloß 18 Monate – ein Faktum, das allgemein als Moor‘sches Gesetz bezeichnet wird (siehe [1]). Wenig bekannt ist allerdings, dass die an sich rasante Steigerung der Computerleistung noch von den Fortschritten in der numerischen Mathematik übertroffen wurden, welche zu einem ungeheuren Anstieg in der Effizienz von Algorithmen führte.
Um numerische Hochleistungsmethoden verstehen, analysieren und designen zu können, bedarf es allerdings einer soliden mathematischen Ausbildung.
Die Verfügbarkeit von billiger Rechnerleistung hat auch die Einstellung zu exakten Resultaten verändert, die man erst an Hand komplizierter Funktionen erhält: Es braucht schließlich nicht so viel mehr Rechenzeit, um einen überaus komplexen Ausdruck (beispielsweise eine hypergeometrische Funktion) zu berechnen als für eine gewöhnliche Sinus- oder Cosinus-Funktion! Symbolisches Rechnen („Rechnen mit Buchstaben“ - führt zu Ergebnissen, die universell anwendbar sind) hat das Alltagsleben des Mathematikers ebenso verändert, wie das des Wissenschafters der Mathematik anwendet: Berechnungen komplexer und schwieriger Beziehungen sind enorm einfacher geworden, die Auswirkungen prägen u.a. auch die Art und Weise, wie heute analytisches Arbeiten stattfindet.
Neue Einrichtungen in der Mathematik
Die mathematischen und die naturwissenschaftlichen Gesellschaften, ebenso wie auch die diese fördernden Organisationen haben bereits auf die Umorientierung der Ziele in der Mathematik reagiert. Es wurden Einrichtungen geschaffen, welche direkte Zusammenarbeit zwischen mathematischer Grundlagenforschung und anwendungsorientierter Wissenschaft stimulieren und erleichtern sollten. Waren es anfänglich vor allem Physik. Ingenieurwissenschaften und technologisch-ausgerichtete Industriezweige, die aus der Zusammenarbeit mit der Mathematik profitierten, so folgten später andere Disziplinen wie Chemie, Biologie und Soziologie. Die Ökonomie hatte schon lange Zeit Bezug zur Mathematik.
Angewandte Mathematik: Dombaumeister Anton Pilgram (15. Jh) mit geometrischen Konstruktionselementen in den Händen, dahinter deren Anwendung (Stephansdom Wien)
Aktuell finanziert die National Science Foundation (NSF) In den USA acht über den Kontinent verteilte Institute für angewandte Mathematik, auch die meisten Staaten der Europäischen Union haben Institute gegründet, in denen Mathematiker mit anderen Wissenschaftern zusammenkommen, ähnliche Entwicklungen gibt es auch in Südostasien – beispielsweise in Singapur), in China und in Indien.
Um nur einige herausragende Beispiele derartiger Institutionen in Europa zu nennen, so sind dies das Institute des Hautes Ètudes Scientifiques (IHES) in Frankreich und das Max Planck Institut für Mathematik in den Naturwissenschaften in Deutschland. In Österreich gibt es zwei herausragende Einrichtungen: das seit 22 Jahren bestehende Erwin Schrödinger Institut für mathematische Physik (ESI, Universität Wien) und das vor 11 Jahren in Linz gegründete Johann Radon Institute for Computational and Applied Mathematics (RICAM) der ÖAW. Dank der internationalen Bekanntheit seines Gründungsdirektors, Heinz Engl, und der unermüdlichen Aufbauarbeit ist das RICAM heute ein Fixpunkt auf der Weltkarte der Mathematik.
Mathematiker sind anders
Mathematiker benötigen für ihre Arbeit weder eine große Gruppe noch besonders teure Geräte. Bei den von ihnen verwendeten Computern handelt es sich kaum um die großen „Supermaschinen“. Was Mathematiker aber brauchen, ist ein Austausch von Ideen und das persönliche Gespräch zwischen Wissenschaftern. Deshalb haben alle erfolgreichen neuen Einrichtungen eines gemeinsam: ein organisiertes, intensives Gästeprogramm und spezielle Veranstaltungen von Experten, die ein gemeinsames Forschen erleichtern sollen.
Wissenschaft – rein und/oder angewandt?
Verglichen mit anderen Disziplinen fand in der Mathematik die Verschmelzung von reiner und angewandter Forschung relativ spät statt.
In der Physik und Chemie des 19. Jahrhunderts fanden Entdeckungen bereits sehr schnell den Weg in eine industrielle Anwendung. Seitdem wird die Zeitspanne zwischen Erfindung, Patentanmeldung und Überführung in den industriellen Entwicklungsprozeß immer kürzer. Als Beispiel sei die Chemie genannt:
Hier hatte angewandte Forschung nie einen geringeren Stellenwert als Grundlagenforschung; das Motto “pure chemistry is poor chemistry“ gilt nach wie vor. Das ‚große‘ Geld wurde und wird hier mit den industriellen Anwendungen, aber nicht mit der akademischen Forschung gemacht. Die berühmte, seit 1887 bestehende, internationale Zeitschrift ‚Angewandte Chemie‘ (mit einer englischen Übersetzung) publiziert neue, grundlegende Arbeiten aus der chemischen Forschung, ebenso wie deren interessante Anwendungen - jede Grenzziehung zwischen „reiner“ Chemie und chemischen Ingenieurswissenschaften wäre künstlich und völlig unnötig. Ein herausragendes Beispiel dafür, wie Grundlagenforschung, Anwendung und Unternehmertum sich in einer Person vereinen lassen, ist der berühmte Österreichische Chemiker Carl Auer von Welsbach: er entdeckte vier neue Elemente des Periodensystem, machte drei weltverändernde Erfindungen - das Gasglühlicht, die Metallfadenglühlampe und den Zündstein – und war ein höchst erfolgreicher Firmengründer: seine vor mehr als hundert Jahren gegründeten „Treibacher Chemischen Werke“ und auch die Firma „Osram“ florieren auch heute wie eh und jeh.
Computer in der Mathematik
Mit dem Modellieren und den numerischen Simulationen wurden Computer zu Forschungsinstrumenten:
- Die Anwendung der Quantenmechanik auf Probleme der Molekülstrukturen und der Molekülspektroskopie benötigt enorme Computer-Ressourcen. Die Mathematik ist hier relativ einfach, die Herausforderung liegt aber im Umfang der zu behandelnden Fragestellung.
- In der Physik hat das Modellieren schon eine sehr lange Tradition, und ist zweifellos aufwändiger, was die mathematische Vorgangsweise betrifft.
- Die Biologie bedient sich seit relativ kurzer Zeit – wie Chemie und Physik – ebenfalls der Großrechner, bringt jedoch neue Probleme mit sich: bis jetzt gibt es keine theoretische Biologie, die ein sicheres Gerüst für das Modellieren erstellen könnte. Ein biologisches Modell baut sich damit nicht auf einem allgemein akzeptierten theoretischen Konzept auf (wie es die Quantenmechanik für die Chemie ist), seine Erstellung benötigt empirisches Wissen, Expertise und Intuition.
Fazit
Die Revolution in der Mathematik kam nicht ganz von selbst. Sie wurde durch die spektakuläre Entwicklung der elektronischen Rechner initiiert und gesteuert. Vereinfachte mathematische Modelle lassen sich durch Computereinsatz an die notwendigerweise komplexe Realität anpassen und wurden damit interessant für Anwendungen. Die enormen Leistungen der numerischen Mathematik wären ohne die von den Nutzern ausgehenden Impulse niemals erbracht worden.
[1] Peter Schuster: Wie Computermethoden die Forschung in den Naturwissenschaften verändern. Eine Kurzfassung dieses Artikels ist im Vorjahr erschienen (PDF-Download).
Weiterführende Links
Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)
Artikel zu angesprochenen Themen auf ScienceBlog.at
Peter Schuster: Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften
Peter Schuster: Wie erfolgt eine Optimierung im Fall mehrerer kriterien — Pareto-Effizienz und schnelle Heuristik
Inge Schuster: Carl Auer von Welsbach — Vorbild für Forschung, Entwicklung und Unternehmertum
Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag
Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. GeburtstagFr, 20.03.2014 - 20:12 — Bernhard Rupp
Vor hundert Jahren erfolgte die Verleihung des Nobelpreises an Max von Laue für seine Entdeckung der Beugung von Röntgenstrahlen an Kristallgittern. Dies war die Geburtsstunde der Kristallographie, die es seitdem ermöglicht fundamentale Erkenntnisse zu Struktur und Funktion von kleinen und großen Molekülen zu gewinnen..
In einer feierlichen Zeremonie in ihrem Hauptquartier hat die UNESCO das Jahr 2014 zum Jahr der Kristallographie (IYCr) ausgerufen [1]. An Bedeutung steht die Kristallographie damit in einer Reihe mit anderen, von der UNO als global wichtig erachteten Themen, wie es beispielsweise Biodiversität, erneuerbare Energie oder Wasserversorgung sind.
Warum erscheint der UNO dieses Gebiet so bedeutend, von dem nur wenige unserer Zeitgenossen bis jetzt überhaupt gehört haben?
Die Struktur von Materialien bestimmt deren Eigenschaften und Funktion
Dieser Satz trifft für alle Materialien zu. Die Eigenschaften von Gasen, Flüssigkeiten, Gesteinen, Mineralien, Halbleitern oder Medikamenten werden ebenso durch ihre molekulare Struktur bestimmt, wie die Funktion von Proteinen und deren hochmolekularen Komplexen, den eigentlichen „Maschinen des Lebens“. Der Nobelpreisträger und Mitentdecker der DNA-Struktur, Francis Crick, hat dies prägnant formuliert:
„Praktisch alle Aspekte des Lebens basieren auf dem Aufbau aus Molekülen, ohne ein Verständnis der Moleküle, können wir das Leben selbst nur in groben Umrissen verstehen“.
Was ist Kristallographie?
Kristallographie ist die Wissenschaft, die es uns erlaubt den Aufbau von Stoffen in detailliertester Weise auf ihrer atomaren und molekularen Ebene zu untersuchen. Alle kristallographischen Techniken beruhen – wie der Name schon sagt - auf der Untersuchung von Kristallen. Liegen Atome oder auch komplexe Moleküle in derart geordneten Strukturen vor, so werden an den regelmäßig angeordneten Atomen Röntgenstrahlen, Neutronen oder auch Elektronen gebeugt. Aus den entstehenden Beugungsmustern lässt sich dann die dreidimensionale Struktur eines Moleküls präzise, bis in atomare Details rekonstruieren.
Dies klingt im Prinzip recht einfach, aber zur Aufnahme der Beugungsmuster werden oft sehr ausgeklügelte Maschinen, wie zum Beispiel Synchrotron-Strahlenquellen oder starke Neutronenquellen benötigt. Die Rekonstruktion komplexer atomarer Modelle aus den Beugungsdaten kann ebenfalls äußerst aufwendig sein. Kristallographie ist also kein einfaches bildgebendes Verfahren (Imaging) wie dies heute in der Mikroskopie angewandt wird. Dazu kommt die primäre Voraussetzung für die Kristallographie, daß eine Substanz von vornherein als Kristall vorliegen oder sich im Labor kristallisieren lassen muß.
Nichtsdestoweniger liegen bis jetzt hunderttausende Strukturen kleiner anorganischer und organischer Verbindungen bis hin zu großen Biomolekülen in Datenbanken gespeichert vor. Der überwiegende Teil (rund 90 %) dieser Strukturen wurde durch Röntgenkristallographie ermittelt, deren Prinzip in Abbildung 1 schematisch dargestellt ist.
Abbildung 1, Prinzip der Röntgenkristallographie. Ein Kristall, der hier aus geordneten Proteinmolekülen besteht, ist auf einer Vorrichtung (Goniostat) montiert, welche die Drehung um zumindest eine Achse ermöglicht. Der Kristall wird fein-gebündelten (kollimierten), intensiven Röntgenstrahlen ausgesetzt, welche an den Elektronenhüllen der Atome gebeugt werden. Die resultierenden Beugungsbilder werden auf einem Flächendetektor aufgenommen und zu einem Set von Beugungsdaten zusammengesetzt – einem reziproken Code für die räumliche Anordnung der Atome im Kristall. Die Übersetzung diese Codes mittels mathematischer Methoden (Fourier-Transformation: FT) und Kenntnis der zugehörigen Phasenwinkel erlaubt es die Elektronendichte für die streuenden Atome zu rekonstruieren und aus diesen ein dreidimensionales Modell der Struktur zu erzeugen - hier dargestellt in Form eines Ribbon (Bänder)-Modells.
Die Geburtsstunde der Röntgenkristallographie
Der Physiker Max von Laue, seit 1909 Privatdozent an der Ludwig-Maximilian Universität in München, kam hier einerseits mit der Raumgitterhypothese des Kristallaufbaus in Berührung und andererseits mit der Theorie der Röntgenstrahlung. Wilhelm Conrad Röntgen, der 1885 die nach ihm benannte Strahlung entdeckt hatte (und dafür 1901 mit dem ersten Nobelpreis in Physik ausgezeichnet wurde), war Professor in München, ebenso der theoretische Physiker Arnold Sommerfeld, der von der Wellennatur dieser Strahlung überzeugt war. Wäre die Wellenlänge dieser Strahlung, so schloss Laue, in derselben Größenordnung, wie die Abstände der Atome im Kristallgitter, müsste ihr Durchgang durch den Kristall Beugungsmuster hervorrufen. Zusammen mit Walter Friedrich und Paul Knipping konnte Laue im Jahr 1912 seine Raumgitterhypothese erhärten (Abbildung 2).
Laue‘s Experiment bestätigte damit beides:
- die Wellennatur der Röntgenstrahlung
- den Aufbau der Materie aus diskreten Atomen.
Für seine Entdeckung der Röntgenstrahlbeugung an Kristallen wurde Laue im Jahr 1914 mit dem Nobelpreis ausgezeichnet.
Abbildung 2. Zinkblende Beugungsmuster (Laue, Friedrich & Knipping, Sitz.ber. Bayer. Akademie d. Wiss. 8. Juni 1912) „Aber als nun jene Figur 5 sichtbar wurde, das erste typische LAUE-Diagramm, welches die Strahlung durch einen genau zur Richtung der Primärstrahlung orientierten Kristall regulärer Zinkblende wiedergab mit ihren regelmäßig und sauber in verschiedenen Abständen vom Zentrum angeordneten Interferenzpunkten, da ging ein allgemeines "ah" durch die Versammlung. Ein jeder von uns fühlte, daß hier eine große Tat vollbracht war“ (Zitat: Max Planck, 1937)
Der englische Physiker Sir William H. Bragg hatte eben von den ersten Versuchen zur Erstellung medizinischer Röntgendurchleuchtungsbildern erfahren, als sein fünfjähriger Sohn William sich den Arm brach und Bragg diese brandneue Technik benutzte um den Bruch zu untersuchen. Vater und Sohn blieben seitdem der Röntgenstrahlung verfallen. Der Vater baute das erste Röntgenstrahl-Spektrometer, das monochromatische Röntgenstrahlen verwendete (Strahlen mit einer einzigen Wellenlänge) und die Interpretation der Beugungsmuster enorm vereinfachte. Von höchster Bedeutung war der Ansatz des Sohnes die Beugung der Röntgenstrahlen als Reflexion an den Ebenen des Kristallgitters zu interpretieren: die berühmte Bragg-Gleichung, die den Beugungswinkel mit dem Abstand der Gitterebenen in Beziehung setzt, ist eine der Grundvoraussetzungen, um die Atompositionen innerhalb eines Kristalls genau zu bestimmen und damit seine dreidimensionale Struktur zu entschlüsseln. Vater und Sohn Bragg erhielten 1915 den Nobelpreis in Physik (mit 25 Jahren war der Sohn bis dato der jüngste Nobelpreisträger).
Aussagen über Materialeigenschaften: Warum ist der Diamant so hart?
Die ersten Beugungsmuster von Röntgenstrahlen wurden an Kristallen erhalten, die aus einem einzigen oder nur wenigen unterschiedliche Elementen bestanden, wie beispielsweise der Diamant (C), das Steinsalz (NaCl) oder die Zinkblende (Zinksulfid).
Der Diamant ist ein sehr harter Kristall, der unter hohem Druck und Temperatur aus reinem Kohlenstoff entstanden ist. Aus der Kristallstruktur des Diamanten wird ersichtlich warum dieser so hart ist im Gegensatz zu Graphit, einer anderen kristallinen Form des Kohlenstoffs, der u.a. als Bleistiftmine und Gleitmittel Verwendung findet (Abbildung 3):
Im Diamanten liegt jedes Kohlenstoffatom kovalent an vier weitere Kohlenstoffatome (in Tetraeder-Anordnung) gebunden vor. Die starken Kohlenstoff-Kohlenstoff Bindungen verbinden all Atome im Kristall und bewirken so dessen Härte. Im Graphit sind hexagonale Schichten kovalent gebundener Kohlenstoffatome übereinanderliegend angeordnet. Innerhalb einer Schicht sind die kovalenten Kohlenstoff-Kohlenstoff Bindungen ebenfalls sehr fest, die erheblich schwächeren nicht-kovalenten Wechselwirkungen zwischen den Schichten machen diese aber leicht gegeneinander verschiebbar: das Mineral ist in einer Ebene weicher und damit für eine Verwendung als Gleit-oder Schreibmittel geeignet.
Abbildung 3. Kohlenstoff kann in vielen Kristallstrukturen vorliegen – als extrem harter Diamant, als weicher Graphit, als sphärische Fullerene, zu denen Kohlenstoff-Nanotubes und Buckyballs (hier die an einen Fußball erinnernde, aus 60 C-Atomen bestehende Form) gehören.
Reiner Kohlenstoff kann auch hochkomplexe Strukturen bilden wie beispielsweise die Fullerene – aus 5-er und 6-er Kohlenstoffringen zusammengesetzte, gewölbte Strukturen. Dazu gehören Nanotubes – meist wenige Nanometer dünne und bis zu Zentimeter lange Röhrchen mit einem enormen Potential an technischen Anwendungsmöglichkeiten. Dazu gehören auch die sphärischen Buckyballs, wie die natürlich vorkommende, aus 60 Kohlenstoffatomen bestehende Form (Buckminsterfulleren), die an einen Fußball erinnert. Auch die Struktur dieser Buckyballs wurder mittels Röntgenkristallographie aufgeklärt.
100 Jahre Kristallographie
Seit den Entdeckungen von von Laue und den Braggs hat die Kristallographie zu enormen Durchbrüchen im Verständnis der physikalischen und chemischen Eigenschaften von Materialien geführt, ebenso wie zu fundamentalen Einblicken in die Struktur und Funktion großer biologischer Moleküle. Für bahnbrechende Fortschritte in kristallographischen Techniken und daraus resultierenden Ergebnissen wurden bis jetzt 29 Nobelpreise verliehen [2].
Weit mehr als 100 000 Kristallstrukturen von Mineralien, anorganischen und synthetischen organischen Verbindungen sind in der “Crystallography Open Database" (COD) [3] gespeichert, derzeit werden es jährlich um rund 20 000 Strukturen mehr (Abbildung 4). Rund 100 000 Strukturmodelle von Proteinen aus Tieren, Pflanzen und Mikroorganismen sind in der frei zugänglichen Protein Datenbank (PDB) [ 4 ] abrufbar und – bei steigender Tendenz - kommen rund 10 000 neue Strukturen jährlich dazu (Abbildung 4).
Abbildung 4. Der jährliche Zuwachs an neuen Strukturen ist im letzten Jahrzehnt stark gestiegen. Daten von kleinen organischen und anorganischen Verbindungen sind der Crystallography Open Database (COD) entnommen [3], Daten zu Proteinstrukturen stammen aus der Protein Data Bank (PDB) [4].
Die kristallographischen Ergebnisse haben einen Quantensprung in den Möglichkeiten herbeigeführt, hochqualitative Materialien – wie wir sie heute täglich verwenden - zu entwerfen und herzustellen. Eine ähnliche Revolution hat die Kristallographie in unserem Verständnis von biologischer Struktur und Funktion bewirkt. Seit in den frühen 1950er Jahren die erste Strukturaufklärung eines Proteins – des Myoglobins – glückte, ist eine riesige Anzahl von Strukturen auch sehr großer Proteine und noch viel größerer Protein-Komplexe aufgeklärt worden. Die genaue Kenntnis derartiger Strukturen dient nicht nur zum prinzipiellen Verständnis des Aufbaus biologischer Moleküle und der daraus abgeleiteten biologischen Funktion, sondern erlaubt es auch passgenau Modulatoren für bestimmte Funktionen zu entwerfen. Dies hat besondere Bedeutung für das Design von neuen hochwirksamen Arzneimitteln. Auf Grund der Wichtigkeit dieses Themenkreises erfolgt eine Darstellung der Kristallographie von großen Biomolekülen in einem nachfolgenden, separaten Artikel.
[1] Ban Ki-moon, UN Secretary-General , Video 2:12 min. https://www.youtube.com/watch?list=UU5O114-PQNYkurlTg6hekZw&v=RN8jGTJQ3fU
[2] http://www.iucr.org/people/nobel-prize
[3] Crystallography Open Database (COD) http://www.crystallography.net
[4] Protein Data Bank http://www.wwpdb.org/stats.html
Weiterführende Links
Homepage von Bernhard Rupp: http://www.ruppweb.org/iycr/IYCr_2014.htm
Bernhard Rupp: Biomolecular Crystallography: Principles, Practice, and Application to Structural Biology (2009): das umfassende Lehrbuch über Grundlagen, Techniken und Anwendungen der Kristallographie. http://www.ruppweb.org/garland/default.htm
Internationales Jahr der Kristallographie: http://www.iycr2014.de /
Video: Introduction to X-ray crystallography 17.26 min (harvardbmw’s videos; in Englisch)) http://vimeo.com/7643687
Video: Celebrating Crystallography 3:05 min. (Englisch) http://www.richannel.org/celebrating-crystallography
Max Perutz: X-ray analysis of haemoglobin, Nobel Lecture, December 11, 1962; http://research.chem.psu.edu/sasgroup/chem540/downloads/perutz-lecture.pdf
Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft
Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der WissenschaftFr, 14.03.2014 - 12:34 — Ralph J. Cicerone
Vor wenigen Tagen hat Ralph Cicerone, der Präsident der amerikanischen National Academy of Sciences (NAS), einen Brief an deren Mitglieder gesandt, in welchem er Aktivitäten aufzählt , die zu einem verbesserten Verständnis der Wissenschaft*) und zur Erhöhung ihres Stellenwerts in der Bevölkerung beitragen sollen. Die Aussagen Cicerones treffen auch auf unser Land zu, die von ihm genannten Aktivitäten könnten auch bei uns helfen, den alarmierend niedrigen Stellenwert der Wissenschaft zu verbessern. Mit Zustimmung von Ralph Cicerone erscheint sein Brief ungekürzt, aber in deutscher Übersetzung, auf ScienceBlog.at.
Brief des Präsidenten der Nationalen Akademie der Wissenschaften (US) an die Mitglieder.
Liebe Kollegen,
viele von uns sind besorgt über die Einstellung der Öffentlichkeit zur Wissenschaft. Wir wissen, dass es der Bereitschaft der Bevölkerung, deren Verständnis und deren Unterstützung bedarf, um wissenschaftliche Forschung zu finanzieren und die schulische Erziehung und Ausbildung auf den Gebieten der Wissenschaft zu verbessern. Wir wissen auch, dass Sensibilisierung der Öffentlichkeit und Engagement nötig sind, damit unsere Gesellschaft das Wertesystem der Wissenschaft annimmt und sich beispielsweise auf wissenschaftliche Erkenntnisse stützt, um öffentliche Entscheidungen zu lenken. Wenn es hier auch einige ermutigende Signale gibt, so wird man dennoch das Gefühl nicht los, dass sich die Haltung der Öffentlichkeit zur Wissenschaft verschlechtert.
Als ich Präsident der NAS wurde, wollte ich diesen Aspekt prüfen und versuchen, die Einstellung der Öffentlichkeit zu Wissenschaft und Wissenschaftern zu verbessern. Jetzt, in Zeiten eines äußerst knappen staatlichen Budgets für Forschung und einigen Kontroversen auf manchen wissenschaftlichen Gebieten, erscheint es noch dringlicher zu sein, die Einstellung zur Wissenschaft zu analysieren und zu verbessern. Deshalb möchte ich von einigen Initiativen berichten, welche die NAS unternommen hat.
Untersuchungen zur Kommunikation, Prioritäten
Vor einigen Jahren, noch bevor irgendwelche neuen Initiativen zur Kommunikation gestartet worden waren, suchte ich nach Antworten auf die Fragen: „Welche Einstellung haben Amerikaner zur Wissenschaft und wie hat sich diese über die Zeit verändert?“ Ich konnte hier zwar keine direkte Antwort finden, aber nützliche Informationen beispielsweise vom Nationalen Forschungsrat (NSF), vom National Science Board, von den Harris-Umfragen und von Research!America. Um es kurz zu machen, die amerikanische Bevölkerung hat eine überwiegend positive Einstellung zur Naturwissenschaft, die höher ist als in den meisten anderen Nationen, die Unterstützung ist aber oberflächlich. Die Kongress-Mitglieder neigen zur Ansicht – und dies in höherem Maße als vor dreißig Jahren -, dass Wissenschaft gut für die Wirtschaft ist. Wissenschafter genießen hohes Ansehen im Vergleich zu Beschäftigten in anderen Berufen. Allerdings kennen die meisten Amerikaner keinen Wissenschafter persönlich. Auf die Frage (von Research!America) nach dem Namen eines Wissenschafters, waren die häufigsten Antworten: „Albert Einstein“ und „Carl Sagan“ aber kaum der Name eines lebenden Wissenschafters.
Es war auch wichtig zu erfahren, daß die NAS bei „dem Mann oder der Frau von der Straße“ nicht besonders bekannt ist. Allerdings kennen und respektieren die NAS viele Entscheidungsträger in Politik und Geschäftsleben, in Erziehung und Forschung. An vielen Plätzen des Landes gibt es vertrauenswürdige Institutionen – Universitäten, Museen, zivilgesellschaftliche Gruppen und andere Organisationen – die von angesehenen Personen geleitet werden, denen die NAS sehr wohl ein Begriff ist.
Mehr denn je ist es auch klar, dass Kommunikation aus Sprechen und Zuhören bestehen muss. Dies ist das Szenario - was kann die NAS hier unternehmen? In diesem Brief möchte ich kurz über unsere Bemühungen berichten, die darauf ausgerichtet sind die Einstellung der Öffentlichkeit zu den Naturwissenschaften und ihr Engagement in diesen Disziplinen zu verstehen und zu verbessern. Wir haben Initiativen der NAS zur Kommunikation mit der Bevölkerung (einschließlich des Zuhörens) gestartet oder ausgeweitet, wobei hauptsächlich Personen mit hohem Bildungsniveau, gewählte Amtsträger und andere Personen angesprochen werden, die uns bereits kennen, oder mit örtlichen, angesehenen wissenschaftlich ausgerichteten Institutionen vertraut sind.
Aktivitäten der NAS zur Kommunikation mit der Öffentlichkeit
Verteilen der Berichte des Nationalen Forschungsrats (NRC) und des Instituts für Medizin (IOM)
Wie Sie wissen, veröffentlicht der NRC häufig Berichte zu vielen Themen, die oft wichtige und dringende, aktuelle Probleme ansprechen. Diese Berichte werden von Untersuchungsgremien verfasst, die von der NAS, der National Academy of Engineering (NAE) und dem IOM zusammengestellt, und von Fachexperten im Sinne des Peer Review geprüft werden. Die Mitglieder der Gremien und ebenso die Prüfer arbeiten ehrenamtlich. Über Jahre hinweg haben NAS-Beamte, Ratsmitglieder und unsere Mitarbeiter Wege gesucht im die Berichte breiter und kostenlos zu verteilen. Unsere Berichte, ebenso wie aktuelle und frühere Ausgaben der Proceedings of the National Academy of Sciences (PNAS) waren bereits seit langem für Entwicklungsländer kostenlos online zugänglich. Vor wenigen Jahren ist es uns gelungen das Ziel, unsere Berichte für jedermann zugänglich zu machen, zu erreichen, indem wir diese breiter und kostenlos verteilten, Druckexemplare aber nach wie vor verkauften. In Erweiterung eines anderen Anliegens aus der Vergangenheit entwickeln und verteilen wir kürzere und leichter lesbare Versionen und Zusammenfassungen, die für eine breite Leserschaft geschrieben sind. Auf diese Weise kann die hervorragende Arbeit der ehrenamtlichen Experten, der NAS-Mitglieder und unserer Mitarbeiter besser bekannt und für unsere und andere Nationen rund um die Welt nutzbringend werden.
Das Programm „Botschafter (Ambassador) für Wissenschaft und Technologie“
In Partnerschaft mit der Gemeinde von Pittsburgh hat die NAS ein neues Pilot Programm entwickelt, in welchem sich wissenschaftliche und technologische Forschung den wichtigen Fragen und Sorgen der Pittsburgher Bevölkerung widmen soll, wobei zunächst die Frage der Energieversorgung im Brennpunkt steht. An dem Programm sind Naturwissenschafter und Technologen beteiligt, die - in und um Pittsburgh herum – Energie bezogene Forschung an Universtäten, in staatlichen Einrichtungen und in der Privatindustrie betreiben. Dieses „Botschafter Programm“ entstand aufbauend auf der Hochachtung, welche die Bevölkerung für Wissenschafter und Technologen empfindet und auch, um der Notwendigkeit eines allgemein besseren Verständnis für wissenschaftliche Belange begegnen zu können.
Das Zielpublikum des Botschafter-Programms sind Personen, deren Ideen und Meinungen andere Personen in der Gemeinschaft beeinflussen. Diese Meinungsführer kommen aus unterschiedlichen Berufen und Lebensentwürfen, sie sind Lehrer, Führungskräfte in der Wirtschaft, politische Entscheidungsträger, Leiter von Nachbarschaftsprogrammen, Studenten und Vertreter der Medien. Sie inkludieren jene Teilnehmer, die über eine Reichweite in ihrer Gemeinde verfügen, ebenso wie jene, die eine Plattform zur Verbreitung von Wissen haben und Beziehungen innerhalb der Gemeinschaft aufbauen können.
Veranstaltungen für das Botschafter-Programm in Pittsburgh werden auf das Ziel hin entwickelt nicht nur das Verständnis der Bevölkerung für Energie bezogene Wissenschaften zu verbessern, sondern auch ein Verstehen bei den Wissenschaftern und Technologen für das, was die Öffentlichkeit wissen möchte, zu schaffen. In Zusammenarbeit mit Partnern aus der Gemeinde werden die Mitarbeiter dann Programme entwickeln, die zu den Plänen der Partner und den Interessen der Angesprochenen passen, wobei vor allem auf interaktive Veranstaltungen Wert gelegt wird, welche Unterhaltung und Dialog ermutigen. Wir haben ein Team erfahrener Wissenschafter und Technologen aus dem akademischen Umfeld, der Industrie und dem staatlichen Bereich ausgewählt , die als Botschafter der Wissenschaft dienen sollen. Jeder von diesen insgesamt 25 Botschaftern wurde eingeladen einen oder zwei Studenten oder Wissenschafter am Beginn ihrer Karriere auszuwählen, die er über die Dauer des Projekts betreut.
Die Wahl Pittsburghs als Ausgangspunkt des Programms erfolgte aus mehreren Gründen. Es beherbergt eine eindrucksvolle Zahl von Spitzenwissenschaftern- und Technologen, die an führenden Universitäten forschen und lehren und es steht auch im Mittelpunkt der Diskussionen über Energiefragen. Das Gebiet um Pittsburgh ist Sitz von Firmen und Aktivitäten in einer Reihe Energie relevanter Industrien – Kohle, Erdgas, Solar- und Windenergie – und von führenden Wirtschaftstreibenden, die an der Entwicklung der Gemeinschaft reges Interesse zeigen. Die Region zeichnet sich auch durch ein dichtes Netzwerk von Museen und anderen kulturellen Stätten aus. Zudem haben sich die Pittsburgher als erfolgreich im Zusammenarbeiten erwiesen. Die Stadt ist groß genug, um die, für ein effizientes Programm nötigen Schlüsseleinrichtungen bieten zu können, aber dennoch klein genug, um den Dialog mit einer Bevölkerung zu ermöglichen, die einen beeindruckenden Geist von Kooperation ausströmt.
Die NAS arbeitet mit der NAE in diesem Programm zusammen.
Wenn es sich erfolgreich erweist, wird das Programm auf andere Gebiete ausgeweitet, die für die Gesellschaft der Gegenwart wichtig sind, wie beispielsweise auf Infektionskrankheiten und Klimawechsel. Ähnliche Programme werden für andere Städte im ganzen Land etabliert, um Wissenschaft und Technologie als Ansprechpartner für die Sorgen der Bevölkerung verfügbar zu machen.
Das Programm „Wissenschaft & Unterhaltung im Austausch“ („Exchange“)
Das Prinzip dieser NAS-Aktivität liegt darin, dass die Träger der Unterhaltungsindustrie, beispielsweise TV- und Filmschaffende, wissen, wie man auf breiter Basis kommuniziert und, dass Unterhaltung einen großen kulturellen Einfluss ausübt, sei es zum Besseren oder zum Schlechteren. Zum Start dieser Aktivität hat der Zufall in Sinne von Serendipity eine größere Rolle gespielt als formale Untersuchungen und Analysen von Gelegenheiten und Bedürfnissen. Ich hatte Unterlagen und Filme gesehen, welche die California Proposition 71, welche die Stammzellenforschung finanzierte, und verschiedene Formen medizinischer Forschung unterstützten und von den beruflichen Hollywood-Unterhaltern Janet und Jerry Zucker produziert worden waren. Das Ehepaar Zucker traf sich mit mir und diskutierte sehr hilfreiche und kreative Ideen zu medizinischen Wissenschaften und zur Naturwissenschaft im Allgemeinen. Viele weitere Diskussionen folgten und die Zuckers begannen einige ihrer Kollegen aus Hollywood in die Partnerschaft mit dem NAS einzubeziehen um das zu entwickeln, was zum „Exchange“ Programm wurde.
„Exchange“ wurde geschaffen mit den Zielen: (a) Wissenschafter mit Drehbuchschreibern, Produzenten und Direktoren zusammenzubringen, um Beratung in allen Stadien der Produktion (Konzepte, technische Fragen, Skripte, Design am Set) zu haben und (b)um Veranstaltungen für Wissenschafter und Unterhaltungsbranche zuwege zu bringen zur Diskussion der Möglichkeit Wissenschaft in den populären Medien zu verankern. Über die fünf Jahre seines Bestehens hat „Exchange“ mehr als 800 Beratungen und eine eindrucksvolle Liste von Veranstaltungen quer durch viele naturwissenschaftliche Disziplinen organisiert – alles von einem kleinen Büro in Los Angeles aus. Zahlreiche NAS-Mitglieder und viele unserer wissenschaftlichen Kollegen haben an beiden Formen der „Exchange“ Aktivitäten teilgenommen.
Wenn „Exchange“ auch nicht direkt aus unseren frühen Untersuchungen und unseren Prioritäten zur Kommunikation entstanden ist, so erweist er sich nun als sehr wertvoll. Es zeigt sich bereits ein bemerkenswerter Einfluss auf den wissenschaftlichen Inhalt bestimmter Filme und TV-Serien und es wurden gute Beziehungen zwischen Führern in der Unterhaltungsbranche und einzelnen Wissenschaftern aufgebaut. In einigen prominenten Fällen hat sich die Beschreibung von weiblichen Wissenschaftern stark positiv verändert.
Eine neue Version der Carl Sagan PBS Serie Cosmos (Start on Fox, 9. März 2014) wurde vom Mitglied des Austausch- Beirats Seth Farlane produziert unter dem langjährigen Befürworter des Programms , Dr. Neil deGrasse Tyson. Der Beginn dieser Serie lässt direkt bis zum Start des „Exchange“ Projekts zurückverfolgen, als McFarlane und Tyson einander vorgestellt wurden. Das Magazin Parade hat diese Veranstaltung in seiner Titelstory über Dr. Tyson im Jänner beschrieben und ein unabhängiger Bericht erfolgte am 2. März d.J. in der New York Times. Die neue Fox-Serie hat ein enormes Potential Millionen Zuseher zu erreichen, die ansonsten kaum wissenschaftlichen Inhalten ausgesetzt sind. „Exchange“ ist auch an Ideen interessiert, die in der Wissenschafts-Erziehung eingesetzt werden können. In Hinblick auf alle diese Begründungen hat NAS wesentliche Unterstützung erfahren von der Gordon and Betty Moore Foundation, vom Howard Hughes Medical Institute, von der Research Corporation for Science Advancement, der Alfred P. Sloan Foundation, dem California Endowment, von Mr. and Mrs. Zucker, Dr. Patrick Soon-Shiong, UCLA, einzelnen Mitgliedern des Presidents Circle und anderen
Das USA Wissenschaft & Technologie Festival
Die NAS ist auch in das USA Wissenschaft & Technologie Festival involviert, ein öffentliches Straßenfest, welches die Rolle von Wissenschaft & Technologie für die Gesellschaft feiert und Gäste zu Demonstrationen einlädt. Mehrere dieser Festivals finden in Städten statt, New York, San Diego und san Francisco mit eingeschlossen. In Washington haben NAS und NAE geholfen das National Festival im Jahr 2010 zu gründen, unser Koshland Science Museum und die American Association for the Advancement of Science (AAAS) haben sich angeschlossen. Die wesentliche Aufgabe des Festivals ist es, eine nächste Generation anzuregen Berufe in Wissenschaft und Technologie zu ergreifen und zu kommunizieren, welche Rolle Wissenschaft und Technologie in der heutigen Gesellschaft spielen. Besondere Aufmerksamkeit wird dabei unterrepräsentierten Gruppen von Studenten, Lehrern und Familienangehörigen von Soldaten zuteil. Viele Freiwillige haben teilgenommen die NAS darzustellen, unsere Mitglieder und NAS-und NRC-Mitarbeiter miteingeschlossen. Wie aus der großen Zahl der Besucher geschlossen werden kann, hat die Bevölkerung von Washington und Umgebung das Spektakel begeistert aufgenommen.
Die Arthur M. Sackler Kolloquien über Wissenschaftskommunikation
Eine Stiftung von Jillian Sackler zum Andenken an ihren Gatten Dr. Arthur M. Sackler im Jahr 2001 hat uns ermöglicht im Laufe der Jahre zu Sackler Kolloquien über viele unterschiedliche Themen einzuladen, welche dann häufig in Sonderausgaben von PNAS ihren Niederschlag fanden. Zu zwei solchen Kolloquien über „Die Wissenschaft der Wissenschaftskommunikation“ (im Mai 2012 und September 2013) haben wir eingeladen mit Zielvorstellungen wie: (i) die Beziehungen zwischen Wissenschaftern und Öffentlichkeit verstehen zu lernen, (ii) die wissenschaftliche Basis für effiziente Wissenschaftskommunikation zu erfassen und (iii) unsere institutionellen Kapazitäten der Beweis-gestützten Kommunikation zu verbessern. Renommierte Vortragende und Teilnehmer, die in verschiedenen Gebieten aktiv sind, haben wesentlich zur Beschreibung von Problemen und Erfolgen in der Wissenschaftskommunikation beigetragen. Das zweite, drei Tage dauernde Kolloquium war auch als Webcast für zusätzliche 11 000 Teilnehmer zugänglich. Ein Sammlung von Beiträgen zum ersten Kolloquium wurde 2013 im Augustheft von PNAS publiziert[1], eine interessante Zusammenfassung des zweiten Kolloquiums wurde 2014 von der National Academic Press herausgegeben [2], die entsprechenden Artikel werden im Sommer in PNAS erscheinen. Ich empfehle Ihnen diese Publikationen, wenn Sie an den derzeitigen wissenschaftlichen und berufsmäßigen Ansichten zu Themen interessiert sind wie:(i) schwierig zu kommunizierende wissenschaftliche Inhalte, (ii) Einstellung der Öffentlichkeit zur Wissenschaft und (iii) soziale, kulturelle, wirtschaftliche und politische Einflüsse auf die Wissenschaftskommunikation.
Auszeichnungen für Kommunikation
Durch unsere National Academies Keck Futures Initiative (NAKFI) werden jährlich vier Preise zu je $ 20 000 $ an Personen oder Gruppen vergeben, die im vergangenen Jahr kreative, originelle Beiträge entwickelt haben, um Themen und Fortschritte in Wissenschaft, Technologie und /oder Medizin für die breite Öffentlichkeit verständlich zu machen. Die vier Kategorien, in denen Preise verliehen werden, sind: Buch, Film/Radio/Fernsehen, Magazin/Zeitung und online.
Diese Auszeichnungen sind ein wichtiger Bestandteil unserer Gesamtstrategie nicht nur neue Forschung anzuregen, sondern auch ein breites öffentliches Interesse und Verstehen. verschaffen den Kommunikatoren Anerkennung in ihren jeweiligen Berufen, um diese Personen und andere zu ermutigen darin fortzufahren die Begeisterung, Chancen und Risiken der Forschung zu vermitteln und ein breites öffentliches Verständnis zwischen staatlichen und privaten Entscheidungsträgern und der Bevölkerung zu bewirken. NAKFI-Communications Preise werden seit 2003 vergeben. Die Preisträger werden in einer Zeremonie im NAS-Gebäude geehrt und der Sieger in der Kategorie Buch hält häufig eine „Buch und Autor Rede“ anlässlich des jährlichen NAS-Treffens. Eine Reihe der Nominierten hat uns erzählt, daß die Preise in Journalistenkreisen weite Anerkennung finden.
Broschüren zur Beschreibung der Vorteile von Grundlagenforschung
Aus der Grundlagenforschung resultieren andauernd Nutzanwendungen, die unvorhersehbar und häufig überraschend sind. Diese Vorteile können kommerzieller, medizinischer, landwirtschaftlicher Natur sein oder, beispielsweise, der nationalen Sicherheit dienen und sie können schnell auf eine grundlegende Entdeckung folgen oder auch erst Dekaden später. Der NAS-Rat hat eben ein neues Projekt gestartet, welches kurze Broschüren über aktuelle, derartige Beispiele herausgibt um die breite Öffentlichkeit und nationale Entscheidungsträger auf den aus der Grundlagenforschung kommenden „überraschenden Nutzen“ („Surprising Payoffs“) hinzuweisen. Solche Broschüren wurden von der NAS in den 1990er Jahren produziert (mit dem Titel: „Beyond Discovery“). Die Produkte „Surprising Payoffs“ werden im Druck und online, zur Verteilung und Archivierung, vorliegen und ab 2015 erscheinen. Die erste Gruppe an Beispielen wird sich mit Sozial- und Verhaltenswissenschaften beschäftigen, spätere Folgen werden andere wissenschaftliche Gebiete abdecken.
Um nun abzuschließen – ich habe die Aktivitäten der NAS kurz zusammengefasst, welche zum Ziel haben das Verständnis für und die Einstellung zur Wissenschaft in der Bevölkerung zu verbessern. Öffentliche Kommunikation spielt eine Rolle in anderen NAS-Aktivitäten, wie dem Koshland Science Museum, den Kulturprogrammen der NAS und der Vorlesungserie „Distinctive Voices” am Beckman Center in Irvine, California. Zusätzlich gibt die NAS Fragen & Antworten zur Wissenschaft heraus und anderes Titelseiten-Material [3] in Ergänzung zu den wissenschaftlichen Artikeln. Das neue Büchlein “ Klimawandel: Beweise und Ursachen“ [4] ist eine Gemeinschaftsproduktion der NAS und der Royal Society (erschienen am 27. Feber als Publikation und interaktive Website) mit Unterstützung von Dr. und Mrs. Raymond Sackler und hat das Ziel einen komplexen Sachverhalt der Öffentlichkeit zu erklären.
Unsere Aktivitäten zur Kommunikation sind größtenteils auf langfristige Verbesserungen ausgerichtet. Diese und ähnliche zukünftige Aktivitäten werden andauernden Aufwand über lange Zeit benötigen.
Es ist uns bewusst, dass ernste und dringliche Probleme zu lösen sind, beispielsweise Probleme im Unterrichten der Evolution, Argumente, welche den Klimawandel als Betrug hinstellen, Ablehnung von genetisch verändertem Getreide, Gefühle“ aus dem Bauch“ gegen Impfungen, jährlich sich wiederholende Kämpfe um das staatliche Budget, ein genereller Mangel an Verständnis für den wissenschaftlichen Prozess (wie sich dieser selbst korrigiert und den Fortschritt der Gesellschaft bedingt) und Wissenschaft als ein internationaler Wettbewerb. Die Wichtigkeit der in der Wissenschaft liegenden Chancen für alle K-12 Schüler und für junge Doktoranden ist eine Botschaft, die andauernd betont werden muss. Auch Kommunikation über korrektes Verhalten in den Wissenschaften ist ein sehr wichtiges Thema, das unserer Aufmerksamkeit bedarf.
Ich habe versucht diese wichtigen Themen bei vielen Gelegenheiten im vergangenen Jahr anzusprechen, als wir das 150-jährige Bestehen der NAS feierten. Allerdings, um es nochmals zu erwähnen, da es sich um die Einstellung der Öffentlichkeit handelt, müssen wir uns langfristigen Anstrengungen unterziehen um mit der Bevölkerung zu interagieren.
Jede der oben erwähnten Aktivitäten wurde ermöglicht durch die freiwilligen Arbeiten von Mitgliedern der NAS, von vielen anderen Wissenschaftern und von unseren fachlichen Mitarbeitern, die auch viel Zeit geopfert haben. Barbara Kline Pope hat eine Schlüsselrolle gespielt, ebenso wie die frühere NAS-Vizepräsidentin Barbara Schaal.
Bitte, senden Sie mir Ihre Antworten und berichten Sie über ähnliche Öffentlichkeitsarbeit von Ihrer Seite.
Mit besten Grüßen,
Ralph J. Cicerone,
President National Academy of Sciences
[1] http://www.pnas.org/content/110/Supplement_3 [2] http://www.nap.edu/catalog.php?record_id=18478 [3] http://frontmatter.pnas.org/ [4] http://nas-sites.org/americasclimatechoices/events/a-discussion-on-climate-change-evidence-and-causes/ * Mit dem im Original durchgehend verwendeten Begriff “Science” sind, dem anglikanischen Sprachgebrauch entsprechend, in den allermeisten Fällen – aber nicht ausschließlich – die Naturwissenschaften gemeint. In der deutschen Übersetzung wurde (wie auch schon im Eurobarometer-Artikel der vor zwei Wochen im ScienceBlog erschien) der einheitliche Begriff ›Wissenschaft‹ verwendet.
Abkürzungen
NAS: National Academy of Sciences. Die bekannteste aller Akademien der Wissenschaften, wurde vor 151 Jahren gegründet und hat es sich zur Aufgabe gemacht die Naturwissenschaften in den US zu fördern. Zusammen mit der National Academy of Engineering (NAE), dem Institute of Medicine (IOM) und dem National Research Council (NRC) berät die NAS die amerikanische Nation in unabhängiger und objektiver Weise zu Fragestellungen in Naturwissenschaften, Technologie (Science and Technology) und Gesundheitsasdpekte. Die Mitglieder der NAS gehören zu den weltbesten Wissenschaftern (nahezu 500 wurden bereits mit dem Nobelpreis ausgezeichnet). Fünf Autoren in unserem ScienceBlog sind Mitglieder der NAS. Details zu den Organisationen NAE, NRC und IOM sind auf der enorm informativen Homepage der NAS zu finden: http://www.nasonline.org/ PNAS: Proceedings of the National Academy of Sciences of the United States of America. Eines der besten, und meistzitierten multidisziplinären wissenschaftlichen Journale .; von der NAS herausgegeben. http://www.nasonline.org/publications/pnas/
Weiterführende Links
Artikel in ScienceBlog.at: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage Spezial-Eurobarometer
Kunst oder Chemie – zur Farbästhetik alter Malereien
Kunst oder Chemie – zur Farbästhetik alter MalereienFr, 07.03.2014 - 05:18 — Elisabeth Pühringer
Farbempfinden? Farbästhetik? Bedeutung von Farben? Die Autorin – Archäologin und Journalistin – zeigt auf, daß die Farbgestaltung auf alten Bildern manchmal gar nichts mit Kunst zu tun hat, sondern mit chemischen Reaktionen. Gewisse Farbpigmente können sich nämlich im Laufe der Zeit verändern...
Schwarze Madonnen sind ein Schulbeispiel für Farbveränderungen. Die mit Bleiweiß gemischten Hauttöne haben sich durch Umwelteinflüsse verändert (Abbildung 1). Chemische Reaktionen sind auch dafür verantwortlich, wenn ein leuchtend blauer Umhang einer Schutzmantelmadonna im Lauf der Zeit grün wurde. Ist bei den Farben von urzeitlichen Höhlenmalereien ebenfalls Chemie im Spiel?
Abbildung 1. Die schwarze Madonna von Candelaria (um 1400; Teneriffa) auf dieser Postkarte gilt als Fürsprecherin in besonders schwierigen Fällen.
Die Farben der Urzeit sind rot, braun und schwarz. Die chemischen Analysen der Farben der paläolithischen Höhlenbilder ergaben folgende Ergebnisse: Die Materialien für Rot- und Brauntöne waren Limonit (Brauneisenstein, Goethit (Rubinglimmer), Roteisenstein und Hämatit. Für die Farbe schwarz wurden neben Kohle mindestens zwei verschiedene Manganoxide verwendet.
Die exakten Analysen zeigten, dass die Farbpigmente nicht nur mit den Fingern aufgetragen, sondern vor allem mit dem Mund gespritzt wurden. Das heißt, die Urzeitkünstler nahmen giftige Farbpigmente, wie etwa Manganoxid in den Mund, speichelten sie ein und spuckten sie dann auf die Höhlenwand. Experimente haben bewiesen, dass für zahlreiche Bilder kein anderes Malverfahren in Frage kommt als diese "Spucktechnik".
Sind die Künstler durch das Gift im Mund in Trance gefallen? Waren die prähistorischen Maler Schamanen, die das Farbpigment Manganoxid als Droge benützten? Sind die berühmten Höhlenbilder also in einer Art von Drogenrausch entstanden? War die urzeitliche Malorgie ein Happening in Ekstase?
Man wird doch noch fragen dürfen, auch wenn es für solche Fragen keine Antworten gibt, sondern bestenfalls ethnografische Parallelen. In Afrika sind Schamanismus und Krankheit eng miteinander verbunden. Könnten die rätselhaften Höhlenbilder eine Art von Therapie gewesen sein? Da ist alles offen.
Farbästhetik oder Chemie?
Es gibt aber auch noch andere Fragen. Etwa: Warum sind aus der Zeit des Paläolithikums kaum blaue und grüne Farbtöne erhalten? Die Steinzeitmaler haben zur Gewinnung ihrer Farben bunte Mineralien zerrieben. Gelbtöne etwa gibt es aus pulverisierten Bernstein. Es hätte doch auch blaue und grüne Steine zum Zerreiben geben. Etwa die Kupferverbindungen Azurit und Malachit (Abbildung 2), die in späterer Zeit sehr häufig zu Farbpigmenten verarbeitet wurden.
Abbildung 2. Azurit (blau) und Malachit (grün) können sich durch Umwelteinflüsse verändern.
Bevor man jetzt das mögliche ästhetische Empfinden der Künstler ins Treffen führt, was zu einer Vorliebe von rot, gelb, braun und schwarz führte, sollte man aber noch eine andere Möglichkeit in Betracht ziehen. Es wäre ja gut möglich, dass blaue und grüne Farbtöne bei den steinzeitlichen Höhlenmalereien ursprünglich sehr wohl vorhanden waren, doch den Umwelteinflüssen zum Opfer fielen.
Die Kupferkarbonate Azurit und Malachit sind säureempfindlich. Sind die blauen und grünen Malereien von einer Art von saurem Regen weggewaschen worden? 40.000 Jahre sind eine lange Zeit. Da kann viel passiert sein. Wer sagt, das Umweltprobleme ein Phänomen der Jetztzeit sind?
Ein Blick in die Hexenküche der Chemie lässt die "Farbästhetik" vergangener Tage in neuem Licht erscheinen.
Achtung: Zeitsprung! Die beiden folgenden Vergleiche stammten aus dem alten Ägypten (ab ca. 3000 v. Chr.) und aus dem anatolischen Hochland (ca. 6000 v.Chr.).
Die Ägypter wussten das
In der altägyptischen Malerei nimmt blau und grün eine wichtige Stellung ein. Lange Zeit ging man von der Annahme aus, dass diese Farben aus natürlichen blauen und grünen Farbpigmenten aufbereitet worden seien. An Hand von neuen Analysen der verwendeten Farben in der altägyptischen Malerei konnte nachgewiesen werden, dass bereits ab ca. 2.480 v.Chr. in Ägypten keine natürlichen, sondern synthetische blaue und grüne Farbpigmente zum Einsatz kamen.
Für die Pigmentherstellung dieser synthetischen Farben wurde Bronze verwendet. Es wurde also Altmetall für die Aufbereitung von dauerhaft leuchtenden Farben verwendet! Der Nachweis dafür gelang durch die Spuren von Arsen, Zinn und Blei in den Farben. Das waren die Legierungszusätze der Bronze, die im Laufe der Zeit verändert wurden.
Die früheste Bronze war die Arsenbronze, gefolgt von Zinnbronze. In römischer Zeit kam dann noch der Bleigehalt dazu. Parallel zu der metallurgischen Entwicklung bei der Bronzeherstellung lief es bei den Farben. Bei den altägyptischen Malereien aus der Zeit des alten Reiches (ca. 2.489 v.Chr.) konnte in den Farbpigmenten ein Arsengehalt festgestellt werden. Proben aus späterer Zeit hatten einen signifikanten Zinngehalt, und in den Farben der römischen Zeit wurde neben Zinn auch noch Blei in beträchtlichen Mengen nachgewiesen.
Die innere Chronologie der Farben läuft also parallel mit der Entwicklung der Bronze. Alle untersuchten Farbproben stammten von exakt datierten Kunstwerken. Das lässt den Schluss zu, dass die alten Ägypter zur Herstellung der künstlichen Blau- und Grünpigmente vom Alten Reich bis zur Römerzeit konsequent Altmetall verwendet hatten.
Blickpunkt Anatolien
Der nächste Zeitsprung führt zurück ins sechste vorchristliche Jahrtausend, und zwar in die Steinzeitmetropole Catal Hüyük in Anatolien. Wo heute im kargen Hochland der Wind durch das spärliche Gras pfeift, stand damals eine blühende Großstadt, die sang- und klanglos untergegangen ist. Eine Klimaveränderung dürfte daran schuld gewesen sein.
Die Bewohner der Steinzeit-Stadt von Catal Hüyük liebten eine bunte, farbenfreudige Umwelt. Sie bemalten alles: Wände, Reliefs, Plastiken, Gefäße, Textilien und sogar ihre Toten, die sie unter den Fußböden ihrer Häuser bestatteten.
Die anatolischen Maler der Steinzeit hatten eine komplette Palette von Farbstoffen, die alle aus Mineralien gewonnen worden sind. Neben Mangan- und Eisenerzen für rot, braun, schwarz und purpur verwendeten sie auch Quecksilberoxid für zinnoberrot, Bleiglanz für grau und Kupferkarbonate - also Azurit und Malachit - für blau und grün.
Doch bei den erhaltenen Wandmalereien kommt die Farbe blau nur ein einziges Mal vor: Es gibt eine blaue Kuh. Rot hingegen fehlt in keinem Haus. Die Maler von Catal Hüyük trugen die Mineralfarben direkt auf den weißen Putz auf. Die Wände wurden häufig übertüncht und neu bemalt. vielleicht waren blau und grün früher bei diesen überirdischen Malereien ebenfalls häufiger. Für die Nachwelt erhalten geblieben ist nur diese blaue Kuh.
Bemalte Skelette
Anders sieht es bei den unterirdischen Malereien aus, den blau und grün bemalten Skeletten der Ahnen der Bewohner. Anatolien war in der Steinzeit der "Nabel der Welt". Für diesen Raum sind durch die aktuelle archäologische Forschung bereits für die Zeit von 12.000 v. Chr. hochentwickelte Kulturen nachgewiesen worden. Es geht um das sogenannte "präkeramischen Neolithikum" - gemeint ist damit die frühe Jungsteinzeit, jener Zeitraum, aus dem es noch keine Keramikfunde gibt.
Die alten Anatolier stellten damals bereits Farben aus zerriebenen Steinen her. Diese Technik der Farbherstellung hat sich in unserem Raum bis ins frühe Mittelalter erhalten. Für die Farbe grün wurde nach wie vor zerriebenes Malachitpulver verwendet.
Blau und grün war also verfügbar und wurde auch verwendet. Doch nur bei den unter dem Boden verwahrten Skeletten haben sich diese Farben erhalten. Waren daran die Umwelteinflüsse schuld? Bei den Ausgrabungen in Catal Hüyük ist ein kleines Stück Kupferschlacke gefunden worden. Das bedeutet, dass die Technik des Kupferschmelzens hier bereits bekannt war. Also lange bevor sie im Nahen Osten offiziell erfunden worden ist.
Uralte Umweltbelastung
Kupferkarbonate sind säureempfindlich. Durch die Erzverhüttung ist es in der Urzeit bestimmt zu einer gewaltigen Umweltbelastung gekommen. Für die Gewinnung der für den Schmelzvorgang nötigen Holzkohle wurden nicht nur ganze Wälder abgeholzt, die antiken Schachtöfen hatten auch keinerlei Schadstoff-Filteranlagen, wie uns das heute geläufig ist.
Der aggressive "saure Regen" ist demnach keine Erfindung unseres modernen Industriezeitalters. Er könnte bereits in der Urzeit die säureempfindlichen blauen und grünen Malereien aufgelöst und weggewaschen haben.
Ist der Untergang von Catal Hüyük also auf eine Umwelt-Katastrophe zurückzuführen? War das heute karge Hochland einmal dicht bewaldet? Haben die alten Anatolier ihre Wälder gerodet, weil sie das Holz zum Kupferschmelzen brauchten? Haben sie so den Klimawandel selbst verschuldet, der ihrer Gesellschaft den Untergang beschert hat?
Die blauen und grünen Skelette von Catal Hüyük hätten dieser Überlegung zufolge eine Chance gehabt, erhalten zu bleiben. Sie ruhten wohl verborgen unter den Fußböden der Häuser und waren nicht der Umweltbelastung ausgesetzt. Die aus Eisen- und Manganverbindungen gewonnenen roten, braunen und schwarzen Farbpigmente haben die Zeit überdauert. Sie waren säureresistent.
Für diese Theorie gibt es zwei Indizien: erstens der zitierte Schlackenfund und zweitens die Tatsache, dass in der Folge zweitausend Jahre lang Pause war mit dem Kupferschmelzen.
Hatten die Menschen erkannt, dass sie den "Geist aus der Flasche" entweichen ließen, der ihnen die Lebensgrundlage entzog uns sie alle umbrachte? Die Technik des Kupferschmelzens wurde erst 2000 Jahre später wieder neu entdeckt. Für einen Klimawandel im anatolischen Hochland gibt es ein Indiz: Pollenfunde von wärmeliebenden Pflanzen.
Industriezeitalter
Nächster Zeitsprung: Diesmal geht es um die Malereien des Mittelalters. Auch zu dieser Zeit verwendete man noch zerriebenes Malachit- und Azuritpulver zur Herstellung der grünen und blauen Farbtöne. Grün kann sich zu blau verändern und umgkehrt blau zu grün. Die berühmten blauen Schutzmantelmadonnen trugen plötzlich einen grünen Umhang. Durch Wassereinwirkung hatte sich Azurit in Malachit verwandelt. Aus blau wurde grün.
Es funktioniert auch in der umgekehrten Richtung: Wenn aus grün blau wird, ist Kohlendioxid daran schuld, dass sich Malachit in Azurit verwandelt. Chlorid-Ionen, wie sie etwa in Kochsalz vorhanden sind, hatten bei den untersuchten Mineralfarben zu unerwünschten chemischen Reaktionen geführt. Das zeigt, dass Kupferkarbonate gegen Umwelteinflüsse keineswegs stabil sind.
Das klassische Beispiel für Farbverfälschungen sind die "Schwarzen Madonnen". Die Umweltverschmutzung des frühen Industriezeitalters führte zu einer chemischen Reaktion von Bleiweiß. Das machte die bleiche Madonnenhaut schwarz
Das mikrobielle Leben der Tiefsee
Das mikrobielle Leben der TiefseeFr, 21.02.2014- 09:04 — Gerhard Herndl
Der tiefe, dunkle Ozean - das größte und am wenigsten erforschte Ökosystem der Erde - bietet Lebensraum für eine enorme Vielfalt an Mikroorganismen. Zu deren Stoffwechsel liefert der Autor essentielle Beiträge mit dem Ziel die biogeochemikalischen Kreisläufe im Meer (mikrobielle Ozeanographie) zu erforschen und damit zu einem generell besseren Verständnis des globalen Kohlenstoffkreislaufs und damit des Ökosystems Erde beizutragen.
Der tiefe dunkle Ozean nimmt mehr als 70% des Gesamtvolumens der Meere ein. Er ist der größte und zugleich unerforschteste Lebensraum unserer Erde, eine Zone ohne Licht, welches dort lebenden Organismen mittels Photosynthese ein autotrophes Leben ermöglichen könnte. Bereits ab 200 m Tiefe – der mesopelagialen- oder „Zwielicht“ Zone - dient schwach durchschimmerndes Licht nur noch der Orientierung von Lebewesen; ab 1000 m herrscht totale Finsternis. Die hier lebenden Organismen müssen sich auch dem zunehmenden Druck der Wassersäule – 1bar je 10 m; bei 5000 m sind es bereits 500 bar – anpassen, den niedrigen Temperaturen von etwa 2 °C und dem verringerten Nährstoffangebot.
Die Tiefenzonen des Ozeans sind in Abbildung 1 dargestellt.
Abbildung 1. Tiefenzonen im offenen Meer (griechisch: pelagos). Photosynthese findet nur in der obersten, der epipelagialen (oder euphotischen), Zone statt. (Bild: Wikipedia)
Marine Mikroorganismen stellen eine ungeheure Biomasse dar. Schätzungen an Hand gemessener Zellzahlen gehen von insgesamt bis zu 1030 prokaryotischen Organismen –Bakterien und Archaea - aus, die einer Masse fixierten Kohlenstoffs von bis zu 300 Gigatonnen entsprechen [1]. Der Großteil dieser Biomasse liegt als Sediment am Meeresboden.
An der Meeresoberfläche generieren photosynthetisch aktive Mikroorganismen aus dem CO2 der Atmosphäre jährlich rund 50 Gigatonnen Kohlenstoff, in Biomasse gebunden - ebensoviel, wie alle terrestrischen Pflanzen zusammen [1]. Diese durch mikroskopisch kleinen Algen produzierte Biomasse ist die Basis des marinen Nahrungsnetzes, das Ausmaß ihrer Speicherung in den Ozeanen von fundamentaler Bedeutung für die Regulierung des globalen Kohlenstoffkreislaufs und damit auch des Klimas.
Mikrobielle Ozeanographie – ein neues Forschungsgebiet
Die Erforschung des mikrobiellen Lebens der Tiefsee, seiner Rolle im Ökosystem der Meere und darüber hinaus seiner Bedeutung für die globalen Stoffkreisläufe, erfordert interdisziplinäre, ganzheitliche Ansätze und langfristige Programme: Experten der unterschiedlichsten Disziplinen arbeiten hier in multinationalen Teams zusammen, verknüpfen Biochemie, Mikrobiologie, Ozeanographie und Ökologie zu einer neuen Fachrichtung, der mikrobiellen Ozeanographie.
Grundlegend sind Untersuchungen an Wasserproben, die mittels eigens dafür konstruierter Hochdrucksammelgefäße aus unterschiedlichen Regionen und Meerestiefen bis zu 7000 m gewonnen werden. Diese Proben geben Auskunft über Verbreitung, mikrobielle Gemeinschaften und Stoffwechseleigenschaften der Mikroorganismen. Unser Team bestimmt noch an Bord des Forschungsschiffes Zellteilungsraten und somit Stoffwechselraten und zwar unter den für die Proben authentischen Druck- und Temperaturbedingungen. Die weitere biochemisch-molekularbiologische Charakterisierung erfolgt dann In den Labors am Heimatort. Wie eine vor kurzem erfolgte Hochdurchsatz-Sequenzierung der mikrobiellen Genome zeigt, weisen die Mikroorganismen eine enorme phylogenetische Diversität und Komplexität auf; vormalige Schätzungen, die von mehreren Tausend unterschiedlichen „Spezies“ sprachen, werden um Größenordnungen übertroffen [2].
Das, was in der Tiefe lebt, kann auch direkt beobachtet werden. Eine neu entwickelte Kamera – eine Art Unterwassermikroskop - ermöglicht es mit ungewöhnlicher Schärfe Partikel und Organismen im Wasser abzulichten, die nur wenige Tausendstel Millimeter groß sind [3].
Die Basis des marinen Nahrungsnetzes
In den sonnendurchfluteten Wasserschichten an den Oberflächen der Ozeane nimmt das Phytoplankton das aus der Atmosphäre im Meerwasser gelöste CO2 auf und verwandelt es mittels Photosynthese in organische Kohlenstoffverbindungen, die Bausteine seiner Zellen. In diesem Prozeß wird auch Sauerstoff – etwa die Hälfte des Sauerstoffs in unserer Atmosphäre - generiert.
Phytoplankton, eine Sammelbezeichnung für mikroskopisch kleine, (vorwiegend) einzellige Mikroorganismen, besteht vor allem aus Kieselalgen, Grünalgen, Dinoflagellaten und Cyanobakterien (Abbildung 2). Diese autotrophen Organismen stellen die Basis des gesamten Nahrungsnetzes im marinen Ökosystem dar: sie sind primäre Nahrungsquelle für das Zooplankton – die am häufigsten vorkommenden vielzelligen Organismen der Meere –, welche wiederum Nahrungsquelle für Fische und viele andere Meereslebewesen sind. Für effizientes Wachstum des Phytoplanktons sind außer Sonnenlicht, Wasser und CO2 auch Nährstoffe, vor allem Nitrat und Phosphat nötig, in einigen Regionen ist Eisen der wachstumslimitierende Faktor. Abbildung 2. Phytoplankton (links) ist eine Sammelbezeichnung für photosynthetisch aktive Mikroorganismen und besteht vor allem aus Kieselalgen, Grünalgen, Dinoflagellaten und Cyanobakterien. Phytoplankton ist primäre Nahrungsquelle für das Zooplankton und zahlreiche Tiere. Produktivität des Phytoplanktons im Nordatlantik (rechts), dargestellt sind die über das Jahr 2007 gemittelten Chlorophyllkonzentrationen. (Quelle http://lms.seos-project.eu/learning_modules/oceancurrents/; creative commons licensed)
Meeresschnee – ein kontinuierlicher Materialfluß in die Tiefe
Im globalen Mittel sinken rund 30% des an der Meeresoberfläche produzierten organischem Kohlenstoffs in die dunklen Meerestiefen ab und zwar in der Form von gelösten organischen Kohlenstoffverbindungen („dissolved organic carbon“: DOC) und als schwebende und absinkende größere Partikel („particulate organic carbon“: POC). Etwa 1% organischer Kohlenstoff erreicht den Meeresgrund.
Die Partikel sind unregelmäßig geformte, fragile Flocken, die mehrere Zentimenter groß werden können und auf Grund ihres Aussehens als Meeresschnee bezeichnet werden (Abbildung 3). Sie bestehen hauptsächlich aus abgestorbenem, nicht abgeweidetem Phytoplankton, zerfallendem Zooplankton, tierischen Exkrementen und hochmolekularen, gallertigen Substanzen, die vom Phytoplankton in den späten Phasen der „Algenblüte“ abgegeben werden und zum Verklumpen der Flocken führen. Von der Art und dem Anteil dieser Komponenten, vor allem von der unterschiedlichen Zusammensetzung des Phytoplanktons in nährstoffreichen Meeresregionen (zB. im Nordatlantik) und in nährstoffarmen Regionen (Tropen, Subtropen) hängt es ab, wie groß die Flocken werden und wie schnell und tief sie absinken.
Einen besonderen Einfluss auf den Meeresschnee haben die Bakterien der Tiefsee, welche bevorzugt die Flocken besiedeln und zersetzen. Um die Inhaltsstoffe der Flocken aufnehmen zu können, produzieren die Bakterien Enzyme (Ektoenzyme), die das organische Material außerhalb der Bakterienzelle zersetzen, sodaß es in gelöster Form durch die Zellwand geschleust werden kann. Die Aktivität dieser Ekto-Enzyme spielt eine entscheidende Rolle in der Umsetzung des organischen Materials und damit für dessen Verfügbarkeit für höhere Organismen ebenso wie für das Wachstum der Bakterien. Abbildung 3. Meeresschnee (links), Algenblüte vor Kamchatka (rechts): Satellitenaufnahme am 2. Juni 2010 in natürlichen Farben zeigt (Quellen: http://lms.seos-project.eu/learning_modules/oceancurrents/ und http://earthobservatory.nasa.gov/; cc-license)
Die Biologische Pumpe
Die durch Photosynthese aus CO2 entstandenen organischen Kohlenstoffverbindungen werden über das Nahrungsnetz wieder „remineralisiert“, d.h. durch Atmung in CO2 zurückverwandelt. Der größere Teil der Remineralierung erfolgt bereits durch die Mikroorganismen in den obersten Meeresschichten.
Das von der Meeresoberfläche stetig herabrieselnde Material dient den in den Meerestiefen lebenden Organismen als direkte Nahrungsquelle. Auch diese remineralisieren die Kohlenstoffverbindungen zu CO2 – dies geschieht allerdings wesentlich langsamer als an der Meeresoberfläche. Ein Teil des gelösten organischen Materials (DOC) kann aber offensichtlich nicht verstoffwechselt werden („recalcitrant organic mass“ - RDOC) und bleibt langfristig (auch über Jahrtausende) im Meer gespeichert. In Summe wird also durch die Photosynthese des Phytoplanktons mehr CO2 der Atmosphäre entzogen als dann über die gesamte Nahrungskette durch Atmung wieder freigesetzt wird (Biosequestrierung von CO2 ).
Der so durch Mikroorganismen erzeugte Fluß von CO2 aus der Atmosphäre in die Meerestiefen wird mit dem Begriff „Biologische Pumpe“ bezeichnet (Abbildung 4).
Abbildung 4. Die biologische Pumpe – der Weg des CO2 in die Tiefe. Phytoplankton, das mittels Sonnenenergie CO2 assimiliert, bildet die Basis der marinen Nahrungskette. In die Tiefe absinkendes organisches Material wird von dort lebenden Organismen verbraucht und als CO2 abgeatmet. Damit entsteht ein Fluß von CO2 aus der Atmosphäre in die Tiefe. (Bild modifiziert nach: US Joint Global Ocean Flux Study. http://www1.whoi.edu/images/jgofs_brochure.pdf)
Chemosynthese: Mikroorganismen in der Tiefsee machen sich auch zusätzliche Energiequellen zunutze.
Bestimmungen der Stoffwechselraten von Mikroorganismen in der Tiefsee sind erst seit kurzem möglich. Erstaunlicherweise zeigen diese, dass die Mikroorganismen mehr organischen Kohlenstoff verbrauchen, als von oben angeliefert wird – eine Diskrepanz, die sowohl im Atlantik als auch im Pazifik festgestellt wurde [4]. Offensichtlich besitzen viele der Tiefsee-Bakterien und Archea ein Gen für das Protein RuBisCo (Ribulose-1,5-bisphosphat-carboxylase/-oxygenase), ein Enzym, das alle Pflanzen brauchen, um mit Sonnenenergie CO2 zu fixieren. Sogenannte chemoautrophe Mikroben können ebenfalls mit Hilfe von RuBisCo (abgeatmetes) CO2 in organische Verbindungen umzuwandeln; die dazu nötige Energie entsteht hier aber durch die Oxydation verschiedener in reduzierter Form vorliegender anorganischer Verbindungen, z.B. Schwefelwasserstoff, Ammoniak.
Die Raten an Chemosynthese die in der Wassersäule des tiefen Ozeans gemessen werden, sind wesentlich höher als man bisher gedacht hat und tragen zum Nahrungsnetz aller nicht-autotropher Organismen bei [4]. Allerdings reicht auch die Summe aus der so entstandenen Biomasse und dem Partikelregen von der Meeresoberfläche noch nicht aus, um den Nahrungsbedarf der Organismen der Tiefsee zu decken. Wovon Tiefseeorganismen, nicht nur die Mikroorganismen, nun wirklich leben und welchen Einfluß dies auf den marinen Kohlenstoffkreislauf hat, ist noch weitgehend unbekannt und soll in großen internationalen Forschungsprogrammen (beispielsweise in dem von der European Science Foundation geförderten Projekt: Microbial Oceanography of Chemolitho-Autotrophic planktonic Communities (MOCA) [5]) geklärt werden.
Ausblick
Meeresforschung mit dem Fokus auf mikrobieller Ozeanographie kann globale Fragen, vor allem hinsichtlich des Kohlenstoffkreislaufs klären:
- Wie wird sich ein steigender CO2-Gehalt der Atmosphäre und damit ein „Saurer-Werden“ des Meerwassers auf die Diversität und Produktivität des Phytoplanktons auswirken?
- Wieviel CO2 kann via Biologische Pumpe der Atmosphäre entzogen werden und welche Rolle spielen hier die chemoautotrophen Mikroorganismen der Tiefsee?
- Wie schließlich werden sich die Nahrungsnetze der Ozeane in verschiedenen Breiten verändern?
[1] WB. Whitman, DC Coleman, WJ Wiebe (1998) Prokaryotes: The unseen majority. Proc. Natl. Acad. Sci. USA 95:6578–6583. [2] MLL Sogin, HG Morrison, JA Huber, WD Mark; SM Huse, PR Neal, JM Arrieta, GJ Herndl (2006), Microbial diversity in the deep sea and the underexplored "rare biosphere". Proc. Natl. Acad. Sci. USA 103: 12115-12120. (Mit bis jetzt 1061 Zitierungen dürfte dies die meistzitierte Veröffentlichung in der Meeresbiologie sein, Anmerkung der Redaktion.) [3] AB Bochdansky, MH Jericho, GJ Herndl, 2013 Development and deployment of a point-source digital inline holographic microscope for the study of plankton and particles to a depth of 6000 m. Limnol. Oceanogr.: Methods 11, 2013, 28–40. [4] GJ Herndl, T Reinthaler, 2013, Microbial control of the dark end of the biological pump. Nature Geoscience 6:718-724. [5] http://www.microbial-oceanography.eu/moca/moca.html
Weiterführende Links
G. Herndl
Im ScienceBlog: Tieefseeforschung in Österreich
Meeresbiologe und Wittgensteipreisträger 2011 Gerhard J. Herndl. Video 5.38 min. Die einmonatige Forschungsreise auf der Pelagia im Herbst 2010 ist unter „Schiffsmeldungen“ im Archiv der online-Zeitung der Universität Wien dokumentiert.
Topics of the Ocean Currents Tutorial
ZDF: Universum der Ozeane
Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)
Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)Fr, 28.02.2014 - 08:16 — Inge Schuster
Vor wenigen Wochen ist unter dem Titel „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie“ die Analyse einer neuen, von der Europäischen Kommission beauftragten Umfrage erschienen [1]. Wie auch in früheren Studien wird darin eine unerfreuliche Einstellung unserer Landsleute zu Wissenschaft und Technologie ersichtlich, die getragen ist von Desinteresse, mangelnder Ausbildung und niedrigem Informationsstand. Im Gegensatz zu einer zeitgleich, im Auftrag des Wissenschaftsministeriums erfolgten Umfrage ähnlichen Inhalts aber anderen Schlussfolgerungen, gab es auf die EU-Analyse kein Echo - weder von Seite des Ministeriums noch von den Medien des Landes..
„Österreich sagt Ja zur Wissenschaft“ und „Wissenschaft und Forschung genießen in Österreich hohes Ansehen“ – mit diesen und ähnlichen Worten frohlockten die Medien unseres Landes im August 2013. Grund für diese Jubelmeldungen waren Ergebnisse einer Umfrage zur "Bedeutung von Wissenschaft und Forschung für die österreichische Bevölkerung", die im Auftrag des Ministeriums für Wissenschaft und Forschung von dem Institut Ecoquest Market Research & Consulting GmbH durchgeführt worden war. Eine österreichweite telefonische Befragung von rund 1000 (über 16 Jahre alte) Personen hatte deren überwiegend positive Einstellung aufgezeigt: so befanden rund 80%, daß Wissenschaft das Leben leichter, gesünder und angenehmer mache und die Förderung von Wissenschaft und Forschung eine wichtige Aufgabe der Politik wäre, 74%, daß Forschung essentiell für Österreichs Wohlstand und wirtschaftliche Entwicklung wäre. Eine Mehrheit (59%) bekundete Interesse an Wissenschaft und Forschung, 45% meinten diesbezüglich auch gut informiert zu sein.
Auf eine Aufzählung weiterer positiver Antworten wird hier mit Rücksicht auf eine ansonsten unzumutbare Länge des Blog-Artikels verzichtet und auf die Berichterstattung in den Medien hingewiesen. Es erscheint allerdings unverständlich, daß eine Studie mit offensichtlich so erfreulichen Ergebnissen nicht in detaillierter Form online frei zugänglich ist und auch ein diesbezüglicher Hinweis auf der Homepage des Ministeriums fehlt.
Noch unverständlicher ist es aber, daß die Ergebnisse einer zeitgleich erfolgten EU-Umfrage – Spezial Eurobarometer 401 - zur Einstellung der EU-Bürger zu Wissenschaft und Technologie [1] – überhaupt keine Erwähnung fanden – nicht von Seiten der zuständigen Ministerien, nicht von Seiten unserer Medien.
Zugegeben, das Eurobarometer sieht unser Land durch eine nicht ganz so rosarote Brille. Zwar meinte auch hier die Mehrheit der Befragten (78%), dass der Einfluss von Wissenschaft und Technologie auf die österreichische Gesellschaft insgesamt positiv ist (EU27: 77%). Wie schon in der vorhergegangenen Umfrage (Spezial Eurobarometer 340 [2]) erscheint aber auch hier die allgemeine Einstellung der Österreicher zu Wissenschaft und Technologie geprägt von Desinteresse, alarmierend niedriger Bildung und mangelnder (Bereitschaft zur) Information.
Was ist unter „Spezial Eurobarometer 401“ zu verstehen?
Im Frühjahr 2013 wurde im Auftrag der Europäischen Kommission eine Umfrage in den 27 Mitgliedsländern (plus in dem gerade-noch-nicht Mitglied Kroatien) durchgeführt, welche die allgemeinen Ansichten der Bevölkerung zu Wissenschaft und Technologie erkunden sollte. (Dabei sollten unter dem Begriff "Wissenschaft und Technologie" – entsprechend dem englischen „Science and Technology“ - die Naturwissenschaften wie Physik, Chemie und Biologie und deren Anwendung in den Bereichen Technologie und Verfahrenstechnik, wie z.B. in der Computertechnik, Biotechnologie und bei medizinischen Anwendungen verstanden werden [1]). Dazu schwärmte ein Heer von Interviewern aus, um in jedem Mitgliedsstaat jeweils rund 1000 Personen in ihrem Heim und in ihrer Muttersprache zu befragen - insgesamt 27 563 Personen aus verschiedenen sozialen und demographischen Gruppen. In diesen persönlichen Interviews wurden Fragen vor allem zu folgenden Themenkreisen gestellt:
i. Zur Beschäftigung europäischer Bürger mit Wissenschaft und Technologie (Grad des Interesses und der Information, Bildung/Nähe zur diesen Gebieten),
ii. Zum Einfluss von Wissenschaft und Technologie auf die Gesellschaften (auf Lebensqualität, auf das Leben in der Zukunft, Rolle des ethischen Verhaltens in der Forschung, Zugang zu Forschungsergebnissen),
iii. Zur Bedeutung der Ausbildung junger Menschen in Wissenschaft und Technologie und diesbezügliche Rolle der nationalen Regierungen,
iv. Zur Berücksichtigung der Bedürfnisse von Männern und Frauen in der wissenschaftlichen Forschung.
Ein Teil der Fragen deckte sich mit denen in der vorangegangenen Studie im Jahre 2010 [2] und auch noch früheren Studien und erlaubte so Trends von Meinungsverschiebungen aufzuzeigen. Die Analyse der Umfrage wurde am 14. November 2013 u.a. auch in deutscher Sprache, unter dem Titel „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie – Spezial Eurobarometer 401“ veröffentlicht [1]. Es ist ein frei zugänglicher, 223 Seiten starker Bericht.
Aus der Fülle der Ergebnisse soll in den folgenden Abschnitten im Wesentlichen nur auf Österreichs Haltung bezüglich der unter i) und iii) angeführten Punkte eingegangen werden.
Wieweit sind Österreicher an Wissenschaft und Technologie interessiert, wieweit darüber informiert?
Hier tritt ein deutliches Nordwest-Südost Gefälle zutage: Einwohner südlicher und vor allem östlicher Länder bekundeten geringeres Interesse an Entwicklungen in Wissenschaft und Technologie und fühlten sich darüber weniger häufig informiert. Österreichs Haltung ist hier vergleichbar mit der von ehemaligen Ostblockländern.
Die Frage, ob sie an Entwicklungen in Wissenschaft und Technologie interessiert wären, bejahte die Mehrheit (53%) der befragten EU-Bürger, wobei die meisten Interessierten – bis zu ¾ der Bevölkerung - in Staaten wie Schweden, UK, Dänemark, Luxemburg, Niederlande zu finden waren. Österreich lag mit 45% Interessierten am unteren Teil der Skala – nur die ehemaligen Ostblockländern Ungarn, Rumänien, Bulgarien und Tschechien zeigten noch weniger Interesse (Abbildung 1).
Über alle Länder gesehen ergab sich eine starke Korrelation von Interesse und Informationstand, wobei das Interesse generell höher angegeben wurde als der jeweilige Informationsstand. Im EU27-Schnitt gaben 40% der Bürger an informiert zu sein, der höchste Informationsgrad (bis zu 65%) war in Dänemark, Schweden, Luxemburg, UK, Frankreich zu finden. Österreich lag mit 30% Informierten wieder im unteren Bereich der Skala, nur Rumänien, Bulgarien und Ungarn lagen noch tiefer (Abbildung 1).
Abbildung 1. Je höher das Interesse an Entwicklungen in Wissenschaft und Technologie war, desto höher bezeichneten die Befragten ihren Informationsstand. Österreich liegt hier im Schlussfeld. (Die Staaten sind mit Symbolen ihrer Flaggen gekennzeichnet: Quelle: [1])
Es ergibt ein sehr bedenkliches Bild für Österreich, wenn hier eine Mehrheit der Befragten (52%) konstatiert an Entwicklungen in Wissenschaft und Technologie weder interessiert noch darüber informiert zu sein. Nur Bulgaren, Tschechen, Ungarn und Rumänen zeigten sich noch desinteressierter und uninformierter (Abbildung 2). Dieses traurige Ergebnis dürfte jedoch eine prinzipielle Einstellung widerspiegeln:
In der EU-Umfrage im Jahr 2010 hatten 57% der befragten Österreicher den Satz bejaht „Kenntnisse über Wissenschaft und Forschung zu besitzen, ist für mein tägliches Leben nicht von Bedeutung“ – dies war damals die höchste Zustimmungsrate unter allen EU-Ländern. Nur 25% der Österreicher hatten diesen Satz verneint; dies war die niedrigste Ablehnungsrate unter den Ländern (das EU27-Mittel war 33% Zustimmung, 49% Ablehnung [2], [3]).
Abbildung 2. Die Mehrzahl der befragten Österreicher gibt an, an Entwicklungen in Wissenschaft und Technologie weder interessiert noch darüber informiert zu sein. (Quelle [1])
In Anbetracht ihres niedrigen Interesses und Informationstandes erscheint es allerdings bemerkenswert, daß die Mehrheit unserer Landsleute (55%) dennoch verlangt, an Entscheidungen über Wissenschaft und Technologie beteiligt zu werden – gleichviele wie im EU27-Schnitt, wobei dieser jedoch einen wesentlich höheren Anteil an interessierten EU-Bürgern verbucht.
Wer sind die Uninteressierten und Uninformierten?
Dies geht aus einer soziodemographischen, nicht nach Nationen aufgeschlüsselten Analyse der Antworten aller 27 563 befragten EU-Bürger hervor, die zweifellos auch auf Österreich zutrifft. An Hand einer Reihe von Variablen wie Geschlecht, Alter, Bildung und Beruf wurden die Antworten nach den Kategorien eingeordnet: i) interessiert und informiert, ii) interessiert aber nicht informiert, iii) nicht interessiert, aber informiert und iv) nicht interessiert und nicht informiert.
Die Zugehörigkeit zur Kategorie „interessiert und informiert“ ebenso wie zu „nicht interessiert und nicht informiert“ erwies sich deutlich abhängig von Geschlecht, Bildungsniveau, Berufsbild und Alter. Zur Kategorie „nicht interessiert und nicht informiert“ gehörten:
48% der Frauen, aber nur 31 % der Männer
48% der Personen, die 55 Jahre und älter waren,
60% der Personen mit dem niedrigsten Bildungsniveau,
57% der Hausfrauen/-männer,
60% der Personen, die nie das Internet nutzen,
55% der Personen, welche negative Auswirkungen der Wissenschaft auf die Gesellschaft befürchteten.
Ob und wie auf Menschen dieser Kategorie Information zugeschnitten werden kann, die das Interesse an Naturwissenschaften zu wecken vermag, ist mehr als fraglich. Zweifellos kann dies aber bei den rund 15% unserer Mitbürger der Fall sein, die angaben interessiert aber nicht informiert zu sein.
Woher können Österreicher wissenschaftliche Informationen beziehen?
Information aus Unterricht/Studium
Österreich erzielte hier ein besonders schlechtes Ergebnis:
Auf die Frage: „Haben Sie jemals Wissenschaft oder Technologie als Schulfach gehabt oder an einer Fachhochschule, einer Universität oder irgendwo anders studiert?“
gaben nur 21% der Österreicher an Fächer aus diesen Wissensgebieten in der Schule (11%), an der Hochschule (8%) oder anderswo (2%) studiert zu haben. Im EU27-Schnitt bejahten 47% diese Frage, wobei 31% die Schule nannten, 14% die Universität und 2% andere Bildungsorte.
Noch weniger Ausbildung in diesen Fächern als in unserem Land nannten nur noch Tschechen (17%) und Slowaken (13%).
In anderen Worten: 78% unserer befragten Landsleute hatten am Ende ihres Bildungsweges nichts über Wissenschaft/Technologie gehört/gelernt! (Abbildung 3).
Als wichtiger Punkt ist hier herauszustreichen: EU-weit hatten diejenigen, die angaben sich für Entwicklungen in Wissenschaft und Technologie zu interessieren, ebenso wie diejenigen, die sich darüber informiert fühlten, diese Gebiete auch häufiger als Schul- oder als Studienfach gehabt, als die weniger Interessierten/Informierten.
Abbildung 3. “Nähe zur Wissenschaft”: persönlicher Hintergrund (Quelle: [1])
Wissenschaftliches Umfeld in der Familie
Die Frage „Hat oder hatte jemand in Ihrer Familie einen Beruf oder einen Universitätsabschluss im Bereich Wissenschaft oder Technologie?” bejahten 23% der EU27 Bürger, 76% verneinten sie. Österreich lag mit 18% Zustimmung auch hier unter dem EU27-Schnitt. Mit Ausnahme einiger ehemaliger Ostblockländer war die „familiäre Nähe zur Wissenschaft“ seit dem Jahr 2010 in fast allen Staaten gestiegen: im EU27-Mittel um 2%, in Österreich um 1%.
Andere Informationsquellen
Wie in allen anderen EU-Ländern war das Fernsehen auch in Österreich die am häufigsten genannte Informationsquelle (AT: 67%, EU27: 65%). An zweiter Stelle nannten 48% der befragten Österreicher Zeitungen – wesentlich mehr als im EU27-Schnitt (33%). Dagegen rangierte bei uns das Internet mit nur 20% der Nennungen wesentlich niedriger (EU27-Schnitt 32%).
Dazu ist zu bemerken, dass Wissenschaft - als wenig-Quoten-bringend – in unseren Medien eine nur sehr kümmerliche Rolle spielt: so hat das Staatsfernsehen ORF zwischen 2009 und 2012 eine bereits sehr niedrige Sendezeit noch um ein Drittel auf nun 1,22% der Gesamt-Sendezeit gekürzt [4]. So führen nur wenige unserer Printmedien eine Wissenschaftsrubrik – vor allem sind es nicht die Tageszeitungen mit der höchsten Reichweite. Auch werden komplexe Sachverhalte häufig nicht allgemein verständlich dargestellt, sind zum Teil auch nicht ausreichend recherchiert [5].
Danach befragt, welche Personen/Organisationen sie wohl am besten geeignet hielten, um die Auswirkungen von wissenschaftlichen und technologischen Entwicklungen auf die Gesellschaft zu erklären, nannten Österreicher – ebenso wie die Bürger anderer Länder in erster Linie (mit 66%) die Wissenschafter selbst. Deren Akzeptanz ist bei uns seit 2010 sogar um 10% gestiegen. In weiterer Folge wurden bei uns aber in einem wesentlich höheren Umfang Umweltschutzorganisationen (mit 33%) und Konsumentvereinigungen (mit 30%) angegeben als dies im EU-Schnitt (21 und 20%) der Fall ist (und es vermutlich auch deren wissenschaftlichen Kompetenzen entspricht). Die diesbezügliche Befähigung von Regierungsvertretern und Politikern ganz allgemein wurde bei uns und im EU-Schnitt als sehr gering (4 – 6%) erachtet.
Unternehmen Regierungen genug um das wissenschaftliche Interesse der Jugend zu wecken?
In den meisten EU-Ländern meinte die überwiegende Mehrheit der Befragten (EU27-Schnitt: 66%), daß ihre Regierungen diesbezüglich zu wenig tun, und nur 23%, waren gegenteiliger Ansicht.
Angesichts ihres niedrigen wissenschaftlichen Informationsstandes (Abbildung 2) und ihrer dürftigen Ausbildung (Abbildung 3), wäre eine vergleichbare Stellungnahme der Österreicher zu erwarten gewesen. Tatsächlich äußerte aber nicht einmal die Hälfte der Befragten (49%), daß die Regierung zu wenig unternimmt, 38% waren aber mit deren Tun zufrieden. Die „Zufriedenheit“ hatte gegenüber 2010 sogar um 6% zugenommen.
Ist dies ein weiteres Merkmal von Desinteresse, gepaart mit Abneigung gegen unverstandene Wissenszweige?
Abbildung 4. Unternehmen Regierungen genug, um das wissenschaftliche Interesse der Jugend zu wecken? (Quelle: [1])
Wie geht es weiter?
Wir leben und arbeiten in einer wissensbasierten Welt, deren Wohlstand und Qualität enorm von den naturwissenschaftlichen und technischen Fortschritten abhängt, von der Art und Weise wie wir diese nutzen, um die medizinischen, umweltspezifischen und sozioökonomischen Probleme zu lösen, mit denen unsere Gesellschaften konfrontiert sind. Zweifellos sind dafür eine naturwissenschaftliche Grundbildung und eine positive Einstellung zu diesen Wissenschaften erforderlich.
Die diesbezüglichen Ergebnisse der aktuellen Eurobarometer Studie für Österreich sind ernüchternd. Die Mehrzahl der befragten Österreicher ist an Wissenschaft und Technologie weder interessiert noch darüber informiert, hat auf dem Bildungsweg nichts über diese Wissenszweige gehört, ist aber trotzdem relativ zufrieden, mit dem was die Regierung tut, „um das wissenschaftliche Interesse der Jugend zu wecken“. Dazu kommt, daß in den bevorzugten Informationsmedien – Fernsehen und Zeitungen – Wissenschaftsberichterstattung zwar eine nur sehr untergeordnete Rolle spielt, daß diese aber (laut früheren Umfragen) als ausreichend betrachtet wird.
Was kann bei einem derartigen Grad an Desinteresse getan werden um den Stellenwert der Naturwissenschaften in unserem Land zu erhöhen? Wird man versuchen die Ausbildung der Jugend in diesen Fächern entscheidend zu verbessern? Werden die Medien des Landes einsehen, daß sie zur Bildung beitragen könnten und sollten? Oder wird ein Mantel von Desinteresse auch die peinlichen Ergebnisse von Umfragen verhüllen?
Ein eben veröffentlichtes Dossier der APA-Science „Forsche und sprich darüber“ [6] verweist auf einige bereits existierende Initiativen, beispielsweise auf „Die lange Nacht der Forschung“, die Kinder-Uni, Sparkling Science, das Science Center Netzwerk und auch auf unseren ScienceBlog.
Hier ist noch unbedingt die Initiative „Edutainment“ von Carl Djerassi anzufügen, die speziell auf die Erwachsenenwelt ausgerichtet ist und in Romanen und Theaterstücken Unterhaltung mit Wissensvermittlung verbindet [7].
Werden diese Initiativen mehr als nur punktuell Interesse für Naturwissenschaften wecken können?
Halten wir es hier mit Lao Tse: „Selbst die längste Reise beginnt mit dem ersten Schritt.“
[1] Verantwortliche Forschung und Innovation, Wissenschaft und Technologie, Spezial- Eurobarometer 401; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf
[2] Wissenschaft und Technik, Spezial-Eurobarometer 340; Juni 2010 (175 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf
[3 ] J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme
[4] Quelle: ORF-Jahresberichte 2009, 2010, 2011, 2012 (alle open access)
[5] Scientific research in the media, Spezial Eurobarometer 282, Dezember 2007
[6] Dossier APA-Science: Forsche und sprich darüber
[7] ScienceBlog: Die drei Leben des Carl Djerassi
Weitere Artikel zur Wissenschaftskommunikation im ScienceBlog
J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?
G.Schatz: Stimmen der Nacht — Gedanken eines emeritierten Professors über Wissenschaft und Universitäten
G.Schatz: Gefährdetes Licht — zur Wissensvermittlung in den Naturwissenschaften
F. Kerschbaum: Die Wissenschaftler sind ja selbst schuld
G.Glatzel: Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler
R.Böhm: Signal to noise — Betrachtungen zur Klimawandeldiskussion
Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken
Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenkenFr, 14.02.2014 - 06:35 — Gottfried Schatz
Zufälle und Fehler beim Kopieren des Erbguts schaffen biologische Varianten, aus denen im Lauf der Evolution immer komplexeres Leben entsteht. Zufällige, nicht vorhersagbare chemische Reaktionen einiger Moleküle können die Erscheinung und das Verhalten eines Lebewesens beeinflussen. Zufälle und Fehler sind Quellen des Neuen, ohne sie wären wir alle noch Bakterien.
Unser Biologielehrer war ein romantischer Naturfreund, für den die lebendige Natur vollkommen war. Sein Credo lautete: «Das Leben ist immer im Gleichgewicht.» Wenn ich heute an ihn denke, erinnert er mich an den deutschen Archäologen und Kunsthistoriker Johann Joachim Winckelmann (1717–1768), für den Kunst und Philosophie der alten Griechen von «edler Einfalt und stiller Grösse» waren. Als dann aber im Jahre 1872 Friedrich Nietzsche das dionysisch Dunkle in der griechischen Kultur aufzeigte, hatten Charles Darwin und Alfred Wallace auch das Leben bereits seiner Idylle beraubt und als ein gnadenloses Schlachtfeld entlarvt.
Das Leben ist mit seinem Umfeld nie im Gleichgewicht. Es ist so erfolgreich, weil es nie vollkommen ist. Versucht eine Lebensform sich an ihr Umfeld anzupassen, verändert sie es – und muss sich erneut anpassen. Dieses nie endende Streben nach Anpassung zeugt die biologischen Varianten, aus denen die Evolution immer komplexeres Leben schafft. Die Schnelligkeit, mit der ihr dies gelingt, war lange ein Rätsel. Wie entstehen die Varianten, mit denen die Evolution spielt?
Kopieren und überwachen
Die wichtigste Quelle sind Fehler beim Kopieren des Erbmaterials. Wenn sich Zellen vermehren, teilen sie sich in zwei Tochterzellen und kopieren dabei auch ihr Erbmaterial, um jeder Tochterzelle ein vollständiges Exemplar mitzugeben. DNA-Moleküle sind lange Fäden, in denen vier verschiedene chemische Buchstaben in wechselnder Reihenfolge aneinandergekettet sind. Die Buchstabenfolge beschreibt das genetische Erbe des Lebewesens; jeder Kopierfehler kann somit eine erbliche Veränderung – eine «Mutation» – bewirken. Der Kopiervorgang ist für die Zelle eine gewaltige Herausforderung, enthält doch jede menschliche Körperzelle 6,4 Milliarden DNA-Buchstaben. Noch dazu ist jeder DNA-Strang mit einem Partnerstrang verdrillt, der die gleiche Information in spiegelbildlicher Form trägt.
Um einen DNA-Doppelstrang zu kopieren, «entdrillt» ihn die Kopiermaschine der Zelle, fertigt von jedem der beiden Einzelstränge eine spiegelbildliche Kopie an und überwacht den Kopiervorgang gleich dreifach: Zunächst holt sie sich aus dem Zellsaft den entsprechenden chemischen Buchstaben und prüft, ob er der richtige ist. Ist er es nicht, verwirft sie ihn und wiederholt die Suche. Hat sie dann den ausgewählten Buchstaben an die wachsende Kopie angeheftet, prüft sie ihn nochmals – und wenn er sich als falsch erweist, trennt sie ihn wieder ab und beginnt von vorne. Hat sie auf diese Weise mehrere Buchstaben kopiert, vergewissert sie sich ein drittes Mal. Entdeckt sie einen falschen Buchstaben, schneidet sie ihn heraus und ersetzt ihn durch den richtigen. Nach dem ersten Prüfschritt ist immer noch jeder hunderttausendste Buchstabe falsch, nach den beiden weiteren Schritten nur mehr ein Buchstabe unter 100 bis 200 Millionen. Bei 6,4 Milliarden Buchstaben schleichen sich dennoch Dutzende von Fehlern ein. Die meisten sind für die Tochterzelle ohne Folgen, doch einige verändern sie und verwandeln sie in eine biologische Variante.
Zellen könnten die Fehlerrate beim Kopieren ihres Erbguts noch weiter senken. Sie tun dies aber nicht, weil der Kopiervorgang dann zu langsam wäre, zu viel Energie erforderte und zu wenig neue Varianten schüfe. Es ist für Zellen manchmal von Vorteil, die Fehlerquote beim Kopieren ihrer DNA sogar zu erhöhen. Wenn ein krankheitserregendes Bakterium in unseren Körper eindringt, muss es sich gegen unsere Antikörper und Fresszellen wehren, die sich gegen seine Oberfläche richten. Bakterien haben deshalb gelernt, diese schnell zu verändern: Gene für Oberflächenproteine verwirren die DNA-Kopiermaschine des Bakteriums, so dass sie mindestens zehnmal mehr Fehler macht als bei anderen Genen. Dies erhöht die Chance, dass sich unter den eindringenden Bakterien auch eine Mutante findet, deren Oberfläche das Immunsystem übersieht. Dank dieser Tarnkappe überlebt die Mutante und sichert den Erfolg der Infektion.
Der Erreger der afrikanischen Schlafkrankheit, das einzellige Tierchen Trypanosoma brucei, hat diese Tarnkappenstrategie zur hohen Kunst entwickelt: Es ändert seine Oberfläche ohne Unterlass, indem es bereits vorgefertigte Genstücke wie in einem Legospiel untereinander austauscht. Infiziert es uns, muss unser Immunsystem gegen eine stets wechselnde Oberfläche ankämpfen, wobei der Parasit stets einen Schritt voraus ist. Aber auch das Immunsystem «weiß» um die schöpferische Kraft des Zufalls. Es verfügt zwar nur über eine begrenzte Zahl von Genen, kann diese jedoch virtuos nach dem Zufallsprinzip neu aufmischen und, ähnlich pathogenen Bakterien, durch Kopierfehler verändern. So entlockt es diesen Genen ein praktisch unbegrenztes Arsenal verschiedener Immunproteine.
Lawinenartige Entwicklung
Schnell veränderliche «Anpassungsgene» lassen sich deshalb nicht genau kopieren, weil sie mehrmals wiederholte Buchstabenfolgen enthalten, welche die DNA-Kopiermaschine zum «Stottern» bringen. Stotternd gefertigte Genkopien sind dann entweder inaktiv oder, falls die Vorlage inaktiv war, reaktiviert. Auf diese Weise können in erstaunlich kurzer Zeit neue Lebensformen entstehen: Die Hundezucht schuf in nur 150 Jahren eine grosse Vielfalt von Hunderassen, wobei viele der auffälligsten Merkmale wie Schnauzen- oder Pfotenform mit Veränderungen in «Adaptationsgenen» einhergehen. Solche Gene könnten auch erklären, weshalb im Verlauf der Erdgeschichte neue Lebensformen oft explosionsartig auftraten.
Kopierfehler und Austausch von Genstücken sind jedoch nicht die einzigen «Werkzeuge», mit denen das Leben Vielfalt schafft. Es benützt auch den Zufall, der chemische Reaktionen zwischen einer kleinen Zahl von Molekülen prägt. Viele Schlüsselmoleküle – wie Gene oder Proteine, die Gene lesen – sind in einer Zelle in so geringer Stückzahl vorhanden, dass ihre chemischen Reaktionen nicht mehr den statistischen Gesetzen der Chemie, sondern dem Zufall gehorchen. Anstatt vorhersagbarer und graduell abgestufter Resultate gibt es dann nur noch zufällige und nicht vorhersagbare Ja-Nein-Entscheide: Das Molekül reagiert – oder es reagiert nicht. Werden solche «binären» Zufallsentscheide lawinenartig verstärkt, können sie irreversibel werden und die Entwicklung oder das Verhalten eines Lebewesens langfristig prägen. Ein Beispiel dafür wäre eine Balkenwaage, deren Waagschalen durch zwei mit einem Schlauch verbundene Wasserflaschen ersetzt sind. Solange diese Flaschen gleich viel Wasser enthalten, sind sie im Gleichgewicht. Hebt jedoch ein zufälliger Windstoss eine der beiden Flaschen kurzfristig leicht hoch, gibt sie sofort Wasser an die andere ab, worauf diese immer schneller und schliesslich unwiderruflich absinkt. Die winzige Zufallsschwankung hat ein stabiles Ungleichgewicht bewirkt.
Ein molekulares Rauschen
Zellen verwenden verschiedene Strategien, um chemische Zufallsschwankungen zu verstärken und zu fixieren. Bakterien stellen damit sicher, dass die Mitglieder einer hungernden Kolonie nicht gleichzeitig, sondern verzögert und in zufälliger Reihenfolge sterben, wobei die toten Zellen den noch lebenden als Nahrung dienen. So erhöht sich die Chance, dass einige Zellen überleben, wenn plötzlich wieder Nahrung verfügbar wird. Aus ähnlichen Gründen sind genetisch identische Flachwürmer, die unter genau gleichen Bedingungen aufgezogen wurden, nicht identisch: Sie reagieren verschieden auf Umweltreize oder Gifte und leben auch verschieden lange. Fixierte Zufallsentscheide können somit zu unterschiedlichen Erscheinungsformen eines Lebewesens führen, selbst wenn Gene und Umwelt gleich bleiben.
Zufälle spielen auch bei der Entwicklung höherer Tiere eine Rolle. Die Nase einer Maus ist mit etwa tausend verschiedenen Duftsensoren bestückt, wobei jede geruchsempfindliche Nervenzelle nur einen einzigen Sensortyp trägt; hätte sie deren mehrere, würde sie das Gehirn mit widersprüchlichen Geruchsmeldungen verwirren. Bei ihrer Entwicklung wählt jede Zelle einen der tausend Duftsensoren rein zufällig aus und unterdrückt dann die Bildung aller anderen. So muss die Zelle nicht jedes Sensorgen eigens steuern. Ähnliches gilt für die Rot- und Grünsensoren unserer Netzhaut: Die farbempfindlichen Zapfen entscheiden sich bei ihrer Entwicklung zufällig entweder für den Rot- oder den Grünsensor und unterdrücken dann die Bildung des anderen Sensors.
Zufällige und nicht vorhersagbare chemische Reaktionen einiger Moleküle können somit die Erscheinung und das Verhalten eines Lebewesens beeinflussen. Um dieses molekulare Rauschen im Griff zu behalten, setzen Zellen molekulare Rauschfilter ein. Dank ihnen verläuft die Entwicklung eines Lebewesens meist höchst präzise. Gelegentlich ist es für Zellen jedoch von Vorteil, ihr molekulares Rauschen nicht zu dämpfen, sondern zu verstärken. In seinem Streben nach Vielfalt scheut das Leben keine Möglichkeit, um Erbinformation auf verschiedene Weise zu interpretieren.
Zufälle und Fehler sind Quellen des Neuen; wer sie rigoros unterdrückt, wird wenig Neues schaffen. Dies gilt auch für menschliche Gemeinschaften, in denen nackte Gewalt, starre Dogmen oder «political correctness» das Denken knebeln. Die lebendige Natur sollte uns hier ein Beispiel sein: Hätte sie Zufälle und Fehler gescheut, wären wir alle noch Bakterien.
Weiterführende Links
Artikel im ScienceBlog
The Double Helix: Aufklärung der Struktur durch Crick & Watson, alte Archivaufnahmen und Interviews; 16:53 min
Nanosatelliten: Weltraum für jedermann
Nanosatelliten: Weltraum für jedermannFr, 07.02.2014 - 06:14 — Peter Platzer
Eine der Computerrevolution vergleichbare Entwicklung bringt den Zugriff auf nahe Erdumlaufbahnen ins Wohnzimmer. Der Hochenergiephysiker und Gründer Peter Platzer beschreibt, wie ›Nanosatelliten‹ – winzige Satelliten, die um ebenso winziges Geld gestartet und betrieben werden können – die Gesellschaft verändern könnten.
In künftigen Tagen wird jede Person auf diesem Planeten – im doppelten Wortsinn – ›allgegenwärtigen‹ Zugriff auf den Weltraum haben. Dieser Satz klingt möglicherweise etwas vollmundig, vielleicht sogar im Grenzbereich zur Science Fiction. Und doch lässt ein Blick auf Geschichte und Entwicklung der Technik ihn beinahe unausweichlich erschienen.
Eine der Computerrevolution vergleichbare Entwicklung
Die aufkeimende Industrie der kommerziellen Raumfahrt durchlebt einen vergleichbaren Ablauf, wie er bereits im späten 20. Jahrhundert von der Computerrevolution vorexerziert wurde.
Vor lediglich 30 Jahren war der Zugang zu Computern nur einem eingeschränkten Personenkreis vorbehalten, elitär und teuer. Heute sind Computer allgegenwärtig, billig und stehen jedermann zur Verfügung. Durch Programme wie ›One Laptop per Child‹ oder dem weltweiten Einsatz von Smartphones betrachten Menschen selbst in Entwicklungsländern den Zutritt zu Computern und den Zugang zum Netz als Notwenigkeit, ja sogar eine Art wirtschaftliches Grundrecht.
In wenigen Dekaden formte die Computertechnik ganze Gesellschaften radikal um – von Wegbeschreibungen für Fußgänger jeder beliebigen Stadt dieser Erde bis hin zur Möglichkeit, Geld per SMS in die entlegensten Winkel Afrikas zu überweisen. Niemand hätte in den 1980ern vorhersagen können, in welch dramatischer Weise sich unser Alltag dank Computern verändern würde. Nun wiederholt sich diese 30-Jahres-Story im Weltraum – in einem noch atemberauberenden Tempo und möglicherweise mit noch dramatischeren Auswirkungen.
In der Vergangenheit war der Zugang zum Weltraum elitär und wahnwitzig teuer, sodass dieser lediglich Regierungen, Militär und einigen wenigen große Firmen offen stand. Heutzutage verändern Firmen wie NanoSatisfi, NanoRacks und SkyBox den Himmel mit Nanosatelliten in derselben Weise wie der Personal Computer die IT-Branche. Ursprünglich eingeführt von IBM und dann „gekloned“ viele Male in Asien, machte der PC den Mainframe Computer obsolet und läutete so die moderne technische Ära ein. Im Zuge dessen veränderte sich unsere Gesellschaft radikal und – zumindest im Allgemeinen – zum Besseren.
Nanosatelliten demokratisieren den Zugang zum All
So wie jeder, der die Computerrevolution nicht mitmachte, durch das Internet doch einen Platz erste Reihe fußfrei im Computerzeitalter haben kann, ermöglichen es nun Nanosatelliten den Massen den Weltraum zu erkunden. Nanosatelliten sind mit einer Kantenlänge von 10 cm überraschend klein (Abbildung 1). Abbildung 1. Ansicht eines Nanosatelliten, der bereits erfolgreich im Weltraum unterwegs ist. Aufbau (großes Bild) und Außenrahmen (rechts). Der Kubus hat 10 cm Kantenlänge, wiegt etwa 1 kg und ist mit Kameras und einer Reihe von Sensoren ausgestattet, welche optische Eigenschaften, radioaktive Strahlung, Temperatur, Magnetfelder etc. messen. Die Kommunikation mit der Bodenstation erfolgt auf zahlreichen Kanälen und Frequenzen. Maximal lassen sich drei derartiger Würfel übereinander stapeln.
Entwicklung, Bau und Start eines derartigen Nanosatelliten verursachen Kosten in Höhe von nicht einmal einer Million US-$; das Produkt kann somit zumindest leihweise grundsätzlich jedermann zur Verfügung gestellt werden – Schülern ebenso wie Erwachsenen. Das erste Kickstarter.com-Projekt ging 2012 online, und zwischenzeitlich gab es dutzende weitere Projekte, durch die Einzelne in die Lage versetzt werden, Daten und Bilder in der Umlaufbahn zu sammeln. Für rund 200 € pro Woche kann ein derartiger Nanosatellit gemietet und für eigene Anwendungen eingesetzt werden.
Meine Organisation – ArduSat – schickte die ersten beiden, via CrowdFunding durch private Investoren finanzierten, Satelliten in ihre Umlaufbahnen. Mit einer Reihe anderer Organisationen in diesem Feld – darunter Arkyd – und Pionieren wie Tim Debenedictis bilden wir die Speerspitze im Bestreben, uneingeschränkten Zugang zum All für alle zur Verfügung zu stellen.
Falls Sie der kürzlich angelaufene Weltraum-Thriller ›Gravity‹ in seinen Bann gezogen hat, so malen Sie sich einmal die wesentlich umfangreicheren Möglichkeiten aus, die sich durch individuelle Satellitenanwendungen für Unterhaltung, Ausbildung und Myriaden praktischer Anwendungen ergeben! Nanosatelliten bringen das All in den Alltag (Abbildung 2).
Abbildung 2. Nanosatellit auf seiner Umlaufbahn (computergenerierte Darstellung von ArduSat). Es können Dutzende Nanosatelliten gleichzeitig ins All gebracht werden. Anstelle eines einzigen, großen Satelliten wird nun ein Netzwerk von hunderten Nanosatelliten errichtet und damit eine wesentlich umfassendere Erhebung von Daten erzielt.
Vermehren Nanosatelliten den Weltraumschrott?
Die Umlaufbahnen herkömmlicher großer Satelliten befinden sich meistens in Höhen von rund 1000 km. Unbrauchbar gewordene und in Trümmer zerfallene Satelliten verbleiben dort „auf ewig“ und „müllen“ diese Zonen zu.
Für Nanosatelliten werden wesentlich niedrigere Umlaufbahnen gewählt, in welchen sie sich nach 2 – 3 Jahren selbst in ihre Ausgangsmaterialien, bis hin zu ihren Atomen, zersetzen: das sind u.a. Aluminium, etwas Gold, Eisen etc.
Was kann man mit Nanosatelliten anfangen?
Eine häufig gestellte Frage ist die nach der ›Killerapplikation für individuelle Satelliten‹. Da weiche ich gern etwas aus: Als ich in den 1980ern noch die Schulbank drückte, war der allgemeine Konsens über die Killeranwendung für personalisierte Computer die überwältigende und must-have Aussicht, Küchenrezepte zu speichern. Kein Scherz!.
Das macht deutlich, wie engstirnig wir sein können, wenn wir mit neuen Technologien konfrontiert werden, die das Potenzial haben, alles radikal zu verändern. Tatsächlich bezweifle ich, dass irgendjemand die Frage nach ›der Killerapplikation‹ für Nanosatelliten heute schon beantworten könnte. Satelliten werden reifen und sich durch den Einfalls- und Erfindungsreichtum Einzelner und der Gesellschaft weiterentwickeln.
Alles, was wir dazu beitragen können, ist, mögliche Anwendungen zu antizipieren und mit einander zu teilen. Dann bleibt nur noch, diese Industrie in ihrer Entwicklung zu beobachten. Meine persönliche Vision ist eine, in der…
- …ich nie wieder im August auf einem Berg eingeschneit werde, weil zu wenig Wetterdaten für eine zuverlässige Prognose zur Verfügung standen.
- …wir präzisere Modelle zu Bereichen wie Klimawandel, Dürre oder anderen Naturkatastrophen wie Erdbeben und Tsunamis erstellen können.
- …wir genau wissen, wieviele Exemplare gefährdeter Tierarten sich an Land und im Ozean tummeln – und wo wir in Echtzeit verfolgen, wer illegal in geschützten Regionen fischt oder jagt.
- …wir Schiffe in Echtzeit vor Piratenangriffen oder Kollisionen warnen – was leider beides immer noch passiert.
- …uns Satelliten vor ›Near Earth Objekten‹ warnen, wie Russland kürzlich von einem getroffen wurde.
- …Milliarden-Dollar-Missionen wie Hubble oder Kepler von Amateuren nachgebaut werden.
- …Studenten von der Weltraumforschung lernen, indem sie täglich mit einem Satelliten arbeiten – statt mit Block und Bleistift.
Letztendlich kann kein Mensch voraussagen, wie ein allgegenwärtiger Zugang zur Satellitentechnik unser Alltagsleben beeinflussen könnte. Das muss man auch nicht. Was zählt ist, dass wir jetzt die Möglichkeit dazu in der Hand haben. Entweder lehnt man sich zurück, und schaut bei der zweiten Technologierevolution innerhalb einer Lebensspanne zu, oder man beteiligt sich.
Weiterführende Links
New Satellites Signal A Revolution in Education . Video, ca. 3 min. http://www.prweb.com/releases/2013/11/prweb11375009.htm
NanoSatsfi Is Bringing Satellites to New Markets. Video 3:45 min. http://projects.wsj.com/soty/startup/nanosatisfi/nanosatsfi-is-bringing-...
Peter Platzer from NanoSatisfy on the next generation of Satellite. Video 8:06 min. http://www.youtube.com/watch?v=44WGu_uS-RE
NanoRacks-ArduSat-1 (NanoRacks-ArduSat-1) - 01.09.14 http://www.nasa.gov/mission_pages/station/research/experiments/1210.html
Tiefseeforschung in Österreich: Interview mit Gerhard Herndl
Tiefseeforschung in Österreich: Interview mit Gerhard HerndlFr, 31.01.2014 - 13:41 — Gerhard Herndl
Die Mikroorganismen der Tiefsee stellen eine enorme Biomasse dar und sind von fundamentaler Bedeutung für die marine Nahrungskette und die Stoffkreisläufe der Erde. Der Autor, der zu den international anerkanntesten Meeresforschern zählt, erklärt hier, warum und in welcher Weise auch Österreich Meeresforschung betreibt. Über Grundlagen zum mikrobiellen Leben der Tiefsee und Ergebnisse seiner Forschung wird Herndl in einem separaten Artikel berichten. Der Beitrag ist die gekürzte Fassung eines Interviews, das Stefan Kapeller von der Austrian Biologist Association (ABA) mit Gerhard Herndl 2013 geführt hat*.
Meeresforschung hat in Österreich Tradition, ist das für ein Binnenland nicht ungewöhnlich?
Naja, so außergewöhnlich finde ich das gar nicht. Auch in der Schweiz wird beispielsweise Meeresforschung betrieben. Bei uns kommt die Forschungstradition natürlich aus den Zeiten wo Österreich noch Zugang zum Meer hatte. In der Monarchie wurden mit K&K Kriegsschiffen in großen Expeditionen viele Meeresorganismen heraufgeholt. Das naturhistorische Museum ist noch voll von diesen Sammelfahrten. Zudem hat es immer wieder wichtige Personen gegeben die die Meeresforschung in Österreich vorangetrieben haben. Angefangen bei Alfred Wegener, der die Kontinentaldrift in Graz gelehrt hat oder Albert Defant die Ozeanographie in den 1960ern in Innsbruck.
Natürlich auch Hans Hass, der zwar nicht wirklich wissenschaftlich Meeresbiologie betrieben, aber das Tauchen quasi neu erfunden hat und schließlich Rupert Riedl, der vor allem in späteren Jahren auch sehr medienwirksam war, zusammen mit seinem Schüler und späterem Leiter der Abteilung für Meeresbiologie an der Universität Wien Jörg Ott.
Warum ist es auch für Österreich wichtig Meeresforschung zu betreiben?
Natürlich verbindet man in Österreich das Meer meistens als Erstes mit Urlaub. Abgesehen davon spielt das Meer für uns auch eine große Rolle zum Beispiel als Nahrungsquelle. Außerdem beeinflusst das Meer ganz wesentlich auch das Klima in Österreich. Alle Aspekte des Global Change, die das Meer betreffen, betreffen auch Österreich. Etwa ein Viertel des CO2, das global vom Menschen abgegeben wird, wird vom Meer aufgenommen. Und somit ist es durchaus sinnvoll, dass man Leute hat, nicht nur an den Küstenstaaten, die Meeres- und Ozeanographie betreiben.
Außerdem gehört das Meer ja nicht irgendeinem Land. Die Küstenabschnitte fallen in die Einflusssphäre der jeweilig angrenzenden Länder, aber der offene Ozean ist internationales Gewässer. Man sollte nicht den wenigen Küstenländern überlassen zu erforschen, was dort passiert, bzw. auch diese Gebiete auszubeuten.
Mittlerweile hat Österreich keinen direkten Meereszugang mehr. Sie haben lange Zeit in den Niederlanden geforscht. Ist es in einem Binnenland nicht vergleichsweise schwieriger mit der internationalen Spitzenforschung mitzuhalten?
Wir forschen im Wesentlichen am offenen Ozean. Für die Off-Shore-Forschung macht es kaum einen Unterschied, ob man direkten Zugang zum Meer hat.
Als ich in den Niederlanden war mussten wir zum Beispiel auch von Amsterdam nach Kapstadt fliegen, um auf ein Schiff zu gehen und in der Antarktis zu forschen. Jetzt fliegen wir von Wien weg, von dem her ist es überhaupt kein Unterschied.
Was vielleicht einen Unterschied macht, ist, dass Österreich kein eigenes Forschungsschiff hat. Aber die Meeresforschung ist ziemlich international. Wir sind in internationale Projekte eingebunden und werden dann eingeladen, auch auf spanische, deutsche oder englische Schiffe zu gehen. Oder wir mieten ein Schiff.
Ein eigenes Forschungsschiff ist zu teuer?
Es wäre auch nicht sinnvoll. Die Niederlande haben ein großes, 70m langes Forschungsschiff, die Pelagia. Aber selbst dort wird überlegt, ob man das in Hinkunft mit anderen Ländern zusammen kofinanziert.
Abbildung 1. Das Forschungsschiff Pelagia
Wir mieten die Pelagia (Abbildung 1) teilweise für unsere Forschungsprojekte an. Die Miete kostet pro Tag 14 500 Euro. Und das ist der Selbstkostenpreis, den wir durch ein Abkommen mit dem meinem früheren Institut, dem holländischen Meeresforschungsinstitut, bekommen. Normalerweise kostet das weit über 20 000 Euro pro Tag. Wir fahren damit ein Monat pro Jahr auf See. Das erscheint teuer. Aber mit den Proben die in diesem Monat gewonnen werden (Sammelrosette: Abbildung 2), arbeiten dann zehn bis fünfzehn Wissenschaftler ein Jahr lang wirklich konzentriert, um die Proben auszuwerten und die Forschungsergebnisse zu veröffentlichen. Dadurch relativiert sich der Preis.
Abbildung 2. Die CTD Sammelrosette nimmt Wasserproben in bis zu 6000 m Tiefe. Im Zentrum sind Sensoren zur Messung von Druck, Temperatur, Leitfähigkeit, Salzgehalt, Licht, Sauerstoff und Trübung. Hochdrucksammelgefäße aus Titan ermöglichen es die Stoffwechselaktivität der Proben unter den Druck- und Temperaturbedingungen der Tiefsee zu messen.
Ihre Forschung konzentriert sich auf Mikroorganismen der Tiefsee, was fasziniert sie daran besonders?
Früher hat man in Österreich Meeresforschung vorwiegend in küstennahen Gebieten betrieben. Da ist in den 60ern und 70ern viel passiert, aber heute ist hier die Innovation nicht mehr wirklich gegeben. Über die Tiefsee weiß man sehr wenig. Zum einen weil es sehr teuer ist in der Tiefsee zu forschen. Zum anderen funktionieren sehr viele Methoden, die in Oberflächengewässern gut gehen, in der Tiefsee nicht mehr, weil hier die Aktivitäten der Organismen und die Stoffwechselraten geringer sind. Das heißt, man hat die Methoden massiv verfeinern müssen, was erst in den letzten Jahren gelungen ist. Außerdem haben die neuen molekularbiologischen Methoden ganz neue Aspekte und Forschungsrichtungen eröffnet.
Den Fokus auf Mikroorganismen und die Verbindung von Biogeochemie und Molekularbiologie gibt es in der Tiefseeforschung erst seit ein paar Jahren. Das hat nun auch in den großen Forschungsprogrammen der EU, wie Horizont2020, Eingang gefunden.
Sie betreiben in erster Linie Grundlagenforschung. Gibt es konkrete wirtschaftliche Interessen an der Tiefsee?
Ja, die Wirtschaft, wie bei so Vielem, ist der Motor, um Forschung zu finanzieren, teilweise zumindest. Im Horizont2020 findet sich zum Beispiel Deep-Sea Mining wieder, das heißt die Gewinnung von Rohstoffen aus der Tiefsee. Da stecken natürlich direkte ökonomische Interessen dahinter. Dasselbe finden wir auch in den USA und in den großen Schwellenländern wie Indien, wo jetzt ein riesiges Projekt über die Deep-Sea startet und ich als Scientific Adviser eingeladen bin. Die haben Prototypen gebaut, die aussehen wie Mähdrescher und die werden auf den Meeresboden gelassen und sammeln Erze auf. Dass birgt natürlich eine Menge Gefahren, weil man da vieles zerstört, wie zum Beispiel Tiefseekorallen und alle möglichen Tiefseeorganismen. Diese Systeme erholen sich im Prinzip kaum mehr oder nur über Jahrzehnte. Die Ausbeutung der Meere, die in der Tiefsee erst jetzt so richtig beginnt, stellt ein wachsendes Problem dar.
Wenn bei Grundlagenforschung kein unmittelbarer ökonomischer Nutzen erkennbar ist, gerät sie zunehmend unter Rechtfertigungsdruck. Verspüren Sie das auch?
Das stimmt schon, dass man sich in diesem Spannungsfeld wiederfindet. Wenn man Grundlagenforschung betreibt so wie wir und die Bakteriengemeinschaften aus 7000m Tiefe und ihre Stoffwechselwege untersucht, dann hat das zunächst noch nicht unbedingt einen ökonomischen Nutzen. Da muss man sich natürlich rechtfertigen. Das ist durchaus auch ein berechtigtes Anliegen. Das ist im Prinzip so wie in der Kunst. Wenn man ein Bild malt hat das auch keinen unmittelbaren Nutzen. Aber die Frage “wozu dient das unmittelbar”, kann man nicht unbedingt überall stellen. Die Gesellschaft produziert in vielen Bereichen mehr als benötigt wird. Für die Gesellschaft ist Wissenschaft genauso bereichernd wie Kunst.
Zum anderen ist es immer so, dass die tatsächlichen Innovationen aus der Grundlagenforschung kommen. Niemand hat gesagt, wir erfinden jetzt das Internet oder wir müssen Elektrizität und die Glühbirne erfinden, um alle Städte zu beleuchten. Das waren immer erst grundlegende Experimente, wo man die Tragweite noch gar nicht realisiert hat, was sich daraus entwickelt. Somit ist Grundlagenforschung auch die Basis für jede weitere angewandte Forschung.
* Die Fragen von Stefan Kapeller sind als Überschriften gestaltet. Das gesamte Interview ist auf http://www.austrianbiologist.at/bioskop/2013/03/tiefseeforschung-in-oste... nachzulesen.
Mag. rer.nat Stefan Kapeller hat an der Universität Wien Zoologie studiert, ist wissenschaftlicher Mitarbeiter am Bundesforschungszentrum für Wald (http://bfw.ac.at/db/personen.anzeige?person_id_in=834)und seit 2011 Präsident der Austrian Biologist Association. http://www.austrianbiologist.at/web/
Weiterführende Links
Webseite von Gerhard Herndl: http://www.marine.univie.ac.at
Meeresbiologe und Wittgensteipreisträger 2011 Gerhard J. Herndl. Video 5.38 min. http://www.youtube.com/watch?v=5_FaExAgS2E
Die einmonatige Forschungsreise auf der Pelagia im Herbst 2010 ist unter „Schiffsmeldungen“ im Archiv der online-Zeitung der Universität Wien dokumentiert. http://www.dieuniversitaet-online.at/dossiers/schiffsmeldungen.html
Cytochrom P450-Enzyme: Tausendsassas in allen Bereichen unserer Biosphäre
Cytochrom P450-Enzyme: Tausendsassas in allen Bereichen unserer BiosphäreFr, 24.01.2014 - 23:07 — Inge Schuster Cytochrom P450 (abgekürzt CYP) ist der Sammelname für eine Superfamilie an Enzymen, die sich in praktisch allen Lebensformen unserer Biosphäre finden – in Mikroorganismen ebenso wie in Pflanzen und Tieren. Mit ihrer Fähigkeit unterschiedlichste organische Verbindungen zu oxydieren generieren diese Enzyme eine ungeheure Vielzahl und Vielfalt von Produkten, die entscheidend in Aufbau und Regulierung der Spezies eingreifen und damit zu deren Überleben, aber auch zu deren Evolution beitragen. CYP-gesteuerte Prozesse, die den Abbau von Fremdstoffen – Entgiftung - und die Synthese und Abbau körpereigener Signalmoleküle ermöglichen, sind von zentraler Bedeutung für alle Sparten der Lebenswissenschaften und Anwendungen der Biotechnologie. In die öffentliche Wahrnehmung und in die Lehrpläne unserer Schulen und Hochschulen haben derartige Inhalte aber noch kaum Eingang gefunden.
Es gibt Tausende und Abertausende CYPs
In den folgenden Jahrzehnten wurden CYPs in praktisch allen bisher untersuchten Spezies – von den Einzellern zu den Vielzellern im Pilze-,Pflanzen- und Tierreich - entdeckt. Mit der nun immer rascheren Sequenzierung der Genome von vielen weiteren Organismen steigt die Zahl der CYPs geradezu explosionsartig an: im August 2013 waren bereits mehr als 21 000 unterschiedliche CYPs beschrieben (Abbildung 1). Zweifellos erfolgt die Identifizierung von CYP-Genen wesentlich rascher als deren biochemische Charakterisierung erzielt werden kann, dennoch zeigen die bereits gewonnenen Einsichten einen ungeheuren Einfluss der CYPs auf die Zusammensetzung der Biosphäre und Ökologie der Welt, in der wir leben.
Wieviele unterschiedliche CYPs eine Spezies enthält, ist variabel: Die meisten CYPs - bis über 400 Gene -werden in Pflanzen gefunden, beispielsweise in Reis, Kartoffel, oder Baumwolle. Im Tierreich liegt deren Zahl zwischen 35 und 235; der Mensch besitzt 57 unterschiedliche CYPs.
Abbildung 1. CYPs sind in praktisch allen Lebensformen zu finden; bis jetzt wurden mehr als 21 000 unterschiedliche CYPs aufgelistet. (Stand vom August 2013: http://drnelson.uthsc.edu/P450.stats.Aug2013.png)
Um alle diese CYPs eindeutig erfassen und zuordnen zu können, wurde eine recht brauchbare Nomenklatur entwickelt, welche auf Basis der Übereinstimmung von Aminosäuresequenzen die Proteine in Familien (mehr als 40 % Übereinstimmung) und diese wiederum in Subfamilien (mehr als 55 % Übereinstimmung) einteilt. Die offizielle Bezeichnung eines Cytochrom P450 - z.B. das in der menschlichen Leber besonders reichlich vorhandene CYP3A4 - beginnt mit der Abkürzung CYP gefolgt von einer Ziffer, die für die Familie steht (hier ist es die Familie 3), gefolgt von einem Buchstaben, der die Unterfamilie charakterisiert und schließlich einer Zahl für das individuelle Protein.
Ursprung und Evolution der CYPs
Auf der Basis von Sequenzvergleichen erstellte Stammbäume weisen darauf hin, daß alle CYPs sich aus einem Ur-CYP entwickelten, welches bereits in einer sehr frühen Lebensform, schon vor dem Übergang von Prokaryonten zu Eukaryonten, auftrat: eine potentielle Urform könnte CYP51 sein, das essentiell ist für die Synthese der für die Eukaryonten-Membranen benötigen Sterole und auch in praktisch allen aeroben Organismen zu finden ist. Mutationen in den frühen CYPs, aus denen Vorteile für eine Spezies erwuchsen, haben zu deren weiterer Entwicklung beigetragen und wurden so zur Triebkraft der Evolution.
Die Bedeutung von CYPs für unsere Biosphäre soll hier nur ganz kurz am Beispiel der Pflanzenwelt aufgezeigt werden. Das Reich der Pflanzen ist ohne CYPs nicht vorstellbar. Pflanzen synthetisieren mit Hilfe diversester CYPs eine riesige Fülle von niedermolekularen Substanzen (z.B. Alkaloide, Flavonoide, Phytohormone, etc), die sie zur Adaptation an ihre Umgebung, zum Schutz vor Umweltbedingungen und zur Abwehr gegen Feinde einsetzen.
Viele derartige Naturstoffe haben für uns interessante pharmakologische Eigenschaften und dienen uns als (Ausgangsstoffe für) Arzneimittel, wie beispielsweise Morphin oder aktuell das gegen Malaria hochwirksame Artemisinin. Biotechnologische Verfahren zur Herstellung von Naturstoffen bedienen sich in zunehmendem Maße der entsprechenden CYPs.
Von besonderer Bedeutung für unsere Biosphäre ist die Schlüsselrolle von CYPs in der Synthese des Lignins - eines der wichtigsten Biopolymeren unserer Erde ; ohne diese CYPs gäbe es keine größeren Pflanzen am Land , keine Wälder und für uns keinen entsprechenden Rohstoff. Auch in den Abbau von Lignin sind CYPs involviert, die beispielsweise in einigen Pilzen vorkommen, denen die Abbauprodukte als Nahrungsquelle dienen.
CYPs im Porträt
Allen CYPs aus allen Spezies gemeinsam
- Ist eine Primärstruktur, die aus einer einzigen Kette von rund 500 Aminosäuren besteht und sich trotz sehr unterschiedlicher Sequenzen zu sehr ähnlichen 3D-Strukturen faltet,
- Ist der prinzipielle Mechanismus, nach welchem die Umwandlung unterschiedlichster organischer Verbindungen in diverseste Produkte erfolgt – seien es Metabolite des endogenen Stoffwechsels, wie z.B. Lipide, Steroide, Prostaglandine, Neurotransmitter, etc., seien es in den Organismus aufgenommene Fremdstoffe wie u.a. Lösungsmittel, Kohlenwasserstoffe, Pestizide, Kanzerogene und auch Arzneimittel.
Zur Gestalt von CYPs
Um Daten zu Gestalt und Funktion von Proteinen mittels Röntgen-Strukturanalyse zu erhalten, müssen diese in ihrer Kristallform vorliegen. Die Kristallisierung der in höheren Organismen vorwiegend Membran-gebundenen Cytochrom P450-Enzyme erwies sich über lange Jahre als überaus schwierig. Durchbrüche in diesen Techniken haben dann zu einer Flut neuer struktureller Daten geführt: In der Datenbank des NIH sind bereits nahezu 1000 Strukturanalysen unterschiedlicher CYP-Proteine und ihrer Komplexe mit Substraten und Inhibitoren gespeichert.
Alle diese Proteine - von den Formen in Bakterien bis zu den Formen im menschlichen Organismus – zeichnen sich durch eine sehr ähnliche 3D-Struktur aus, die grob vereinfacht an ein dreiseitiges Prisma erinnert. Wesentliche Strukturelemente sind 12 alpha-Helizes, die einen Helix-reichen Bereich bilden und ein beta-Faltblatt Bereich (Abbildung 2). Das Reaktionszentrum ist eine „Tasche“, die zwischen dem Helix-reichen- und dem Faltblatt-Bereich ausgebildet wird und - mit der Hämgruppe an ihrem Boden - zumeist im Inneren dieser Proteine sitzt. Größe, Gestalt und Auskleidung mit polaren/unpolaren Aminosäuregruppen dieser Taschen variieren bei unterschiedlichen CYPs – sind optimiert um die entsprechenden Substrate darin zu binden und ihre Umwandlung zu katalysieren. Abbildung 2. Kristallstrukturen von Cytochrom P450. A) Bakterielles CYP101 (Pseudomonas putida; wächst auf Campher, den es oxydiert; Code: 6CPP), B) Pflanzliches CYP74A (Arabidopsis thaliana; oxydiert Allenoxyde; Code: 2RCL), C) Humanes CYP19A1 (Aromatase aus der Placenta, wandelt Androgene in Östrogene um; Code 3EQM). Die alpha-helikalen Elemente sind durch grüne Röhren markiert, der beta-Faltblattbereich ist gelb. Die roten Pfeile weisen auf die Hämgruppe(Eisen:rote Kugel) im Reaktionszentrum hin. (Quelle: http://www.ncbi.nlm.nih.gov/Structure/index.shtml)
Zur Funktion von CYPs
Ohne auf Details einzugehen, lässt sich der komplexe Reaktionsmechanismus als Übertragung von Sauerstoff auf Substrate, also als Oxydation darstellen: Sauerstoff, der im Reaktionszentrum an das Eisen der Hämgruppe bindet, wird in mehreren Schritten aktiviert und sodann auf das, in optimaler Distanz im Reaktionszentrum fixierte, Substrat übertragen. Dies führt zur Einfügung von Hydroxylgruppen in das Substrat, zur weiteren Oxýdation vorhandener Hydroxylgruppen, zur Spaltung von Kohlenstoff-Kohlenstoff-, Kohlenstoff-Stickstoff-, Kohlenstoff-Sauerstoff-, Kohlenstoff-Halogen-Bindungen und vielen anderen Reaktionen.
Mit der Änderung in der chemischen Zusammensetzung der Substrate ändern sich auch deren Eigenschaften massiv: durch das Einfügen von Hydroxylgruppen und Abspalten von Alkylgruppen i) werden die Moleküle wasserlöslicher (polarer) und damit rascher aus den Zellen und aus den ganzen Organismen ausgeschieden, ii) erfahren die Moleküle eine Modifizierung ihrer Wechselwirkung mit Biomolekülen (Rezeptoren) und damit ihrer biologischen Aktivität: sie „passen“ nicht mehr in „ihren“ Rezeptor und/oder sie sind nun für einen neuen Rezeptor adaptiert.
Schutz vor Fremdstoffen
Von enormer Bedeutung ist die Rolle von CYPs im Abbau von Fremdstoffen, die aus Umwelt und Nahrung in den Organismus gelangen. Eine Voraussetzung für deren Aufnahme in den Organismus ist eine gewisse Fettlöslichkeit (Lipophilie), die sie befähigt durch die Lipidschicht der Zellmembranen durchzutreten. Ohne einen effizienten Abbaumechanismus würden derartige Fremdstoffe nun in den Zellen akkumulieren und diese zunehmend schädigen.
Säugetiere besitzen ein Set an CYPs, das es ihnen ermöglicht praktisch jedes organische Molekül – auch solche, die in Zukunft noch synthetisiert werden – zu wasserlöslicheren und damit ausscheidbaren Produkten abzubauen. Dazu wird nicht durch eine Vielzahl an hochspezifischen CYPs benötigt, sondern relativ wenige CYPs, die breite, teilweise überlappende Spezifitäten aufweisen, d.h. jedes dieser CYPs kann in seinem Reaktionszentrum eine Palette unterschiedlicher Substrate akkommodieren und oxydieren.
Von den 57 CYPs im Körper des Menschen sind etwa 12 hauptsächlich mit dem Abbau von Fremdstoffen beschäftigt. Diese befinden sich in den meisten Körperzellen, vor allem in den Zellen des Darmes und in der Leber, die über die Nahrungsaufnahme hohen Konzentrationen an Fremdstoffen ausgesetzt sind. Um eine gesteigerte Zufuhr von Fremdstoffen zu bewältigen, können einige CYPs vermehrt gebildet – induziert – werden. Dies gilt auch für die meisten Arzneimittel, die als Fremdstoffe über CYPs metabolisiert werden; in den meisten Fällen führt dies zu Reduzierung und Verlust der Wirkung und zur raschen Eliminierung der entstandenen Metabolite aus dem Körper. In manchen Fällen können auch Metabolite entstehen, die toxisch sind.
Synthese und Abbau körpereigener Verbindungen
Die Mehrzahl der CYPs in Säugetieren ist in die Synthese und den Metabolismus endogener Verbindungen involviert. Zum Unterschied von den Fremdstoff-metabolierenden CYPs handelt es sich hier größtenteils um hochspezifische Enzyme; d.h. jedes dieser CYPs bindet und oxydiert nur ein einziges (oder ganz wenige, sehr ähnliche) Substrat(e). Eine Zusammenstellung wesentlicher endogener Substrate und Metabolite findet sich in Abbildung 3.
Abbildung 3. Klassen endogener Substrate der CYPs. Die in Synthese und/oder Metabolismus involvierten CYPs sind entsprechend der offiziellen Nomenklatur angegeben.
Zu den wichtigsten Substraten und Produkten gehören hier Steroidhormone und die hormonell aktive Form des Vitamin D3 (ein Secosteroid), die zentrale Rollen in der Kontrolle und Steuerung unseres Stoffwechsels, der Immunfunktionen, des Wasser- und Salzhaushalts, der Entwicklung von Geschlechtsmerkmalen und der Fortpflanzung haben. Gestagene, Androgene, Östrogene, Glucocorticoide und Mineralcorticoide entstehen aus Cholesterin, welches in einer Kaskade von Reaktionen durch spezifische CYPs an unterschiedlichen Stellen oxydiert wird. Auch die Aktivierung von Vitamin D3 zum aktiven Hormon und sein anschließender Metabolismus vollzieht sich ausschließlich über spezifische CYPs.
Cholesterin wird durch CYPs auch zu Gallensäuren oxydiert, die für Fettverdauung und Galleeliminierung unerläßlich sind, und zu sogenannten Oxysterolen, die u.a. Aufnahme und Stoffwechsel von Cholesterin regulieren.
Wichtige Funktionen haben CYPs im Metabolismus von Fettsäuren, insbesondere der Arachidonsäure (einer vierfach ungesättigten C20-Fettsäure - „Eicosatetraensäure“ ), die Ausgangssubstanz für eine Fülle an Produkten, den Eicosanoiden ist (u.a. von Prostaglandinen, Leukotrienen, Thromboxan, Prostacylin, EETs (Epoxy-Eicosatetraensäuren), HETEs (Hydroxyeicosatetraensäuren),..). Eicosanoide steuern als kurzlebige lokale Hormone praktisch alle Lebensvorgänge (u.a. Vasoconstriction, Broncho-Constriction,- dilatation, Muskelkontraktion, Oedembildung, Inflammation, Schmerz, Mitogenese u.v.a.). Die Bildung von Thromboxan und Prostacylin erfolgt über spezifische CYPs (CYP5A1, CYP8A1), mehr als 100 weitere Eicosonaide werden durch CYPs gebildet und/oder abgebaut.
Schlussendlich sollte auch die aktive hormonelle Form des Vitamin A – all-trans-Retinsäure – erwähnt werden, die eine Schlüsselrolle in Embryogenese/Morphogenese spielt und in viele anderen Regulationsvorgänge kontrolliert.
Fazit
Das Positive: CYPs haben die Welt, in der wir leben, entscheidend mitgestaltet und sind aus unserer Biosphäre nicht wegzudenken. Dementsprechend sind CYPs wichtige Themen von Grundlagen- und angewandter Forschung in allen Disziplinen der Lebenswissenschaften - von Mikrobiologie über Botanik, Umweltwissenschaften und Ökologie, Physiologie, Pharmakologie, Toxikologie bis hin zur Medizin. Beispielsweise ist eine Entwicklung neuer Arzneimittel nicht möglich ohne ausführliche Studien wie schnell, durch welche CYPs und zu welchen Produkten ein möglicher Kandidat abgebaut wird. Moderne Landwirtschaft ist nicht denkbar ohne auf CYP-basierenden Pflanzenschutz gegen Pilzerkrankungen, ohne Strategien gegen die durch CYP-hervorgerufene Resistenzentwicklung von Insektiziden. In jüngster Zeit verwendet die Biotechnologie in zunehmendem Maße CYP-Enzyme um ansonsten überaus komplizierte Synthesen auszuführen (wie z.B. in jüngster Zeit die Synthese des Antimalariamittels Artemisinin) und der neue Zweig „Synthetische Biologie“ um gewünschte, neue Synthesen nachzubauen.
Das Negative: In die öffentliche Wahrnehmung - vor allem in unserem Land und in die Lehrpläne unserer Schulen und Hochschulen - haben derartige Inhalte noch kaum Eingang gefunden.
Outlook: Zu den verschiedenen Gesichtspunkten dieses Blog-Eintrags werden weitere Artikel erscheinen.
Weiterführende Links
Leider gibt es zu diesem Themenkreis noch kein leicht verständliches Lehrbuch. Weiterführende Literatur und Antworten zu allen Fragen können von der Autorin erhalten werden (die ihren Einstieg in dieses ungemein spannende Gebiet vor 44 Jahren nie bereut hat).
Cytochrome P450: versatile Enzymsysteme mit Anwendungen in der Biotechnologie und Medizin. R. Bernhardt http://www.uni-saarland.de/fileadmin/user_upload/Campus/Forschung/forsch...
Cytochrome P450. Enzymfamilie mit zentraler Bedeutung. http://www.pharmazeutische-zeitung.de/?id=40909
Strukturdatenbanken:
NIH: Kristallstrukturen aller bis jetzt analysierten CYPs: http://www.ncbi.nlm.nih.gov/pubmed/?term=cytochrome+p450
Protein Data Bank: http://www.pdb.org/pdb/home/home.do
GENOME: CYTOCHROME P450 ENZYMES. Video 3.07 min. (Englisch) http://www.youtube.com/watch?v=Z2uadurrclM
Phase I Metabolism - Pharmacology Lect 7 (Drug Metabolism) Video 6:56 min (Englisch). http://www.youtube.com/watch?v=GGLddVpVg9M
Beiträge im Blog zu verwandten Themen:
Die Sage vom bösen Cholesterin
Zu Wirkung und Nebenwirkungen von Medikamenten
Vitamin D – Allheilmittel oder Hype?
Kleben statt Nähen — Gewebekleber auf der Basis natürlichen Fibrins
Kleben statt Nähen — Gewebekleber auf der Basis natürlichen FibrinsFr, 10.01.2014 - 05:20 — Heinz Redl
Die Entwicklung klinisch einsetzbarer Gewebekleber auf Fibrin-Basis ist von Österreich ausgegangen und das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie spielt(e) hier eine zentrale Rolle. Erstmals vor genau 40 Jahren an der Wiener Universitätsklinik für Chirurgie erfolgreich angewandt, finden Fibrinkleber heute teilweise in sprühbarer, leicht zu handhabender Form eine Vielzahl von Einsatzmöglichkeiten: wo früher Gewebeteile genäht wurden, wird heute weltweit geklebt.
Die Blutgerinnung ist ein lebensnotwendiger Mechanismus um bei Verletzungen auftretende Blutungen zu stoppen und Wunden zu verschließen. Schon im Altertum beobachteten Wissenschafter wie Philosophen fasziniert, wie der Körper mit der Bildung eines Blutklumpen (Blutgerinnsels, Thrombus) reagiert, welcher die verletzte Stelle verschließt und heilt. Der griechisch-römische Arzt Aelius Galenus hatte diesen Vorgang untersucht und faserartige Strukturen im zirkulierenden Blut ebenso wie in den Blutklumpen festgestellt.
Blutgerinnung - was geschieht?
Im gesamten Tierreich erfolgt die Blutgerinnung nach demselben Prinzip: lösliche Proteine im Blutplasma werden in unlösliches, vernetztes faserförmiges Material umgewandelt, das sich dann wie ein Gaze-Schleier über die Wunde legt und diese „verklebt“ – abdichtet.
Am Beginn des 20. Jahrhunderts wurden die diesem klebrigen Material zugrundeliegenden Strukturen als Fibrinfasern identifiziert. Es sind die Endprodukte einer komplexen Reaktionskaskade, in deren letztem Schritt das lösliche Plasmaprotein Fibrinogen durch das Enzym Thrombin (eine Protease) gespalten wird und sich dann spontan zu geordneten faserförmigen Strukturen, dem Fibrin, zusammensetzt und gitterartige Netze bildet (Abbildung 1). Dieses Aggregat wird unter Einwirkung des Enzyms Faktor XIIIa (einer sogenannten Transglutaminase) durch Quervernetzungen weiter stabilisiert. Rote Blutkörperchen, die sich in dem Netz verfangen, führen zur Entstehung eines roten Thrombus.
Abbildung 1. Entstehung von Fibrin. Aus dem löslichen Plasmaprotein Fibrinogen werden durch Einwirkung von Thrombin Fibrinmonomere gebildet, die spontan zu einem lockeren Netz aus Fibrinfasern polymerisieren. Quervernetzung durch Faktor XIIIa führt zu einem stabilisierten gitterartigen Netzwerk, in welchem sich Blutzellen – hier rote Blutkörperchen – fangen (rechts). (Quelle: links modifiziert nach Wikipedia, rechts: Scanning electron microscopy; http://www.cellimagelibrary.org/ licensed under a Creative Commons Attribution.)
Nachahmen des natürlichen Prozesses
An die Möglichkeit den Prozeß der Fibrinbildung nachzubauen, um sein Prinzip für das Design eines Gewebeklebers zur Blutstillung und Wundheilung zu nutzen, wurde schon länger gedacht: so wurde bereits 1909 erstmals versucht mit einem Fibrinpuder lokale Blutungen zu stillen; im zweiten Weltkrieg wurde die Kombination Fibrinogen & Thrombin bei Soldaten mit Brandwunden zur Fixierung von Hauttransplantaten – allerdings mit geringem Klebeeffekt und damit wenig Erfolg - angewendet.
Erst in den 1970er Jahren ermöglichten es Fortschritte in der Fraktionierung und Reinigung von Proteinen die natürlichen Gerinnungsfaktoren in reinerer Form und so konzentriert herzustellen, wie es für eine effiziente Gewebeklebung notwendig ist und führten damit zum Durchbruch der Fibrinkleber. Das wirkliche Fibrinkleberzeitalter begann 1972 mit dem Einsatz von hoch angereichertem Fibrinogen, Thrombin und Fibrinolyseinhibitoren in der Nervenkoaptation durch Frau Prof. Matras im Kaninchen [1][2]. In schöner heute "translationalen' Überführung wurde es dann ab 1974 von Matras und Kuderna im AUVA Unfallkrankenhaus Lorenz Böhler auch in Patienten im Rahmen der peripheren Nervenklebung nach Trauma verwendet.
An der Entwicklung dieser Technologien und speziell auch der Geräte für die klinische Anwendung hat das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumaforschung (LBI Trauma) entscheidend mitgewirkt.
Die ersten kommerziell erhältlichen Gewebekleber gelangten Ende der 1970er Jahre auf den Markt und sind seit den 1980er Jahren in Westeuropa und Japan im Einsatz. Die Zulassung in den USA erfolgte 1998. Gewebekleber haben sich seither in einer Vielzahl von Einsatzmöglichkeiten bewährt; vor allem in den Bereichen, in denen es mit herkömmlicher chirurgischer Technik immer wieder zu großen Problemen kam, z.B. bei starken Blutungen, bei Nervenklebungen oder bei Rissen innerer Organe wie Leber und Milz.
Zweikomponentenkleber
In den Fibrinklebern laufen dieselben Prozesse ab wie bei der "natürlichen" Blutgerinnung, allerdings sind die daran beteiligten Komponenten und Faktoren um ein Vielfaches konzentrierter als im Blut. Die Blutgerinnung läuft dadurch sehr viel schneller ab und die erzielte Gewebeklebung oder das gebildete Blutgerinnsel sind sehr viel sicherer und auch stabiler. Es entsteht eine relativ reißfeste aber flexible Klebung.
Die Anwendung kann durch sukzessives Auftragen der einzelnen Komponenten erfolgen, durch Verwendung der vorgemischten Komponenten oder durch deren Sprühen aus einem Applikator mit Doppelspritze, Sammelkopf und Mischnadel. Das letztere Applikatorsystem wurde im LBI Trauma entwickelt, bietet rasche und ausreichende Durchmischung im gewünschten Konzentrationsverhältnis, einfache Einhandbedienung und die Möglichkeit einer Auftragung in dünnen Schichten (Abbildung 2).
Abbildung 2. Zweikomponentenkleber: Vorrichtung zum Vermischen und Applizieren der Komponenten für Gewebekleber.
Alle Fibrinkleber weisen als Hauptkomponenten angereichertes Fibrinogen (mindestens die 20 fache Konzentration wie im Blut) in der einen Spritze und das gereinigte Enzym Thrombin plus die als Cofaktoren für die Reaktion benötigten Calcium Ionen in der anderen Spritze auf. Zur Stabilisierung des vorerst lockeren Fibrinnetzes dient das Enzym Faktor XIIIa (s.o.).
Da zumeist unmittelbar nach Entstehen eines Gerinnsels körpereigene Prozesse zu dessen Auflösung einsetzen (Fibrinolyse), besteht die Gefahr, daß eine entstandene Gewebeklebung nicht fest genug haften bleibt, es somit zu einem erneuten Blutungsprozeß/Ablösungsprozeß kommen kann. Um dies zu verhindern, wird in der Regel ein Inhibitor der Fibrinolyse zugefügt, mit dessen Konzentration sich die Auflösezeiten des entstandenen Gerinnsels bzw. der Klebung gezielt steuern lassen: je mehr Inhibitor vorgesehen wird, desto stabiler ist das Gerinnsel gegenüber Fibrinolyse, desto länger dauert es auch, bis der Kleber vollständig resorbiert wird.
Anwendungen – Kleben statt Nähen
Fibrinkleber finden heute eine Vielzahl medizinischer Einsatzmöglichkeiten. Ihr Vorteil besteht darin, daß sie (als klinisch eingesetzte biologische Klebstoffe) gut verträglich sind, vom Körper abgebaut werden und überdies heilende Wirkung entfalten. Ein sehr wichtiger Vorteil gegenüber dem Nähen mit Nadel und Faden besteht weiters darin, daß zu behandelnde defekte Gewebe oder Organe nicht durch einen Nähvorgang noch zusätzlich geschädigt werden. Deshalb gibt es bei der Anwendung von Fibrinklebern viel weniger Komplikationen und unauffälligere Narben als bei herkömmlichen chirurgischen Nähten.
Etablierte Anwendungen
Mit Fibrinklebern lassen sich Blutungen rasch und effizient stoppen und damit der Blutverlust bei chirurgischen Eingriffen reduzieren. Dabei können auch kleine und/oder schwer zugängliche Gefäße „abgedichtet“, Wundränder weicher innerer Organe wie z.B. Leber, Lunge, Milz „verschlossen“, fragile Nervenfasern verbunden werden. Bei endoskopischen Eingriffen findet eine zielgenaue Klebung statt - beispielsweise bei der Behandlung von Verletzungen und blutenden Geschwüren im Magen-Darm-Trakt.
In zunehmendem Maße werden Fibrinkleber bei Bruchoperationen, vor allem beim Leistenbruch, zur Fixierung des zur Bauchwandverstärkung eingesetzten Netzes verwendet. Ein rezenter Übersichtsartikel über nahezu 6000 Bruchoperationen zeigt eine Reduzierung der postoperativen Komplikationen und vor allem der chronischen Schmerzen (unter denen bis zu 20 % der Patienten leiden), wenn das Netz mit Fibrinkleber anstatt durch Nähte oder Metallclips fixiert wurde.
Sehr umfangreiche Erfahrungen bestehen für die Fibrinanwendung auf der Haut. Hier soll vor allem der Einsatz des Fibrinklebers bei Verbrennungen der Haut hervorgehoben werden, der ein schnelleres und verbessertes Anwachsen von Transplantaten bewirkt und damit vor dem Eindringen von Infektionserregern schützt (Abbildung 3).
Abbildung 3. Entfernen der verbrannten Hautschicht bis zum darunterliegenden Muskel (links), Aufbringung und Fixierung eines autologen Maschentransplantats (ein Hautlappen des Patienten wird mit einem rautenförmigen Schnittmuster versehen und kann so bis auf eine mehrfache Fläche ausgedehnt werden) mittels Fibrinkleber.
In allen diesen Anwendungen wurden Fibrinkleber auf optimale Klebewirkung hin entwickelt, welche eine hohe Belastbarkeit und eine hohe innere Festigkeit der Klebungen sowie gute Haftfähigkeit des Klebers an den Wund- bzw. Gewebsflächen beinhaltet. Ebenso wurden auch die der unmittelbaren Klebung folgenden Prozesse - die Steuerung und Kontrolle der Haltbarkeit der Klebungen im Körper sowie die Resorbierbarkeit und die wundheilungs-fördernden Eigenschaften des Klebstoffes – in der Optimierung berücksichtigt.
Neue Applikationen
Das Gebiet der Fibrin-basierten Gewebekleber ist zunehmend populär geworden. In der größten Literatur-Datenbank finden sich unter dem keyword „fibrin glue“ mehr als 3100 Einträge, davon 701 seit Anfang 2010. Rund 7 % dieser Einträge befassen sich mit neuen Anwendung der Fibrinkleber in der Geweberekonstruktion und als Trägermaterial für die gezielte Abgabe von Wirkstoffen.
Im ersteren Fall überwiegen Arbeiten zur Konstruktion mit (Stamm)zellen, Knorpel – und Sehnen-Substanz mit Fibrin als Trägermaterial. Im zweiten Fall können Fibrinkleber so maßgeschneidert werden, daß darin eingebrachte und teilweise daran gekoppelte Wirkstoffe - von Antibiotika zu Hormonen und Wachstumsfaktoren – gezielt und über einen längeren Zeitraum andauernd freigesetzt werden und beispielsweise zum Gewebeaufbau oder der Wundheilung beitragen.
Ein grober Überblick über die Anwendungsmöglichkeiten von Fibrinklebern ist in Abbildung 4 gegeben.
Abbildung 4. Wofür man Fibrinkleber verwenden kann.
Fazit
In der Unfalls- und Regenerationsmedizin geht es vor allem darum den Blutverlust so gering wie möglich zu halten, die Wundheilung zu fördern, Narbenbildung zu verringern , die Regenerationsdauer zu verkürzen und mögliche Folgekomplikationen rechtzeitig zu vermeiden. Der heute weltweit angewandte, Fibrin-basierte Zweikomponentenkleber wurde in den 1970er Jahren in Wien erfunden und stellt nach wie vor einen unübertroffenen Gewebekleber in der Medizin dar. Der Kleber ist gut verträglich, vom Körper abbaubar und trägt zur Geweberegeneration (Wundheilung) bei.
Einige Meilensteine in der „Geschichte“ des Fibrinklebers:
S. Bergel; Über die Wirkung des Fibrins. Dtsch Med Wochenschr 1909; 35:663-665. Spängler HP, Holle J, Moritz E, et al; Experimentelle Untersuchungen und erste klinische Erfahrungen über die totale Blutstillung mittels hochkonzentriertem Fibrin. Österr Ges Chir 1975:605-610.
J.Eibl, H.Redl, G.Schlag, Gewebekleber auf basis von fibrinogen EP 1007109 B1.
R H. Fortelny, A.H. Petter-Puchner, K.S. Glaser, H. Redl; Use of fibrin sealant (Tisseel/Tissucol) in hernia repair: a systematic review. Surg Endosc (2012) 26:1803–1812
[1] H Matras et al., “[Suture-free interfascicular nerve transplantation in animal experiments],” Wiener medizinische Wochenschrift 122, no. 37 (September 9, 1972): 517–523
[2] H Matras et al., “Non-sutured Nerve Transplantation (a Report on Animal Experiments),” Journal of Maxillofacial Surgery 1, no. 1 (March 1973): 37–40.
Weiterführende Links
M.K. Terris (2009) Use Of Tissue Sealants And Hemostatic Agents (Slide show, English)
B. Iyer (2013) Tissue sealant essentials (Slide show, English) DB111 Tisseel Gewebekleber Video 2:47 min Die Blutgerinnung Video 1:34 min.
Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst
Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und KunstFr, 17.01.2014 - 08:44 — Gottfried Schatz
Mit der Feststellung, daß unser Verständnis der materiellen Beschaffenheit der Welt vor allem auf unseren Kenntnissen der Kristallographie gründet , hat die Generalversammlung der Vereinten Nationen das Jahr 2014 zum Internationalen Jahr der Kristallographie erklärt. Die Kristallstruktur eines Moleküls ermöglicht über dessen 3D-Bild hinaus auch Einblicke in seine Funktion. Dieses komplexe System einfach und deutlich zu veranschaulichen erinnert an die Kunst eines Porträtisten, dessen Bild auch über den Charakter des Dargestellten Auskunft gibt. Das Porträt des Proteins Aquaporin-1 macht erkennbar, wie es den essentiellen Durchtritt von Wasser durch die Membranen der Lebewesen ermöglicht.
Die Neue Nationalgalerie von Berlin hütet in ihrem Untergeschoss einen besonderen Schatz - Oskar Kokoschkas Porträt seines Freundes und Förderers Adolf Loos (Abbidung 1, beigefügt von Redaktion). Dieses expressionistische Meisterwerk lässt tief in die Seele des grossen Architekten blicken. Zwar lassen weder der angedeutete Rumpf noch der träumende Blick den kämpferischen Neuerer erkennen, doch die übergross gemalten, fiebrig ineinander verschlungenen Hände verleihen diesem Bild eine hypnotische Kraft. Sie sprechen von Zweifeln und inneren Stürmen und sind dennoch die entschlossenen Hände eines Homo Faber, der Grosses baut.
Abbildung 1. Porträt des Adolf Loos, gemalt von Oskar Kokoschka, 1909 (Schloss Charlottenburg, Berlin)
Für Pablo Picasso war Kunst die Lüge, die uns die Wahrheit zeigt. Nichts bestätigt dies klarer als Kokoschkas tiefenpsychologisches Porträt. Es verfremdet die äussere Form des Modells, um dessen inneres Wesen offenzulegen. Wer könnte angesichts dieses Bildes noch der kategorischen Behauptung glauben, Kunst suche Schönheit, Wissenschaft dagegen Wahrheit? Dennoch würden die meisten von uns zögern, Kokoschkas Bild als wissenschaftliches Werk zu bezeichnen. Ein Grund ist, dass wir Kunst und Naturwissenschaft als getrennte, wenn nicht sogar gegensätzliche Welten sehen. Kunst gilt als intuitiv, Naturwissenschaft als objektiv. Kunst sucht im Allgemeinen das Individuelle, Naturwissenschaft im Individuellen das Allgemeine. Wir erwarten von Naturwissenschaft Wahrheit, die uns die Lüge zeigt.
Informationsfülle
An dieser Sichtweise sind auch wir Wissenschafter nicht ganz unschuldig. Wenn wir eine künstlerische Ader haben, verstecken wir sie hinter einem hölzernen Schreib- und Redestil und trockenen Tabellen oder Grafiken. Und wenn wir schon Bilder verwenden, wollen wir in diesen nichts weglassen oder übermässig hervorheben, um nicht als unehrlich zu gelten. Dieser Ehrenkodex wird jedoch bei der Beschreibung komplexer Systeme immer mehr zur Fessel. Der Stoffwechsel lebender Zellen, das Erdklima oder ganze Galaxien liefern uns Forschern so viel Information, dass wir sie nicht mehr in der üblichen Weise wiedergeben können.
Der Wasserkanal Aquaporin
Dies gilt selbst für einzelne Moleküle - wie das Protein Aquaporin, das mein Freund Andreas Engel seit vielen Jahren untersucht. Aquaporin ist ein Riesenmolekül aus über neuntausend Atomen, das der umhüllenden Membran unserer Zellen die Aufnahme und Abgabe von Wasser erleichtert. Das Protein ist ein Verbund aus vier gleichen Proteinketten. Jede von ihnen faltet sich in der Zelle spontan zu einem charakteristischen Knäuel und vereinigt sich dann mit drei gleichartigen Knäueln zum funktionstüchtigen Aquaporin (Abbildung 2, beigefügt von Redaktion). Abbildung 2. Der Wasserkanal Aquaporin-1 (AQP1) besteht aus 4 gleichen Proteinketten, die, in die Zellmembran eingebettet, jeweils einen funktionellen Wasserkanal enthalten. Kristallstruktur der vier „Knäuel“ (Monomere) des Aquaporin: A) Kugel-Stäbchen-Modell (alle Atome ausser H sind dargestellt; C: schwarz, N: blau, O: rot, S: gelb). B, C), vereinfachte Darstellung: jede Proteinkette bildet 6 Helices aus, welche die Membran durchspannen und durch Loops verbunden sind (B: Seitenansicht, C: Aufsicht). Zwei der Loops bilden eine enge Pore in Sanduhrform, durch die nur das kleine Wassermolekül frei durchtreten kann (C, D). Bilder: A – C Protein Data Bank 1H6I-Cn3D 4.3.1, D: Wikipedia.
Analyse der Kristallstruktur von Aquaporin
Doch wie wirkt dieses vierteilige Protein als Wasserkanal? Andreas und einige seiner Kollegen wollten dies wissen und bestimmten zu diesem Zweck seine räumliche Struktur.
Nach Jahren mühevoller Arbeit hatten sie die Anordnung jedes Atoms und die verschlungenen Wege der vier Proteinketten in den vier Knäueln auf mindestens einen Milliardstel Meter genau bestimmt. Hätten sie mir jedoch all dies auf einem Computerbildschirm gezeigt (Abbildung 2A), hätte ich nur auf ein unverständliches Gewirr von Punkten und Linien gestarrt und wäre so klug gewesen wie zuvor. Die detailgetreue Darstellung eines komplexen Objekts - sei dies nun ein Protein oder ein Mensch - verschleiert dessen inneres Wesen.
Künstlerisches Flair
Andreas und seine Kollegen versuchten sich daher als Porträtisten, um aus den zahllosen Strukturdetails den Charakter ihres Proteins herauszuschälen. Sie liessen ihre Computer unwichtige Abschnitte der Proteinketten blass zeichnen, wichtige mit raffinierten Schattentechniken hervorheben oder den Rhythmus bestimmter Aminosäuren in den verschlungenen Ketten mit leuchtenden Farben sichtbar machen. Manchmal ließen sie einzelne Kettenteile ganz verschwinden, so dass die für den Wassertransport besonders wichtigen Teile der vier Proteinknäuel frei im Raum zu schweben schienen. Sie scheuten sich auch nicht, einzelne Bereiche in diesen Knäueln willkürlich zu vergrössern, um ihre genaue Form und chemische Eigenschaft zu betonen. Und gelegentlich gewährten sie ihrem künstlerischen Flair freien Lauf und gaben Detailporträts einen farbigen oder strukturierten Hintergrund, um eine wissenschaftliche Aussage so ästhetisch wie möglich zu gestalten.
So schufen sie Bilder von beeindruckender Schönheit, die häufig die Titelseiten wissenschaftlicher Zeitschriften schmückten. Doch wie allen guten Porträtisten ging es ihnen dabei nicht um Schönheit, sondern um das Innenleben ihres Modells. Die von ihnen geschaffenen Porträts zeichnen ein stämmiges Protein, das nicht frei im wässrigen Innenraum der Zelle herumschwirrt, sondern fest in einer Membran verankert ist und frappant einer Sanduhr ähnelt. Die Bilder erklären auch, weshalb die Verengung in dieser Sanduhr nur Wasser und keine anderen Moleküle durchlässt und eine genetische Veränderung dieser Verengung den Wassertransport in meinen Nieren gefährden könnte. Und schliesslich lassen sie erkennen, dass Aquaporin wenig flexibel ist, keine biologischen Signale aussendet und als passiver Kanal und nicht als energieumwandelnde Maschine arbeitet.
Stütze der Gesellschaft
Diese biochemischen Charakterstudien zeigen Aquaporin als solide Stütze der Gesellschaft. Ich würde sogar die Voraussage wagen, dass ihm in der Zelle ein langes Leben beschert ist. Proteinporträts können also ähnliche hellseherische Fähigkeiten entwickeln wie Kokoschkas Porträt des Schweizer Psychiaters Auguste Forel, das dessen Schlaganfall mit unheimlicher Genauigkeit vorausahnte. Um all dies in einem Proteinporträt zu erkennen, braucht es die Augen eines Molekularbiologen, denn wir sehen nur, was wir wissen. Wem Proteine fremd sind, der muss sich also mit der Schönheit dieser Bilder begnügen. Dies gilt jedoch auch für die Gemälde von Hieronymus Bosch oder Max Beckmann, die sich nur dem voll erschliessen, der ihre tiefgründige Symbolik versteht.
Sind Proteinporträts Kunst? Viele werden die Frage leidenschaftlich verneinen - doch mit welchen Argumenten? Sind diese Porträts weniger «künstlerisch» als detailgetreue Landschaftsbilder und Stillleben - oder als die geometrische Op-Art-Abstraktion eines Victor de Vasarely? Die Fragen sind müssig, denn Kunst lässt sich nicht in die Schablone akademischer Definitionen zwängen. Die Porträts von Aquaporin befriedigen mein Sehnen nach Schönem - und damit mein Herz.
Sie befriedigen aber auch meinen Hunger nach Neuem - und damit meinen Verstand. Sie zeigen mir ein faszinierendes Molekül und ein neues Kapitel in der Naturwissenschaft. Molekularbiologen wollen das Leben aufgrund seiner Bausteine verstehen. Je komplexer diese Bausteine sind, desto mehr gewinnen sie an Charakter. Und um diesen Charakter zu zeigen, sucht Wissenschaft immer öfter die Hilfe ihrer Schwester - der Kunst. Auch Wissenschaft muss nun lügen, um die Wahrheit zu zeigen. Die beiden Schwestern bleiben zwar getrennt, reichen aber einander wieder die Hände.
T Walz, B L Smith, M L Zeidel, A Engel, P Agre (1994) Biologically active two-dimensional crystals of aquaporin CHIP; J Biol Chem 269, 1583-1586.
Weiterführende Links
Die Kristallstruktur von Aquaporinen (und von sehr vielen anderen Proteinen) ist von der PDB Protein Data Bank frei abrufbar: Aquaporin-1
Der Nobelpreis für Chemie 2003 für „Entdeckungen von Kanälen in Zellmembranen“ wurde je zur Hälfte an Peter Agre für die Entdeckung des Wasserkanals Aquaporin und an Roderick MacKinnon für „strukturelle und mechanistische Studien an Ionen-Kanälen“ verliehen. (Leicht verständliche Darstellung, englisch).
Nobel-Vortrag von Peter Agre (2003): Video 45 min (Englisch)
Hier als PDF-Download Nobel Vortrag von Roderick MacKinnon (2003): Video 43 minutes (Englisch) Ebenfalls im PDF-Format
Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften
Computerwissenschafter — Marketender im Tross der modernen NaturwissenschaftenFr, 03.01.2014 - 06:36 — Peter Schuster
Die Datenflut, die heute in den Naturwissenschaften erhoben wird, ist so gewaltig, daß sie mit dem menschlichen Auge nicht mehr erfasst, mit dem menschlichen Gehirn nicht mehr analysiert werden kann. Die Bioinformatik erstellt hier effiziente Computerprogramme, welche vor allem für den Fortschritt in den molekularen Lebenswissenschaften unabdingbar sind, jedoch kaum entsprechend gewürdigt werden.
(Bio)informatik ist aus den modernen Naturwissensschaften nicht mehr wegzudenken: Der Experimentator erhält Unmengen an Daten, die jedem Versuch einer direkten Betrachtung trotzen und nur mit Hilfe extensiver Computerprogramme bearbeitet werden können. Aber auch mathematische Beweise können häufig so komplex sein, daß sie zumindest teilweise durch den Computer ausgeführt werden. Diese Abhängigkeit führt zwangsläufig zur Frage:
Inwieweit können wir unseren Computern trauen?
Ist die umfangreiche Software, die auf unseren riesigen Maschinen läuft, fehlerfrei - frei von „Bugs“?
Vertreter unterschiedlicher Disziplinen der Naturwissenschaften und der, auch für diese essentiellen, Mathematik reagieren auf diese Fragen in unterschiedlicher Weise:
Mathematiker, die Puristen sind, akzeptieren nur sehr zögerlich Beweise, die mittels Computer erhoben wurden. Theoretische Physiker stehen dagegen derartigen Beweisen sehr offen gegenüber und vertrauen im Allgemeinen ihren gigantischen Maschinen. Den Chemikern sind Computermethoden in ihrem Fach geläufig, ihr Widerstand gegen theoretische Modelle schwindet in zunehmendem Maße. Biologen, schlussendlich, können in den modernen molekularen Fachrichtungen nichts ausrichten, ohne auf eine sehr eindrucksvolle Palette an Hilfsmitteln aus der Bioinformatik zuzugreifen.
Sisyphos und die Beweisbarkeit mathematischer Lehrsätze
Computerbeweise für bereits existierende Theoreme datieren in die 1950er Jahre zurück und gelten allgemein als brauchbare Verfahren in der reinen und angewandten Mathematik. Computerbeweise für noch offene Vermutungen spalten allerdings den Kreis der Mathematiker: die Verfechter dieses Verfahrens argumentieren damit, daß konventionelle Beweise für viele Theoreme derart komplex werden, daß sie mit dem menschlichen Gehirn - auf sich allein gestellt - nicht gefunden werden. Automatisierte Verfahren seien dagegen billig und hätten bei vielen, mit konventionellen Methoden bewiesenen Theoremen bereits Erfolg gezeigt.
Die Gegner argumentieren nicht weniger überzeugend: Um für den menschlichen Verstand begreifbar zu sein, muß die Beweisführung in eine Reihe von logischen Schlussfolgerungen unterteilt werden. Wird deren Zahl so hoch, daß der Beweis nicht in einigermaßen absehbarer Zeit verständlich gemacht werden kann, ist der Beweis zu verwerfen. Dies ist der Fall für viele der noch zu lösenden Aufgaben. Als Beispiel wird hier die „Keplersche Vermutung“ zur räumlich dichtesten Anordnung von gleich großen Kugeln angeführt (Abbildung 1).
Zu der für jeden Obsthändler trivialen Anordnung in einem regelmäßigen Gitter (kubisch-flächenzentrierte Packung und hexagonale Packung) hatte Johannes Kepler keinen mathematischen Beweis geliefert. Um einen derartigen Beweis zu führen und die enorme Zahl unterschiedlicher unregelmäßiger Anordnungen ausschließen zu können, bedarf es enormer Rechnerleistungen. Ein Beweis, den Thomas Hales und Sam Ferguson auf der Basis von drei Gigabyte an gespeicherten Computerprogrammen und Daten erhoben, wurde nach 5-jahrelanger Prüfung von den Begutachtern im Jahre 2003 als „zu 99 % korrekt“ eingestuft [1] .
Dies ist für einen mathematischen Beweis eindeutig zu wenig.
Abbildung 1. Vermutung zur dichtesten Packung von gleich großen Kugeln in einem regelmäßigen Gitter. Johannes Kepler (1611, Strena seu de nive sexangula – Über die sechseckige Schneeflocke)
Abgesehen von den an Sisyphos erinnernden Anstrengungen der Beweisführung eines derart komplexen Problems, besteht hier Grund zur Skepsis und zwar auch hinsichtlich der Fehlerfreiheit von Hardware und Software. Thomas Hales sagt dazu: „Ich bin zu dem Schluß gekommen, daß kein Mikroprozessor jemals perfekt ist, daß diese sich der Perfektion aber immer mehr nähern“ und an einer anderen Stelle: „Bestehen Sie nicht darauf, daß jeder Fehler entfernt wird…Wenn der Programmierer einen kleineren Fehler entfernt, kann er dabei einen wesentlich schwerer wiegenden Fehler erzeugen“.
Um es kurz zu fassen: automatisierte Beweisführungen werden in Zukunft immer wichtiger, Computer-Wissenschafter müssen aber noch jede Menge „Hirnschmalz“ einsetzen, um ihre Maschinen und Programme verlässlicher zu machen. (Man sollte freilich auch nicht vergessen, daß nichts in unserer begrenzten Welt vollkommen fehlerfrei abläuft, wenn es nur ausreichend komplex ist.)
Computeranwendungen in Physik und Chemie
Physiker ebenso wie Chemiker wenden riesige Computerprogramme an, wenn sie u.a. in der Hochenergiephysik Daten sammeln und interpretieren, molekulare Strukturen mittels quantenmechanischer Modelle ermitteln oder sehr umfangreiche Simulierungen stochastischer (auf Wahrscheinlichkeitstheorie und Statistik basierender) Vorgänge beschreiben.
„Absolut fehlerfreie Programme“ sind hier - im Gegensatz zu den mathematischen Anwendungen – keine zentrale Forderung und der Grund dafür ist leicht verständlich: Das Ziel der Berechnungen in der Physik und Chemie ist es Daten zu produzieren, deren Fehlerbreite bloß erheblich geringer sein muß, als die der zugrunde liegenden, experimentell erhobenen Daten. Im Wesentlichen ist es daher nur erforderlich die Software auf Widersprüche zu testen und gröbere Fehler in den Programmen zu beseitigen.
Dazu kommt, daß numerische Mathematiker immer bessere Algorithmen generieren, Computer Spezialisten immer effizientere Programme. Die Geschwindigkeit der Rechner und ihre digitalen Speicherkapazitäten steigen ohne Unterbrechung seit den 1960-Jahren exponentiell – mit einer Verdopplungszeit von 18 Monaten – an. Dieses enorme Wachstum der Computerleistung wird aber von der Effizienzsteigerung der Algorithmen noch in den Schatten gestellt. Ein spektakuläres Beispiel dafür wurde in einem früheren Essay zitiert [2]: Wären zur Planung eines Produktionsablaufes im Jahr 1988 mit den damaligen Methoden 82 Jahre vonnöten gewesen, so war der Zeitbedarf im Jahr 2003 bereits auf 1 Minute abgesunken. Zu dieser insgesamt 43-millionenfachen Effizienzsteigerung trug die erhöhte Computerleistung mit einem Faktor 1000 bei, die verbesserten Algorithmen mit einem Faktor 43000.
Computeranwendungen in der Biologie
Die Biologie befindet sich in einer speziellen Situation, da weder traditionelle Fachrichtungen noch die frühe Molekularbiologie einer Unterstützung durch Computerwissenschaften bedurften. Die klassische Biologie hatte ja kaum irgendwelche mathematischen Grundlagen, Darwin’s Buch des Jahrhunderts „Ursprung der Arten“ enthält keine einzige Formel.
Sequenzierungen
Die zweite Hälfte des zwanzigsten Jahrhunderts brachte eine vollständige Änderung der Situation: neue Methoden der DNA-Sequenzierung erlaubten eine Aufklärung ganzer Genome in immer kürzerer Zeit.
Erschien die „händische“ Aufklärung der kleinen Genome von Viroiden und Viren zwar ziemlich mühsam, aber immerhin noch möglich, so war dies bei großen, aus Milliarden von Nukleotid-Bausteinen bestehenden, Genomen (wie z.B im Human Genome Project) ausgeschlossen. Zum Glück gab es ab 1970 bereits Algorithmen, die für Sequenzvergleiche erarbeitet worden waren. Diese dienten zwar zum Vergleich von Proteinsequenzen zur Erstellung von phylogenetischen Stammbäumen, konnten aber in Varianten für DNA-Sequenzen adaptiert werden. Die ununterbrochene Verbesserung der Algorithmen führte zu einer Reihe von Software-Paketen, ohne die ein modernes biologisches Labor nicht mehr auskommt, wie beispielsweise das weltweit angewandte, äußerst schnell arbeitende Programm BLAST (Basic Local Alignment Search Tool), das experimentell ermittelte DNA- oder Protein-Sequenzen mit den, in einer Datenbank bereits gespeicherten Sequenzen vergleicht und u.a. zur Auffindung homologer Gene/Proteine verwendet wird.
Analyse und Vorhersage von Struktur und Funktion
Enorm wichtige Programmentwicklungen befassen sich mit der Analyse der 3D-Strukturen von Biomolekülen, der Vorhersage dieser Strukturen auf Basis der Sequenzdaten und der Zuordnung von Funktionen zu einzelnen Strukturelementen: Die Entdeckung konservierter Strukturelemente in Teilstücken der DNA oder RNA deutet auf eine biologische Funktion dieser Regionen hin. Das aktuell von einem riesigen internationalen Team von mehr als 400 Forschern bearbeitete ENCODE („Encyclopedia of DNA Elements)-Projekt hat sich die systematische Erkundung aller funktionellen Elemente der DNA des humanen Genoms und anderer Aspekte seiner Organisation zum Ziel gesetzt [3]. Das bis jetzt erstaunlichste Ergebnis von ENCODE ist, daß rund 80 % der menschlichen DNA aktiv sind und nicht, wie bisher angenommen, nur die rund 2 % der Protein-codierenden Gene. Alle Daten aus ENCODE sind übrigens - zusammen mit den Software-Tools - frei abrufbar und anwendbar.
Weitere Anwendungen
Von der Vielzahl revolutionärer neuer Technologien, welche die Anwendung hocheffizienter Computerprogramme erfordern, sollen hier nur zwei aktuelle Verfahren angeführt werden: i) Das High-Throughput Screening (d.i. das Testen mit sehr hohem Durchsatz) und ii) das Modellieren ganzer großer Systeme.
High-Throughput Screening wird heute erfolgreich für biologische Fragestellungen und insbesondere in der medizinisch-, pharmazeutischen Forschung zur Auffindung neuer Wirkstoffe angewandt. Es erlaubt die gleichzeitige Testung von bis zu einer Million von Verbindungen hinsichtlich ihrer Wechselwirkungen mit Biomolekülen, Zellbestandteilen und auch intakten Zellen. Die gesamte Prozedur läuft vom Ansatz, über die Ausführung bis hin zur Auswertung der Ergebnisse vollkommen automatisch ab, gesteuert und analysiert von hocheffizienten Computerprogrammen.
Eine immens hohe Datenflut generiert das Modellieren ganzer biologischer Systeme – die Systembiologie. Bereits einzelne Zellen enthalten Tausende unterschiedliche, aktive Biomoleküle, die laufend miteinander reagieren, verstoffwechseln und verstoffwechselt werden. Die Modellierung derartig hochkomplexer Systeme - intakter Zellen, Organe bis hin zu lebenden Organismen – gehört zu den größten Herausforderungen in der näheren Zukunft.
Aus den enormen Datenmengen, die in Datenbanken zumeist frei verfügbar ruhen, kann – wie der berühmte Molekularbiologie Sidney Brenner meint - schlussendlich eine neue theoretische Biologie entstehen. Um hier relevantes Wissen aus Bergen von wenig informativem Material zu extrahieren, bedarf es einer soliden Grundlage in Mathematik und Computerwissenschaften.
Zur Wertschätzung der Computerwissenschafter
Im Titel dieses Essays hatte ich für die Vertreter dieser Fachrichtung, die Metapher „Marketender“ gebraucht. Dieser Begriff kommt aus dem mittelalterlichen Militärwesen und bezeichnet Personen, welche die Truppen begleiteten und für die militärische Logistik unabdingbar waren, da sie die Soldaten mit Gebrauchsgegenständen, Lebensmitteln und anderem Bedarf versorgten (Abbildung 2). Ihre Bedeutung ergab sich auch aus ihrer Unabhängigkeit, da sie nicht der Bürokratie des Heeres unterstellt waren und daher auf aktuelle Bedürfnisse sofort reagieren konnten.
Trotz ihrer Wichtigkeit für das Funktionieren eines effizienten Heeres, waren Marketender aber wenig geachtet.
Abbildung 2. Marketender bietet seine Waren an (Holzstich aus 1516. Bild: Wikipedia)
Die Analogie zu Computerwissenschaftern ist augenscheinlich, vor allem in der Biologie: Bioinformatiker sind für den Fortschritt biologischer Fachrichtungen essentiell, bei der Anerkennung der Erfolge werden sie aber gerne übersehen. Craig Venter, beispielsweise, wurde für seine Arbeiten zu Genomanalysen und Genomsynthesen weltberühmt – vollkommen zu Recht. Wer aber kennt die Namen der Computerwissenschafter, welche die, für diese Projekte essentiellen Programme zu Versuchsaufbau, Versuchsführung, Analyse und Interpretation erstellten?
In früheren Zeiten, als jeder Experimentator Versuche selbst aufbaute und Ergebnisse auch selbst interpretierte, war es nur selbstverständlich, daß er allein auch entsprechend gewürdigt wurde. Heute übernehmen Computerprogramme mehr und mehr an Verantwortung für Versuchsführung und Analyse. Es erscheint angebracht die Bedeutung der experimentellen in Relation zur rechnerischern Arbeit neu zu bewerten.
[1] ] Hales, T. C. A proof of the Kepler conjecture. Annals of Mathematics 2005, 162, 1065-1185.
[2] Peter Schuster: Wie Computermethoden die Forschung in den Naturwissenschaften verändern
[3] Das ENCODE Project; siehe auch den SB-Artikel Zentralismus und Komplexität.
Der vorliegende Essay ist eine stark verkürzte deutsche Fassung des Artikels „Are computer scientists the sutlers of modern biology?“, der eine komplette Liste von Literaturzitaten enthält und in Kürze von der Webseite des Autors abgerufen werden kann.
Weiterführende Links
Matthias Rarey: An der Schnittstelle: Informatik trifft Naturwissenschaften ( Zentrum für Bioinformatik Hamburg (ZBH); Universität Hamburg). Sehr leicht verständliches Video (als Werbung für ein Bioinformatik Studium gedacht) 1:09:21 h.