2011

2011 Redaktion Wed, 20.03.2019 - 01:01

Was ist und was bedeutet für uns die Nano-Biotechnologie? - Ein Diskurs von Karin Saage und Eva Sinner

Was ist und was bedeutet für uns die Nano-Biotechnologie? - Ein Diskurs von Karin Saage und Eva Sinner

Fr, 15.12.2011 - 04:20 — Eva Sinner & Karin Saage

Eva SinnerKarin Saage

Die „Technik“ als in der ursprünglichen Wortbedeutung Kunstfertigkeit, handwerkliches Geschick, ist etwas, das schon immer zum Menschen gehörte. Schon lange vor der sprichwörtlich gewordenen Erfindung des Rades hat sich der Mensch verschiedener Werkzeuge bedient, um seine Umwelt, aber auch sein eigenes Leben zu verändern. Natürlich immer im guten Glauben an eine Verbesserung.

Auch die Gegenwart ist schon so sehr von Technik geprägt, dass wir kaum im Stande wären, die Uhr zurückzudrehen. Selbst wenn derartige Phantasien im Moment Konjunktur haben – ein Leben wie vor hundert Jahren wäre ja schließlich kein Leben frei von Technik. Erschaffung des Menschen durch Prometheus

Am Beginn der Menschheit: Die Erschaffung der Menschen durch Prometheus, den Kreativität, »Technik« (Kunstfertigkeit, handwerkliches Geschick) und die Eigenschaft auszeichnen, das (Nach)denken seinen Handlungen voranzusetzen. Athene hilft indem sie ihre Klugheit und ihr Wissen zur Verfügung stellt (Marmorrelief, 3 Jh bC, Louvre)

Allerdings zeigen solche Phantasien, wie zwiespältig der Mensch der Technik, die doch wesensmäßig zu ihm gehört, gegenübersteht. Als wolle er mit dem Blick zurück immer wieder seiner ihm zur Verfügung stehenden Technik entfliehen.

Ein Grund dafür liegt sicher darin, dass in der jüngeren Vergangenheit sich die Biotechnologie als neue Technologie zu verselbständigen und damit immer unbeherrschbarer zu werden schien. Ein neuer Forschungszweig der Biotechnologie, der die kleinsten Bausteine des Lebens thematisiert, ist die Nanobiotechnologie, von „nanos“, dem Zwerg – die Grösseneinheit, die 1000mal kleiner als der Mikrometer ist und damit die Größe von Molekülen beschreibt.

In Kombination mit den Werkzeugen der Gentechnik, ist es ja sogar eine Hoffnung an die Nanobiotechnologie, dass mit ihr neue Möglichkeiten angegangen werden können, die dem Menschen innovativ helfen und damit wertvoll sein können.

Die Frage muß also eher lauten: wie kann man die Gesellschaft mit dem Begriff der Nanobiotechnologie anfreunden und nicht eine Ablehnung riskieren, wie es bei Gentechnik und Strahlenforschung durchaus passiert ist? Wie kann man ein Bewusstsein dafür schaffen, dass dieses Forschungskonzept immens potent, aber nicht bedrohlich sein muss?

Sicher ist ein wichtiger Schritt zu einem positiveren Verhältnis gegenüber der Technik eine breitere Diskussion innerhalb der Gesellschaft darüber, worin das Ziel dieser technischen Entwicklungen bestehen soll.

Wissen wir denn, was das Optimum für den Menschen ist, zu dem ihm die die aktuelle Forschung verhelfen soll?

Meistens denkt man bei dieser Frage an das, was sich ein jeder wünscht: Gesundheit, Glück und ein langes Leben. Aber schon bei der Gesundheit fangen die Probleme an. Was ist Gesundheit?

Heutzutage wird Gesundheit als Freiheit von sämtlichen Schmerzen definiert. Die Akzeptanz gegenüber altersentsprechenden Beschwerden und Makel ist sehr gesunken und bei vielen kaum noch vorhanden. Dass ein langes Leben so ohne weiteres auch nicht Ziel einer Optimierung sein kann, wussten schon die alten Griechen. Als Äos, die Göttin der Morgenröte für ihren Geliebten Tithonos bei Zeus ewiges Leben erbat, um es mit ihm gemeinsam zu verbringen, vergaß sie damit auch den Wunsch nach ewiger Jugend zu verknüpfen. Tithonos alterte immer weiter, ohne je sterben zu können – Ein nicht erstrebenswertes Schicksal, endete er so als zikadenähnliche Daseinsform. Es könnte also einen Kompromiss sein zwischen Lebensqualität und dem Recht, dem Leben zu entkommen, wenn das „Maß“ als voll empfunden wird.

Mit der Definition des Glückes ist es hingegen schwieriger: letztendlich wird Glück sicherlich von jedem ein wenig anders definiert werden. Und das ist wiederum ein Glück für die Forschung. Es scheinen sich für viele, auch skurril anmutende Technologieentwicklungen, Forscher und Geldgeber zu finden, wie zum Beispiel der Temperaturanzeige durch Farbveränderungen auf Getränkedosen, tragbare Telephone, die photographieren können oder Heimroboter in Hundegestalt. Und Vieles, das noch vor einigen Jahren nicht existent war, ist heute eine Selbstverständlichkeit, und Gefahrenpotentiale (siehe Atomenergie) sind durch die Regulativa der Gesellschaft durchaus als „gezähmte“ Technologien existent.

Aber es gibt auch technische Entwicklungen, deren ausschließlicher Nutzen unbestritten ist. Es gibt zum Beispiel neue Oberflächenbeschichtungen von Implantaten, die durch ihre Ähnlichkeit mit einer natürlichen Gewebeoberfläche, das Anwachsen bestimmter Zellarten begünstigen und damit stabiler in den Knochen integriert werden als herkömmliche Implantate. Sowohl bei Hüft- als auch bei Zahnimplantaten ist das eine wesentliche Entwicklung, um die Stabilität zu verbessern.

Wegen der gründlichen Tests ist es grundsätzlich ein langer Weg vom Labor zum Patienten, deshalb ist es auch sehr wichtig, eine breite Basis von Neuentwicklungen zu legen, damit die Wahrscheinlichkeit steigt, dass es einige Forschungsprojekte bis hin zu ihrer Bestimmung in der Gesellschaft schaffen.

Die Identifizierung neuer Medikamente wird ebenfalls durch die Nanobiotechnologie beeinflusst werden: die Strukturaufklärung von Molekülen des menschlichen Körpers, die für die Wirkung von Medikamenten entscheidend sind durch Erschaffen neuer experimenteller Ansätze in der Proteinforschung. Durch die Kenntnis einer molekularen Struktur können viel gezielter, und damit viel schneller, passende Substanzen gefunden werden, die dann als Medikamente eingesetzt werden können. Damit seien an dieser Stelle nur einige willkürliche Beispiele für die Relevanz und Präsenz technologischer Entwicklungen genannt. Es wird anhand dieser Beispiele noch klarer, wie breit das Spektrum in der Nanobiotechnologie ist und es ist zugegeben fast unmöglich, über alle Fortschritte in allen Gebieten informiert zu sein.

Ein Blick in Richtung eines möglichen Ursprungs für technologische Entwicklungen gibt mehr Aufschluss über den Platz in unserer Gesellschaft, den die Technik unserer Meinung nach haben sollte.

Vereinfacht lässt sich sagen, dass es drei Grundmotive für eine technologische Neuentwicklung gibt: wirtschaftliche, gesellschaftliche und „individuelle“. Die gesellschaftlichen und wirtschaftlichen Motivationen sind in jüngster Zeit sehr nahe aneinander gerückt – was wirtschaftlich von Bedeutung ist, findet meist auch in der Gesellschaft eine hohe Akzeptanz und umgekehrt. Ein drittes Motiv ist ein sehr unkontrollierbares und fast als Zufallsereignis zu werten: die persönliche Neugier und Forschungsleidenschaft eines Menschen, der sogar unter widrigen Umständen eine Idee verfolgt. Giordano Bruno, Galileo Galilei oder Sokrates sind hier gute Beispiele für solche Forschernaturen. Die Vorstellung seines Weltbildes war gesellschaftlich extrem unpopulär und dennoch hat er seine Überzeugung bist zur Selbstaufgabe verfolgt. Das ist jetzt ein prominentes und ‚altes’ Beispiel, es würde zu weit führen, alle hier aufzuführen, die praktisch gegen die herrschende Meinung geforscht haben oder durch die Wahl eines abseitigen Themas in einem unpopulären Gebiet geforscht haben.

Es ist nicht sinnvoll die drei Motive mit einer ethischen und moralischen Wertung zu versehen. Aber es ist sehr wichtig im Sinne der Gesellschaft, die alle drei Quellen letzten Endes trägt, diese Motive zu erkennen und am Leben zu erhalten. Dabei ist letzteres Motiv besonders im Auge zu behalten, da Spitzenforschung, die zu neuen Technologien führt, oft aus unpopulären Nischen zu stammen schien. Diese Art der Forschung an neuen Technologien findet in einer geschützten Atmosphäre statt – entkoppelt von wirtschaftlichen und gesellschaftlichen Motiven.

Als prominentes Beispiel für so eine „Nische“, in der ein ausgezeichneter Forscher seine Erkenntnisse erzielte, ist hier Gregor Mendel zu nennen, der in einem Klostergarten Grundlagen der Pflanzengenetik erkannt hat. Seine Forschung fand ohne wirtschaftliche Unterstützung und allein aus persönlichen Motiven statt. Es wäre wünschenswert, wenn der individuelle Forscherdrang auch in Zukunft in einer Art Nischenförderung erhalten bleiben könnte, auch wenn das auf den ersten Blick den aktuellen Elitebestrebungen entgegenwirkt.

Geduld ist etwas, das die Gesellschaft momentan nicht mit der Wissenschaft zu haben scheint. Es werden Programme aufgesetzt und Ziele gesteckt, die gewachsene Ausbildungsstrukturen sowohl an Schulen als auch an Universitäten in kurzer Zeit neu strukturieren wollen – oft mit Vorbildern aus der Wirtschaft. Das mag für manche Bereiche ein geeigneter Ansatz sein, aber tendiert dazu, die Nischen zu eliminieren, in denen langfristig Forschung und Ausbildung stattfindet. Es gibt keine planbare Forschung, da es keine Vorhersehbarkeit von Visionen gibt, aus denen Neuentwicklungen werden können.

Was planbar ist, ist die Ausbildung wissenschaftlichen Nachwuchses. Ausbildung, auf welcher Ebene auch immer, ist untrennbar mit Forschung verknüpft, und je früher ein Interesse an Naturwissenschaften geweckt werden kann, um so eher entsteht eine Gesellschaft, die in Wechselwirkung mit ihren Forschungeinrichtungen sich über mögliche Ziele austauschen kann sowie eine Gesellschaft, die überhaupt erst motivierte und geeignete Forscher hervorbringt. Dabei ist ein Exkurs über den Ursprung von Forschern aus unserer Gesellschaft im Folgenden nötig.

Zunächst sei folgende Arbeitshypothese vorgestellt: Wenn die Forscher aus dem gesamten Spektrum der Gesellschaft stammen, werden sie auch Ziele und Visionen haben können, die dann wiederum den vielen Wünschen und Vorstellungen der Gesellschaft entsprechen. Waren es in der Vergangenheit oft die „reinen“ Disziplinen wie zum Beispiel Medizin, Chemie, Physik, Biologie und Mathematik aus denen die Kernentwicklungen hervorgingen, ist es in der Gegenwart mehr und mehr das fächerübergreifende Forschen, aus dem Fortschritt entsteht. Die Bildung einer Kommission aus verschiedensten Gebieten und Disziplinen, um Bewertungsgrundlagen von menschlicher Stammzellforschung in Deutschland zu beurteilen, ist ein Beispiel dafür, wie wichtig das Ringen um einen gesellschaftlichen Konsens ist, schwierige Forschungsentwicklungen fächerübergreifend und gesellschaftskonform beurteilen zu können – es wird auch in Zukunft die Situation geben, dass Forschungsprojekte schnell und kompetent beurteilt werden müssen, die potenziell gefährlich oder aus moralischen und ethischen Gesichtspunkten untragbar erscheinen – ein wichtiger Punkt in der Diskussion um die synthetische Biologie.

Das ist nicht nur aus Gründen der beiderseitigen Akzeptanz zwischen Forschung und Gesellschaft wichtig. Genauso wie das Sprichwort mit den zwei Seiten einer Medaille, so hat auch die Forschung durchaus bedrohliche Seiten – und sei es auch manchmal nur aus Unkenntnis über die Tatsachen und Hintergründe von Forschungsrichtungen. Wer weiß denn schon in unserer Gesellschaft, was ein Gen eigentlich genau ist, und was die Argumente in der Diskussion um die Gentechnik an Pflanzen so mysteriös werden lässt, dass es offenkundig nur noch „Kontras“ gibt? Es gibt einfach bestimmte Reizworte, die inzwischen von vorne herein negative Reaktionen auslösen, wie zum Beispiel „Genfood“, „Pestizide“, „Tierversuche“. Häufig ist zu diesen Themen eine ausgewogene Diskussion nicht mehr möglich.

An dieser Stelle wäre ein „science communicator“ sinnvoll. Momentan gibt es bereits eine Anleitung, wie diese Kommunikation von den Wissenschaftlern selbst ausgehen könnte und zwar publiziert von der Europäischen Kommission, 2006. Dieses ist zwar schon ein wichtiger Ansatz, wird aber in unseren Augen nur zum Teil den Effekt haben, dass die Wissenschaft den Elfenbeinturm verlässt. Ein Wissenschaftler kann sich aus verschiedenen Gründen nicht neben seiner Forschung um die Außenwirkung seiner Tätigkeit in aller Konsequenz kümmern. Zum einen ist er nicht dafür ausgebildet, zum anderen fehlt es ihm auch schlicht an der Zeit. Unserer Erfahrung nach ist also ein Forscher oft auf geeignete „Übersetzer“ angewiesen.

Die Sensibilisierung in Medien, wie Zeitung und Fernsehen für aktuelle Forschungsergebnisse, hat zugenommen, jedoch ist es immer noch eher Zufall, welche Forschungsergebnisse der Öffentlichkeit mitgeteilt werden. Die Pressestellen der Forschungsinstitute müssen in ihrer Position gestärkt werden, um eine bessere Präsenz und Wirksamkeit zeigen zu können. Die Forscher könnten in diesem Bereich der Wissensverbreitung mehr Bereitschaft zeigen, mit Journalisten zu kommunizieren und könnten dafür durch ein Medientraining vorbereitet werden, denn dadurch fänden beide Seiten zu einer gemeinsamen Sprache. So könnte der Gesellschaft ihr aktueller wissenschaftlicher Kenntnisstand durch die bekannten Medien nahe gebracht werden.

Allerdings muss auch die Gesellschaft, an die die Forschungstätigkeit kommuniziert wird, in der Lage sein, ihr auf Augenhöhe begegnen zu können. Oben genannte, irrationale Reaktionen auf Reizworte entstehen aus Unverständnis und Verunsicherung. An dieser Stelle könnte ein direkter Kontakt zwischen Forschung und Schule eine Perspektive bieten, wie es in jüngster Zeit in Schülerlabors oder auf Wissenschaftsforen geschieht. In diesen Schülerlabors wird Bezug auf aktuelle Forschung genommen und anhand leicht verständlicher Experimente, wie zum Beispiel die Isolation von DNA Molekülen aus Pflanzen, soll das Interesse an Forschung geweckt werden. In Wissenschaftsforen, die in den Zentren verschiedener Städte organisiert werden, wird darüber hinaus ein entscheidendes Grundverständnis vermittelt, das zu einer differenzierten Beurteilung und daraus resultierenden Akzeptanz oder Ablehnung von technologischen Entwicklungen im Alltag führen kann.

Eine Stärkung der Kommunikation zwischen Gesellschaft und Forschern würde auch ein wenig zur Entkopplung wissenschaftlicher Entwicklungen von rein wirtschaftlichen Interessen beitragen. So soll eben nicht nur die Wirtschaft ihre Bedürfnisse an die Forschung formulieren; es wäre schön, wenn dieses auch die Gesellschaft täte. Wir sollten es eben nicht einfach der Wirtschaft überlassen, konkrete Ziele und Bedürfnisse an die Forschung zu formulieren. Damit wäre sichergestellt, dass Innovationsinitiativen, wie die der Bionanotechnologie, als Ergebnis von Forschungsaktivitäten im Interesse der Gesellschaft in ihrer Mitte einen Platz hat und haben wird. Mit dem Szenario von schon oft propagierten „Hybrid-Androiden“, als Ergebnis der Nanobiotechnologie, lassen wir uns noch ein wenig Zeit auf beiden Seiten: der Forschung, die davon noch weit entfernt ist und der Gesellschaft, die das Bedürfnis noch nicht geäußert hat.


 

inge Thu, 15.12.2011 - 05:20

Das weite Land — Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen

Das weite Land — Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen

Fr, 08.12.2011- 04:20 — Gottfried Schatz

Gottfried Schatz

Icon Biologie

Unser Charakter wird entscheidend durch die chemische Zwiesprache zwischen den Nervenzellen unseres Gehirns geprägt. Dieses Gesprächsnetz ist so komplex, dass es jedem Menschen seine eigene Persönlichkeit schenkt.

Die Seele ist ein weites Land“ befand der Schriftsteller und Arzt Arthur Schnitzler, der in seinen Novellen und Dramen Sigmund Freuds Ideen mit aus der Taufe hob. Dieses weite Land der Seele ist jedoch schwer zu fassen, denn Religion, Dichtung, Psychologie und Medizin ordnen ihm jeweils andere Breitengrade zu. Ist es verwegen, dieses Land auch mit dem Kompass der modernen Naturwissenschaft zu erkunden? Darf ein Molekularbiologe auf Seelensuche gehen?

Dieses Wagnis kann nur gelingen, wenn wir „Seele“ enger als „Verhaltensmuster“ oder „Charaktereigenschaft“ definieren. Erst diese Beschränkung erlaubt die präzisen und überprüfbaren Fragen, an denen Naturwissenschaft ihre Kraft entwickelt. Und in der Tat - diese Kraft gewährt uns bereits atemberaubende Einblicke in die chemischen Vorgänge, die unsere Persönlichkeit prägen.

Eindrückliches Beispiel dafür waren gesunde Versuchspersonen, die nach Einnahme des Parkinson-Medikaments Dopa (ein Kürzel für Dihydroxyphenylalanin) bei Glücksspielen risikofreudiger wurden. Dies betraf jedoch nur diejenigen von ihnen, die eine seltene Variante eines bestimmten Gens ererbt hatten, das die Übertragung von Signalen zwischen Nervenzellen steuert. Dieses Gen tritt in verschiedenen Formen auf, die leicht unterschiedlich wirken und so das Verhalten eines Menschen gezielt beeinflussen können.

Nervenzellen verständigen sich untereinander vorwiegend mit Hilfe chemischer Botenstoffe. Meist sind dies einfache kleine Moleküle, wie das mit Dopa eng verwandte Dopamin, die Aminosäuren Glyzin und Glutamat, oder die Aminosäure-Abkömmlinge γ-Aminobuttersäure und Serotonin. Sie werden von einer elektrisch angeregten Senderzelle ausgestossen, wandern zu einer Empfängerzelle, binden sich an spezifische „Rezeptoren“ an deren Oberfläche, und lösen so in der Empfängerzelle ein elektrisches Signal aus.

All dies spielt sich in nur ein bis zwei Tausendstel einer Sekunde in einem hauchdünnen Spalt zwischen den birnenförmig aufgeblähten Enden der beiden Nervenzellen ab. Die beiden Nervenenden und der sie trennende Spalt bilden zusammen eine „Synapse“, die nach Übertragung des Signals wieder schleunigst vom Botenstoff gereinigt werden muss, um einen gefährlichen Dauerreiz der Empfängerzelle zu vermeiden.

Wie diese Reinigung erfolgt, hängt vom Botenstoff und von den beteiligten Nervenzellen ab. Manche Nervenzellen warten einfach darauf, dass der Botenstoff durch Diffusion von selbst verschwindet. Für die meisten Zellen ist dieser Vorgang jedoch zu langsam, sodass sie ihn aktiv beschleunigen: Manche Senderzellen saugen den von ihnen ausgesandten Botenstoff wieder auf, während Empfängerzellen ihre Rezeptoren für ihn maskieren können. Rezeptoren und Aufsaugmaschinen sind Proteine; ihr Bauplan ist in den entsprechenden Genen niedergelegt. Die Entschlüsselung der chemischen Struktur unseres gesamten Erbmaterials offenbarte die erstaunliche Vielfalt solcher Gene und damit auch von Synapsen, mit deren Hilfe unser Gehirn seine noch weitgehend rätselhafte Arbeit bewältigt. Wir kennen mehrere Dutzend Botenstoffe und für fast jeden gibt es eine Vielzahl verschiedener Rezeptor- und Aufsaugproteine, die auf den Botenstoff unterschiedlich ansprechen und eine Synapse unverwechselbar charakterisieren.

Vieles spricht dafür, dass dieses chemische Netzwerk unseren Charakter mitbestimmt. Der Botenstoff Dopamin lindert nicht nur die Leiden von Parkinson-Kranken, sondern kann bei ihnen auch intensive Glücksgefühle, Aggression oder zwanghafte Spielsucht auslösen. Und die Genvariante, die Dopa-behandelten Versuchspersonen erhöhten Wagemut verleiht, enthält den Bauplan für ein spezifisches Rezeptorprotein, über das Dopamin an einen Empfängernerv andockt. Diese Genvariante findet sich auch häufig in impulsiven, rastlosen oder aggressiven Menschen, die Mühe haben, sich über längere Zeit auf ein Thema zu konzentrieren oder sich in eine Gemeinschaft einzufügen. In unserer hoch organisierten Welt ist diese Genvariante meist von Nachteil, doch Nomaden scheint sie Vorteile zu verschaffen; vielleicht schenkt sie ihnen Wagemut und hilft ihnen so, neue Weide- und Jagdgründe zu erobern und Angreifer schneller und mutiger abzuwehren. Dafür spricht, dass diese Gen-Variante erst vor etwa 20'000 bis 40'000 Jahren entstand - also ungefähr zur Zeit, als moderne Menschen Afrika verliessen und nach Nordeuropa vordrangen – und dass sie sich seither in unserer Population behauptet hat. Neuere Untersuchungen haben gezeigt, dass ihre Träger ungewöhnlich bereitwillig sind, asoziale oder finanziell riskante Entscheidungen zu treffen.

Könnte es sein, dass diese Genvariante die periodischen Finanzkrisen unserer kapitalistischen Gesellschaft mitverschuldet?

Der Botenstoff Serotonin löst nicht nur, wie das Dopamin, Glücksgefühle aus, sondern beeinflusst auch das Sexualverhalten von Fliegen und Ratten: Verändert man in diesen den Serotonin-Stoffwechsel durch genetische Eingriffe oder Medikamente, so werden die Tiere homo- oder bisexuell. Und eine einzige Mutation in einem Rezeptorprotein für den Botenstoff Vasopressin kann ein monogames Wühlmaus-Männchen in einen passionierten Don Juan verwandeln.

Synapsen spielen fast überall dort eine Rolle, wo wir mit chemischen Mitteln psychische Krankheiten lindern oder unser Bewusstsein verändern wollen. Antipsychotische Medikamente dämpfen die Signalübertragung durch Dopamin, Serotonin und andere Botenstoffe; LSD löst Halluzinationen aus, weil es sich wie ein „Super-Serotonin“ hartnäckig an einen Serotonin-Rezeptor klammert und so die entsprechende Empfängerzellen übermässig stark und lange anregt. Und die Rauschdroge Kokain verhindert, dass Senderzellen das von ihnen ausgeschüttete Dopamin wieder aufsaugen. Als Folge davon häuft sich dieser glücksspendende Botenstoff in der Synapse an, sodass Kokain-Konsumenten die euphorische Wirkung der Droge bald nicht mehr missen wollen. Um sich gegen diesen Dopamin-Überreiz zu wehren, verringern Empfängernerven die Zahl ihrer Dopamin-Rezeptoren. Sinkt dann bei Kokainentzug der Dopaminspiegel in der Synapse plötzlich ab, so kann diese nicht mehr normal arbeiten und verursacht die gefürchteten Entzugserscheinungen.

Mut, Glücksgefühl, sexuelle Vorliebe und Sozialverhalten sind zwar wichtige Teile dessen, was wir gemeinhin „Charakter“ nennen, reichen aber bei weitem nicht aus, um diesen erschöpfend zu beschreiben. Und ihre genetische Kontrolle ist bei uns Menschen viel subtiler und komplexer als bei einfachen Tieren. Sie unterliegt einem Netzwerk vieler Gene, in dem jedes Gen nur eine bescheidene Rolle spielt.

Wir Menschen haben weder ein „Mut-Gen“ noch ein „Monogamie-Gen“, sondern viele Gene, die diese Verhaltensmuster geringfügig, aber statistisch signifikant beeinflussen. Und selbst diese Behauptung steht auf wackligen Beinen, da sie sich in den meisten Fällen nicht auf eindeutige genetische Beweise, sondern nur auf Korrelationen stützt. Dennoch besteht kein Zweifel daran, dass Synapsen die Fäden sind, aus denen die Natur den wundersamen Gobelin unseres Charakters wirkt. Dieser Gobelin verdankt seinen Farbenreichtum der Wechselwirkung der verschiedenen Rezeptor- und Ansaugproteine in unseren Synapsen, über die ein und derselbe Botenstoff eine breite Palette verschiedener Reaktionen und Empfindungen auslösen kann. Da unser Gehirn etwa 10’000 Milliarden Nervenzellen besitzt und jede von ihnen durch 1000 bis 10'000 Synapsen mit anderen Nervenzellen vernetzt ist, steigt die Zahl der möglichen Wechselwirkungen ins Unendliche. Die Balance zwischen den verschiedenen Fäden dieses unvorstellbar komplexen Netzwerks ist zum Teil erblich, kann aber auch durch Umwelteinflüsse verändert werden; sie ist deshalb für jeden Menschen auf dieser Erde – selbst für eineiige Zwillinge – einmalig.

Sollte es uns je gelingen, alle Fäden dieses Netzwerks zu entwirren und ihre Verflechtung mit Computern darzustellen, so wird die Komplexität dieses Musters alle unsere Vorstellkraft übersteigen. Das Land, von dem Schnitzler sprach, wird wohl auch für Biologen seine geheimnisvollen Weiten wahren.


 

inge Thu, 08.12.2011 - 05:20

HOLZWEGE – Benzin aus dem Wald

HOLZWEGE – Benzin aus dem Wald

Fr, 01.12.2011- 04:20 — Gerhard Glatzel

Gerhard GlatzelIcon Biologie

Am 26. November 2011 schreibt „Die Presse“ als Schlagzeile auf ihrer Titelseite:„Klimapolitik ist klinisch tot – Die Verhandlungen über ein globales Klimaschutzabkommen stecken in einer Sackgasse. Ein Ausweg ist auch bei der UN-Konferenz in Durban nicht in Sicht“

Eine Woche zuvor, am 19. Oktober 2011, hat der österreichische Nationalrat ein Klimaschutzgesetz [1] verabschiedet, das den einzelnen Wirtschaftssektoren ab 2012 verbindliche Einsparziele für Kohlendioxidemissionen vorschreibt. Österreich verpflichtet sich, seine Treibhausgasemissionen bis 2012 um 13 Prozent (gegenüber 1990) sowie bis 2020 um 16 Prozent (gegenüber 2005) zu senken.

Dieser irritierende Widerspruch veranlasst den emeritierten Waldökologen einmal mehr über Klimaschutzpolitik im Allgemeinen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen zu reflektieren.

Klimaschutz: Faktum – Fiktion – Illusion

Faktum ist, dass sich unser Planet gegenwärtig in einer Phase markanter Klimaerwärmung befindet und diese mit dem Anstieg der Konzentration von Treibhausgasen in der Atmosphäre aus anthropogenen Quellen, insbesondere aus der Verbrennung fossiler Energieträger sowie aus industriellen und agrarischen Aktivitäten, gut korreliert.

Diese Erkenntnis führte 1992 zur Verabschiedung der United Nations Framework Convention on Climate Change (UNFCCC), einem internationalen Umweltabkommen mit dem Ziel, eine gefährliche anthropogene Störung des Klimasystems zu verhindern und die globale Erwärmung zu verlangsamen sowie deren Folgen zu mildern. Am 11. Dezember 1997 wurde das Kyoto-Protokoll als Zusatzprotokoll zur Klimarahmenkonvention der Vereinten Nationen beschlossen. Das am 16. Februar 2005 in Kraft getretene und 2012 auslaufende Abkommen legte erstmals völkerrechtlich verbindliche Zielwerte für den Ausstoß von Treibhausgasen in den Industrieländern fest.

Bis Anfang 2011 haben 191 Staaten sowie die Europäische Union das Kyoto-Protokoll ratifiziert, wobei die USA die bedeutendste Ausnahme bilden. Die Aussichten, beim gegenwärtigen 17. UN-Klimagipfel in Durban (Beginn am 28. November 2012) eine wirksame Nachfolgeregelung zum Kyoto-Protokoll zu finden und global verbindliche Vorschriften für die Reduktion des Ausstoßes von Treibhausgasen beschließen zu können, werden als gering eingestuft.

Fiktion ist, dass die Aktivitäten einer noch immer wachsenden und immer mehr industrialisierten Weltbevölkerung das „Gleichgewicht der Natur“ gestört haben, denn das „Gleichgewicht der Natur“ ist Fiktion. Die Evolution allen Lebens basiert auf Selektion durch sich laufend ändernde Bedingungen der unbelebten und belebten Umwelt. Das auf den griechischen Philosophen Heraklit zurückgeführte „panta rhei“ („alles fließt“) ist eine Metapher für die Prozessualität der Welt. Das Sein ist demnach nicht statisch, sondern als ewiger Wandel dynamisch zu erfassen. Einer der Gründerväter moderner Naturwissenschaft, Gottfried Wilhelm Leibniz (1646 - 1716), betonte in seinen biologischen und geologischen Konzeptionen die Dynamik aller Naturvorgänge.

Auch das „Leben in Harmonie mit der Natur“ ist eine Fiktion romantischer Naturvorstellung. Dass Goethes „Aber die Natur versteht gar keinen Spaß, sie ist immer wahr, immer ernst, immer strenge; sie hat immer recht, und die Fehler und Irrtümer sind immer die des Menschen“ (Goethe zu Eckermann; Gespräche II) immer wieder zitiert wird, entspricht unserem inneren Harmoniebedürfnis. Wir übersehen dabei aber allzu leicht, dass wir in einer vom Menschen seit Jahrtausenden geprägten Kulturlandschaft leben und unsere Nahrungsmittel und Rohstoffe überwiegend nicht aus natürlichen Systemen beziehen. Wir verdrängen auch gerne, dass der große Dichter J.W. Goethe auch Folgendes geschrieben hat: „Gleich mit jedem Regengusse / Ändert sich dein holdes Tal, / Ach, und in dem selben Flusse / Schwimmst du nicht zum zweitenmal.“ (Johann Wolfgang von Goethe, Band 1: Sämtliche Gedichte. Artemis, Zürich 1950, S. 512).

Eine weitere Fiktion sind die Harmonie und das Gleichgewicht innerhalb natürlicher Systeme, die immer wieder als Vorbilder für menschliches Handeln angeführt werden. Scheinbare Gleichgewichtszustände sind statistische Mittelungen von meist erbarmungslosen Kämpfen um limitierende Ressourcen und sagen wenig über die Immunität des Systems gegenüber Veränderungen aus.

Für die Klimaschutzdiskussion verursachte die vereinfachte Argumentation eines für die künftige Entwicklung der Menschheit unverzichtbaren und daher unbedingt zu erhaltenden Gleichgewichtszustandes erhebliche Probleme. Als die Klimaforschung immer mehr harte Daten über die häufig extremen Klimaschwankungen in der älteren und jüngeren Vergangenheit präsentierte, wurde von vielen Bürgern völlig zu Unrecht die gesamte Klimaschutzargumentation angezweifelt. Es rächt sich auch, dass Klimaschutz meist sehr isoliert und singulär existenzbedrohend diskutiert wurde und nicht im Gesamtkontext aller, die gedeihliche künftige Entwicklung der Menschheit bestimmenden Limitationen und Gefahren.

Illusion ist die Umsetzbarkeit globaler Vorgaben für den Ressourceneinsatz. Während in Durban über verbindliche Nachfolgeregelungen für das auslaufende Kyoto-Protokoll diskutiert wird, sehen wir im Fernsehen Bilder von der Erschließung der Kohlevorkommen der Mongolei und in Mosambik sowie den Einsatz von „Hydraulic-Fracturing“ in überaus ergiebigen neuen Shale-Gas-Feldern. „Global Governance“ als Basis für die einvernehmlichen und gerechte Nutzung der Umwelt und der Ressourcen der Erde ist noch immer Utopie oder wahrscheinlich sogar Illusion. Der große oberösterreichische Heimatdichter Franz Stelzhamer (1802 – 1874) hat es vor 150 Jahren auf den Punkt gebracht: „Oana is a Mensch, mehra hans Leit, alle hans Viech“ (Einer ist ein Mensch, Mehrere sind Leute, Alle sind Vieh).

Klimaschutzmaßnahmen – Der Teufel liegt im Detail

Im Vergleich zu früheren Maßnahmen zur Verhinderung oder Verminderung schädlicher Stoffe in der Atmosphäre, die sich an verbindlichen Grenzwerten orientierten, die auf Grundlage wissenschaftlicher Erkenntnisse und technischer Machbarkeit definiert und gegebenenfalls nachjustiert wurden, schlug man bei CO2 und anderen Treibhausgasen den neuen Weg des Emissionshandels ein. Damit wurden Grenzwertüberschreitungen nicht grundsätzlich verboten, sondern verursachen Kosten, weil Emissionsberechtigungen, die von der EU in einem komplexen Regelwerk definiert werden, gekauft werden müssen. Die Erlöse sollen Klimaschutzaktivitäten zufließen.

Die Möglichkeit im Emissionshandel Geld zu verdienen, wurde von Geschäftsleuten rasch erkannt und führte zu einem breiten Angebot an Investitionsmöglichkeiten, für die Lobbyisten und sektorale Interessensvertretungen in Brüssel und in den nationalen Regierungen werben. Besonders erfolgreiche (oder von Lobbyisten erfolgreich vermarktete) Konzepte schaffen die Aufnahme in Empfehlungen oder Richtlinien der EU. Ein bekanntes Beispiel ist E10, ein für Automotoren vorgesehener Kraftstoff, der einen Anteil von 10% Bioethanol enthält und damit zu den Ethanol-Kraftstoffen zählt. Er wurde 2011 in Deutschland im Zusammenhang mit den Erfordernissen der EU-Biokraftstoffrichtlinie eingeführt, um den fossilen Rohstoffverbrauch und CO2–Emissionen zu reduzieren. Ein anderes Beispiel sind die Richtlinien zur Wärmedämmung von Gebäuden, um den Energieverbrauch für Heizung und Klimatisierung zu senken.

Grundsätzliches Problem all dieser Maßnahmen ist, dass sie als Einzelmaßnahme Senkungen der treibhauswirksamen CO2–Emissionen bewirken, aber im Gesamtkontext der Ressourcenpolitik oft nicht evaluiert werden. Beispielsweise lässt sich leicht berechnen, um wie viel eine bessere Wärmedämmung den Energiebedarf für einen Haushalt senkt. Es wird aber nicht gefragt, ob die Einsparungen möglicherweise für die Beheizung der Terrasse oder des Swimmingpools verwendet oder vielleicht in energieintensive Fernreisen investiert werden. E10 wiederum erlaubt, weiterhin mit übergroßen Autos zu fahren, weil es keine Grenzwerte für den maximal zulässigen Treibstoffverbrauch pro Personenkilometer gibt. Bekanntermaßen werden die Automotoren zwar effizienter, die Autos selbst aber größer. Bei Biotreibstoffen wurden auch die Auswirkungen auf die Nahrungsproduktion und die Bodennutzung in Entwicklungsländern viel zu wenig berücksichtigt.

Persönlich sehe ich den Wechsel von Grenzwertregelungen zu Emmissionshandelskonzepten als bisher schwerste Sünde der Umwelt- und Klimaschutzpolitik.

Biotreibstoff aus dem Wald – ein Holzweg?

Angesichts der Tatsache, dass Bioethanol der ersten Generation (aus Getreide, Zuckerrohr oder Zuckerrüben gewonnener Äthylalkohol) in Europa nicht in ausreichenden Mengen erzeugt wird, um die Vorgaben der EU-Biokraftstoffrichtlinie zu erfüllen und Angesichts der Konkurrenz zur Nahrungs- und Futtermittelproduktion sowie in Anbetracht des in Summe eher bescheidenen Beitrages zum Klimaschutz, wird Alkohol aus Nahrungs- und Futtermitteln zunehmend als Sackgasse gesehen.

Kritische Stimmen aus der Entwicklungspolitik, die vor der Verlagerung von Bioethanolproduktion in Entwicklungsländer warnen, haben die Skepsis gegenüber Bioethanol der ersten Generation noch verstärkt. Daher wird in Brüssel jetzt vehement für Bioethanol der zweiten Generation Lobbying betrieben. Das Bioethanol soll dabei aus der gesamten oberirdischen Biomasse von mehrjährigen Pflanzen gewonnen werden, die nicht als Nahrungs- und Futtermittel dienen. Neben mehrjährigen Gräsern wie Chinaschilf (Miscanthus sp.) oder Rutenhirse (Panicum virgatum, ein nordamerikanisches Präriegras), sollen vor allem Energieholzplantagen, meist als Ausschlagkulturen von Weiden und Pappelklonen, den nötigen Rohstoff liefern. Dafür sollen nach den Konzepten der Bioalkoholindustrie bisher als Weide- und Ackerland sowie als Wald genutzte Flächen in Energiepflanzenkulturen mehrjähriger Pflanzen umgewandelt werden.

Nur wenn die Mitgliedsstaaten der EU diesbezüglich regelkonform agieren, können die für E10 oder höhere Beimengungen benötigten Ethanolmengen in Europa erzeugt werden. Es wird gefordert, dass sowohl für die Landwirtschaft als auch für die Forstwirtschaft entsprechende Anreizsysteme geschaffen werden. Diese könnten aus wertgesicherten langfristigen Absatzgarantien und Steuerbegünstigungen oder Subventionen für die Umwandlung bestehen. Außerdem könnten die Bioethanolwerke die hochmechanisierte Bewirtschaftung der Flächen leisten, sodass der Grundbesitzer keine Geräte anschaffen müsste und keinen Aufwand für die Bewirtschaftung seines Landes hat. Arbeitsplätze in der Bioethanolwertschöpfungskette könnten ein zusätzlicher Anreiz sein.

Sowohl für Landwirte als auch für Waldbesitzer sind mehrjährige Energiepflanzenkulturen eine neuartige Form der Landnutzung. Für den Landwirt ist ein „Fruchtfolgewechsel“ zwischen mehrjährigen Energiepflanzenkulturen und einjährigen Nahrungs- oder Futterpflanzen wegen der unterschiedlichen Produktionszeiträume und der zur Bewirtschaftung benötigten unterschiedlichen Geräte kaum möglich. Mehrjährige Energiepflanzenkulturen bedeuten also de facto, dass Flächen, die bisher der Nahrungs- oder Futtermittelproduktion dienten, in Zukunft den unersättlichen Energiehunger der Automobile stillen sollen (eine mittlere Tankfüllung entspricht 100 kg Brot).

Aber auch für den Forstwirt, der traditionell mit langlebigen Holzgewächsen arbeitet, bringt der Umstieg auf Energieholzplantagenwirtschaft massive Änderungen. Dabei ist für Waldbesitzer die energetische Nutzung der Biomasse von Wäldern nichts Neues. Vor der Verwendung fossiler Energieträger und industriell hergestellter Chemikalien wurden 80 – 90 % der Biomasse der Wälder nicht als Sägeholz verwendet, sondern als Brennholz, Holzkohle oder als Rohstoff für Gewerbe und Industrie, allen voran als Pottasche für die Glaserzeugung. Daneben wurde Laubstreu vom Waldboden gesammelt und als Einstreu in Ställen und als Düngemittel in der Landwirtschaft verwendet.

Als fossile Energieträger Brennholz und Holzkohle vom Markt verdrängten, wurden Forstbetriebe zu Veredelungsbetrieben, die versuchen, möglichst viel des Biomassezuwachses in hochwertige Holzsortimente, vor allem Rundholz für die Sägeindustrie, zu lenken. Heute beträgt der Anteil dieser Sortimente 70 – 80 %. Mit schwächerem Holz wird die Papier- und Zellstoffindustrie bedient und auch dafür nicht geeignetes Holz wird meist in Form von Hackschnitzeln als Heizmaterial verwendet. Darüber hinaus noch Biomasse zu entnehmen, führt rasch zur Nährstoffverarmung und Bodenversauerung, weil gerade Reisig und Blattmasse die höchsten Gehalte an Pflanzennährstoffen aufweisen. Darüber wusste man bereits im 19. Jahrhundert gut Bescheid [2].

Aufgrund der geringen Mengen und geringen Lagerungsdichte sowie des Transportes über lange Wegstrecken ist Restbiomasse aus konventioneller Waldbewirtschaftung keine Option für die Bioethanolindustrie. Auch aus ökologischen Gründen wäre der Entzug von Reisig und Blattmasse sehr bedenklich, weil damit dem Bodenleben für die Aufrechterhaltung wichtiger Bodenfunktionen unerlässliche Nahrungs- und Energiequellen vorenthalten würden.

Bioethanol der zweiten Generation kann nach gegenwärtigem Wissensstand nicht in Kleinanlagen am Bauernhof oder dezentral im Forstbetrieb hergestellt werden, sondern nur in Großanlagen, die aus Plantagen innerhalb eines Umkreises von 20 bis 30 km mit Biomasse bedient werden. Das bedeutet, dass Wald in erheblichem Ausmaß in Energieplantagen umgewandelt werden müsste.

Wenn die gesetzlichen und finanziellen Rahmenbedingungen stimmen, werden Waldbesitzer vermutlich nicht zögern, von der aufwändigen Wertholzproduktion auf Biomasseplantagen umzusteigen, die sehr einfach maschinell zu bewirtschaften sind. Angesichts der sehr langen Produktionszeiträume der traditionellen Forstwirtschaft von bis zu hundert Jahren, werden vielleicht manche Waldbesitzer zögern, weil sie Zweifel haben, dass der Bioethanolmarkt für so lange Dauer gesichert ist. In Wald rückgewandelte Energieholzplantagen liefern nämlich erst nach Jahrzehnten kostendeckende Erträge. Volkswirtschaftlich ist es höchst fragwürdig, von Holz als veredelter Waldbiomasse mit vielfältigem Gebrauchswert und großem Wertschöpfungpotenzial in der Verarbeitung auf rohe Biomasse für die Energiewirtschaft umzusteigen, insbesondere dann, wenn öffentliche Mittel eingesetzt werden müssen, um die geringe Wertschöpfung der Produktion zu kompensieren.

Bioethanolfabriken der zweiten Generation verwenden die gesamte oberirdische Biomasse von Pflanzen und sind daher prinzipiell effizienter als die Anlagen der ersten Generation, die in Mitteleuropa vor allem Getreide oder Zuckerrüben verarbeiten. Ein weiterer, immer betonter Vorteil mehrjähriger Biomassenkulturen ist der im Vergleich zu Getreide und Rüben längere Erntezeitraum. Energieholzplantagen können theoretisch das ganze Jahr über genutzt werden. Allerdings ist während des Austriebes der Wassergehalt sehr hoch, und im Winter können Reif und Schnee die Ernte und den Transport sehr erschweren. Der Nachteil von Grasbiomasse oder Holzschnitzeln gegenüber Getreide ist, dass diese wegen ihrer geringen Schüttdichte ungleich schwieriger im Ethanolwerk auf Vorrat zu halten sind. Ohne energieaufwändige Trocknung kann sich geschüttetes Hackgut im Freien bis zur Selbstentzündung erhitzen und dabei natürlich erhebliche Mengen an CO2 und anderen Treibhausgasen freisetzen. Ein hinsichtlich des Klimaschutzes möglicher positiver Effekt mehrjähriger Pflanzenkulturen ist die potenziell größere Kohlenstoffspeicherung im Boden. Um die Kohlenstoffsequestrierung umfassend bewerten zu können, muss man allerdings auch die mögliche Ausgasung von Treibhausgasen aus dem Boden unter verschiedenen Boden- und Klimabedingungen erfassen und berücksichtigen.

Biomasseplantagen müssen wie alle Intensivkulturen gedüngt werden, um die Bodenfruchtbarkeit zu bewahren und hohe Produktivität zu sichern. Energieholzplantagen unterscheiden sich diesbezüglich sehr grundlegend von Wäldern im traditionellen mitteleuropäischen Sinn, die aufgrund des extrem geringen Nährstoffgehaltes des Holzes und der langen Umtriebszeiten ohne Dünger auskommen. In Energieholzplantagen werden ungleich höhere Anteile an nährstoffreichen Pflanzengeweben, wie Rinde und Knospen, entzogen. Daher muss gedüngt werden und man kann bei Biomasseholzplantagen nicht von Wald im traditionellen mitteleuropäischen Sinn sprechen.

Ausgedehnte Änderungen der Landnutzung von traditioneller Land- oder Forstwirtschaft zu neuen mehrjährigen Biomassekulturen für die Biospritproduktion haben natürlich auch erhebliche Auswirkungen auf die Biodiversität. Mehrjährige Gräser (Miscanthus oder Panicum) und Ausschlagplantagen von Weiden oder Pappeln sind völlig andere Habitate für Wildtiere als konventionelle landwirtschaftliche Felder mit Fruchtwechsel, Weideland oder Hochwald. In großflächigen Monokulturen können Schädlinge und Pflanzenkrankheiten unerwartet zum Problem werden. Mit erheblichen Auswirkungen auf Oberflächen- und Grundwasser ist zu rechnen. Da Pflanzung, Pflege und Ernte der Biomasse hoch mechanisiert sind, müssen sich auch die Menschen in ländlichen Gebieten an die geänderten Arbeitsmöglichkeiten anpassen. Der Transport des Erntegutes auf öffentlichen Straßen ist ein weiterer zu berücksichtigender Aspekt. Natürlich ist auch der Erholungswert der ländlichen Räume von den geforderten Umstellungen betroffen.

Zusammenfassend meine ich, dass sich auch die Bioethanolproduktion aus mehrjährigen Biomasseplantagen auf umgewandelten land- und forstwirtschaftlichen Flächen als Holzweg erweisen wird. Solange wir nicht gesamthaft über eine Ressourcen schonende Zukunftsentwicklung nachdenken, werden Lobbyisten und Geschäftsleute, die mit Klimaschutz und insbesondere Emissionshandel viel Geld verdienen, versuchen, die Politik für ihre Zwecke zu beeinflussen. E10 ist ein Beispiel dafür. Insgesamt muss es aber das vorrangige Ziel sein, künftig mit weniger Ressourceninanspruchnahme – von der Energie über seltene Erden bis zu Wasser und Boden – auszukommen und knappe Ressourcen klüger zu nutzen. Klare Vorgaben und Grenzwerte würden meiner Meinung nach Innovationen mehr stimulieren als einseitige Fokussierung auf Kohlenstoffemissionen und Emissionshandel. So schwer das Klimaproblem auch wiegt, es ist bei Weitem nicht die einzige Bedrohung, mit der künftige Generationen fertig werden müssen. Einschränkung von unnötigem Ressourcenverbrauch bedeutet automatisch auch Klimaschutz. GG, Wien, 29.11.2011


[1] Bundesgesetz zur Einhaltung von Höchstmengen von Treibhausgasemissionen und zur Erarbeitung von wirksamen Maßnahmen zum Klimaschutz; BGBl. I Nr. 106/2011

[2] S. Hausegger: „Intensive Forstwirthschaft und ihre Folgen“, Österreichische Vierteljahresschrift für Forstwesen, XI, 1861, S. 88–104 und 248–277


Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.


 

inge Thu, 01.12.2011 - 05:20

Leben am Mars, Neutrinos und ein schmaler Grat…

Leben am Mars, Neutrinos und ein schmaler Grat…

Fr, 24.11.2011- 04:20 — Franz Kerschbaum

Icon Politik & GesellschaftFranz Kerschbaum

 

Manche von uns erinnern sich noch an den August 1996, als von einem Tag auf den anderen alle Medien voll mit Sensationsmeldungen zum endlich nachgewiesenen Leben auf dem Mars waren. Am besten gefällt mir immer noch die wunderbare Headline von Täglich Alles am 8. August: „ Also doch: Marsmännchen. Ziemlich klein, 3 Milliarden Jahre alt — leider tot“.

Der deutlich sachlichere Artikel in der Presse „Auf der Suche nach Geschwistern im All“ vom 9. August wurde ironisch mit Meister Yoda aus Star Wars illustriert. Die kritischeren Geister mahnten ein Déjà-vu der Anfang des 20. Jahrhunderts von Percival Lowell [1] verursachten Mars-Hysterie ein — doch es half nichts, Zeitungen, Magazine, TV- und Radioformate waren über Wochen voll mit immer spekulativeren Beiträgen zum vermeintlichen Leben am Mars.

Was war geschehen? Am 7. August 1996 stellte die NASA in einer Pressekonferenz bzw. Aussendung [2] der staunenden medialen Öffentlichkeit die sensationellen Ergebnisse einer Untersuchung des Marsmeteoriten ALH84001 vor [3]. Aus mikroskopischen und chemischen Evidenzen schlossen die Forscher in Science: “Although there are alternative explanations for each of these phenomena taken individually, when they are considered collectively, particularly in view of their spatial association, we conclude that they are evidence for primitive life on early Mars.” In der NASA-Pressekonferenz klang dies aus dem Munde einer der Autoren, Richard Zare weniger vorsichtig: “The existing standard of proof, which we think we have met, includes having an accurately dated sample that contains native microfossils, mineralogical features characteristic of life, and evidence of complex organic chemistry."

Selbst das war für die Medien nicht explizit genug. Am besten erhellt der schon am 8. August (!) in der Baltimore Sun erschienene, geradezu hellsichtige Cartoon von Kevin Kallaugher die mediale Rezeptionsgeschichte. Kevin KAL Kallaugher: Life on Mars

Cartoon von Kevin KAL Kallaugher [4]. Der Cartoon erschien erstmals in der Baltimore Sun am 8. August 1996 anlässlich der NASA Pressekonferenz vom 7. August 1996 bei der Wissenschaftler mögliche Anzeichen für vergangenes, mikrobielles Leben am Mars bekanntgaben. Wiedergabe mit Erlaubnis des Künstlers.

Wie ging die Sache weiter? Schon wenige Monate später erschienen die ersten kritischen Arbeiten, die die einzelnen Indizien für mikrobielle Lebensspuren in ALH84001 auch durch anorganische Prozesse erklärten. Heute ist von der damaligen Euphorie wenig übrig und ALH84001 in der Scientific Community eher ein warnendes Beispiel für allzu „aufgeregte“ Pressearbeit. Die weiteren kritischen Arbeiten zu ALH84001 haben ohne NASA-Rückenwind mit wenigen Ausnahmen [5] keinen Platz mehr in populären Medien gefunden.

Die Moral von der Geschichte: Insbesondere bei Themen mit echtem „Sensationspotential“ werden Wissenschaftler, oft finanziell oder organisatorisch abhängig und eingespannt in professionelle PR-Maschinerien wie der der NASA leicht verführt, bei ihren Aussagen den schmalen Grad wissenschaftlicher Seriosität mit all der nötigen Differenzierung zu Gunsten eines schnellen Medialen Ruhms zu verlassen. Medien greifen dies nur allzu gerne für marktschreierische Schlagzeilen und ebensolche Beiträge auf.

Haben die an wissenschaftlicher Öffentlichkeitsarbeit Beteiligten, die Wissenschaftler und Forschungsinstitutionen einerseits und die Medien andererseits nun etwas daraus gelernt?

Wie mir scheint, zumindest ein klein wenig.

Vor wenigen Wochen, ab dem 23. September 2011 waren die Medien wieder einmal voll mit „bahnbrechenden“, „revolutionären“ Meldungen wie: „Hat Einstein geirrt?“, „Physiker rätseln: Relativitätstheorie widerlegt?“ und ähnlichem. Meist waren selbst in der Boulevardpresse [6] zumindest Fragezeichen dabei, als über die von CERN [7] stolz präsentierten vorläufigen Ergebnisse [8] zu möglicherweise überlichtschnellen Neutrinos berichtet wurde. CERN spielte vorsichtig aber doch mit dem verlockenden Sensationspotential: “If this measurement is confirmed, it might change our view of physics, but we need to be sure that there are no other, more mundane, explanations. That will require independent measurements.” oder “The potential impact on science is too large to draw immediate conclusions or attempt physics interpretations.” Während sich die weitere Fachwelt nach einer kurzen Schrecksekunde unaufgeregt auf die Fehlersuche [9] machte, wurde in den nächsten Tagen und Wochen in Kommentaren und Blogs weiter wild spekuliert . Mittlerweile wurde die Arbeit nach weiteren Tests der Autoren bei Science offiziell eingereicht [10].

Was weitere wissenschaftliche Arbeiten ergeben werden, wissen wir sowohl beim (vergangenen) Leben auf dem Mars als auch bei der (zu hohen?) Geschwindigkeit der Neutrinos nicht – beides zweifelsohne spannende Fragen der gegenwärtigen Forschung mit „Sensationspotential“. In jedem Fall zeigen uns diese und vergleichbare andere mediale Rezeptionsprozesse, wie schmal der Grat zwischen differenzierter wissenschaftlicher Öffentlichkeitsarbeit und Sensationsmache ist.

Und uns Forscherinnen und Forschern sei wieder einmal die alte Forderung “Extraordinary claims require extraordinary proof.“ von Marcello Truzzi ins Stammbuch geschrieben…


Quellen und Einzelnachweise

[1] http://query.nytimes.com/mem/archive-free/pdf?res=F1071FFE3C5512738DDDA00894DA415B868CF1D3

[2] http://nssdc.gsfc.nasa.gov/planetary/text/mars_life.txt

[3] http://www.earth.northwestern.edu/people/seth/351/search.life.pdf

[4] http://www.kaltoons.com

[5] http://www.usatoday.com/tech/science/space/2006-08-06-mars-life_x.htm

[6] http://www.krone.at/Wissen/Physiker_raetseln_Relativitaetstheorie_widerlegt-Neutrinos_verblueffen-Story-297080

[7] http://public.web.cern.ch/press/pressreleases/Releases2011/PR19.11E.html

[8] http://arxiv.org/abs/1109.4897

[9] http://www.nature.com/news/2011/111020/full/news.2011.605.html

[10] http://news.sciencemag.org/scienceinsider/2011/11/faster-than-light-neutrinos-opera.html


 

inge Thu, 24.11.2011 - 05:20

Zu Wirkung und Nebenwirkungen von Medikamenten

Zu Wirkung und Nebenwirkungen von Medikamenten

Fr, 17.11.2011 - 04:20 — Inge Schuster

Icon MedizinInge Schuster

In der zentralen, hochromantischen Szene des Freischütz werden in der Wolfsschlucht Zauberkugeln gegossen, die nie ihr angepeiltes Ziel verfehlen. Die Treffsicherheit derartiger Zauberkugeln hat Paul Ehrlich, der Vater der Chemotherapie, vor rund hundert Jahren als Vision auf die erwünschte Wirkungsweise von Medikamenten übertragen.Ausgehend von den Versprechungen der damals noch jungen Chemie formulierte er: „Wir müssen chemisch zielen lernen“ und meinte damit, daß Medikamente spezifisch an den jeweils relevanten Krankheitserreger und nur an diesen andocken dürften. Dies bedeutete in den von ihm konkret behandelten Projekten: „Das Abtöten von Parasiten ohne erhebliche Schädigung des Organismus“.

Nach wie vor ist es oberstes Ziel der Pharmaforschung Arzneimittel zu finden, die bei einer angestrebten Wirkung frei sind von unerwünschten Nebeneffekten. Dies konnte aber weder zu Zeiten Ehrlichs verwirklicht werden (Ehrlich hatte mit Salvarsan zwar das erste wirksame Mittel gegen Syphilis gefunden, allerdings zeigte dieses erhebliche Nebenwirkungen) noch mit unseren heutigen Mitteln. Jeder Arzneistoff bindet im Organismus an eine Vielzahl von Strukturen und kann deren Eigenschaften modulieren. Das Spektrum der daraus resultierenden Nebenwirkungen reicht von harmlosen Effekten, manchmal auch durchaus positiven Begleiterscheinungen, bis hin zu schwer-und-schwerstwiegenden negativen Auswirkungen.

Die Weltgesundheits-Organisation (WHO) faßt dies in wenigen Sätzen zusammen [1]: “All medicines have side effects and some can be damaging. The effects of any treatment with a medicine cannot be predicted with absolute certainty. All medicines have both benefits and the potential for harm. People in every country of the world are affected by adverse drug reactions (ADRs). Unintended, harmful reactions to medicines – ADRs - are among the leading causes of death in many countries.”

Wie häufig treten schwere und schwerste Nebenwirkungen von Arzneimitteln (ADRs) auf ?

Sehr umfangreiche Studien in den USA und England geben an, daß rund 6,6% aller Aufnahmen in Spitäler auf Grund von ADRs erfolgen [2]. Von den Patienten, die bereits wegen anderer Ursachen in stationärer Behandlung sind, erleiden rund 15% Nebenwirkungen, deretwegen sich der Spitalsaufenthalt bedeutend verlängern kann [3]. Vergleichbare Zahlen kommen aus vielen anderen Ländern, vergleichbar sind diese auch hinsichtlich schwerster, zum Tod führender Nebenwirkungen, die an 4.- 6. Stelle der Todesursachen rangieren [3, 4]. Berücksichtigt man, daß Nebenwirkungen bei Patienten in ambulanter Behandlung nicht ausreichend dokumentiert werden, dürfte das gesamte Problem noch wesentlich gravierender sein.

Welche Maßnahmen können getroffen werden um die für betroffene Patienten höchst schädigende, für Institutionen und natürlich auch Leistungsträger höchst unbefriedigende Situation zu verbessern?

Nach Meinung der WHO sollten zumindest 60% der ADRs vermeidbar sein. Deren Ursachen sind u.a:

  1. eine fehlerhafte Diagnose und damit die Verschreibung einer falschen Medizin oder falschen Dosis einer an und für sich richtigen Medizin,
  2. das Nichteinhalten der Anweisungen zur Anwendung eines Arzneimittels („Non-Compliance“),
  3. eine naive Selbstbehandlung mit Arzneimitteln und
  4. die individuelle genetische Prädisposition des Patienten [1].

Wenn man an diesem multifaktoriellen Rad in Richtung Reduktion von ADRs drehen möchte, kann dies – abgesehen von Fehldiagnosen und Schlampereien – durch bessere Information des Patienten (in einer ihm verständlichen Sprache) geschehen, mit dem Hinweis auf Nutzen und Risiken der empfohlenen Behandlung. Darüber hinaus sehe ich vor allem Chancen in der Berücksichtigung des individuellen genetischen Make-ups eines Patienten, welches Konzentration und Verweildauer eines Arzneimittels im Körper bestimmt und – damit z.T. zusammenhängend – in der Vermeidung von Mehrfach-Medikationen.

Was geschieht mit Fremdstoffen im Allgemeinen und Arzneistoffen im Besonderen im Organismus?

Unser Organismus, wie auch der aller höherer Lebewesen, ist permanent einer ungeheuren Vielfalt und Vielzahl an Fremdstoffen aus Umwelt und Nahrung ausgesetzt, die über Kontakt mit der Körperoberfläche, über das Verdauungssystem oder über die Atemwege in den Organismus gelangen können. In besonderem Maße sind kleine, fettlösliche (lipophile) Fremdstoffe geeignet sich in Fettgewebe und in den Lipid-Membranen, die Zellen und Organellen innerhalb der Zellen umschließen, einzulagern. Ohne einen entsprechenden Schutzmechanismus würde dies zu einer enormen Akkumulation derartiger lipophiler Verbindungen führen und daraus resultierend zum Versagen von Zell-und Organfunktionen.

Im Laufe der Evolution haben Organismen eine Reihe von Enzymen – Katalysatoren – entwickelt, die lipophile Fremdstoffe in zunehmend wasserlösliche Produkte (Metabolite) verwandeln können, welche eine geringere Akkumulation in Zellen zeigen und leichter aus dem Organismus ausgeschieden werden können (Abbildung 1).

Metabolisierung lipophiler Fremdstoffe (schematisch)Abbildung 1. Fettlösliche (lipophile) Fremdstoffe (türkis), die in Zellen eintreten und sich darin anreichern, werden zu wasserlöslicheren, weniger akkumulierenden Metaboliten (grün) umgewandelt.

Im Prinzip ist dieses Set an Enzymen imstande, jedes bereits vorhandene und auch jedes in Zukunft noch zu synthetisierende Molekül zu Produkten umzuwandeln, die den Organismus über die üblichen Ausscheidungswege (Urin, Kot) verlassen können. (Nur wenige Typen von Molekülen, wie z.B. die Dioxine, leisten diesen Enzymen Widerstand, reichern daher bei fortgesetzter Exposition mehr und mehr im Organismus an und führen zu dessen massiver Schädigung).

Für die Fähigkeit verschiedenartigste Fremdstoffe metabolisieren zu können, bedarf es keiner sehr breiten Palette an unterschiedlichsten Enzymen, es genügt eine relativ kleine Gruppe, die sehr breite, zum Teil überlappende Spezifitäten für derartige Substanzen aufweisen. Eine besonders wichtige Rolle spielen dabei Enzyme aus der sogenannten Cytochrom P450 Familie (Eine Familie von Proteinen, die bereits in den primitivsten Lebensformen vorhanden waren und deren Struktur und Funktion über die Evolution konserviert wurde). Diese Enzyme (CYPs) sind für die Umwandlung von mehr als 75% aller lipophilen Fremdstoffe und damit auch für den Großteil an Arzneistoffen verantwortlich.

CYPs finden sich in praktisch allen Organen, besonders viel davon sitzt in Organen wie Leber und Darm, die über die Nahrungsaufnahme primär sehr hohen Konzentrationen an Fremdstoffen ausgesetzt sind. Für den Metabolismus der gebräuchlichen Arzneimittel sind - abhängig von deren jeweiligen Strukturen - nur wenige CYP-Formen verantwortlich (Abbildung 2): Der Großteil aller Pharmaka – vor allem relativ große Moleküle – werden von CYP3A4 umgewandelt, rund 20% von CYP2D6 und ein vergleichbarer Anteil von den nahe verwandten CYPs 2C9 und 2C19.

Metabolisierung von PharmazeutikaAbbildung 2. Nur wenige CYP-Formen sind für den Metabolismus aller gebräuchlichen Arzneistoffe verantwortlich.

Konsequenzen der Metabolisierung von Arzneimitteln

Die Metabolisierung von Arzneistoffen führt zu einer Veränderung des Molekülcharakters und damit in den meisten Fällen zum raschen Verlust der erwünschten pharmakologischen Wirkung. Es hängt daher von der vorhandenen Menge und Aktivität der CYP-Formen ab, wie stark ein Medikament wirkt und wie lange seine Wirkung anhält.

Werden – wie es häufig der Fall ist – mehrere unterschiedliche Medikamente gleichzeitig angewandt, die über dieselbe CYP-Form metabolisiert werden, so konkurrrieren diese um dieses Enzym (sogenannte drug-drug interactions) und können sich gegenseitig in ihrem Abbau beeinträchtigen. Langsamerer Metabolismus führt zu längeranhaltenden höheren Konzentrationen und damit zu längerer Wirkung, steigert aber – entsprechend einer „Überdosierung“ – das Risiko für unerwünschte Nebenwirkungen.

Mehrfachmedikationen spielen eine besonders große Rolle bei Spitalspatienten (denen manchmal auch mehr als 15 unterschiedliche Medikamente pro Tag verabreicht werden) und ebenso auch bei Senioren aufgrund steigender Morbidität. Bei erhöhtem Substrat-Angebot können CYPs zwar verstärkt synthetisiert (induziert) werden, jedoch oft nicht ausreichend für Multi-Medikationen. Zunehmend demonstrieren Studien die klinischen Auswirkungen der drug-drug interactions, die besonders ausgeprägt sind, wenn es sich um die Konkurrenz für das CYP2D6 handelt. Dieses Enzym ist nur in relativ niedriger Konzentration vorhanden, aber für den Metabolismus von rund 20% aller gebräuchlichen Pharmaka verantwortlich (Abbildung 2), darunter befinden sich überaus wichtige, häufig gleichzeitig angewandte Klassen von Schmerzmitteln, Antidepressiva, Antipsychotika, Antiarrhythmika und Beta-Blockern.

Menschen unterscheiden sich in der Art und Weise, wie sie mit Arzneistoffen umgehen.

Ein besonderes Problem resultiert aus der genetischen Ausstattung einzelner Patienten. Gene der CYP-Enzyme weisen sogenannte Polymorphismen auf, d.h. es gibt Genvarianten die für CYP-Formen kodieren, deren Spektrum von nicht-funktionsfähigen über (normal-) funktionierende zu extrem rasch funktionierenden Enzymen reicht [5]. Je nachdem welche dieser Formen ein Mensch in seinem Genom geerbt hat, reagiert er in unterschiedlicher Weise auf Medikamente (und andere Fremdstoffe).

Von gravierender klinischer Bedeutung sind hier die Polymorphismen des oben bereits erwähnten CYP2D6: Bis zu 10% der Bevölkerung besitzen kein funktionsfähiges Enzym, d.h. sie können entsprechende Medikamente nicht oder nur sehr langsam (über andere Enzyme) abbauen, das Risiko für Nebenwirkungen ist damit hoch, insbesondere bei (der häufig entbehrlichen) Multi-medikation (siehe oben). Eine ebenso große Bevölkerungsgruppe besitzt ultra-rasch metabolisierende CYP2D6-Formen, d.h. entsprechende Medikamente werden zu rasch abgebaut und können teilweise überhaupt nicht ihre Wirkung entfalten. Was dies für die Therapie mit den oben angegebenen Medikamenten bedeutet, braucht wohl nicht näher angeführt werden.

Pharmakogenetische Tests zur Erhöhung der therapeutischen Wirkung und Vermeidung von Nebenwirkungen

Die junge Wissenschaft Pharmakogenetik untersucht den Einfluß des genetischen „Make-ups“ von Patienten auf Wirkung und Nebenwirkungen von Pharmaka. Als prominentes Beispiel für die erfolgreiche Anwendung pharmakogenetischer Methoden, wird in Fachliteratur und Populärliteratur die Testung auf Genvarianten von CYPs angeführt. Hier ist bereits seit mehreren Jahren ein Bio-Chip am Markt, der es erlaubt, auf die häufigsten Genvarianten von CYP2D6 (und auch CYP2C19) zu prüfen. Dieser Test ist mit rund 1000 € zwar nicht billig, erlaubt es aber einem großen Teil der Untersuchten festzustellen, welcher Gruppe von „Metabolisierern“ sie angehören. Mit dieser Information kann einerseits die Verschreibung von Medikamenten vermieden werden, die schlecht oder gar nicht metabolisiert würden und damit zu schweren Nebenwirkungen führen könnten. Andererseits kann hier und auch im Falle von ultra-rasch Metabolisierern durch entsprechende Adjustierung des Dosierungsschemas die erwünschte Wirkung bei gleichzeitig gemindertem Risiko für schwere Nebenwirkungen erzielt werden.

Die Übernahme der Kosten derartiger Testungen durch öffentliche Kassen sollte für unser Gesundheitssystem prioritäre Bedeutung haben: Patienten würden entscheidend profitieren, wenn sie nicht mehr mit der Wirkung schwerste Nebenwirkungen riskierten oder ein Medikament nach dem anderen auszuprobieren bräuchten, bis endlich eines wirkte. Es würden aber auch die Kosten für das Gesundheitssystem bedeutend sinken, infolge reduzierter Ausgaben für Medikamente ebenso wie infolge insgesamt reduzierter Behandlungskosten.


Einzelnachweise und Quellen:

[1] WHO (2008): http://www.who.int/mediacentre/factsheets/fs293/en/

[2] Pirmohamed M, et al (2004): Adverse drug reactions as cause of admission to hospital: prospective analysis of 18 820 patients. Bmj 329: 15–19

[3] Pirmohamed M. (2010) Drug-drug interactions and adverse drug reactions: separating the wheat from the chaff. Wien Klin Wochenschr 122:62-64

[4] Lazarou J, et al., (1998) Incidence of adverse drug reactions in hospitalized patients: a metaanalysis of prospective studies. Jama 279: 1200–1205

[5] Ingelman-Sundberg M, et al., (2007) Influence of cytochrome P450 polymorphisms on drug therapies: Pharmacogenetic, pharmacoepigenetic and clinical aspects. Pharmacol Ther 116: 496-526


 

inge Thu, 17.11.2011 - 05:20

Gibt es Rezepte für die Bewältigung von Komplexität?

Gibt es Rezepte für die Bewältigung von Komplexität?

Fr, 03.11.2011- 05:20 — Peter Schuster

Icon Biologie Peter Schuster

Die biologische Evolution schafft komplexe Gebilde und kann damit umgehen.

Unsere heutigen Gesellschaften sind mit überaus komplexen Problemen in Wirtschaft, Zusammenleben und Auseinandersetzung mit der Natur konfrontiert, deren Ursachen zum Teil der Natur inhärent, zum Teil vom Menschen verursacht sind.

Zweifellos sahen sich aber auch frühere Generationen entsprechend ihrem damaligen Wissensstand nicht weniger komplexen Situationen ausgesetzt. Das stetig steigende Wissen der Menschheit liefert zwar immer mehr Einsichten in Zusammenhänge, welche früheren Gesellschaften verschlossen waren, die zu lösenden Probleme haben aber nicht zuletzt durch die rasante Zunahme der Weltbevölkerung in einem ebenso gewaltigen Ausmaß zugenommen.

Wenn man beispielsweise den Problemkreis Wetter und Klima betrachtet, so wurden Unwetter, Blitze, Überflutungen und Dürre bis zum Beginn der Neuzeit als Strafmaßnahmen erzürnter Götter oder als Untaten von Hexen und Zauberern interpretiert. Die zum Teil sehr ausgereifte Weltsicht der Mayas versetzte diese zwar in die Lage die Bewegungen der Gestirne mit einer erstaunlichen Präzision vorauszuberechnen und einen äußerst genauen Kalender zu erstellen, verhalf ihnen aber nicht zum dringend benötigten Regen, für den sie dem Regengott Chaac so viele Menschenopfer darbrachten.

Erst die Physik des ausgehenden 17. und des 18. Jahrhunderts schuf mit der Entdeckung elektrischer Phänomene auch eine neue Basis für die Interpretation der Wettererscheinungen. Benjamin Franklin nutzte diese Kenntnisse und erfand 1752 den Blitzableiter, als er einen Papierdrachen mit Metallspitze in einem Gewitter steigen ließ. Es dauerte allerdings noch zwei Jahrhunderte, bevor eine Theorie der Gewitterbildung und Blitzentladung entwickelt war; die Vorhersagemöglichkeiten, wann und wo ein Blitz einschlagen wird, sind auch heute noch beschränkt. Jedoch war mit dem Blitzableiter eine Schutzmaßnahme möglich geworden, welche viel vom Schrecken der Gewitter genommen hat.

Die Möglichkeit, komplexe Fragestellungen in Angriff zu nehmen, ließ noch auf sich warten. Vorerst feierte die Physik triumphale Erfolge indem es ihr gelang, komplexe Sachverhalte auf möglichst wenige messbare und kontrollierbare Faktoren zu reduzieren. Die Suche nach dem Einfachen führte zur Entwicklung von Telephon, Radio, Grammophon, Kino, Automobil, Flugzeug, Turbine und vielem anderen mehr. Erst Ende des 19. Jahrhunderts begann mit den Pionieren Ludwig Boltzmann und Josiah W. Gibbs die Erforschung der Physik komplexer Vorgänge.

Wann bezeichnen wir einen Sachverhalt als komplex?

Drei Merkmale müssen gleichzeitig zutreffen: (i) die Nichtdurchschaubarkeit, (ii) die Nichtvorhersagbarkeit des Ergebnisses und (iii) die Beeinflussbarkeit des Ergebnisses durch viele Faktoren.

Darüber hinaus kann Komplexität sich in unterschiedlichen Formen manifestieren: als unorganisierte Komplexität und als organisierte Komplexität (W.Weaver: Science and Complexity. 1948).

Brownsche Bewegung Hurricane Katrina
Abbildung 1 - Komplexität: links: Die Brownsche Bewegung als Beispiel für unorganisierte Komplexität (Bild: Christian Bayer, Thomas Steiner, CC-by-SA 2.5); rechts: organisierte Komplexität am Beispiel des Hurrikans Catrina (Bild: NASA 28.8.2005)

Als Beispiel für unorganisierte Komplexität kann die Bewegung von Molekülen in einem Gas herangezogen werden. Jedes dieser Milliarden und Abermilliarden Moleküle bewegt sich geradlinig, bis es mit einem anderen Molekül zusammenstößt und abrupt die Richtung ändert. Als sogenannte Brownsche Bewegung unter dem Mikroskop sichtbar gemacht, sieht man die Spur eines großen Teilchens, das – gestoßen durch die aus allen Richtungen kommenden Atome – sich wie in einem Irrflug bewegt. (Abbildung 1). Diese („thermische“) Bewegung erscheint regellos, das Kollektiv der Gasmoleküle weist aber eine ganz genau messbare Dichte und Temperatur auf. Die thermische Bewegung ist unter anderem auch verantwortlich für den Temperaturausgleich durch den Wärmefluss zwischen einer wärmeren und einer kälteren Schicht. Unorganisierte Komplexität ist durch statistische Verfahren – heute in Form der statistischen Mechanik ein integraler Bestandteil der Physik – behandelbar und wird nicht mehr den wirklich komplexen Phänomenen zugeordnet.

„Organisierte Komplexität“ kennen wir in vielen unterschiedlichen Facetten; in ihrer einfachsten Form charakterisiert man sie als das Ergebnis der Selbstorganisation physikalischer Systeme. Zur Illustration als einfaches Beispiel betrachten wir eine Flüssigkeit in einer flachen Schale, die von unten erhitzt wird: Die heiße leichtere Flüssigkeit befindet sich unten, die kalte schwere Flüssigkeit ist oben – ein Ausgleich ist unvermeidbar. Bei geringen Temperaturdifferenzen erfolgt der Temperatur- und Dichteausgleich durch die unkoordinierte thermische Bewegung. Bei größeren Temperaturunterschieden wird diese Form des Ausgleichs zu langsam und die regellose Diffusion wird abgelöst von der Rayleigh-Bénard-Konvektion: an bestimmten Stellen einer Flüssigkeit steigen alle Moleküle nach oben, an anderen Stellen fließen sie nach unten, wodurch der Dichteausgleich rascher bewerkstelligt wird. In der flachen Schale beobachtet man bienenwabenartige Säulchen: Im Inneren der Sechsecke strömt die Flüssigkeit nach oben, an den Rändern nach unten.

Diese Koordination der Bewegung einzelner Moleküle bei höheren Temperaturunterschieden kann auf die Atmosphäre übertragen werden und hat mitunter fatale Konsequenzen: Bei genügend hohen Bodentemperaturen führen die koordinierten Bewegungen der Luftsegmente zur Ausbildung von Gewittern und unter Umständen zu Tornados. Über sehr warmen Meeresoberflächen können Hurrikans oder Taifune entstehen (Abbildung 1). Die gegenwärtige Atmosphärenphysik stellt eine ausgereifte Theorie für die Entstehung von Gewittern, Tornados und Hurrikans zur Verfügung, kann jedoch (noch) nicht präzise vorhersagen, wann und wo ein Tornado oder ein Hurrikan auftreten wird.

Organisierte Komplexität – Selbstorganisation - Musterbildung

Selbstorganisationsprozesse sind überaus weit verbreitet und keineswegs auf Flüssigkeiten und Gase beschränkt (Abbildung 2). Musterbildung gibt es z.B. wenn der Wind über den feinen Sand einer ebenen Wüste streicht und sich erst waschrumpelartige Formen, später wachsende Sandhaufen und schließlich Dünenlandschaften ausbilden. Bergsteigern bekannt sind die von Kühen auf den Abhängen von Almböden ausgetretenen regelmäßigen Pfadmuster („Ochsenklavier“). Von Termiten gebaute Nester erinnern an Miniaturkathedralen. Alle diese Phänomene werden als Ergebnisse von Selbstorganisation interpretiert – hinreichend komplexe Systeme verhalten sich ohne Zutun von außen so, als ob eine ordnende externe Kraft am Werk wäre. Dieses Entstehen von Ordnungen manifestiert sich nur in Kollektiven und kann nicht direkt aus den Eigenschaften und Handlungen der Individuen erklärt werden.

Sanddünen Termitenbau
Abbildung 2 - Beispiele für Selbstorganisation: links: Sand Dünen: Murzuq Desert, SW Libya (http://earthobservatory.nasa.gov/ ); rechts: Cathedral Termite Mounds, Northern Territory (photo: Brian Voon Yee Yap, GNU free doc license)

Selbstorganisation und ihre Mechanismen wurden zu einem zentralen Thema von Physik, Chemie und Biologie des 20. Jahrhunderts. Eindrucksvolle Beispiele für die Entstehung von Mustern bei chemischen Prozessen wurden Anfang der Fünfzigerjahre von Alan Turing, einem englischen Mathematiker und Pionier der Computerwissenschaften vorhergesagt und zur selben Zeit vom russischen Biophysiker Boris Belousov am Beispiel einer komplexen chemischen Reaktion experimentell nachgewiesen. Heute ist die Musterbildung bei chemischen Reaktionen ebenso gut verstanden wie die Kinetik einfacher chemischer Prozesse: Die entstehenden Muster können mit beeindruckender Genauigkeit vorausberechnet werden. Ebenso wie bei den Modellen für die Ausbildung von Tornados oder Hurrikans hängt aber die genaue Vorhersage, wann und wo die Patterns zuerst entstehen werden, von nicht bestimmbaren feinsten Details ab – beispielsweise den molekularen Details der Gefäßoberfläche oder dem Auftreten von winzigen Gasblasen.

Selbstorganisation lebender Systeme - Reproduktion, Mutation, Selektion

Computerrechnungen auf der Basis des Turingschen Modells der Musterbildung ergaben erstaunliche Übereinstimmungen mit den in der Natur auf den Fellen, Häuten und Schalen aufgefundenen Färbungspatterns (Beispiele in Abbildung 3). Das Turingsche Modell auf die embryologische Morphogenese bei Insekten und Wirbeltieren übertragen konnte nicht nur viele Phänomene beschreiben, sondern sogar Fehlbildungen bei mechanischen oder chemischen Störungen des Entwicklungsprozesses korrekt vorhersagen. Allerdings hat die molekulare Aufklärung der Entwicklungsgenetik gezeigt, dass die Prozesse, welche tatsächlich im Organismus ablaufen, viel komplizierter sind als in dem chemisch motivierten Turingschen Modell. Informationsaustausch durch Kontakte zwischen den Zellen, organisierter Transport von Molekülen in und aus Zellen und Signalkaskaden tragen ganz entscheidend zu Stabilität und Reproduzierbarkeit der Entwicklungsvorgänge bei.

Conus textile Cethosia cyane
Equus quagga
Abbildung 3: Musterbildung in der Biosphäre auf Schalen, Flügeln, Fellen von Tieren können mit dem Modell der Turingschen Musterbildung simuliert werden. Links oben: Conus textile (Quelle: Richard Ling, 7.8.2005; GNU free license); rechts oben: Cethosia cyane (Quelle: AirBete, 4. 3. 2006; GNU free license); unten Zebras Equus quagga (Quelle: http://www.flickr.com/photos/eismcsquare/97418367/)

Alle Organismen werden von Beginn ihres Lebens an durch Ablesung und Interpretation der auf Nukleinsäuremolekülen – mit Ausnahme einiger weniger Klassen von Viren den Desoxyribonukleinsäuren (DNA) – verschlüsselt niedergelegten genetischen Information aufgebaut. Die Information kann dabei direkt durch Mendelsche Vererbung von den Eltern an die Nachkommen weitergegeben werden oder sie wird über einen der verschiedenen epigenetischen Mechanismen zusätzlich zu den elterlichen Genen übertragen. Der Übersetzungsschlüssel für die genetische Information ist universell: Alle Organismen sprechen dieselbe Sprache. Vor jedem Vermehrungsschritt wird das DNA-Molekül kopiert. Trotz der unwahrscheinlich hohen Genauigkeit sind Kopierfehler (Mutationen) unvermeidbar. Mutationen sind die Ursache der Vielfalt in der Biologie, und sie bauen auch das Reservoir an Varianten auf, unter welchen der Selektionsprozess wählen kann. Nach dem heutigen Stand des Wissens ist die überwiegende Zahl der Mutationen ohne Auswirkung auf den Organismus („neutrale“ Mutationen) oder nachteilig. Eine wichtige Aufgabe des Selektionsprozesses ist die Eliminierung der nachteiligen Varianten. Die seltenen vorteilhaften Varianten werden durch die Selektion verstärkt und manifestieren sich in den Anpassungen an die komplexe Umwelt.

Komplexität lebender Organismen. Wie schafft es die Natur mit diesem ungeheuren Grad an Komplexität erfolgreich umzugehen?

Die Molekularbiologie hat seit ihren Anfängen in den Fünfzigerjahren des vorigen Jahrhunderts die ungeheure Komplexität des molekularen Geschehens in den lebenden Organismen aufgezeigt: Im menschlichen Genom kodieren rund fünfundzwanzigtausend Gene für Proteinmoleküle, welche das komplexe Netzwerk der chemischen Reaktionen des Stoffwechsels zum Laufen bringen und steuern. In unserem Gehirn sind einhundert Milliarden Nervenzellen mit einhundert bis eintausend mal so vielen Verknüpfungen verbunden. Unser Immunsystem kann eine überastronomisch große Zahl von molekularen Erkennungs- und Diskriminierungsakten setzen.

Das größte Rätsel der Biologie besteht weniger im Ausmaß der Komplexität als in der Tatsache, dass derart komplexe Systeme lebenstüchtig und anpassungsfähig sind. (Denken wir doch nur an die von Menschen geschaffenen komplexen Gebilde in der Politik, Gesellschaft und Wirtschaft. Sie alle tendieren zur Instabilität, wenn sie zu groß werden.) Die Lösung dieses Rätsels ist eng verknüpft mit dem evolutionären Mechanismus von Vererbung, Variation und Selektion. Die Natur entwirft neue Strukturen nicht mit den Augen eines Ingenieurs und hat keine Visionen. Sie löst die bestehenden Probleme durch Basteln (die englischen und französischen Begriffe tinkering und bricolage treffen besser, was gemeint ist). Das „Design“ des menschlichen Körpers ist dafür ein eindrucksvolles Beispiel: Stammesgeschichtlich ursprünglich ein Wurm, der sich durch den wässrigen Schlamm schlängelte, wurde daraus ein Torpedo in Fischform, der rasch durch das Wasser schwimmen konnte und im nächsten Schritt den Flossenantrieb zu Gliedmaßen umfunktionierte als er an Land ging. Schließlich, mit Beinen zur Fortbewegung und Armen für geschicktes Handwerk, richtete sich der umgebaute Torpedo auf (und hatte fortan Probleme mit Gelenken und Wirbelsäule).

Der Erfolg der evolutionären Methode besteht in ihrer universellen Anwendbarkeit. Variation und Selektion arbeiten mit einfachen Molekülen ebenso wie mit hochkomplexen Organismen (allerdings ist der Vorgang alles andere als ökonomisch, da eine enorme Zahl nicht zweckdienlicher Konstrukte auftreten kann). Worauf es ankommt sind lediglich die drei Grundvoraussetzungen, Vermehrung mit Vererbung, Mutation durch ungenaue Reproduktion und Selektion auf Grund beschränkter Ressourcen.

Die Evolution einfacher Moleküle findet ihre erfolgreiche Anwendung u.a. in der Evolutionären Biotechnologie, die seit zwanzig Jahren Moleküle züchtet, die z.B. als hochspezifische Diagnostika in der Medizin eingesetzt werden oder als Protein spaltende Enzyme in Waschmitteln. Es fehlt nicht an biologischen Beispielen bei den höchst komplexen Organismen: drei Beispiele für genetisch gesteuerte Begleitentwicklungen der Evolution zum Menschen sind die Verzögerung des Erwachsenwerdens, die Entwicklung eines für menschliche Sprachen geeigneten Kehlkopfs und die besondere Beweglichkeit der Finger für einen diffizilen Werkzeuggebrauch.

Zum Umgang mit Komplexität

In der unbelebten Umwelt bedarf es ausreichenden physikalischen Wissens, um komplexen Phänomenen begegnen zu können. Der Blitzableiter war ein Beispiel für eine einfache und wirkungsvolle Problemlösung. Andere Phänomene können zwar perfekt modelliert werden (z.B. Musterbildung bei atmosphärischen Ereignissen wie Hurrikans, Taifune oder Tornados), aber weder verhindert noch – auf Grund der Natur des Problems – mit ausreichender Präzision vorausgesagt werden. Besonders schwierig ist die gegenwärtige Situation im Fall von globalen Klimaänderungen, da die Zahl der beeinflussenden Faktoren sehr hoch ist und deren Zusammenhänge noch nicht ausreichend verstanden sind.

Eine andere Dimension der Komplexität finden wir in der belebten Natur vor: Die Zahl, der in stark verschachtelten Netzwerken miteinander verknüpften Elemente ist ungeheuer groß und sehr viele Einzelheiten der Interaktionen sind noch unbekannt. Das Rezept, das die Natur hier erfolgreich anwendet um mit diesem Komplexitätsgrad umzugehen, ist der Evolutionsmechanismus.

Noch um einiges komplexer sind Beispiele aus den menschlichen Gesellschaften, wo eine getätigte Vorhersage die weitere Entwicklung beeinflussen kann. Ein typisches Beispiel einer sich selbst erfüllenden Prophezeiung ist z.B. die Ankündigung eines Kursverlusts von Aktien, die zum Verkauf von Aktien führt und damit zum tatsächlichen Kursverlust. Ein anderes Beispiel aus dem Bereich der Medizin ist der Placebo-Effekt - eine Erwartungshaltung, die mit im Prinzip unwirksamen Verbindungen zu therapeutischem Erfolg führt. Hier müssen Naturwissenschafter und Mediziner mit Psychologen, Soziologen und Nationalökonomen zusammenarbeiten, um ein besseres Verständnis dieser Phänomene zu erreichen und vielleicht auch Rezepte für den Umgang mit diesem höchsten Grad an Komplexität erarbeiten zu können.


 

inge Thu, 03.11.2011 - 06:20

Analytische Chemie als Wegbereiter der modernen Biowissenschaften

Analytische Chemie als Wegbereiter der modernen Biowissenschaften

Do, 20.10.2011- 04:20 — Günther Bonn

Icon ChemieGünther Bonn

Die Analytische Chemie ist ein Teilgebiet der Chemie und beschäftigt sich mit der Identifizierung und Konzentrationsbestimmung von chemischen Verbindungen. Sie hat in den letzten Jahrzehnten zunehmend an Bedeutung gewonnen. Ein Rückblick zeigt, dass es im Laufe der Jahre immer wichtiger wurde, die Zusammensetzung von Stoffen in verschiedenen Bereichen wie z.B. der Lebensmittel- oder Pharmaindustrie aber auch in der Medizin, präziser und empfindlicher bestimmen zu können.

Damit verbunden ist die ständige Entwicklung von neuen analytischen Methoden, die Einblick in die Zusammenhänge von Molekülen liefern. Die Bedeutung der Analytischen Chemie wird auch durch die steigende Anzahl an Publikationen verdeutlicht (Abbildung 1).

Publikationen mit Schlüsselwort »Analytik«Abbildung 1: Anzahl der in den letzten 60 Jahren publizierten Artikel mit dem Schlüsselwort „Analytik“

Die Analytische Chemie ist geprägt von einer rasanten technologischen Entwicklung beginnend im letzten Jahrhundert. Nachfolgende Tabelle 1 gibt einen auszugsweisen Überblick über signifikante innovative analytische Entwicklungsschritte.

In den letzten Jahrzehnten wurden Trenn­me­tho­den wie die Gas­chro­ma­to­gra­phie (GC) oder die Hoch­lei­stungs­flüs­sig­keits­chro­ma­to­gra­phie (HPLC) entwickelt und optimiert. An dieser Stelle seien Prof. Erika Cremer als Pionierin erwähnt, die 1946 an der Universität Innsbruck mit ihren Dissertanten an der Entwicklung der GC entscheidend mitwirkte und Prof. Csaba Horvath, der an der Yale Universität (USA) in den 60er Jahren mit anderen Kollegen die Hochleistungsflüssigkeitschromatographie-Trenntechnologie entwickelte. Ebenfalls dort wurden Kopplungsverfahren zwischen Trenntechnologie- (HPLC) und Struk­tur­auf­klä­rungs­me­tho­den (Massenspektrometrie – MS) geschaffen, die heute aus den Laboratorien nicht mehr wegzudenken sind. Dafür erhielt Prof. John Fenn 2002 den Nobelpreis für Chemie.

Jahr Analysenmethode
1906 Chromatographie
1930 Elektrophorese
1937 Rasterelektronenmikroskopie
1941 Verteilungschromatographie
1946 NMR-Spektroskopie (NMR)
1946 Gaschromatographie (GC)
1950 Massenspektrokopie (MS)
1960 Röntgenstrukturanalyse
1963 Hochleistungsflüssigkeits-
chromatographie (HPLC)
1976 DNA-Sequenzanalyse
1987 MALDI-MS
1987 ESI-MS

Tabelle 1: Entwicklung wichtiger analytischer Methoden im letzten Jahrhundert

Insbesondere Fachgebiete der Biowissenschaften (engl. life sciences) benötigen immer empfindlichere und selektivere Methoden, um Mechanismen der Entstehung von Krankheiten oder ganze Krankheitsbilder möglichst früh zu erkennen. Dadurch können kontinuierlich neue Erkenntnisse über molekulare Zusammenhänge komplexer Krankheiten wie Krebs, Diabetes oder Alzheimer gewonnen werden. Ziel ist eine personenbezogene Diagnostik und Therapie. Im Zentrum des Interesses steht dabei die Biomarkerforschung, die sich mit der systematischen Erforschung von Biomolekülen wie DNA, RNA, Peptiden, Proteinen und Metaboliten beschäftigt, um deren Funktion in biologischen Systemen für die Entstehung und den Verlauf von Krankheiten zu untersuchen. Der interdisziplinäre Fachbereich Bioanalytik liefert die erforderlichen Werkzeuge und Methoden zur Lokalisierung und Identifizierung dieser Biomarker. Um im unteren Konzentrationsbereich (attomol=10-18 Mol) Analysen durchführen zu können, ist es insbesondere in der biowissenschaftlichen Forschung und in der Diagnostik notwendig, Moleküle aufzukonzentrieren, um sie dann mit den modernen Trennmethoden und Detektoren, wie z.B. die der Massenspektrometrie zu erfassen.

Am Institut für Analytische Chemie und Radiochemie der Leopold-Franzens Universität Innsbruck werden seit Jahren innovative Verfahren entwickelt, mit deren Hilfe potentielle Biomarker an modifizierten Trägermaterialien angereichert werden können. Diese Oberflächen sind chemisch so gestaltet, dass nur ganz bestimmte Biomoleküle an ihnen anhaften, sodass eine hohe Selektivität und Empfindlichkeit erreicht wird. Leitet man eine biologische Probe wie Blutserum oder Urin über derartige Trägermaterialien, werden die relevanten Moleküle gebunden und in weiterer Folge einer Identifizierung unterzogen. Die gebundenen Biomoleküle dienen in der medizinischen Diagnostik als Marker für z.B. Tumorerkrankungen oder neurodegenerative Erkrankungen. Die neu entwickelten analytischen Verfahren werden vor allem im Bereich der so genannten Proteomforschung (engl. proteomics) eingesetzt. Die Proteomforschung ist ein noch junger Fachbereich, der sich mit der systematischen Erforschung der Eiweißstoffe in biologischen Systemen beschäftigt. Sie analysiert Art und Menge der vorhandenen Proteine sowie deren Mechanismus.

In diesem Zusammenhang kommt der Phosphoproteomforschung (engl. phos­pho­pro­teomics) eine große Bedeutung zu, deren Inhalt die Untersuchung von Proteinen ist, die mit einer oder mehreren Phosphatgruppen versehen sind. Das Anhängen und Abspalten von Phosphatgruppen ist einer der wichtigsten Mechanismen zur Feinregulierung zellulärer Abläufe. Auf diese Weise werden Signalwege, die zu Wachstum, Reifung oder Tod einer Zelle führen, durch Phosphorylierungen an- oder ausgeschaltet. Einer der Schlüssel zur Erforschung natürlicher Systeme ist es zu verstehen, welche Proteine, wann, wo und wie oft phosphoryliert werden. Auch bei der Entstehung vieler Krankheiten spielen fehlgesteuerte Phosphoproteine eine entscheidende Rolle. Neue analytische Werkzeuge kommen auch hier zum Einsatz. Für die selektive Anreicherung von phosphorylierten Peptiden und Proteinen wurden spezielle Methoden entwickelt, die auf Basis der Festphasenextraktion beruhen. So wurden bereits 2008 am Institut für Analytische Chemie und Radiochemie Pipettenspitzen inwendig mit einem organischen Polymer ausgekleidet, das von winzigen Kanälen und Poren durchzogen ist (Abbildung 2).

Modifizierte Pipettenspitze Abbildung 2: Modifizierte Pipettenspitze zur Anreicherung von phosphorylierten Peptiden (A)... Massenspektrum vor (B) und nach der Anreicherung eines enzymatischen Erk1 Protein Verdaues (C). Die zwei phosphorylierten Peptide (m/z 2252 und 2333) können mit Hilfe der Extraktionsspitzen komplett isoliert werden

In diesem Polymer befinden sich Titan- und Zirkoniumdioxid-Nanopartikel. Diese sind in der Lage, Phosphoproteine zu binden, und zwar spezifischer als das mit bisherigen Materialien möglich gewesen ist. Mit derartigen Pipettenspitzen kann man biologische Proben aufsaugen und die Phosphoproteine bleiben in der Spitze kleben. Der Rest der Probe wird ohne Phosphoproteine wieder entlassen. Mit ähnlichen Methoden lassen sich auch bestimmte Proteine, die in Verbindung mit der Alzheimerkrankheit stehen, selektiv aus Liquor anreichern.

Ein weiteres innovatives Verfahren zur selektiven Anreicherung von Biomolekülen ist die Entwicklung von chemisch modifizierten DVD Trägern. Dabei wurde eine konventionelle DVD mit einem Diamantfilm so beschichtet, dass an der Oberfläche Biomoleküle selektiv angereichert werden können. Anschließend wird die DVD mit einem Laser beschossen. Dabei wirkt die Diamantschicht als energieabsorbierende Matrix, welche die Biomoleküle vor der Lasereinwirkung schützt. Durch den Laserpuls geraten die Moleküle in die gasförmige Phase und können anschließend in einem Massenspektrometer identifiziert werden. Die Unterseite der DVD dient als Speichermedium der erhaltenen Daten (Abbildung 3). Diamantbeschichteter DVD Träger

Abbildung 3: Diamantbeschichteter DVD Träger für die Analytik von niedrig konzentrierten Proben. Die DVDs wurden in Kooperation mit der Firma Sony DADC (Anif, Salzburg) entwickelt

Eine weitere Trennmethode wurde im Bereich der Genomforschung für die Mutationsanalytik von Brustkrebs entwickelt. Mutationen des BRCA1-Gens auf Chromosom 17 erhöhen die Wahrscheinlichkeit einer Tumorbildung, insbesondere für Brustkrebs. Frauen mit einer Mutation in einem der Brustkrebs-Gene haben je nach Literaturquelle ein lebenslanges Risiko von 50-80% an Brustkrebs zu erkranken. Diese Gen-Mutationen können in einem an der Innsbrucker Universität entwickelten Verfahren mit Hilfe der denaturierenden Hochleistungsflüssigkeitschromatographie (DHPLC) und einer speziell entwickelten Trennsäule analysiert werden. In der HPLC werden Proben mit Hilfe eines Laufmittels durch eine mit einer stationären Phase (ein organisches Polymer) gefüllten Trennsäule gepumpt. Dabei werden die Substanzen aufgetrennt und anschließend in einem Detektor analysiert. Im konkreten Fall können die mutierten DNA-Fragmente schnell aufgetrennt und die BRCA1-Mutationen festgestellt werden. Diese Information bietet neue Ansätze für eine personalisierte Medizin, die zielgerichtete und individuell auf die Patienten abgestimmte Therapien ermöglicht. Tausende derartiger Analysegeräte sind derzeit weltweit im Einsatz.

Eine weitere moderne Entwicklung im Bereich der Flüssigkeitschromatographie (HPLC) ist der Einsatz neuer selektiver Trennmaterialen, die in hauchdünnen (Durchmesser beträgt 200 Mikrometer) Kapillaren zum Einsatz kommen. Es handelt sich dabei um organische Polymere, sogenannte Monolithen, die sowohl über kleine als auch große Poren verfügen. Mit diesen neuen Materialien können erstmals selektiv kleine und große Biomoleküle gleichzeitig getrennt und identifiziert werden.

Auch auf dem Gebiet der Infrarotspektroskopie wurden in den letzten Jahren in der biowissenschaftlichen Forschung große Fortschritte gemacht. Die Geburtstunde der Infrarotspektroskopie ist eng mit der Entdeckung der Infrarotstrahlung durch Sir William Herschels berühmtes Experiment im Jahr 1809 verknüpft, bei dem das Sonnenlicht mit Hilfe eines Prismas in die verschiedenen Wellenlängenbereiche aufgespalten wurde. In den 50ern des letzen Jahrhunderts wurden schließlich die ersten effizienten Infrarotspektrometer gebaut, welche bereits eine frühe Fingerprintanalytik und Identifizierung von einzelnen Inhaltsstoffen erlaubte, was zu jener Zeit besonders im Bereich der Landwirtschaft von Interesse war.

Heutzutage sind hochentwickelte Infrarotspektrometer, welche im mittleren (400 – 4.000 / cm) und im nahen (4.000 – 12.000 / cm) Infrarotbereich arbeiten erhältlich, deren Leistungsfähigkeit durch Kombination mit chemometrischen Auswerteverfahren durch leistungsstarke Rechner deutlich erhöht wird. Am Institut für Analytische Chemie und Radiochemie konnte die Spektroskopiegruppe unter der Leitung von Prof. Christian Huck bereits existierende Verfahren weiterentwickeln und für die Bereiche Metabolomics, Proteomics und Materialwissenschaft aber auch für pharmazeutische Anwendungen im Bereich der Heilpflanzen (Phytochemie) etablieren.

Diamantbeschichteter DVD Träger

Abbildung 4: Dreidimensionales infrarotspektroskopisches Abbild der Proteinverteilung in der Brennesselwurzel

Dabei wird auf die Kombination von Trenn- und Anreicherungsverfahren mit infrarotspektroskopischen Methoden gesetzt, was eine deutliche Erhöhung der Selektivität und Sensitivität erlaubt. Diese neuen Methoden ermöglichen eine einfachere und schnellere Identifizierung der zu untersuchenden Spezies, sowie eine präzisere und empfindlichere simultane quantitative Analytik. Durch die Kombination dieser Verfahren mit hochauflösender Mikroskopie kann zudem erstmals die Verteilung von Inhaltsstoffen mit einer Auflösung von bis zu 1.5 µm in 3 Dimensionen erfasst werden. Abbildung 4 zeigt die Verteilung von hochwirksamen Proteinen in einer Brennesselwurzel gemessen mittels Infrarotspektroskopie. Die ständige Entwicklung neuer analytischer Technologien für die biowissenschaftliche Forschung ist vor allem wegen des rasanten Fortschritts auf den Gebieten der Genom- und Proteomforschung von enormer Bedeutung. Der Einsatz derartiger Technologien zeigt auch international hohes Interesse, sodass mittlerweile einige dieser Methoden am Sino-Austrian Biomarker Research Center in China durchgeführt werden, das gemeinsam von den Universitäten Innsbruck und Peking betrieben wird. Die erwähnten Analysemethoden sollen nur als Beispiel für die Bedeutung der Fortschritte auf dem Gebiet der Analytischen Chemie in den Biowissenschaften verstanden werden. Die Erfolge der modernen Biowissenschaften beruhen weitgehend auf der Entwicklung neuer, selektiver und sensitiver Analysemethoden. Diese stellen nicht nur die Grundlage für theoretische wissenschaftliche Forschungen dar, sondern sind auch aus der modernen angewandten medizinischen Forschung und Diagnostik nicht mehr wegzudenken.

Weiterführende Literatur

Rainer M. et al.: Analysis of protein phosphorylation by monolithic extraction columns based on poly(divinylbenzene) containing embedded titanium dioxide and zirconium dioxide nano-powders. Proteomics (2008), 8(21), 4593-4602.

Bonn G. K., Huber C., Oefner P.: Separation of nucleic acid fragments with alkylated nonporous polymer beads. PCT Int. Appl. (1994), 30 pp.

Wagner T. M. et al.: BRCA1-related breast cancer in Austrian breast and ovarian cancer families: specific BRCA1 mutations and pathological characteristics. International journal of cancer. (1998), 77(3), 354-60.

Trojer L. et al.: High capacity organic monoliths for the simultaneous application to biopolymer chromatography and the separation of small molecules. Journal of Chromatography, A (2009), 1216(35), 6303-6309.

Najam-ul-Haq M. et al.: Nanostructured diamond-like carbon on digital versatile disc as a matrix-free target for laser desorption/ionization mass spectrometry. Analytical chemistry (2008), 80(19), 7467-72.

Huck C.W. et al.: Advances of Infrared Spectroscopic Imaging and Mapping Technologies of Plant Material , PLANTA MEDICA 77, 12, 1257-1258 (2011)

Lottspeich F.: Bioanalytik. Spektrum Akademischer Verlag, Auflage: 2. 2006. ISBN-10: 3827415209

Glossar

Biomarker
Charakteristische biologische Merkmale, die objektiv gemessen werden können und als Indikator für einen normalen biologischen oder pathologischen Prozess dienen. In der Medizin werden Biomarker zur Erstellung einer Diagnose, Prognose, zum Verfolgen des Krankheitsverlaufs und der Effizienz einer therapeutischen Intervention angewandt (z.B. PSA-Wert bei Prostata-Ca).
Gaschromatographie (GC)
Analytische Trennmethode für Substanzgemische, die sich unzersetzt in die Gasphase überführen (verdampfen) lassen. Das gasförmige Gemisch wird mit einem (inertem) Trägergas durch ein sehr langes gebogenes Kapillarrohr geschickt. Je nach ihrem Dampfdruck und den Wechselwirkungen mit dem Trägermaterial der Kapillare erfolgt der Austritt der einzelnen Komponenten zu unterschiedlichen Zeiten und wird mit entsprechenden Detektoren nachgewiesen.
Hochleistungsflüssigkeitschromatographie (HPLC)
Analytische Trennmethode mit besonders hohem Trennvermögen bei der ein gelöstes Substanzgemisch auf eine Trennsäule aufgetragen und zusammen mit einem Laufmittel durch die Säule gepumpt wird. Der Austritt der einzelnen Substanzen aus der Säule erfolgt entsprechend der Stärke mit der sie mit dem Material der Säule wechselwirken, der Nachweis mit ensprechenden Detektoren.
Infrarotspektroskopie (IR-Spektroskopie)
Analytische Methode der Chemie zur Identifikation, Quantifizierung und Strukturaufklärung von organischen Verbindungen. IR-Spektroskopie beruht auf der Absorption infraroter Strahlung (Wellenlänge 800 nm - 1mm) durch das zu analysierende Molekül; dabei ändern sich dessen Rotations- und Schwingungsenergien.
Liquor
Cerebrospinal-Flüssigkeit (= Gehirn-Rückenmarksflüssigkeit: CSF) umfließt das Zentralnervensystem und schützt es gegen Druck und Stöße. Die Zusammensetzung des Liquors ändert sich bei Defekten, wie zB. Entzündungen, Infektionen, Blutungen im ZNS und wird zur Diagnostik herangezogen.
Massenspektrometrie (MS)
Methode zur Identifizierung und Strukturaufklärung von Molekülen. Die in die Gasphase überführte Verbindung wird ionisiert und die resultierenden Ionen entsprechend ihres Masse/Ladungs-Verhältnisses (m/z) aufgetrennt und anschließend registriert. Um Substanzgemische aufzutrennen und deren Komponenten zu analysieren, wird der MS häufig eine Trennung durch Gaschromatographie oder Flüssigkeitschromatographie vorgelagert.
Metabolomics
Untersuchung der Gesamtheit der biochemischen Stoffwechselprodukte, der an ihrer Entstehung beteiligten Stoffwechselwege (Enzyme) und deren Umsatzraten.

 

inge Thu, 20.10.2011 - 05:20

Des Lebens Bruder — Wie Zellen mit ihrem Selbstmord dem Leben dienen

Des Lebens Bruder — Wie Zellen mit ihrem Selbstmord dem Leben dienen

Fr, 27.10.2011- 04:20 — Gottfried Schatz

Icon BiologieGottfried Schatz

„Eure Kinder sind nicht eure Kinder. Sie sind die Söhne und Töchter der Sehnsucht des Lebens nach sich selbst“. Der 1931 verstorbene Dichter Khalil Gibran beschrieb mit diesen Worten nicht nur den Drang des Lebens nach steter Erneuerung, sondern auch unser einjähriges Enkelkind so eindringlich, als hätte er es selbst in den Armen gehalten.

Wer könnte in einem kleinen Kind diese Sehnsucht des Lebens nicht verspüren? Die klaren Augen, die fein geformten Finger und die Versuche des erwachenden Gehirns, die Welt zu deuten, zeigen eindrücklich das Wunder neuen Lebens. Max Klinger (1857-1920): Opus XI, »Vom Tode. Erster Teil«, Der Tod als Heiland. (1898) Max Klinger (1857-1920): Opus XI, »Vom Tode. Erster Teil«, Der Tod als Heiland. (1898)

Unser Enkelkind ist aber auch ein Geschenk des Todes: in einem wachsenden Organismus lässt er unermüdlich Zellen sterben, um anderen Zellen das Leben zu sichern oder neuen Zellen Platz zu machen. Er half bei der Entwicklung der klaren Augen, weil er sie behutsam von Zellen befreite, die den Weg des Lichts zur Netzhaut behindert hätten. Er entfernte Teile der werdenden Hand, um die Finger zu gestalten. Und er liess im wachsenden Gehirn fast die Hälfte aller Nervenzellen wieder absterben, um Platz für die Verknüpfung neuer Zellen zu schaffen. Er umsorgte das Kind sogar vor dessen Zeugung, weil er die meisten Keimzellen des Vaters vernichtete, auf dass nur eine gesunde der Sehnsucht des Lebens diene. Der Tod, der unser Enkelkind mitschuf, war jedoch nicht der gefürchtete Raffer von Kranken, Alten und Kämpfern, sondern ein Bruder des Lebens, der einzelne Zellen mit sanfter Hand berührt und sie dazu bewegt, sich selbst zu töten.

Dieser sanfte Tod schlummert in jeder Zelle meines Körpers. Wenn er erwacht, ruft er in der Zelle ein Selbstmordprogramm auf, das fast ebenso wundersam und aufwändig ist wie die Programme, die das Wachstum und die Teilung der Zelle steuern. Unter Anleitung dieses Programms verdaut die Zelle sich selber, verpackt ihre Überreste in kleine Membransäcke und bietet diese streunenden Fresszellen als Beute. Die sterbende Zelle verhindert so Entzündungen des umgebenden Gewebes und verabschiedet sich leise, ohne das Leben um sich zu stören.

Jedes Jahr töten sich in meinem Körper fast die Hälfte aller Zellen, um mich am Leben zu erhalten. Einige Zellen töten sich aus eigenem Antrieb – wenn ihre Atmungsmaschinen versagen, oder ihr Erbmaterial geschädigt ist. Der Anstoss dafür kommt meist von den Atmungsmaschinen selbst, die kurz vor ihrem Zusammenbruch Proteine ausscheiden, welche die Zelle als SOS Signale erkennt. Der Befehl zum Selbstmord kann aber auch von aussen kommen. Erkennen meine Immunzellen, dass eine Körperzelle von einem Virus befallen ist, befehlen sie ihr, sich zu töten, um ein Ausbreiten des Virus zu verhindern. Auch diese Immunzellen hat der sanfte Tod mitgestaltet: Als sie zu Abermilliarden in meinem Knochenmark entstanden, hätten viele von ihnen auch meinen eigenen Körper angegriffen und zerstört. Meine Thymusdrüse spürte sie jedoch rechtzeitig auf und zwang sie zum Selbstmord. Dank dieser Auslese bin ich zwar gegen fremde Eindringlinge geschützt, kann aber auch hoffen, von Autoimmunerkrankungen wie Multiple Sklerose oder Psoriasis verschont zu bleiben.

Auch Bakterien begehen manchmal Selbstmord, um den Fortbestand der Population zu sichern. Bakterien verständigen sich untereinander, ähnlich wie die Zellen meines Körpers, über chemische Signale – und dies umso angeregter, je stärker sie sich bedroht fühlen. Da Bedrohung in der freien Natur die Regel ist, verhält sich eine Bakterienpopulation meist wie ein vielzelliger Organismus. Die einzelnen Bakterienzellen erkennen dabei über ihre chemischen Antennen, wie viele Artgenossen in der Nähe sind – und wenn es genügend viele sind, vereinigen sie sich mit ihnen zu schleimigen Ablagerungen oder festen Biofilmen, denen weder Antibiotika noch andere Gifte etwas anhaben können und in denen manchmal Dutzende verschiedener Bakterienarten auf geheimnisvolle Weise zusammenleben. Einige der Signalstoffe, über die Bakterien miteinander sprechen, gleichen in ihrer chemischen Struktur den Duftstoffen, mit denen Tiere und wahrscheinlich auch wir Menschen in Artgenossen unbewusste Affekthandlungen auslösen.

Bakterien haben im Verlauf ihrer langen Geschichte verschiedene Selbstmordprogramme entwickelt. Eines besteht aus dem Wechselspiel zweier Proteine: ein Protein ist ein stabiles Gift, und das andere ist ein labiles Gegengift. Unter normalen Bedingungen bilden die Zellen ohne Unterlass beide Proteine, sodass das Gegengift das Gift in Schach hält. Bedrohen jedoch Viren, Hitze, Antibiotika oder Hunger die Zelle, stellt sie die Bildung beider Proteine ein. Nun verschwindet das labile Gegengift aus der Zelle, das stabile Gift gewinnt die Oberhand, und die Zelle stirbt. So kann sie anderen Zellen als Nahrung dienen, ein Ausbreiten des Virus verhindern, oder durch ihren Freitod dazu beitragen, knappe Ressourcen einzusparen. Bakterien können das Überleben einer Population aber auch durch Vergiften ihrer Artgenossen retten. Sie wählen dieses chemische Massaker, wenn sie am Verhungern sind und ihnen als letzter Ausweg nur noch die Umwandlung in schlummernde Sporen bliebe.

Dieser Ausweg erfordert jedoch viel Energie und lässt sich nur langsam wieder rückgängig machen, sodass die Zellen ihn so lange wie möglich hinauszögern. Bevor eine Zelle sich unwiderruflich zur Sporenbildung entscheidet, scheidet sie deshalb ein Gift aus, das all die Artgenossen tötet, deren Entscheidung zur Sporenbildung noch nicht so weit gediehen ist. Um sich vor dem eigenen Gift zu schützen, bildet die mörderische Zelle auch eine Pumpe, mit der sie das Gift laufend aus sich hinauspumpt. Mit dieser Strategie kann sie sich eine Weile von ihren vergifteten Artgenossen ernähren und die Sporenbildung verzögern. Dies kann sich lohnen, denn Sporen keimen nur langsam wieder aus und haben deshalb bei einem plötzlichen Ende der Hungerperiode gegenüber aktiv gebliebenen Zellen keine Chance. Die Entscheidung, welche Zellen einer Kolonie zu Mördern und welche zu Opfern werden, erfolgt rein zufällig. Sie wird von Steuermolekülen bestimmt, die in der Zelle in so geringen Stückzahlen vorkommen, dass ihre Reaktionen nicht mehr den voraussagbaren Gesetzen der Chemie, sondern dem Zufall gehorchen. Wer je einen Krieg miterlebt hat, weiss nur zu gut, dass auch bei uns Menschen der Zufall entscheiden kann, wer zum Mörder und wer zum Opfer wird.

Altruistischer Selbstmord oder die Bereitschaft, sich zum Wohl der Population vergiften zu lassen, fördert die Entstehung von Mutanten, die diese „Ethik“ verletzen, indem sie den Selbstmord verweigern oder gegen das Gift ihrer Artgenossen Resistenz entwickeln. Solche „asozialen“ Mutanten stellen ihr eigenes Wohl über das der Gemeinschaft und können deshalb kurzfristig erfolgreich sein. Langfristig bedrohen sie jedoch den Fortbestand ihrer Art, weil dieser ein ausgewogenes Geben und Nehmen voraussetzt. Weil egoistische Schwindler keine Grundlage für ein stabiles Gemeinwesen sind, überleben reine Kulturen asozialer Mutanten nur im Laboratorium, nie aber in der freien Natur.

Altruismus spielt auch bei Tieren und Menschen eine wichtige Rolle und hat Charles Darwin schlaflose Nächte bereitet. In seinem Buch „Über die Entstehung der Arten“ beichtet er seine Besorgnis mit folgenden Worten: „Soziale Insekten konfrontieren uns mit einer besonderen Schwierigkeit, von der ich zunächst meinte, sie wäre unüberwindbar und für meine Theorie tödlich“. Heute erkennen wir im Altruismus von Bakterien die weitsichtige Hand des sanften Todes - und vielleicht auch einen urtümlichen Vorläufer sozialen Verhaltens und menschlicher Moral.

Alles Leben auf unserer Erde ist Gemeinschaft mit anderen – und mit dem sanften Tod. Wahrscheinlich erklärt dies, weshalb über 99% aller Bakterienarten nicht für sich allein wachsen können und viele von ihnen bei Überbevölkerung den Freitod wählen. Bei diesem Freitod vermachen sie ihr Erbmaterial den Überlebenden, die Teile davon gegen die entsprechenden Teile ihres eigenen Erbmaterials austauschen. Das Ergebnis entspricht einer sexuellen Paarung, welche die Gene der Partner neu aufmischt und den Nachkommen neuartige Eigenschaften und bessere Überlebenschancen schenkt. Obwohl der sanfte Tod das Leben dabei einer einzelnen Bakterienzelle beendet, sichert er damit – wie auch in unserem Körper - nur das langfristige Wohl des Ganzen. Ist dies nur la petite mort à la bactérienne – oder die uralte Weise von Liebe und Tod, von der die Mythen und Gedichte der Romantik künden? Könnte es sein, dass diese Weise nicht den Tod besingt, sondern die Sehnsucht des Lebens nach sich selbst?


 

inge Thu, 27.10.2011 - 05:20

Die Wissenschaftler sind ja selbst schuld!

Die Wissenschaftler sind ja selbst schuld!

Fr, 13.10.2011- 04:20 — Franz Kerschbaum

Icon Politik und GesellschaftFranz Kerschbaum

 

Normalerweise ärgere ich mich gar nicht mehr über Umfragen mit manchmal allzu durchsichtiger Motivation von Seiten der jeweiligen Auftraggeber. Wenn ich aber im Wirtschaftsblatt lese, dass 78% der österreichischen Bevölkerung wenig bis gar nicht an wissenschaftlichen Erkenntnissen interessiert sind und gleichzeitig 60% die Wissenschaftler selbst für die Misere verantwortlich machen, weil diese „nicht genug Anstrengungen unternehmen, um die Öffentlichkeit über ihre Forschung zu informieren“, dann kann ich nicht umhin nachzuschauen, wo diese Zahlen herkommen.

Quelle dieser Meldung ist das aktuelle Forschungstelegramm "Wissenschaft und Technik: Wie die Österreicher zu wissenschaftlicher Forschung stehen" des Instituts für Freizeit-und Tourismusforschung, das auf Basis von den Eurobarometerdaten 340/341 aus dem Jahr 2010 diesen Fragenkreis in einen Entwicklungs- bzw. europäischen Kontext stellt. Die im Wirtschaftsblatt zitierten Zahlen finden sich dort gut nachvollziehbar und scheinen (leider) plausibel. Viele andere Umfrageergebnisse aus dieser Studie wären ebenso ein Nachdenken wert und bestätigen die generell sehr wissenschaftsskeptische wenn nicht gar -feindliche Grundstimmung in Österreich besonders im Vergleich zu den EU-27.

Sind wir Forscherinnen und Forscher also wirklich selbst schuld, dass die Öffentlichkeit verkürzt gesagt an Wissenschaft nicht interessiert ist, vor vielen Forschungsdisziplinen geradezu Angst hat und letztlich gar keinen Nutzen an unserer Arbeit erkennen kann? Ist es noch dazu Mangel an Vermittlung, ob qualitativ oder quantitativ?

Natürlich gibt es immer noch Forscher, die kein Interesse an Öffentlichkeitsarbeit haben und derartige Aktivitäten ihrer Kollegen sogar geringschätzen – doch deren Zahl ist heute sehr, sehr klein geworden. Heutige Studierende wachsen in einem universitären Umfeld heran, in dem es selbstverständlich ist, Presseaussendungen zu verfassen, Medienanfragen zu beantworten, Führungen und Tage der offenen Tür abzuhalten. Ob University meets Public oder Kinderuni, noch nie waren unsere Türen so offen, noch nie investierten wir so viel Zeit und Kreativität, um weite Teile der Bevölkerung zu erreichen. Buchhandlungen bieten eine fast schon unüberschaubare Flut von seriösen und weniger seriösen einschlägigen Druckwerken. Auch sind TV oder Internet voll mit wissenschaftsnahen Formaten, die auch beachtliche Einschaltquoten erzielen.

Wiener Ferienspiel 2007

Wiener Ferienspiel 2007

Vor wenigen Wochen wurde eine schon geradezu inflationäre Medienpräsenz in meinem eigenen Fach, der Astronomie von BM Töchterle in Alpbach diagnostiziert, welcher sinngemäß meinte, dass wir es mittlerweile schaffen, die Entdeckung eines jeden noch so kleinen Himmelskörpers in die Medien zu bringen – welch tolle Aussichten bei unseren wahrhaft „astronomischen“ Objektzahlen…

Wo ist also das Problem?

An den Angeboten kann es ja wohl nicht liegen! Werden diese nur nicht wahrgenommen? Besucherzahlen und Einschaltquoten sprechen dagegen. Oder werden diese Angebote uns, den Forscher gar nicht mehr zugeordnet? In manchen populären TV-Formaten könnte man glauben, der fesche Moderator hat das alles selbst herausgefunden. Ein paar schnelle Experimente und schon haben wir wieder etwas gelernt. Wissenschaft ist doch so einfach!? Auch werden Universitäten fast nur noch als Ausbildungsort, und das meist negativ medial thematisiert - von dortiger Forschung keine Rede, als gelte es dort nur noch, neue Rekordzahlen an Studierenden zu bewältigen.

Vielleicht liegt es also am falschen Wissenschaftlerbild! Langfristige, mühsame Beschäftigung mit einem kleinen – die Welt nicht täglich revolutionierenden Thema, unterbrochen von Lehre, Administration und Geldbeschaffung für viele der Jüngeren verbunden mit persönlichen Existenzängsten ist nun nicht so attraktiv vermittelbar wie hemdsärmelige Welterklärung oder das, was man als „Popscience“ bezeichnen könnte.

Ein zweites Problem mag beim potentiellen Konsumenten unserer populären Angebote selbst zu finden sein. Einer zweifellos steigenden, interessierten, aktiven Öffentlichkeit – wir erleben dies bei all unseren einschlägigen Angeboten – steht eine noch schneller wachsende durch mediale Übersättigung passiv gewordene Gruppe gegenüber, die auch in wissenschaftlichen Angeboten, so überhaupt wahrgenommen, nur noch deren beliebig austauschbaren Unterhaltungswert sieht. Eigenes Erfahren wird abgelöst durch passives Konsumieren - Neugier durch Kuriositätenschau. Zwischen den „Tödlichsten Tieren im Universum“ und „Germany's Next Topmodel“ kann man ohne Gehirnverrenkung hin- und her zappen.

Sind also die Österreicher selbst schuld? Ich will nun den Spieß keineswegs umdrehen. Derartige gesellschaftliche Entwicklungen kann man auch selten an einem einzigen Parameter festmachen. Trotzdem denke ich, sollten da bei Bildungsverantwortlichen, und damit uns allen, die Alarmglocken läuten. Gibt es zur Bring- nicht auch eine Holschuld? Nicht nur Wissenschaft, Forschung oder auch Kunst werden in Zukunft darunter leiden, wenn die seriöse, ja oft auch anstrengende, doch letztlich lohnende Beschäftigung mit einer Sache mehr und mehr von austauschbaren Ablenkungen verdrängt wird. Das Lernen eines Instrumentes macht sich selten in den ersten Übungsstunden bezahlt, der langfristige Gewinn ist aber durch nichts sonst erzielbar.


 

inge Thu, 13.10.2011 - 05:20

Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind

Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind

Fr, 06.10.2011- 00:00 — Gottfried Schatz

Gottfried Schatz

Icon Biologie

Umwelt und Lebensweise hinterlassen Spuren in unseren Genen. Bei der Befruchtung einer Eizelle werden die meisten dieser Spuren gelöscht, doch einige bleiben bestehen. Eigenschaften, die wir während unseres Lebens erwerben, können deshalb erblich sein.

Ist unser Leben Schicksal? Mythen und antike Tragödien haben diese Frage meist bejaht, und Jahrtausende später schien ihnen die moderne Biologie recht zu geben. Je mehr wir über die Rolle der Gene bei der Entwicklung von Lebewesen lernten, desto zwingender schien der Schluss, dass Gene unseren Körper, unsere Begabungen und unser Verhalten bereits vor der Geburt festlegen und bis zu unserem Tode bestimmen. Erben wir also unser Schicksal?

Künstler und Philosophen haben sich gegen diese Vorstellung immer wieder aufgelehnt – so auch der spanische Dichter Pedro Calderón de la Barca. Sein 1635 uraufgeführtes Versdrama La vida es sueño (Das Leben ein Traum) handelt vom polnischen Königssohn Sigismund, der seine von den Sternen vorausbestimmte Gewalttätigkeit aus eigener Kraft überwindet und sich zum weisen Herrscher wandelt.

Vor einigen Jahrzehnten begannen auch einige Biologen daran zu zweifeln, dass wir Sklaven unserer Gene sind. Warum sind eineiige Zwillinge, die derselben befruchteten Eizelle entstammen und somit die gleichen Gene besitzen, nicht völlig identisch? Warum leidet manchmal nur einer von ihnen an einer Krankheit? Und warum werden sie mit dem Alter immer verschiedener? Zunächst begnügte man sich mit der Erklärung, dass die Umwelt zwar nicht die Gene, wohl aber deren Auswirkungen verändern kann.

Diese Erklärung ist jedoch nur ein Teil der Wahrheit – und diese ist überraschend und erhebend zugleich: Unsere Gene sind keine unabänderlichen Gesetze, sondern können sich als Antwort auf die Umwelt oder unseren Lebenswandel verändern. Natürlich wussten wir schon lange, dass Umweltgifte, Radioaktivität, Viren oder Fehler bei der Zellteilung die Reihenfolge der vier chemischen Buchstaben in unseren Genen verändern und damit erbliche „Mutationen“ auslösen können. Solche Mutationen sind jedoch sehr selten und treffen ein Gen rein zufällig. Nun aber wissen wir, dass im Verlauf unseres Lebens manche Gene auch durch die chemische Markierung einzelner Buchstaben gehemmt oder abgeschaltet werden können, und dass solche Markierungen sogar erblich sein können.

Das Markierungszeichen ist eine „Methylgruppe“: ein kleines Gebilde aus drei Wasserstoffatomen und einem Kohlenstoffatom, dem Chemiker die Formel -CH3 geben. Wenn sich eine Methylgruppe an einen Genbuchstaben anheftet, lockt sie Proteine an, die den „methylierten“ Genabschnitt umhüllen und damit hemmen oder ganz stilllegen. Im Gegensatz zu klassischen Mutationen verändert eine solche „epigenetische“ Markierung also nicht die Folge, sondern nur den Charakter einzelner Gen-Buchstaben. Verwendet man für die vier verschiedenen Gen-Buchstaben die Alphabet-Buchstaben a, b c und h, dann würde in einer klassischen Mutation das Wort „bach“ vielleicht zu „bbch“, „bcch“ oder „bhch“; in einer epigenetischen Veränderung hingegen zu „bäch“. Teilt sich eine Zelle, kopiert sie die methylierten Buchstaben getreulich und gibt sie an die Gene der Tochterzellen weiter. Wir wissen noch nicht, wie diese Methylierungen ausgelöst und gesteuert werden, können sie jedoch durch eine geeignete Ernährung fördern oder durch ein bestimmtes Antibiotikum teilweise wieder rückgängig machen.

Die Gene einer befruchteten Eizelle sind weitgehend unmethyliert und daher jederzeit bereit, auf Befehl ihre volle Wirkung zu entfalten. Entwickeln sich dann aus dem befruchteten Ei verschiedene Zelltypen, methylieren diese ihre Gene nach einem genauen internen Programm, um zu verhindern, dass Gene zur falschen Zeit oder am falschen Ort aktiv werden und die Entwicklung stören. Diese Methylierungen kommen selbst in einem erwachsenen Menschen nicht zur Ruhe, wobei sie dann aber nicht nur durch zellinterne Programme, sondern auch durch die Lebensgewohnheiten und die Umwelt bestimmt werden. Epigenetische Methylierung von DNS kann also sowohl durch innere als auch durch äussere Faktoren verursacht werden. Und diese äusseren Faktoren sind bunt gemischt: Essgewohnheiten, Drogen, Wechselwirkung mit anderen Menschen – sie alle können ihre Methyl-Spuren in unseren Genen hinterlassen.

In einer normalen Körperzelle verlöschen alle Methyl-Spuren mit dem Tod des Individuums. Auch in einer Ei- oder Samenzelle verschwinden die meisten von ihnen bei Reifung und Befruchtung; manche bleiben jedoch bestehen, sodass das befruchtete Ei einige Erinnerungen an das bewahrt, was vorher war. So kann es Eigenschaften, welche die Eltern im Verlauf ihres Lebens erwarben, an das neue Lebewesen und dessen Nachkommen weitergeben. Der französische Biologe Jean Baptiste Lamarck hatte bereits vor zweihundert Jahren vorgeschlagen, dass erworbene Eigenschaften erblich sein können, doch Charles Darwins Theorie der Evolution durch natürliche Zuchtwahl drängte Lamarcks Idee bis vor kurzem in den Hintergrund. Die grosse Pragmatikerin Natur kümmert sich jedoch nicht um Theorien und benützt beide Wege, um Lebewesen an ihre Umwelt anzupassen.

Wird eine Pflanze ultraviolettem Licht ausgesetzt, aktiviert sie Reparaturmechanismen, um Strahlenschäden an den Genen wieder auszubügeln. Diese Mechanismen arbeiten dann auch in Abwesenheit von Ultraviolettlicht weiter und bleiben sogar über mehrere Generationen hinweg in den Nachkommen aktiv - selbst wenn diese nie von ultraviolettem Licht bedroht waren. Die Pflanze vermittelt so ihre Erfahrung „epigenetisch“ an die Nachkommen und wappnet sie für kommende Gefahren. Selbst komplexe Verhaltensmuster lassen sich auf diese Weise vererben: Rattenweibchen unterscheiden sich in der Zärtlichkeit, mit der sie ihre frisch geworfenen Jungen säugen. Zärtlich gesäugte Junge sind dann für den Rest ihres Lebens besonders unempfindlich gegenüber Stress, wobei es gleichgültig ist, ob sie von ihrer biologischen Mutter oder von einer Amme gesäugt wurden.

Diese vermittelte Stressresistenz geht mit einer verminderten Methylierung von Genen einher, welche die Wirkung von Stresshormonen im Gehirn steuern. Löscht man Gen-Methylierungen in den Ratten durch Verabreichung eines bestimmten Antibiotikums, verschwinden die Unterschiede zwischen zärtlich und weniger zärtlich gesäugten Ratten. Erhöhte Stressresistenz und Risikobereitschaft scheinen auch bei uns Menschen mit einer erhöhten Methylierung gewisser Gene einherzugehen. Wahrscheinlich spielt auch hier die Beziehung zwischen Mutter und Kind eine wichtige Rolle.

Man sagt, jeder alte Mensch habe das Gesicht, das er verdient. Ähnliches gilt wohl auch für meine Gene. Sie erzählen nicht nur von den Jahrmilliarden des Lebens vor mir, sondern auch von den siebeneinhalb Jahrzehnten meines eigenen Lebens: von der Fürsorge meiner Eltern, der Wärme meiner eigenen Familie, den wissenschaftlichen Kämpfen, den Krankheiten und Enttäuschungen und vielleicht sogar von meinem Bemühen, die Kunst des Violinspiels zu meistern. Auch ich bin dafür verantwortlich, was aus meinen Genen wurde. Es beruhigt mich zu wissen, dass die Natur die meisten meiner Lebensspuren aus ihnen löschte, bevor ich sie meinen Kindern vererbte. So gewährte sie diesen die Freiheit des Neuanfangs.

Ein befruchtetes Ei gleicht einem eingestimmten Orchester, das lautlos auf den Einsatz des Dirigenten wartet. Alles ist noch Versprechen und die Partitur ein Traum, der seiner Erfüllung harrt. Diese Erfüllung bestimmt nicht nur der Dirigent, sondern auch das Umfeld, das die Spielweise der Musiker und den Musikgeschmack der Zeit geprägt hat. Wie viel mehr braucht es, um aus einem befruchteten Ei einen Menschen zu schaffen! Es braucht den Körper der Mutter, die elterliche Fürsorge nach der Geburt und den Einfluss unzähliger anderer Menschen. „Ein Kind wird vom ganzen Dorf erzogen“ weiß ein altes Sprichwort. Erst die Wechselwirkung mit anderen Menschen schenkt dem Kind Sprache, Gemeinschaftssinn und sittliche Verantwortung. Ein befruchtetes menschliches Ei ist ein Traum, der sich nur mit Hilfe vieler anderer erfüllt. Wer unsere Gene als „Bauplan eines Menschen“ oder ein tiefgefrorenes befruchtetes menschliches Ei als „Menschen“ sieht, verleugnet den Genius unserer Spezies und beleidigt mein Menschenbild. Wenn wir ins Leben treten, sind wir nicht Sklaven, sondern Traum unserer Gene. Hat Calderons künstlerische Intuition dies geahnt, als er sein Versdrama schuf?


 

inge Sun, 16.10.2011 - 01:00

Gekürzte Fassung der Inaugurationsrede des Rektors der Universität Wien, Heinz W. Engl am 3.Oktober 2011

Gekürzte Fassung der Inaugurationsrede des Rektors der Universität Wien, Heinz W. Engl am 3.Oktober 2011

Fr, 02.10.2011- 23:00 — Heinz Engl

Heinz EnglIcon Politik & Gesellschaft

Ein Rektor übernimmt die Universität von seinem Vorgänger und hat die Verpflichtung, dieses Erbe pfleglich zu behandeln, weiter zu entwickeln und an den Nachfolger oder die Nachfolgerin zu übergeben. Diese Aufgabe erfülle ich gemeinsam mit meinem Team: Prof. Susanne Weigelin-Schwiedrzik, Vizerektorin für Forschung und Nachwuchsförderung, Prof. Heinz Faßmann, Vizerektor für Personalentwicklung und Internationale Beziehungen Prof. Christa Schnabl, Vizerektorin für Studierende und Lehre, Dr. Karl Schwaha, Vizerektor für Infrastruktur.

Universitäten sind Teil der Gesellschaft und orientieren sich damit einerseits an den Bedürfnissen dieser Gesellschaft in der jeweiligen Phase ihrer Entwicklung, haben aber andererseits eine starke Rolle bei der Weiterentwicklung dieser Gesellschaft. Um ihre Kernaufgaben in Forschung und Lehre (in Verbindung miteinander) wahrnehmen zu können, müssen sie bei der Gesellschaft, welche die Universitäten ja immer (bei uns hauptsächlich über den Staat) in der einen oder anderen Weise finanzieren wird, um Verständnis für ihre zentrale Rolle werben und auch davon überzeugen, dass die Universitäten die in sie investierten Mittel zum Wohle der Gesellschaft einsetzen (und dies natürlich auch tun).

Forschung und Lehre

Während in der Forschung für jede Universität klar sein sollte, dass diese nur auf einem international konkurrenzfähigen Niveau betrieben werden kann, muss sich jede Universität in der Lehre die Frage stellen, ob sie sich (etwas vereinfacht ausgedrückt) als Massen- oder als Eliteuniversität verstehen will. Die Antwort kann dabei für die meisten Universitäten keine eindeutige sein. Nur eine Handvoll Universitäten wie etwa Harvard können als ihre Aufgabe die reine Elitenausbildung sehen.

In Österreich war es lange so, dass alle tertiären Bildungseinrichtungen alle Aufgaben zugleich erfüllen sollten, und das in möglichst uniformer Qualität. Erst die Universitätsautonomie und die Einrichtungen von Fachhochschulen haben die Konkurrenz und die Ausdifferenzierung belebt, dieser Prozess wird sich gerade in Zeiten budgetärer Knappheit beschleunigen. Diese Ausdifferenzierung sowohl im Fächerspektrum im Sinne der oft beschworenen Schwerpunktbildung als auch in der Betonung einerseits der Grundlagen und andererseits der Anwendungsorientierung ist durchaus zu begrüßen. Für die Universität Wien ist es dabei wichtig, ihr breites Fächerspektrum und die besonderen damit verbunden Möglichkeiten zu interdisziplinären Programmen sowohl in der Forschung als auch in der Lehre zu erhalten und auch noch besser zu nutzen.

Universität und Fachhochschulen

Der aktuelle Hochschulplan fordert den Ausbau der Fachhochschulen. Von der ehemaligen Regierungsvereinbarung, nach der bis 2015 ein Drittel der Studienanfängerinnen und Studienanfänger an Fachhochschulen studieren sollten, sind wir derzeit weit entfernt. Ein Ausbau des Fachhochschulsektors, der nicht auf Kosten der Universitäten geht, sondern zusätzliche Möglichkeiten für tertiäre Bildung schafft, ist zu begrüßen. Das Grundprinzip, dass Fachhochschul-Studienplätze nur eingerichtet werden, wenn sie auch finanziert sind, sollte auch für die Universitäten gelten; auch davon sind wir weit entfernt. Die derzeitigen Überlegungen zu einer echten Studienplatzfinanzierung, verbunden mit einer Vollkostenfinanzierung der Forschung, geben Anlass zu Hoffnung.

Kooperationen im akademischen Bereich

Innerhalb des universitären Sektors ist es wichtig, die richtige Balance zwischen Konkurrenz und Kooperation zu finden. So halte ich es durchaus für sinnvoll, wenn es am Wiener Standort in den Natur- und Lebenswissenschaften Studienangebote mit unterschiedlichen Schwerpunkten an mehreren Universitäten gibt, wenn zugleich die bereits begonnenen Kooperationen fortgeführt und verstärkt werden. Ein besonderer Schwerpunkt soll für uns dabei die Vertiefung der Kooperation mit der Medizinischen Universität Wien in Projekten zwischen Grundlagenforschung und klinischer Forschung sein. Das erfolgreiche Beispiel der Errichtung eines gemeinsamen High-Performance-Computing Centers zwischen der Technischen Universität Wien und der Universität Wien unter Beteiligung der Universität für Bodenkultur zeigt, dass wir durch Kooperation bei Planung, Anschaffung und Betrieb teurer Forschungsinfrastruktur durchaus mit der internationalen Konkurrenz mithalten können, diese Kooperation dafür aber auch notwendig ist.

Auch für die künftige Gestaltung der Lehramtsstudien wird die Beantwortung der Frage nach Konkurrenz und Kooperation, in diesem Fall mit den Pädagogischen Hochschulen, wichtig sein. Für die Universität Wien, die bereits jetzt die größte Lehrerausbildungsstätte Österreichs ist, ist die Lehramtsausbildung von zentraler Bedeutung. Ich glaube, dass es für das gesamte Bildungssystem in unserer Wissensgesellschaft wichtig ist, dass die künftigen Lehrerinnen und Lehrer während ihrer Ausbildung an der Universität mit aktuellen Entwicklungen in der Forschung zumindest in Berührung kommen. Ich hoffe, dass die Rahmenbedingungen der neuen Lehramtsausbildung bald politisch geklärt sind; wir werden uns dann den dabei auf uns zukommenden Herausforderungen gerne stellen.

Als (derzeit noch) Leiter eines großen Forschungsinstituts der Österreichischen Akademie der Wissenschaften (ÖAW) ist mir bewusst, wie wichtig die Kooperation zwischen der Akademie und der Universität für beide Seiten und für die österreichische Forschungslandschaft insgesamt ist. In der Weiterentwicklung dieser Kooperation zwischen der Universität Wien und der Akademie sehe ich große Chancen für beide Seiten, gerade in budgetär schwierigen Zeiten.

Bolognaprozeß - Studium - Karriere

Die Universität hat, insbesondere in ihren Bachelor-Studiengängen, auch eine breite Bildungsaufgabe. Sie kann dieser allerdings nur nachkommen, wenn angemessene Betreuungsrelationen sichergestellt sind, was derzeit zumindest in einigen Studienrichtungen bei weitem nicht der Fall ist. Unter Betreuungsrelationen verstehe ich dabei nicht nur das Zahlenverhältnis zwischen Studierenden und Lehrenden, sondern auch die Verfügbarkeit ausreichender Raum- und Laborkapazitäten. Gute Betreuungsverhältnisse sind gerade in der Anfangsphase des Studiums wichtig, und zwar insbesondere für solche Studierende, die von nicht so guten Schulen, aus bildungsfernen Schichten oder von einem Migrationshintergrund her kommen und damit möglicherweise Umstellungsschwierigkeiten haben. Es ist klar, dass wir (bei beschränkten Budgets, von denen man realistischerweise ausgehen muss) Zugangsregelungen brauchen werden, um gerade in der schwierigen und entscheidenden Anfangsphase des Studiums auch die nötige Förderung bieten zu können. Zugangsregelung muss dabei nicht unbedingt Zugangsbeschränkung heißen.

In seiner Inaugurationsrede vom 4. Februar 2000 hat Georg Winckler für das österreichische Studienrecht die Europäisierung des Bildungssystems im Sinne einer Konkretisierung der Bologna-Erklärung aus dem Jahr 1999 gefordert. Diese Vision ist inzwischen Wirklichkeit geworden, die Bologna-Umstellung an der Universität Wien ist weitgehend abgeschlossen. Es hat sich jedoch gezeigt, dass weitere Schritte notwendig sind, um auch den Geist von Bologna in unser Studiensystem zu bringen. In manchen Studienrichtungen besteht für die Studierenden zu wenig Wahlfreiheit, die eigentlich charakteristisch für ein universitäres Studium sein sollte; die Spezialisierung und die Regulierung sind möglicherweise zu stark. Naturwissenschaften etwa leben heute mehr denn je von der Kooperation untereinander, die Disziplinengrenzen lösen sich auf. Der frühere Akademiepräsident und emeritierte Professor der Universität Wien Peter Schuster regte in einem Symposium im letzten Jahr die Einführung eines gemeinsamen „Bachelor of Science“-Studiums und eine Aufspaltung in die einzelnen Fächer erst während des Masterstudiums an. Nun ist so etwas möglicherweise im Detail schwer zu realisieren, aber Überlegungen in diese Richtung anstellen könnte man durchaus. Oder man könnte auch die Einrichtung von Studien überlegen, die nicht rein disziplinenorientiert sind, sondern zumindest in der Anfangsphase einen gesellschaftlich wichtigen Themenbereich von einer Disziplinen- und Methodenvielfalt her beleuchten. Eine Schwierigkeit dabei ist natürlich das Finden des richtigen Verhältnisses von Breite und Tiefe.

Nicht jeder Bachelor-Studierende soll und will Wissenschafter werden, ein eigenes Berufsbild für Absolventen der Bachelorstudien ist zum Teil noch zu entwickeln. Es wäre dabei ein wichtiges Signal, wenn endlich der Bund auch Absolventen von Bachelorstudien als Akademikerinnen und Akademiker anerkennen würde.

Eine große, noch zu wenig realisierte Chance des Bologna-Systems sehe ich in der vertikalen Mobilität. Um ein Beispiel aus meinem eigenen Fachbereich zu bringen: Natürlich wird es auch weiterhin sinnvoll sein, nach einem Bachelorabschluss in Mathematik ein Masterstudium in Mathematik oder in Computational Science zu beginnen. Es schafft aber völlig neue Kompetenzfelder, wenn man etwa ein Masterstudium in Bioinformatik einrichtet, das (mit entsprechenden Eingangsmodulen) von Bachelorstudien wie Mathematik, Informatik, Physik, Chemie oder Biologie aus zugänglich ist. Wir werden gemeinsam mit der Universität für Bodenkultur und der Medizinischen Universität Wien in diese Richtung gehen. Auch in anderen interdisziplinären Feldern, etwa der Internationalen Entwicklung, könnte man in diese Richtung denken.

In der letzten Zeit wurde manchmal der Zustrom von Studierenden aus dem Ausland, insbesondere aus Deutschland, für derzeitige Probleme verantwortlich gemacht. Ich möchte betonen, dass internationale Mobilität ein Grundpfeiler des europäischen Bildungsraums ist und bleiben muss. Wir wollen ein attraktiver Studienort für internationale Studierende sein, insbesondere im Master- und Doktoratsstudium. Die Universität Wien hat das Doktoratsstudium in den letzten Jahren neu strukturiert und in Richtung klarer Forschungsorientierung weiterentwickelt. Es muss ein Schwerpunkt in den nächsten Jahren (sowohl der Universität Wien als auch des FWF) sein, die Finanzierung von Doktoratsstudien deutlich zu verbessern. Doktorandinnen und Doktoranden leisten heute einen wesentlichen Beitrag zum Fortschritt der Forschung, das Doktoratsstudium muss als der erster Schritt einer wissenschaftlichen Karriere und damit als Beruf anerkannt und auch behandelt werden.

In der weiteren Entwicklung einer wissenschaftlichen Karriere bestand bisher ein grundlegender Unterschied zwischen den USA und dem System in Österreich und Deutschland: Charakteristisch für die USA sind die frühe Selbständigkeit und auch die Mobilität junger Forscherinnen und Forscher. Diese frühe Entlassung in die Selbständigkeit ist natürlich eine große Herausforderung, aber auch eine große Chance. Die Universität Wien hat begonnen, ihre Karriereentwicklung in diese Richtung umzustellen. Dies kann aber nur funktionieren, wenn auch verstärkt kompetitive Mittel für den Aufbau von Forschungsgruppen zur Verfügung stehen. Den jährlich etwa sechs diesem Zweck dienenden START-Preisen des FWF stehen mehr als dreißig analoge Forschungsprofessuren des Schweizerischen Nationalfonds gegenüber. Die angekündigte Erhöhung der Mittel des European Research Council (ERC) ist für diesen Bereich von besonderer Bedeutung. In dieser entscheidenden Phase der Karriereentwicklung müssen auch spezielle Frauenfördermaßnahmen ansetzen und bestehende Programme, etwas des FWF, verstärkt werden.

Grundlagenforschung – angewandte Forschung

Auf dem Weg über die Doktoratsausbildung komme ich damit vom Studium nochmals zur Forschung. Der eben veröffentlichte Hochschulplan definiert als Aufgabe der Universitäten die Grundlagenforschung, als Aufgabe der Fachhochschulen die angewandte Forschung. Wenn man dem auch in der Grundtendenz zustimmen kann, so überzeugt mich insbesondere meine eigene Erfahrung als Professor für Industriemathematik davon, dass die beiden Bereiche schwer voneinander zu trennen sind. Angewandte Forschung kann nur auf Basis hochwertiger Grundlagenforschung wirklich erfolgreich sein. Auch und gerade für die Wirtschaft, die sich die benötigte Expertise auf dem internationalen Forschungsmarkt besorgen kann, sind nur Forschungspartner wirklich interessant, die die nötige Basis in der Grundlagenforschung aufweisen können. Mehr denn je gilt der Satz von Max Planck „Dem Anwenden muss Erkennen vorausgehen“.

Die Gründung der Treibacher Chemischen Werke durch Carl Auer von Welsbach zeigt, dass erfolgreiche Grundlagenforschung manchmal wirtschaftliche Umsetzung auch kurzfristig nach sich ziehen kann. Meist aber ist der Zeitraum zwischen Grundlagenforschung und wirtschaftlicher Umsetzung wesentlich länger. Ich möchte hier ein Beispiel aus meinem engeren Fachgebiet anführen, das mit Johann Radon, einem bedeutenden Wiener Mathematiker, der 1954 auch Rektor der Universität Wien war, zu tun hat. Dazu möchte ich drei scheinbar unzusammenhängende Fragestellungen formulieren:

  1. Nur für Mathematiker verständlich: Kann man eine Funktion von zwei Variablen aus den Werten aller ihrer Linienintegrale rekonstruieren?
  2. Stellen Sie sich ein Geländemodell, etwa eines Gebirges, vor. Nehmen wir an, wir könnten für jeden zweidimensionalen Schnitt durch dieses Gebirge orthogonal zur Grundfläche jeweils das Gewicht bestimmen. Kann man aus diesen Daten die Form des Gebirges rekonstruieren?
  3. Kann man aus der Schwächung von Röntgenstrahlen in alle oder viele Richtungen durch einen Körper die Dichteverteilung innerhalb dieses Körpers rekonstruieren?

Alle drei Fragen sind in ihrem mathematischen Kern völlig äquivalent. Während die erste Frage eine rein mathematische und die zweite eine ziemlich unnötige Denksportaufgabe ist, stellt die dritte Frage das dar, was in der Computertomographie stattfindet. Die Antwort auf die erste Frage, die Johann Radon 1917 ohne jede praktische Motivation gesucht, gefunden und auch publiziert hat, liefert daher auch die Basis für die Antwort auf die dritte Frage und damit die Grundlage für die mathematischen Algorithmen der Computertomographie und aller darauf aufbauender moderner medizinischer Bildgebungsverfahren. Diese Verfahren haben die medizinische Diagnostik revolutioniert und eine Milliardenindustrie geschaffen.

Viele Ergebnisse der Grundlagenforschung werden nie irgendeine Umsetzung finden, können auch in Irrwege führen. Natürlich lässt sich das aber nicht im Vorhinein feststellen; auch deshalb ist neugiergetriebene Grundlagenforschung einerseits als Selbstzweck, als Erfüllung eines Erkenntnistriebs, andererseits aber gerade für eine erfolgreiche spätere Umsetzung notwendig. Dies heißt trotzdem nicht, dass alles und jedes in der Forschung ohne Rechtfertigung und Motivation gefördert werden kann. Instrumente zur Entscheidung über Förderungen sind entsprechende Evaluierungsverfahren, die allerdings nicht in der Verkürzung auf wenige quantitative Indikatoren bestehen können, sondern auf inhaltlicher Begutachtung, also Peer-Review, aufbauen müssen.

Ausblick

Es ist die Aufgabe eines Rektorats, auch neue, zukunftsträchtige Forschungsrichtungen und vor allem fächerübergreifende Kooperationsmöglichkeiten zu identifizieren, Impulse von den Forscherinnen und Forschern der eigenen Universität und externer Ratgeber aufgreifend. Die einzigartige fachliche Breite verbunden mit hochwertiger disziplinärer Forschung an der Universität Wien bietet die Chance, in einigen Bereichen auch weltweit führend sein zu können. Dies zeigen auch Erfolge unserer Wissenschafterinnen und Wissenschafter bei europäischen Forschungsprogrammen und –preisen. Die weitere Stärkung der Universität Wien als europäische Forschungsuniversität mit weltweitem Ansehen ist ein Ziel dieses Rektorats.

Österreich hatte seit Mitte des 20. Jahrhunderts mindestens vier verschiedene Universitätsorganisationsmodelle, von einer Gremienuniversität mit direkter staatlicher Steuerung zu einer nun autonomen Universität mit klaren internen Entscheidungs- und Verantwortungsstrukturen. Expertenorganisationen wie eine Universität benötigen für ihr Funktionieren, dass die Expertise der an der Universität Tätigen in die Entscheidungsfindungsprozesse eingebracht werden kann. Um dies verstärkt zu ermöglichen, sind die Mechanismen der internen Kommunikation in alle Richtungen zu verbessern. Bei einer großen und komplexen Universität wie unserer ist dies leichter gesagt als getan, das Rektorat wird diesem Aspekt aber große Aufmerksamkeit widmen. Gerade in schwierigen Zeiten, die uns möglicherweise bevorstehen, werden wir die Universität nur gemeinsam mit allen ihren Angehörigen, denen ihr Gedeihen ein Anliegen ist, voranbringen können. Ich lade Sie herzlich ein, diesen Weg gemeinsam mit dem Rektorat zu beschreiten.


 

inge Mon, 03.10.2011 - 00:00

Menschen in der Weltraumforschung – mehr als bessere Roboter?

Menschen in der Weltraumforschung – mehr als bessere Roboter?

Do, 29.09.2011- 04:20 — Wolfgang Baumjohann

Wolfgang BaumjohannIcon Astronomie

Die wissenschaftliche Erkundung des Weltraums, hier definiert als der Bereich zwischen der Ionosphäre der Erde in 100 km Höhe und den äußeren Grenzen unseres Sonnensystems in einigen 10 Milliarden Kilometer Entfernung, und insbesondere Messungen dort vor Ort, sind bis jetzt größtenteils durch Roboter erfolgt.

Warum?

Für das äußere Sonnensystem - jenseits der Mars-Umlaufbahn (Orbits) oder des Asteroidengürtels - gibt es eine einfache Antwort: Unsere Technologien erlauben es noch nicht, dass Menschen in diese Zonen aufbrechen und dort auf sich allein gestellt überleben können. Was das innere Sonnensystem betrifft, so liegt die Venus hinsichtlich Reisedauer zwar in Reichweite, jedoch herrschen dort und auch auf dem Merkur dermaßen feindliche Bedingungen, dass Menschen nicht überleben können.

Damit bleiben Mond und Mars, möglicherweise erdnahe Asteroiden und der erdnahe Weltraum als Ziele für bemannte Missionen. Bezüglich dieser Himmelskörper und Regionen hängt das Problem bemannte oder unbemannte Mission von einem kleinen Unterschied in der Fragestellung ab. Auf die Frage: „Sollen bemannte Missionen aufbrechen, um Mond und Mars zu erforschen?“, ist die Antwort: Nein! Auf die Frage: „Sollen bemannte Missionen aufbrechen und Mond und Mars erforschen?, ist die Antwort: Ja!

Wissenschaftliche Erforschung

Die wissenschaftliche Weltraumforschung begann 1958 mit dem Abschuss des ersten wissenschaftlichen Satelliten „Explorer-1“ in die Erd-Umlaufbahn und führte zur Entdeckung des nach dem Astronauten Van-Allen benannten Strahlungsgürtels. (Der russische Satellit „Sputnik-1“ war zwar vier Monate früher gestartet, hatte jedoch noch keine Messinstrumente an Bord.)

Abbildung 1 - Raumsonden: Darstellung eines Orbiters und eines Landers.

Während Van-Allen’s Geigerzähler noch kaum unter die Definition Roboter fielen, wurden mit Anbruch des Computerzeitalters die wissenschaftlichen Instrumente und Raumsonden immer ausgereifter und werden heute zu recht als Roboter bezeichnet. Dies trifft insbesondere auf die Marssonden „Spirit“ und „Opportunity“ zu, die - auch dem Aussehen nach typische Roboter - als Geländefahrzeuge (Rover) von 2004 bis 2011 die Marsoberfläche erkundeten.

Die von Robotern an Ort und Stelle ausgeführten Untersuchungen haben unser Wissen über den erdnahen Weltraum und unser Sonnensystem enorm erweitert. Die meisten Planeten und eine Anzahl kleinerer Himmelskörper wurden so - zumindest während eines Vorbeiflugs - besichtigt. Weitere Orbiter (Roboter, die in die Umlaufbahn eines Himmelskörpers gebracht werden) und Landeroboter (Lander) sind unterwegs, im Bau oder zumindest im Planungsstadium.

Die Frage ist: „Hätten Menschen dies besser gekonnt?“

Ja, selbstverständlich. Das Apollo Programm hat gezeigt, dass in der Wissenschaft Menschen den Computern noch überlegen sind. Allerdings muss dafür ein Preis gezahlt werden, der zu hoch ist für Wissenschaft.

Bereits in tiefer Erdumlaufbahn, am Übergang zum Weltraum, ist es beträchtlich kostspieliger, Experimente von Menschen durchführen zu lassen als von Robotern, die nach erfolgreicher Mission automatisch auf die Erde zurückkehren, wie z.B. der Foton-M Satellit. Sogar biologische und medizinische Untersuchungen können während dieser relativ billigen unbemannten Missionen im Raum-Labor vollzogen werden.

Abbildung 2: Das Innere des Instruments MIDAS (Micro-Imaging Dust Analysis System). MIDAS wird an Bord der Raumsonde Rosetta den Kometen Churyomoy-Gerasimenko umkreisen und soll die physikalischen Parameter des bei Annäherung zur Sonne freigesetzten Kometenstaubs untersuchen. Das Bild zeigt u.a. das dazu verwendete Rasterkraftmikroskop (Atomic Force Microscope) und die Vorrichtungen, die den Staub zum Sensor transportieren. Das IWF ist maßgeblich an Entwicklung und Bau dieses und weiterer Instrumente zur Untersuchung des Kometen beteiligt.

Der Unterschied in den Kosten wird noch viel höher, wenn man Missionen mit automatischer Rückkehr der Roboterkapsel mit denen vergleicht, die bei der Errichtung einer Mondbasis oder gar bei bemannten Expeditionen zum Mars und zurück entstehen. Kostenschätzungen für die Errichtung einer Mondbasis belaufen sich auf 100 Milliarden € und auf 400-500 Milliarden € für ein kombiniertes Mond-Mars Programm. Dagegen liegen die Kosten eines fahrbaren Landeroboters (Rover) bei rund einer Milliarde €, die einer Rückkehr der Roboterkapsel bei 3 - 4 Milliarden €. Die Möglichkeit bei ungleich günstigeren Kosten eine höhere Zahl an Roboter-Missionen durchführen zu können, dürfte wohl das Argument aufwiegen, dass Menschen auf unvorhergesehene Situationen besser reagieren können.

Die 12-stelligen Summen in Euro oder Dollar (oder noch höherstelligeren in Yuan) sind aber sicherlich nicht der einzige Preis, der gezahlt werden muss. Unglücklicherweise hat der bemannte Raumflug bereits mehrmals unbezahlbares Gut gefordert: das Leben von Menschen. In der Vergangenheit wurden diese Katastrophen durch das Versagen menschlicher Technologien verursacht. Wenn es in der Zukunft um die Erforschung des Monds oder die Expedition zum Mars geht, kommt eine andere, ebenso gefährliche Bedrohung ins Spiel: stürmisches Weltraumwetter.

Die Sonne emittiert kontinuierlich einen Strom Energie-geladener Partikel, den sogenannten Sonnenwind. Zeitweilig treten gewaltige Eruptionen in der äußeren Schichte der Sonne auf, sogenannte koronale Massenauswürfe, die riesige Mengen an Materie, mit noch mehr hochenergetischen Ionen und Elektronen, in den umgebenden Weltraum schleudern.

Wenn solche Eruptionen solaren Plasmas auf die Erde treffen, wird der Grossteil der potentiell gefährlichen Partikel durch das Magnetfeld der Erde abgelenkt. Dieses Magnetfeld erstreckt sich über zehn- bis mehrere hunderttausend Kilometer in den Weltraum und fungiert als ein magnetischer Schutzschild, der die sogenannte Magnetosphäre von den bedrohlichen Vorgängen zumindest partiell abschirmt. Dennoch hat während derartiger Vorgänge eine Reihe unbemannter Raumschiffe die Funktion eingestellt, höchstwahrscheinlich durch schwerste Schäden an ihren elektronischen Bestandteilen hervorgerufen durch Elektronen und Ionen mit Energien von einigen hunderttausend bis Millionen Elektronenvolt.

Bis jetzt haben derartige Weltraumstürme noch kein Menschenleben gefordert, hauptsächlich deshalb, weil bemannte Flüge kaum eine tiefe Erdumlaufbahn verlassen haben, in welcher die magnetische Abschirmung besonders stark ist und den Grossteil der schädigenden Partikel ablenkt. Die Situation verändert sich bei Expeditionen zum Mond. In der Mondumlaufbahn ist das terrestrische Magnetfeld bereits sehr abgeschwächt und kann nicht mehr als Schutzschild fungieren. Tatsächlich sind mehrere Apollomissionen um nur wenige Tage bis Wochen derartigen Weltraumstürmen entronnen. Allein die Millionen Elektronenvolt an energetischen Protonen hätten für die Astronauten zumindest ein sehr hohes Krebsrisiko oder schwere Strahlenkrankheit bedeutet und zwischen den Apollo Missionen 16 und 17 vermutlich eine für alle tödlich ausgehende Katastrophe.

Es besteht Hoffnung, dass dieses Problem für Mond-Missionen lösbar ist. Die koronalen Massenauswürfe und ihre gefährlichen Partikel benötigen drei bis vier Tage um von der Sonne zur Erde zu gelangen – eben dieselbe Zeitdauer wie Astronauten für die Fahrt zum Mond brauchen. Mit der Etablierung moderner Sonnenobservatorien wie dem kürzlich errichteten STEREO (einem Paar baugleicher Raumsonden, die die Sonne und das gesamte dynamische Geschehen an der Sonnenoberfläche und in Sonnennähe beobachten), kann man sehen, wann ein koronaler Massenauswurf beginnt und die Mission verschieben, bis sich der Sturm gelegt hat.

Eine unterschiedliche Situation ist für Astronauten (Kosmonauten, Taikonauten) auf ihrer monatelangen Fahrt zum Mars gegeben. Deren Raumschiff wird die volle Kraft der Weltraumstürme erleben mit tödlichen Folgen oder zumindest schweren Strahlenschäden für die Besatzung, sofern das Raumschiff nicht massiv abgeschirmt ist. Abschirmung ist prinzipiell möglich, jedoch bedeutet dies Erhöhung des Gesamtgewichts durch dicke Schichten von Metall oder Verbundstoffen, Wassertanks oder starken magnetischen Abschirm-Vorrichtungen.

Die Entwicklung leichtgewichtiger Abschirmung gegen Sonnenstürme und gegen die noch schädlichere kosmische Strahlung, die ihren Ausgang in Supernova-Explosionen hat (ungleich andere Voraussetzungen als zur Abschirmung von Strahlung in der Nähe undichter Atomkraftwerke), wird essentielle Voraussetzung sein, um bemannte interplanetare Raumfahrt bis zum Mars und noch weiter möglich zu machen.

Klassische Erkundung

Erkundung im klassischen Sinn, das bedeutet das Vordringen zu neuen Grenzen und ein Ausdehnen des menschlichen Lebensbereichs in den Weltraum, unterscheidet sich von der vorher besprochenen wissenschaftlichen Erkundung. Hier spielt nun die Kostenfrage keine so große Rolle und auch das Risiko für das Leben steht nicht mehr zur Diskussion.

Während Leute, die ihr Leben riskieren um zu neuen wissenschaftlichen Erkenntnissen zu gelangen, häufig als potentielle Selbstmörder angesehen werden, werden Menschen, die für irgendein größeres Ziel ihr Leben lassen, zu Helden. Ebenso wie bei der Erkundung der Polargebiete, bei den Erstbesteigungen der 8000-Meter hohen Gipfel im Himalaja und auch bei der Apollo-Mission, kommen nationales Prestige und Patriotismus mit ins Spiel und platzieren die Kosten, seien es finanzielle oder das Risiko umzukommen, in die zweite Reihe. Auch wenn sie Patriotismus oder Nationalstolz durchaus nicht befürworten, meinen viele Menschen (der Autor miteingeschlossen), dass faktische Erkundung einer höheren Förderung würdig ist als rein wissenschaftliche Erkundung. Wenn auch die meisten Weltraum-Wissenschafter nicht zustimmen werden, dass einige Kilogramm von Menschenhand mitgebrachte Marsbrocken eine halbe Billion Euros und eine mögliche Gefährdung des Lebens wert sind, so fühlen sie tief im Herzen wie alle Menschen: In der klassischen Erkundung können Roboter aufklären, aber nicht Menschen ersetzen.

Wie viele historische Erkunder werden die Weltraumerkunder während ihrer Expeditionen auch wissenschaftlich arbeiten. Gute Beispiele sind dafür Polarforscher. Oberste Priorität von Fridtjof Nansen waren nicht neue Erkenntnisse über die Polarregion, trotzdem enthält sein zweibändiger Bericht über die Reise des Schiffes „Fram“ in den Jahren 1893-96 eine Fülle an neuem Wissen über die Nordküste von Westsibirien und über das Arktische Meer.

Schlussfolgerung

Der Einsatz von Menschen für die rein wissenschaftliche Erforschung des Weltraums verbietet sich – auf Grund der exzessiv hohen Kosten und des hohen Risikos. Für die Erkundung im klassischen Sinn, das ist die Reise zu unbekannten Regionen, ist aber eine Beteiligung von Menschen unabdingbar, und die hohen Kosten und Risiken werden tragbar. Aus diesem Grund können die Impulse zur Erforschung des Weltraums nicht von der Wissenschaft ausgehen. Nichtsdestoweniger sind neue wissenschaftliche Erkenntnisse ein natürliches Nebenprodukt bemannter Expeditionen zu Mond, Mars und darüber hinaus.


Glossar

Asteroide (Kleinplaneten, Planetoiden): felsige und metallische Objekte mit einem Durchmesser bis zu 1000 km, die die Sonne umkreisen

Ionosphäre: äußerste Schicht der Erdatmosphäre bestehend überwiegend aus geladenen (ionisierten) Teilchen - daher der Name. Beginnt in etwa 80km Höhe und geht fließend in den freien Raum über.

Kometen: bestehen aus verschiedenen Arten von Eis, Mineralien und organischen Stoffen. Im Inneren sehr ähnliche Zusammensetzung wie Urmaterie aus der die Planeten unseres Sonnensystems entstanden sind. Bei Annäherung an die Sonne erwärmt sich der Komet und emittiert Gas und Staub (= Kometenschweif).

Lander: Raumsonde, die auf einem Himmelskörper landet und dort Forschungsaufgaben erfüllt

Orbiter: Raumsonde, die einen Himmelskörper umkreist

Rover: bemanntes oder ferngesteuertes motorisiertes Geländefahrzeug zur Erkundung, fremder Himmelskörper.

Sample Return: Proben eines Himmelskörpers oder Partikel aus dem Weltraum werden zur Erde zurückgeführt.

Unser Sonnensystem: besteht aus 8 Planeten, diversen Zwergplaneten, > 80 natürlichen Satelliten (umgangsspr. „Monden“), unzähligen Kometen sowie Asteroiden und ist erfüllt von Magnetfeldern, Strahlung jeder Art und einem steten Strom von geladenen Sonnenwind-Teilchen.

Van-Allen-Gürtel: Strahlungsfeld um die Erde, resultierend aus dem Sonnenwind und der kosmischen Strahlung


Weiterführende Präsentationen und Links

Informationen zu Erdkörper, Weltraum, Missionen und diesbezüglichen Aktivitäten des Instituts für Weltraumforschung

G. Kargl, Mars: Fernerkundung durch Raumsonden (Präsentation; PDF)

C. Moestl, Hurrikans im Sonnenwind


inge Thu, 29.09.2011 - 05:20

Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten

Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten

Fr, 22.09.2011- 00:00 — Gottfried Schatz

Icon Biologie

Gottfried Schatz

«Woher kommen wir?» Diese Frage hat uns Menschen seit Urzeiten beschäftigt, doch lange konnten allein Mythen und heilige Bücher uns darauf eine Antwort geben. Erst als Biologen über die Entstehung der vielfältigen Lebensformen nachzudenken begannen, erkannten sie, dass diese keine einmaligen Schöpfungen waren, sondern sich unaufhörlich zu neuen Lebensformen wandelten.

An diesem Stammbaum des Lebens [1] sind wir Menschen nur ein winziger und später Zweig. Doch wo liegen die Wurzeln dieses Baums?

Wie begann das Leben auf unserer Erde?

Diese Frage werden wir wohl nie mit letzter Sicherheit beantworten können. Wir wissen aber, dass unsere Erde schon bald nach ihrer Entstehung Leben trug. Kurz zuvor hatte der Aufprall eines verirrten Planeten sie in einen weissglühenden Feuerball verwandelt und ihr dabei den Mond entrissen, und in den folgenden Hunderten Jahrmillionen schlugen ihr gewaltige Meteore unzählige Krater, die heute wieder eingeebnet sind. Doch als vor 3,6 bis 3,8 Milliarden Jahren wieder Ruhe einkehrte, gab es bereits Leben. Waren die heißen Krater vielleicht Retorten, in denen unbelebte Materie sich zu Leben formte? Könnte es sein, dass das biblische Paradies fatal der Hölle glich?

Tatsächlich leben heute die urtümlichsten Organismen in kochend heißen Geysiren und Schwefelquellen, in kilometertiefen Erdspalten und sogar in glosenden Kohleabfallhalden. Ihr extremstes Habitat sind jedoch Erdspalten am Meeresboden, denen bis zu 500 Grad heißes Wasser entquillt. Wenn dieses Wasser, das wegen des hohen Drucks nicht siedet, auf das eiskalte Wasser des Meeresgrundes trifft, entlässt es gelöste Metallsalze, die als dichter Rauch nach oben steigen und diesen unterseeischen Erdspalten den Namen „Schwarze Raucher“ gegeben haben. In diesem heißen, lichtlosen und chemisch hoch reaktiven Mikrokosmos tummeln sich Mikroorganismen, welche die primitivsten und widerstandsfähigsten aller bekannten Lebewesen sind.

Einige von ihnen sind kleiner als die Wellenlänge des grünen Lichts; andere enthalten das in Zellen nur ganz selten vorkommende Metall Wolfram; viele vermehren sich nur in bei 100 Grad Celsius und stellen unterhalb von 80 – 90 Grad ihr Wachstum ein; und wieder andere überleben Temperaturen von bis zu 130 Grad. Warum ihre Proteine so hitzebeständig sind, ist noch rätselhaft, da sie weitgehend den unseren gleichen. Unter dem Mikroskop sehen diese Einzeller zwar wie Bakterien aus, haben aber mit diesen sonst wenig gemein. Deshalb ordnen wir sie der Domäne „Archaea“ zu. Ihr Erbmaterial verrät, dass sie am Stammbaum des Lebens den untersten Ast bilden. Sie sind die engsten überlebenden Verwandten des unbekannten Urwesens, von dem alles Lebens auf unserer Erde abstammt.

Auch der Stoffwechsel dieser Einzeller trägt den Stempel einer urtümlichen und vulkanischen Welt. Viele von ihnen gewinnen ihre Lebensenergie weder aus Sonnenlicht noch durch die Verwertung von Biomasse, sondern aus geochemischen Prozessen. Im Gegensatz zu den meisten heutigen Lebewesen sind sie nicht Kinder des Lichts, sondern Geschöpfe der Unterwelt. Man fand sie in 20 Millionen Jahre altem heissem Wasser aus der südafrikanischen Mponeng Goldmine, eine der tiefsten Minenschächte der Welt. Diese Hadesbewohner benützen als Energiequellen Wasserstoffgas und schwefelhaltige Salze, die sie zu übelriechendem Schwefelwasserstoff umsetzen. Das Wasserstoffgas bildet sich durch die Einwirkung von heißem Wasser auf eisenhaltige Basalte. Das Leben um uns herum nährt sich von Luft und Licht – das Leben im Erdinneren von Wasser und Gestein.

Obwohl es diesen unterirdischen Einzellern offenbar nicht an Energie fehlt, wachsen sie milliardenfach langsamer als die meisten anderen Mikroorganismen. Wahrscheinlich haben sie nicht genügend biologisch verwertbaren Stickstoff – dieser ist selbst an der Erdoberfläche Mangelware. Wie viel Leben regt sich wohl in den Tiefen unserer Erde – oder auf anderen Planeten oder Monden unseres Sonnensystems? Mars und der Jupitermond Europa sind zwar unwirtlich kalt, tragen aber Wasser, das auf Mars unterirdische warme Nischen und auf Europa sogar unterirdische Ozeane mit einem eigenen Meeresboden bilden könnte. Beide Himmelskörper könnten Archaea-ähnlichen Einzellern also unterirdische Lebensräume bieten. Sollten wir je Leben anderswo in unserem Sonnensystem finden, wird es wahrscheinlich dem gleichen, das wir in den Tiefen unserer Erdkruste und den Spalten unserer Meeresböden finden.

Oft vergessen wir, welch unvollständiges und verzerrtes Bild unsere Sinne vom Leben auf der Erde zeichnen. Mehr als die Hälfte aller Biomasse besteht aus Bakterien und Archaea, von denen wir die Mehrzahl noch gar nicht kennen. Wir haben bisher weniger als 10'000 von ihnen identifiziert – nicht einmal ein Tausendstel der 10 Millionen Arten, die es wahrscheinlich gibt. Und nur eine einzige von ihnen könnte kraft ihrer besonderen Eigenschaften unsere heutigen Vorstellungen von der Entstehung des Lebens völlig über den Haufen werfen.

Eindrückliche Zeugen unseres Unwissens sind die Wasserproben, die amerikanische Biologen auf einer zweijährigen Expedition aus verschiedenen Regionen der Weltmeere einsammelten. Die Forscher waren im Jahre 2003 auf einer umgebauten Privatjacht von Halifax aus die nordamerikanische Ostküste hinab, durch den Panamakanal in den Pazifik und über die Galapagos Inseln bis hin nach Polynesien gesegelt. Auf dieser Reise entnahmen sie alle 320 Kilometer eine Wasserprobe und untersuchten das in ihr enthaltene Genmaterial – eine rasche und eindeutige Methode, um Mikroorganismen zu identifizieren, ohne sie mühsam züchten zu müssen. Das Resultat überraschte sogar die Forscher: In jedem Teelöffel Meereswasser fanden sie Millionen von Bakterien und mindestens 10 bis 20 mal so viele Bakterienviren. Unzählige neue Gene und Bakterienarten waren die reiche Beute dieser Expedition. Und dabei entstammten die Wasserproben nur der Meeresoberfläche. Wer weiss, was die lichtlosen Tiefen der Ozeane verbergen?

In einem Brief an den Botaniker Joseph Hooker vermutete Charles Darwin, dass Leben in einem “kleinen warmen Tümpel“ entstanden sein könnte. Bescheiden wie er war, fügte er jedoch hinzu „Im Moment ist es glatter Unfug, über den Ursprung des Lebens nachzudenken; ebenso gut könnte man über den Ursprung der Materie sinnieren”. Seither haben wir beides gewagt und atemberaubende Erkenntnisse über den Ursprung des Universums und die Herkunft des Menschen gewonnen. Eine dieser Erkenntnisse ist, dass Darwins kleiner warmer Tümpel wahrscheinlich ein brodelndes Kraterloch war und sich das Leben erst im Verlauf der darauffolgenden Jahrmilliarden an die tieferen Temperaturen der alternden Erde gewöhnen musste. Die Frage, woher wir kommen, harrt immer noch einer eindeutigen Antwort.

Für mich ist dies kein Grund zur Trauer. Leben ist auch deshalb so faszinierend, weil wir noch so wenig darüber wissen.


Weiterführende Links:

[1] The Tree of Life Web Project


 

inge Thu, 22.09.2011 - 01:00

Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken

Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken

Fr, 15.09.2011- 04:20 — Herbert Mang

Herbert MangIcon MINT

 

Worum geht es bei solchen Analysen? Viele Baustoffe weisen ungeachtet ihres makroskopisch homogenen Erscheinungsbildes eine inhomogene Mikrostruktur auf. Sie enthalten verschiedene Bestandteile, die sich auf einer hinreichend kleinen Längenskala unterscheiden lassen. Multi-scale Analysen erlauben die Quantifizierung des Einflusses der Mikrostruktur auf das makroskopische mechanische Verhalten solcher Materialien.

Worin liegt die praktische Bedeutung solcher Analysen? Multi-scale Analysen ermöglichen wirklichkeitsnahe mathematische Beschreibungen des Materialverhaltens. Da der Kollaps von Bauwerken oftmals eine Folge von Materialversagen ist, hängt die Qualität von Prognosen möglicher Kollapsszenarien wesentlich von der Qualität solcher Beschreibungen ab.

Woher stammt das Wissen um solche Szenarien? Um vorhersehbare Schadensfälle im Bauwesen zu verhindern bzw. die Schäden infolge unvorhersehbarer Naturkatastrophen für Mensch, Bauwerk und Umwelt möglichst klein zu halten, beschäftigt sich die baumechanische Forschung intensiv mit dem Versagen von Konstruktionselementen und damit zusammenhängend mit dem Kollaps von Bauwerken. Darauf beziehen sich die ersten drei der vier folgenden Beispiele.

Ferrybridge: Einsturz Kühlturm Das erste betrifft den Baustoff Stahlbeton und bezieht sich auf den Einsturz dreier je 114 m hoher, aus diesem Baumaterial hergestellter Kühltürme in England im Jahre 1956 während eines orkanartigen Sturms. Das linke Bild zeigt den Einsturz eines der drei Kühltürme, während das rechte die Situation nach dem Einsturz der Kühltürme illustriert.
Das zweite Beispiel bezieht sich auf den Baustoff Holz. Es betrifft den Einsturz einer aus diesem Baumaterial errichteten Eissporthalle in Bad Reichenhall Anfang Jänner 2006. Ausgelöst wurde er durch eine zwar außergewöhnlich große Schneebelastung, die jedoch kleiner als die der statischen Berechnung zugrunde gelegte Schneelast war. Einer der Einsturzgründe war die durch Feuchtigkeit in der Eissporthalle verursachte erhebliche Schädigung der mit einem Klebstoff aus Harnstoff-Formaldehyd geklebten Verbindungen der Dachkonstruktion. Bad Reichenhall: Einsturz Eishalle
Straßenschäden Das dritte Beispiel betrifft den Baustoff Asphalt und handelt von Schäden an Straßen zufolge von kombinierter Beanspruchung aus Temperatur und Verkehr. Sie bewirken eine Reduktion der Verkehrssicherheit. Die Sanierung solcher Schäden sowie allfällige damit verbundene Straßensperren verursachen zumeist hohe Kosten.
Das letzte Beispiel – der Bruch eines menschlichen Knochens – betrifft zwar keine Baukonstruktion, lässt sich nichtsdestoweniger aber mit der Methodik, die Multi-scale Analysen zu eigen ist, behandeln. Experimentelle und numerische biomechanische Forschung erfolgt sowohl auf dem Niveau ganzer Knochen – ein solcher ist im linken Bild zu sehen – als auch auf der Ebene der Rissfortpflanzung, worauf sich die beiden rechten Bilder beziehen. Das untere Bild zeigt Kollagenmoleküle, die den Bruchfortschritt durch Brückenbildung über den Riss hinweg zu bremsen scheinen, wodurch die Zähigkeit des Materials erhöht würde. Knochenbruch

Experimentelle Simulationen des Versagens von Baukonstruktionen stoßen vielfach an technische und finanzielle Grenzen. Deshalb kommt rechnerischen Simulationen – vor allem mittels der außerordentlich vielseitigen Methode der Finiten Elemente – große Bedeutung zu. Dabei spielen Multi-scale Analysen eine immer stärkere Rolle. Ein wesentlicher Bestandteil solcher Analysen sind Homogenisierungsverfahren.

#Was versteht man unter solchen Verfahren?

Bei Homogenisierungsverfahren Homogenisierungsverfahrenwerden effektive Materialeigenschaften, wie z.B. Festigkeit, Steifigkeit, Wärmeausdehnung, Wärmeleitfähigkeit, bestimmte weitere Transporteigenschaften, elektromagnetische Charakteristika, usw., aus entsprechenden Eigenschaften der einzelnen Bestandteile und aus deren geometrischer Anordnung abgeleitet. Voraussetzung für die Anwendbarkeit solcher Verfahren ist die Möglichkeit, ein sogenanntes repräsentatives Volumenelement (RVE) zu definieren. Seine charakteristische Länge muss zumindest eine Größenordnung kleiner als die Abmessungen L und der untersuchten, in der nachstehenden Abbildung grau unterlegten Struktur bzw. der auf sie einwirkenden Belastung sein. Die in dieser Abbildung aufscheinende mathematische Beziehung, in der d für die charakteristische Abmessung der einzelnen Bestandteile steht, wird als „separation-of-scales-Bedingung“ bezeichnet. Die Homogenisierung besteht in der Ermittlung eines mechanisch äquivalenten Materials für das RVE. Seine Steifigkeit Chom – sie kennzeichnet den Zusammenhang von Verzerrungen und Spannungen – lässt sich beispielsweise mittels der Kontinuumsmikromechanik aus der chemischen Zusammensetzung des RVE, den Steifigkeiten cr der Einzelbestandteile, ihrer Morphologie – etwa kugelförmig oder zylindrisch – sowie aus ihrer Interaktion ermitteln.

Als Beispiel für Multi-scale Analysen in der Baumechanik diene die Ermittlung von Steifigkeit und Festigkeit von jungem Spritzbeton.

Worum handelt es sich bei einem solchen Beton?

Spritzbeton ist ein in einem besonderen Verfahren hergestellter und eingebauter Beton, der unter anderem zur Konsolidierung des Vortriebs im Rahmen der Neuen Österreichischen Tunnelbaumethode verwendet wird. Beton ist in der Regel Umwelteinflüssen wie etwa Temperaturschwankungen und dem Transport aggressiver Fluide, ausgesetzt. Eine realitätsnahe Beschreibung des Materialverhaltens erfordert neben der Einbeziehung unterer Wirkungsebenen in die Multi-scale Modellierung die Erfassung der Bauteil- bzw. Strukturverformung, der Temperaturverteilung sowie etwaiger Transportprozesse. Es liegen also mehrere Variablenfelder vor. Zur Lösung des kombinierten Mehrskalen- und Mehrfeldproblems ist folglich neben der Multi-scale Modellierung ein Multi-field Ansatz erforderlich.

Wechselwirkungsfelder bei Beton

 

 

 

 

Welche Felder enthält dieser Ansatz?

Bei der Hydratation jungen Betons kommt es zu einer Temperaturerhöhung im Bauteil und in weiterer Folge zu einer Verbesserung der mechanischen Eigenschaften des Betons. Andererseits beeinflusst die Temperatur die chemische Reaktion zwischen Zement und Wasser. Verzerrungen infolge von Temperaturänderungen bewirken eine zusätzliche mechanische Beanspruchung der Struktur. Bei jungem Beton stehen also die Felder Chemie, Temperatur und Mechanik miteinander in Wechselwirkung. Folglich sind diese drei Felder im Multi-field Ansatz zu berücksichtigen. Multiskalenmodell für Beton

 

Wie sieht ein typisches Multi-scale Modell für Beton aus? Infolge von Hydratation ändert sich die Materialzusammensetzung des jungen Betons. Bei der vorliegenden Multi-scale Modellierung wird diese Änderung auf den beiden untersten Ebenen – der Hydrat- bzw. Klinkerebene und der Zementsteinebene – berücksichtigt. Zusätzlich zu diesen beiden Betrachtungsebenen weist das abgebildete Multi-scale Modell für jungen Beton zwei weitere Betrachtungsebenen – die Mörtel- und die Makroebene – auf. Die makroskopischen Materialeigenschaften werden mittels geeigneter Homogenisierungsverfahren auf Basis der Morphologie der Einzelbestandteile und ihrer mechanischen Eigenschaften auf den drei unteren Betrachtungsebenen erhalten.

Wie lassen sich die mechanischen Eigenschaften dieser Bestandteile identifizieren?

Die Identifizierbarkeit dieser Eigenschaften wurde durch jüngere Entwicklungen auf dem Gebiet der Nanoindentation, auf das sich die folgende Abbildung bezieht, erleichtert. Bei der Nanoindentation dringt eine diamantene Spitze von gegebener Form in die Oberfläche des Betons ein. Dabei werden Kraft und Eindringung als Funktionen der Zeit aufgezeichnet. Aus den erhaltenen Kraft-Eindringungskurven lassen sich elastische und viskose Charakteristika sowie Festigkeitseigenschaften bestimmen. Aufgrund der Heterogenität des Betons werden für die statistische Auswertung Indentitätsversuche in den Punkten eines quadratischen Rasters durchgeführt. Die drei Konturplots in der nachstehenden Abbildung zeigen die Verteilung des Elastizitätsmoduls über die gerasterte Oberfläche für drei Zemente mit verschiedenen Mahlfeinheiten. Der Abstand zweier benachbarter Rasterpunkte beträgt fünf Mikrometer. Mit den solcherart ermittelten Eigenschaften lassen sich die elastischen Eigenschaften von Beton auf Basis seiner Zusammensetzung durch Homogenisierung bestimmen. Die Qualität der Prognose elastischer Eigenschaften wird in Validierungsversuchen überprüft. Wie das Bild rechts unten zeigt, stimmt der für einen typischen Spritzbeton prognostizierte Elastizitätsmodul in Abhängigkeit vom Hydratationsgrad gut mit experimentell ermittelten Werten des Elastizitätsmoduls überein. Identifizierungsversuche Spritzbeton

 

Wie bestimmt man die Tragsicherheit von Spritzbetonschalen beim Tunnelvortrieb mittels des vorgestellten Multi-scale Modells?

Dieses Modell wurde in ein hybrides – experimentelles und numerisches – Verfahren zur Bestimmung der Auslastung von Spritzbetonschalen beim Tunnelvortrieb implementiert. Mittels des Modells werden im Rahmen des erwähnten Verfahrens die elastischen Eigenschaften sowie das Kriech- und Schwindverhalten des Spritzbetons bestimmt. Auf diese Weise fließen die jeweilige Materialzusammensetzung und die Baustellenverhältnisse in die Berechnung ein. Zwischen den in einzelnen Punkten der Tunnellaibung gemessenen Verschiebungen wird interpoliert. Damit stehen die zeitlich veränderlichen Randwerte zur Ermittlung des zeitlich variablen Verformungs- und Spannungszustands in der Schale durch Lösung einer kombinierten Rand- und Anfangswertaufgabe zur Verfügung. Bei Kenntnis der zeitlichen Evolution des Spannungszustands lässt sich die Evolution des Auslastungsgrades bestimmen. Dieser ist durch den Abstand des Punktes a im rechten unteren Bild der nachstehenden Abbildung von dem auf der Versagenskurve gelegenen Punkt b gekennzeichnet. Der Punkt a repräsentiert den Spannungszustand im betrachteten Punkt der Spritzbetonschale. Die Versagenskurve stellt den geometrischen Ort aller kritischen Spannungszustände dar. Ihre Form hängt vom gewählten Materialmodell ab. Ein Auslastungsgrad von 100 % signalisiert Materialversagen. Aufgabenstellung: Auslastungbestimmung bei SpritzbetonschaleDas linke und das mittlere farbige Bild zeigen den zeitlichen Verlauf der Verteilung des Auslastungsgrades über einen bestimmten Querschnitt beim Vortrieb des Lainzertunnels am Stadtrand Wiens, wobei zuerst nur an der Firste und erst später an den Ulmen ausgebrochen und mit Spritzbeton gesichert wurde. Mit den mit Hilfe des Multi-scale Modells bestimmten elastischen und viskosen Materialeigenschaften wird die Berechnung als Multi-field Analyse durchgeführt. Auf diese Weise lässt sich etwa der Temperaturanstieg in der Spritzbetonschale in der Frühphase der Hydratation realitätsnahe quantifizieren. Die stark ausgeprägte Kriechfähigkeit des jungen Spritzbetons führt zu einem raschen Abbau der in der Schale anfänglich aufgebauten Druckbeanspruchung, die eine Verringerung der Auslastung nach sich zieht.

Was blieb bei der Beschreibung der vorgestellten Multi-scale Analyse ausgeblendet? Es waren das vor allem mechanische, thermische und chemische Details der Analyse von Steifigkeit und Festigkeit von jungem Spritzbeton. Dazu kam die algorithmische Übersetzung problemspezifischer gekoppelter nichtlinearer partieller Differentialgleichungen und die mit entsprechenden Algorithmen für inkrementell-iterative numerische Berechnungen verbundenen Probleme der numerischen Stabilität und der Konvergenzgeschwindigkeit. Nicht berücksichtigt, weil im gegebenen Fall nicht erforderlich, wurden ferner extrem kleine Längenskalen, die eine atomistische Modellierung verlangen würden, sowie Zeitskalen.

Abschließende Bemerkungen – Neben der Forderung nach ausreichend großer Tragsicherheit, um die es in diesem Beitrag ging, müssen Bauwerke Mindesterfordernisse an Gebrauchstauglichkeit und Dauerhaftigkeit erfüllen, den Forderungen nach angemessenen Bau- und geringen Betriebskosten sowie möglichst geringer Beeinträchtigung der Umwelt entsprechen und darüber hinaus ästhetischen Ansprüchen genügen. Breit ausgebildete und gebildete Bauingenieure, ausgestattet mit hoher fachlicher und sozialer Kompetenz, bieten gute Voraussetzungen für die Erfüllung der erwähnten Forderungen. Unter breiter Ausbildung ist eine umfassende wissenschaftliche Fachausbildung zu verstehen, die auf ein breites mathematisches, naturwissenschaftliches und informationstechnisches Fundament aufsetzen muss. Bestandteil der Bildung aber sollte ganz allgemein die Erkenntnis sein, dass es nicht zuletzt die Wissenschaft ist, die einen wesentlichen Anteil an der Funktionstüchtigkeit technischer Schöpfungen hat. H. Mang


Anmerkungen der Redaktion

Glossar

Algorithmus: Berechnungs- bzw. Handlungsvorschrift zur Lösung eines Problems in endlich vielen und eindeutig beschriebenen Schritten

Asphalt: ein Gemisch aus Bitumen und Gestein mit Korngrößen bis zu einer je nach Asphaltart unterschiedlichen Maximalgröße. Teer (Abfallprodukt der Holzkohle- und Koksgewinnung) wird aufgrund seiner krebserregenden Eigenschaften im Straßenbau nicht mehr eingesetzt.

Bitumen: letzter Rückstand bei der Raffinierung von Erdöl und dort im Grunde Abfallprodukt. Besteht aus einem Gemisch von Kohlenwasserstoffketten unterschiedlichster, aber durchwegs großer Längen. Die kürzerkettigen Kohlenwasserstoffe wurden durch die Raffinierung bereits als div. Alkohole, Benzin, Kerosin, Diesel bzw. Heizöl leicht, Heizöl schwer etc. extrahiert.

Beton: Gemisch aus Zement, Gesteinskörnung und Anmachwasser (zusätzlich Betonzusatzstoffe/mittel). Die Reaktion mit Wasser (Hydratation) führt zum Auskristallisieren der Klinkerbestandteile des Zements, wobei die endgültige Festigkeit erst nach längerer Zeit erreicht wird.

Fluid: Flüssigkeiten und Gase unterscheiden sich in vielen Eigenschaften nur größenordnungsmäßig und werden als Fluide zusammengefaßt: fließende Stoffe.

Kollagen (letzte Silbe betont): häufigstes Protein bei Säugetieren (über 30 % des Gesamtproteins) und Hauptkomponente der extrazellulären Matrix des Bindegewebes (in Knorpel, Bändern Sehnen, Haut, Knochen,..). Kollagen liegt vor assoziiert zu langen Fibrillen und Fasern von hoher Zugfestigkeit.

Mörtel: Gemisch aus Bindemittel (Zement oder Kalk), Gesteinskörnung (maximal 4mm Korngröße) und Anmachwasser (zusätzlich Betonzusatzstoffe/mittel).

Stahlbeton: Verbundwerkstoff, bei dem die Druckfestigkeit des Beton und die Zugfestigkeit eingelegter Stahltrossen oder Gitterstahllagen kombiniert werden.

Zement: Bindemittel für Beton und Mörtel. Zement ist ein feingemahlenes kompliziertes anorganisches Stoffgemisch - bei hohen Temperaturen gebranntes Rohmehl aus Kalkstein, Sand, Ton, Eisenerz (Klinker), vermahlen mit weiteren Zusätzen -, das nach Anrühren mit Wasser (Anmachwasser) unter Ausbildung von Hydraten/Hydratphasen erstarrt und erhärtet (Hydratation).

Weiterführende Links

Zum Thema Mehrskalen-Analyse siehe auch den Artikel von Josef Eberhardsteiner: »Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im Ingenieurholzbau« im ScienceBlog

Multiskalenansätze zur Bewältigung von Komplexität in Natur- und Geisteswissenschaften: H. Neunzert: Vortrag anlässlich der Verleihung des Akademiepreises des Landes Rheinland-Pfalz am 21.11.2001; p.10 - 12 http://www.itwm.fraunhofer.de/fileadmin/ITWM-Media/Zentral/Pdf/Berichte_ITWM/2001/bericht29.pdf

Aufsatz: Zukunft im Rechner (p 8 – 12): http://www.fraunhofer.de/archiv/magazin04-08/fhg/Images/magazin3-2006_tcm5-65475.pdf

Entwicklung integrativer Zukunftsfelder neuen Zuschnitts - Transdisziplinäre Modelle und Multiskalensimulation (Fraunhofer ISI und IAO, Foresight-Prozess – Im Auftrag des Deutschen Bundesministeriums für Bildung & Forschung) http://www.bmbf.de/pubRD/05_Modelle_Multiskalensimulation_Auszug.pdf

zum Tunnelbau: http://www.geodz.com/deu/d/Tunnelbau


 

inge Thu, 15.09.2011 - 05:20

Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

Fr, 08.09.2011- 04:20 — Peter Schuster

Peter SchusterIcon Politik & Gesellschaft

 

Besondere Bedeutung kommt Exzellenzstrategien bei der Rekrutierung und Ausbildung des wissenschaftlichen Nachwuchses zu. Erfolg verspricht die kompromisslose Kombination von drei Faktoren:

(i) möglichst frühe Erkennung von Talenten,

(ii) Förderung durch gezielte Herausforderungen und aktive Betreuung und

(iii) Ausbildung in Institutionen der Weltspitze.

Die uneingeschränkte Zulassung aller Interessenten für (fast) alle Fächer ist schlicht und einfach Realitätsverweigerung oder drastischer ausgedrückt Unfug [1]. Zum Forscher benötigt man ebenso Eignung wie zum Musiker oder Schifahrer. Niemand würde auf die Idee kommen, jemanden der jämmerlich auf der Violine kratzt zum Studium am Mozarteum zuzulassen oder einen Schifahrer der nur mühsam Bogen fahren kann, in den nationalen Schikader aufzunehmen. Unzureichende Selektion vergeudet nicht nur sehr viel Geld sondern macht die unbewusst Ungeeigneten zumeist für ein Leben lang unglücklich. Überfüllte Studienfächer mit eklatantem Personalmangel und dadurch unvermeidbar schlechter Ausbildung helfen niemandem.

Zudem kommt noch erschwerend, dass auf Grund der Gesetze in der Europäischen Union Studierende einschließlich der Studienanfänger, die aus anderen EU-Ländern kommen, unter den gleichen Bedingungen wie Österreicher zum Studium zugelassen werden müssen. Um nicht missverstanden zu werden, Ortsveränderungen während des Studiums sind sehr wichtig und die Mobilität ist in Europa ohnehin viel zu gering. Das Problem aber ist die Zuwanderung von Studierenden, die auf Grund von Selektionskriterien in ihrem Heimatland keinen Studienplatz bekommen haben, und deshalb sind es nicht immer die besten, die in Österreich ihr Glück versuchen. Die meisten Studierenden in den Massenfächern schließen, wenn überhaupt, mit einem Mastergrad – seit kurzem auch mit einem Bachelorgrad – ab. Die zahlreichen Absolventen der Massenfächer können darüber hinaus mit ihrer oft schlechten Ausbildung kaum sinnvoll in den Arbeitsmarkt integriert werden.

Von der völlig freien Studienwahl, wie sie dem sozialdemokratischen Bildungsideal entspricht, wird man sich wegen Nichtfinanzierbarkeit sehr bald verabschieden müssen [1]. Eine pragmatische Vorgangsweise müsste in vielen Fächern die Ausbildung an die Berufsbilder und den Bedarf des Arbeitsmarktes heranführen. Zwei Beispiele sollen dies illustrieren: Absolventen des Magisterstudiums in der Pharmazie haben in ihrer Ausbildung zwar gelernt, chemische Synthesen durchzuführen und Pflanzenextrakte zu bereiten, aber kaum etwas von den wissenschaftlichen, kommerziellen und politischen Rahmenbedingungen der zeitgemäßen Arzneimittelforschung und Arzneimittelentwicklung erfahren. Es gibt es einen klar überschaubaren Bedarf an Magistern in den Apotheken und dementsprechend sind ausreichend viele Studierende für diesen Beruf auszubilden. Es werden viel mehr Apotheker als pharmazeutische Forscher für Industrie und Hochschule gebraucht. Die letzteren benötigen jedoch eine längere und sehr viel tiefer gehende Ausbildung in den chemischen, biologischen und medizinischen Fächern. An einigen Hochschulen Deutschlands und der Schweiz werden diesem unterschiedlichen Bedarf Rechnung tragend verschiedene Ausbildungsgänge für die beiden Berufsbilder angeboten und damit Ressourcen gespart.

Im Studium der chemischen und biologischen Fächer wurde an Österreichs Universitäten die Ausbildung in Mathematik und Physik reduziert, und dies entspricht einem fatalen lokalen Anachronismus, denn eine fächerüberschreitende Vereinheitlichung des Wissens in den naturwissenschaftlichen Kernfächern Physik, Chemie und Biologie einschließlich der Mathematik ist auf Weltniveau nicht mehr aufzuhalten. An einigen erfolgreichen Universitäten Großbritanniens wurden diesem Trend folgend chemische Departments in Departments für Chemie und Biologie oder in Departments für Materialwissenschaften umgewandelt. Bei der Reorganisation der Studien nach dem Bologna-Prozess wurde aus meiner Sicht eine große Chance verpasst: die Einführung eines Studiums zum gemeinsamen ‚Bachelor of Science‘ und eine Aufspaltung in die einzelnen naturwissenschaftlichen Fächer erst während des Masterstudiums. Viele andere Beispiele von Ausbildung verbessernden und dennoch kostenneutralen, wenn nicht sogar kostensparenden Maßnahmen sind ähnlich gelagert. Ein konstruktives Zusammenspiel von Fachhochschulen und Universitäten, um allen wirklich Talentierten eine optimale Ausbildung und Entfaltungsmöglichkeit zu bieten und gleichzeitig den gesellschaftlichen Bedarf voll abzudecken, wäre ein Gebot der Stunde.

Andere Länder zeigen, wie man erfolgreich nach Talenten in der Wissenschaft Ausschau halten kann. Zwei Beispiele aus Ländern mit völlig verschiedenen politischen Systemen sollten als Illustration dienen:

Chinesische Studenten werden vor der Zulassung zum Studium sehr selektiven Auswahltests unterzogen. Einer meiner früheren Mitarbeiter und Doktoranden ist ‚Full-Professor‘ für diskrete Mathematik an der Nankai University in Tien Tsin und führt an, dass er weder in Deutschland noch in den USA so gut ausgebildete Studenten hatte wie jetzt in China.

Die Studienstiftung des deutschen Volkes ist ein Beispiel aus unmittelbarer Nähe: Schüler und Schülerinnen in den Abiturklassen werden mit Hilfe der Lehrkräfte und durch direkten Kontakt in Form von Interviews ausgewählt, erhalten ein Stipendium und werden während ihres Studiums von erfahrenen Vertrauensdozenten beraten und betreut. Eigene von der Studienstiftung veranstaltete Sommerkurse erweitern das Wissen der Betreuten. Bundesweit werden zurzeit jedes Jahr etwa 3000 Stipendiaten aufgenommen, die Gesamtzahl der Geförderten beträgt 9500 – Tendenz stark steigend – und darunter befinden sich 900 Doktoranden. Etwa 75% der Mittel der Studienstiftung, da sind 37,3 Millionen EUR kommen von der öffentlichen Hand. Die Zugehörigkeit zu den von der Studienstiftung Betreuten wird in Deutschland als eine Auszeichnung für besondere Leistungen empfunden. Ein besonders wichtiges Merkmal der Studienstiftung ist das Einsetzen der Förderung und der Betreuung schon bei Beginn des Studiums, wodurch Selektion und Studienberatung automatisch inkludiert sind. Es wird diskutiert, die Begabtenförderung auch auf die obersten Gymnasialklassen auszudehnen.

Zum Unterschied von der Studieneingangsphase hat sich bei uns die Betreuung der Diplomanden und Doktoranden in den vergangenen zehn Jahren entscheidend verbessert. Die Österreichische Akademie der Wissenschaften (ÖAW) vergibt Stipendien, die Betreuung und Finanzierung von Auslandsaufenthalten zum Zweck der Erlernung von Techniken und der Durchführung von Arbeiten, die für den Fortschritt der Doktorarbeit essentiell sind, beinhalten. In vielen Fächern wurden Doktorandenkollegs eingerichtet, die eine volle Betreuung während der Dissertation sicherstellen. Ein weiterer wichtiger Schritt in Richtung internationaler Standards wäre die flächendeckende und zwingende Einführung eines fachspezifischen, internationalen Stellenausschreibungs- und Auswahlverfahrens für alle Doktoranden und zwar nicht durch einzelne Professoren sondern durch ein Kollegium, ein Verfahren welches zurzeit nur in einigen wenigen Fächern praktiziert wird. Auch für die PostDoc-Phase der wissenschaftlichen Karrieren gibt es einschlägige Programme: Das Erwin Schrödinger- und das Max Kade-Stipendium für Auslandsaufenthalte mit der Erwartung, dass die Stipendiaten nach Österreich zurückkehren werden, sowie die APART-Stipendien der ÖAW, welche die Zeit von der Promotion bis zu einer Habilitation überbrücken sollen.

In die Karrieremöglichkeiten bereits etablierter junger Forscher ist in Österreich noch einiges zu investieren. Das wichtigste Kriterium für die Förderungsstrategie ist die vollständige wissenschaftliche Unabhängigkeit der Geförderten durch eigenes Budget und eigenes Personal. Nachwuchsgruppenleiter dürfen nicht einem Professor oder ‚Senior-Researcher‘ unterstellt sein. Die Start-Preise des Fonds zur Förderung der wissenschaftlichen Forschung (FWF) sind zwar vorbildlich in Hinblick auf die kompetitive Vergabe und die garantierte Unabhängigkeit der jungen Forscher aber zahlenmäßig viel zu wenige. Manche Wissensgebiete fallen völlig heraus, obwohl es in Österreich international erstrangige junge Leute in diesen Fächern gibt. Ein Vergleich der Nachwuchsförderung in den beiden etwa gleich großen Ländern Österreich und Schweiz ist überaus illustrativ (Tabelle 1).

Tabelle 1: Förderung des wissenschaftlichen Nachwuchses in Österreich und in Schweiz

  Österreich (FWF) Schweiz (SNF)
  Zeitraum Anträge Erfolg % Zeitraum Anträge Erfolg %
Gesamt 1996-2009 502 76 15 1999-2009 2522 402 16
Pro Jahr 1996-2009 35,9 5,4 15 1999-2009 229,3 36,5 16

 

Der österreichische Startpreis ist unmittelbar vergleichbar mit der erst drei Jahre später eingeführten Förderungsprofessur, welche vom Schweizerischen Nationalfonds vergeben wird. Die Erfolgsquoten für eingereichte Anträge sind nahezu gleich aber in der Schweiz werden mehr als fünfmal so viele Nachwuchsstellen vergeben. Deutschland hat mehrere Förderprogramme, welche von der DFG – Emmy Noether-Programm, Heisenberg-Professuren – , von der Max Planck-Gesellschaft – Nachwuchsgruppenleiterstellen – und privaten Institutionen vergeben werden. Nahezu alle diese Programme und ebenso die vom European Research Council (ERC) vergebenen Starting Grants haben sich als überaus erfolgreich etabliert. Ein sehr hoher Prozentsatz der Ausgezeichneten beginnt nach Auslaufen der Nachwuchsstellen eine erfolgreiche Karriere als Spitzenwissenschaftler. Leider verzeichnet Österreich eine besonders hohe Quote der Abwanderung der exzellenten Nachwuchsforscher in andere Länder, welche eine bessere Perspektive bieten. Maßgeblich, wenn auch nicht ausschließlich für diese prekäre Situation verantwortlich, ist das Fehlen einer transparenten, durchgängigen und dennoch höchst selektiven Karrierestruktur mit dem international üblichen Tenure Track.

Ein gravierendes Problem des Brain Drains aus Österreich besteht in der Tatsache, dass die Kompensation in Form eines Brain Gains aus dem Ausland viel zu schwach ist. Dies beginnt mit dem Fehlen geeigneter Programme für Gastprofessoren der internationalen Spitzengruppe – etwa in Form der Humboldt-Professuren in Deutschland – und reicht bis zu schwachen Angeboten bei Berufungen. Im letzteren Fall hat dies zur Konsequenz, dass von ganz wenigen Ausnahmen abgesehen nur schwächere Wissenschaftler mit Erfolg aus dem Ausland nach Österreich angeworben werden. Es sind aber gerade die hochrangigen internationalen Gastwissenschaftler oder die rekrutierten Spitzenwissenschaftler, die mit ihrer Expertise die Wissenschaft eines Landes ungeheuer bereichern können.

Österreich – eine entwickelbare Forschungslandschaft

Bei der Feierlichen Sitzung 2010 der Österreichischen Akademie der Wissenschaften hat Präsident Denk den Satz geprägt: „Österreich hat keine entwickelte aber eine entwickelbare Forschungslandschaft.“ Ende des Zitats. An diese Worte möchte ich hier anknüpfen: Die Voraussetzungen für den Erfolg einer Exzellenzstrategie sind gegeben aber, um sie umzusetzen, fehlen kompromissloses Bemühen und konsequentes Durchhalten. Die gesetzliche Lage – UOG 2002 – ermöglicht den Universitäten eine schrittweise Umwandlung in forschungsintensive Spitzeneinrichtungen. Einer positiven Entwicklung stehen im Wesentlichen drei Hindernisse im Weg:

(i) der gegenwärtige Geldmangel,

(ii) die durch Gesetz verordnete Durchführung von Massenausbildung in einigen von Studierenden ‚überrannten‘ Fächern und

(iii) jene Berufungsgremien, die kein Interesse an echter wissenschaftlicher Qualität haben.

Alle diese Probleme sind nicht unüberwindbar und lassen sich mit entsprechendem Einsatz der Verantwortlichen in der Politik und an der Universität beheben. Zur Pflege der Forschung in einer naturwissenschaftlichen, technischen oder medizinischen Fachrichtung gehören dementsprechend zweierlei, genügend finanzielle Mittel, um den Gerätepark für Forschung und Lehre auf dem weltweit modernsten Stand halten zu können, und die Berufung von Spitzenforschern auf vakante Stellen. Mittelmäßige Forschung bringt keine Innovationen, sie kostet nur Geld für sogenannte ‚Me too‘-Projekte. Der Schaden, der durch eine Nichtbesetzung einer Professorenstelle entsteht, ist viel geringer als jener, der durch eine Fehlbesetzung verursacht wird. Wenn eine Aufstockung der finanziellen Mittel ausgeschlossen erscheint, dann kann der Mangel durch eine Verringerung der Personalstellen behoben werden. In vielen Fächern, vor allem im mathematisch-naturwissenschaftlichen und technischen Bereich ist das Verhältnis von Lernenden zu Lehrenden so günstig, dass eine richtig durchgeführte Reduktion des Lehrkörpers bei gleichzeitiger Steigerung der wissenschaftlichen Leistung keine Verschlechterung der Ausbildung nach sich zu ziehen bräuchte. Allerdings wäre eine solche ‚Redimensionierung‘ wegen der dienstrechtlichen Situation der Mitarbeiter in der Übergangsphase mit einigen zusätzlichen Kosten verbunden. In den vergangenen fünfzig Jahren österreichischer Wissenschaftspolitik gab es zwei Phasen einer beachtlichen Steigerung der von der öffentlichen Hand auf diesem Sektor aufgewendeten finanziellen Mittel: i) den Zeitraum von etwa zehn Jahren vor dem UOG 1975 (Eine kurz gefasste Schilderung der österreichischen Wissenschaftspolitik insbesondere in Hinblick auf den Fonds zur Förderung der wissenschaftlichen Forschung (FWF) findet sich in der Diplomarbeit von Richard Aichner [2]) und die Begleitmaßnahmen zur Implementierung des Gesetzes bis zum Ende der Achtzigerjahre und ii) die Zeit von 1998 bis 2008, in welcher die Zuwendungen des Bundes für Forschung und Entwicklung von 1 Milliarde EUR auf etwa 3 Milliarden EUR gesteigert wurden. Die erste Phase war wegen der Begleitumstände des UOG bei weitem nicht so wirkungsvoll, wie sie hätte sein können. Die zweite Phase hat es erlaubt, eine Reihe von Neuentwicklungen an den Universitäten und in der außeruniversitären Forschung in Richtung auf das Erreichen des Weltspitzenniveaus zu initiieren. Um diesen vor mehr als einem Jahrzehnt begonnenen Pfad einer Exzellenzstrategie in der Grundlagenforschung erfolgreich bis zu dem gewünschten Ziel weiter gehen zu können, müssen Schwachstellen in der österreichischen Wissenschaft beseitigt werden:

(i) die akademische Forschung muss ausreichend gefördert werden und dazu sind entweder mehr direkte Mittel oder indirekte Mittel für eine Umgestaltung der Wissenschaftslandschaft notwendig,

(ii) die Rekrutierung von Spitzenkräften für die Leitung wissenschaftlicher Einrichtungen muss noch deutlich verbessert werden und dies beinhaltet sowohl eine bessere, international konkurrenzfähige Ausstattung der Forschungsstätten mit Arbeitsmitteln und Personal als auch mehr Exzellenzbewusstsein bei der Auswahl und

(iii) ein umfassendes und griffiges Programm zur Förderung des wissenschaftlichen Nachwuchses, um den ‚Brain Drain‘ umzukehren.

Ausblick

Im Sinne der Vision einer wesentlichen Rolle Österreichs im zukünftigen gemeinsamen Wissenschaftsraum Europa müssten die hier angesprochenen Probleme möglichst rasch gelöst werden. Dazu appelliere ich an die zuständigen Politiker wieder zu dem im Jahre 2008 geplanten und dann nach der Regierungsbildung verlassenen Forschungspfad zurückzukehren und wie in fast allen westlichen Ländern die Ausgaben für Bildung und Wissenschaft trotz oder gerade wegen der Krise zu erhöhen. Den Verantwortlichen an den Hochschulen kommt die Aufgabe zu, Exzellenzstrategien konsequent anzuwenden, und für Berufungen nur erstrangige Wissenschafter auszuwählen. Bei der Erstellung der laufenden Budgets für Forschungsgruppen, Abteilungen und Institute müssen die erbrachten Leistungen als Orientierung ernst genommen und persönliche Präferenzen oder Abneigungen hintangestellt werden. Wenn dann auch noch die Förderung der jungen Talente verstärkt wird, ist kein Grund zu sehen, warum die österreichische Wissenschaft nicht einen weltweit erstrangigen Platz einnehmen sollte, wie dies schon heute für die Schweiz, die Niederlande, die skandinavischen Länder und andere Staaten mit vergleichbarer Größe und ähnlich erfolgreichen Volkswirtschaften der Fall ist.


Der Artikel ist der vierte Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:

inge Thu, 08.09.2011 - 05:20

Die letzten Tage der Wissenschaft (Satire)

Die letzten Tage der Wissenschaft (Satire)

Fr, 01.09.2011- 04:20 — Gottfried Schatz

Gottfried SchatzIcon Politik & Gesellschaft

Leben duldet kein ungehemmtes Wachstum. Wenn eine Spezies sich zu sehr vermehrt, lockt sie Räuber oder Parasiten an, die an ihr zehren und sie sogar vernichten können. Diesem unerbittlichen Gesetz fielen auch die einst so erfolgreichen Wissenschafter zum Opfer. Sie regierten die Welt und verunsicherten sie mit Ideen und Entdeckungen, um die niemand sie gebeten hatte.

Sie waren bereits auf gutem Wege, die „dunkle Materie“ des Universums und die Arbeitsweise unseres Gehirns zu verstehen und hätten vielleicht sogar die Grammatik der menschlichen Ursprache aufgedeckt, wenn sie genügend Zeit zum Nachdenken gehabt hätten. Doch plötzlich zerstückelten Parasiten ihnen diese Zeit zu zielloser Geschäftigkeit. Diese zeitspaltenden Chronoklasten lebten von der Zeit anderer, so wie wir von der Nahrung oder Pflanzen vom Sonnenlicht.

Chronoklasten hatten seit jeher zusammen mit Wissenschaftern gelebt. Sie sahen diesen täuschend ähnlich, ließen sich aber daran erkennen, dass sie an Kongressen stets um die gefeierten Stars herumschwirrten, diese ausschliesslich beim Vornamen nannten, und bei deren Vorträgen in der vordersten Reihe saßen. Sie besaßen einen hochempfindlichen Sensor für Berühmtheit und verströmten einen flüchtigen Lockstoff, der rückhaltslose Bewunderung und Ergebenheit vorspiegelte. Damit erreichten es Chronoklasten meist ohne große Mühe, zu einem Vortrag eingeladen zu werden und auf diese Weise ihrem unfreiwilligen Gastgeber mindestens zwei konzentrierte Arbeitstage zu geistiger Makulatur zu zerstückeln. Besonders einfallsreiche Chronoklasten wussten es sogar einzufädeln, dass der eine oder andere Wissenschafter sie für einen unbedeutenden wissenschaftlichen Preis oder ein Ehrendoktorat an einer drittklassigen Universität vorschlug - und dann wohl oder übel ungezählte Stunden mit dem Verfassen lobender Gutachten oder in Fakultäts- oder Preiskomitees vergeuden musste.

Wissenschafter hatten allerdings gelernt, sich gegen diese Frühformen der Chronoklasten zu wehren. Sie behandelten sie mürrisch und herablassend, ließen ihre Briefe unbeantwortet, machten auf Kongressen weite Bögen um sie, und gingen manchmal so weit, sie den Unbilden einer Universitätskantine auszusetzen. Sie entrannen ihnen damit zwar nicht, konnten sie aber unter Kontrolle halten und als unwillige Wirte mit ihnen im Gleichgewicht leben. Viele Wissenschafter hofften, dies würde immer so bleiben.

Doch die Wirte hatten die Rechnung ohne den Parasiten gemacht. Als Wissenschafter für ihre Forschung immer mehr Geld benötigten und deshalb zum Spielball von Politik und Verwaltung wurden, unterschätzen sie die ihnen daraus drohende Gefahr und vergruben sich wie eh und je in ihre Laboratorien und Bibliotheken. Die Parasiten hingegen nützten ihre Chance und mutierten zu einer hochvirulenten Form, die im Handumdrehen Ministerien und Universitätsverwaltungen unterwanderte und die Zeit der Wissenschafter nun über diese mächtigen Organisationen vernichtete. Statt Sensoren und Lockstoffen verwendeten diese modernen Chronoklasten nun einschüchternde Kommandolaute wie intra-, trans- und multi-disziplinär, Schwerpunkt, master plan, Portfolio, center of excellence, relevant, governance, Vision, multifokal, ranking, impact factor, Fokussierung, Vernetzung oder Effizienz. Was diese Laute bedeuteten, welcher Sprache sie angehörten, und ob sie überhaupt als Sprache zu werten waren, ist bis heute ungeklärt. Chronoklasten inspirierten sich zudem an der Computertechnik und erfanden die massive parallel infection - den elektronischen Massenversand kurzfristiger Aufforderungen zu langfristigen master plans. Dank dieser on-line governance konnten sie nun ihren Opfern mit einem einzigen Mausklick gewaltige Zeitmengen entreissen und multifokal vernichten.

Selbst dies hätte jedoch nicht genügt, um die Wissenschafter-Spezies bis an den Rand der Ausrottung zu dezimieren, denn wie alle Parasiten mussten auch Chronoklasten danach trachten, sich ihre eigenen Wirte zu erhalten. Das Wechselspiel zwischen Wirten und Parasiten ist jedoch ein listenreicher Kampf, der manchmal unerwartete Wendungen nimmt. Wissenschafter fanden nämlich Gefallen daran, nicht mehr lange und angestrengt nachdenken zu müssen, sondern nur noch Fragebögen auszufüllen oder fantasiereiche master plans zu komponieren. Am liebsten schrieben sie jedoch Jahresberichte. Sie wussten zwar, dass niemand diese lesen würde, konnten sie aber auf Hochglanzpapier drucken lassen und – mit ihrem Konterfei an prominenter Stelle – wie einen Weihnachtsgruss zu Tausendenden in alle Welt versenden.

Bald beherrschten viele Wissenschafter auch die Kommandolaute der Chronoklasten so fließend und akzentfrei wie diese selbst und wurden unmerklich selbst zu Parasiten. Diese neuen Wirtsparasiten unterschieden sich kaum von den ursprünglichen Parasitenwirten; als typische Konvertiten waren sie aber mit viel größerem Eifer und profunderem Fachwissen bei der Sache als die alten Parasiten und verdrängten diese von ihren Machtpositionen. So wurden die Wirtsparasiten zu Parasiten der noch verbliebenen Parasitenwirte – ja sogar zu neuen Parasiten der alten Parasiten. Dieses heillose Durcheinander verwirrte selbst die sonst so souveräne Natur.

Sie hielt plötzlich so viele Fäden in der Hand, dass sie den roten verlor und den seidenen, an dem das Schicksal der Wissenschafter hing, fahren ließ und der Selbstausrottung der Wissenschafter tatenlos zusah. Wissenschafter, die genügend Zeit zum Nachdenken haben, fristen deshalb heute nur noch in biologischen Nischen und auf Reservaten ein kümmerliches Dasein.

Kaum jemand vermisst sie, denn über Jahrhunderte hinweg hatten sie und ihre Gesinnungsgenossen altvertraute Glaubensregeln und Überlieferungen in Frage gestellt oder gar als Unsinn abgetan. Nun ist endlich alles wieder im Lot: Krankheiten sind psychosomatisch, Medikamente Schwingungen und Universitäten postdisziplinäre Glaubenszentren. Der Mensch lebt wieder im Einklang mit sich und der Natur. Diese kennt jedoch kein stabiles Gleichgewicht und könnte den Chronoklasten das gleiche Schicksal bescheren wie einst den Wissenschaftern. Die Angst vor einem Wiederaufleben wissenschaftlicher Gewaltherrschaft wächst – und auch die Konstellation der Planeten verheißt nichts Gutes.


 

inge Thu, 01.09.2011 - 05:20

Pathologie: Von der alten Leichenschau zum modernen klinischen Fach

Pathologie: Von der alten Leichenschau zum modernen klinischen Fach

Fr, 25.08.2011- 04:20 — Helmut Denk

Icon Medizin Helmut Denk

„Der Pathologe weiß alles, kann alles, kommt aber immer zu spät“: diese abschätzige Bemerkung, die sich auf die alte Bezeichnung des Faches „Pathologische Anatomie“ (Beschäftigung mit Leichen im Rahmen der Obduktion) bezieht, ist sogar in Ärztekreisen noch verbreitet.

Vielfach wird von medizinischen Laien noch immer die Tätigkeit des Pathologen ausschließlich mit der Leiche assoziiert (Fernsehkrimis, in denen skurrile Typen als Pathologen bezeichnet werden, obwohl es sich tatsächlich um Gerichtsmediziner handelt, leisten dabei Vorschub). Und auf die zentrale Rolle der Pathologie in der modernen medizinischen Grundlagenforschung und in der klinischen Medizin wird vergessen.

Im klinischen Bereich kann der Pathologe/die Pathologin (zahlreiche Frauen sind in diesem Beruf tätig!) heute ohne Übertreibung als „Lotse“ der Therapie gelten. Dabei soll die ursprüngliche Haupttätigkeit der Pathologen als Obduzenten von Leichen auch heute nicht minder bewertet werden. Carl Freiherr v. Rokitanksy: Pathologie als Klinisches FachDurch diese Tätigkeit und die damit verbundene Erfassung krankhafter Organveränderungen wurde vor ca. 250 Jahren erst die Basis für das Verständnis von Krankheitsmanifestationen (Krankheitssymptomatik) und einer rationalen Therapie, und damit für die moderne Medizin, gelegt. Der österreichischen Pathologie, im 19. Jahrhundert prominent vertreten durch Carl von Rokitansky (1804-1878; Präsident der Österreichischen Akademie der Wissenschaften, 1869- 1878; Mitbegründer der Zweiten Wiener Medizinischen Schule) kam dabei eine zentrale Rolle zu (Zitat siehe Kasten)

Der Begriff „Pathologie“ bedeutet Krankheitslehre und Krankheitsforschung. Das Fach bereitet somit die Grundlage für das Verständnis des Wesens, der Erscheinungsformen, der Ursachen (Ätiologie) und der Entwicklung (Pathogenese) von Krankheiten. Im klinischen Bereich lassen sich auf Basis dieser Kenntnisse wichtige diagnostische und prognostische Hinweise, Krankheitsmanifestationen sowie therapeutische Prinzipien ableiten (Klinische Pathologie). Die Pathologie ist somit nicht nur ein zentrales Fach in der biomedizinischen Forschung sondern auch in der Klinik und in der Lehre. Sie sieht sich dabei in einer Mittlerrolle zwischen der naturwissenschaftlichen Grundlagenforschung und dem Krankenbett.

Das Fach besteht aus zwei interagierenden Bereichen: der biomedizinischen Grundlagenforschung und der klinisch-diagnostischen Anwendung (einschließlich klinisch-angewandter Forschung).

Die klinisch-diagnostische Pathologie beruht auf der mikroskopischen Untersuchung von Gewebeproben aus verschiedenen Organen, die durch Operation oder Biopsie (Gewebeentnahme mit Hilfe von Messer, Nadel oder Zange) gewonnen werden (Pathohistologie), von Zellen (gewonnen durch Aspiration mit Hilfe von Nadeln unter Kontrolle bildgebender Verfahren, z.B.Röntgen, Ultraschall, durch Abstrich von Organoberflächen oder Isolierung aus Körperflüssigkeiten; Zytodiagnostik) nach entsprechender Aufbereitung (Fixierung, Anfertigung von sehr dünnen Gewebeschnitten oder Zellausstrichen, Färbung). Durch die lichtmikroskopische Untersuchung lassen sich krankhafte Veränderungen (z.B. Entzündung, Tumoren, Erreger, Gewebsfehlbildungen, etc.) erfassen (Abbildung 1). Sehr bösartiges Magenkarzinom vom „Siegelringzelltyp“Abbildung 1. Pathohistologie: Sehr bösartiges Magenkarzinom vom „Siegelringzelltyp“. Die Tumorzellen (im linken Bild blau, im rechten Bild braun gefärbt) zeigen ein aggressiv-infiltrierendes Wachstum.

In der modernen Medizin genügt aber die bloße Feststellung eines krankhaften Prozesses nicht mehr. Vielmehr ist dessen möglichst exakte Klassifikation mit Aussagen zur Ätiologie und zum voraussehbaren Verhalten (z.B. Grad der Bösartigkeit bei Tumoren; Intensität eines entzündliche Prozesses und der damit verbundenen Gewebeschädigung) als Basis für die Abschätzung der Prognose und die Planung der Therapie notwendig. So gewährt beispielsweise bereits die Lichtmikroskopie Einblicke in das biologische Verhalten von Tumoren: z.B. Hinweise auf die Vermehrung der Tumorzellen (Zellteilungen, Mitosen) Atypiegrad der Tumorzellen („grading“), aggressives und zerstörerisches Wachstum, Stadium der Tumorausbreitung („staging“), Einbruch in Blut- oder Lymphgefässe als Voraussetzung für die Ausbildung von Tochtergeschwülsten (Metastasen) in anderen Organen. Abbildung 2.

Aggressives Tumorwachstum - Karzinom der BrustdrüseAbbildung 2: Aggressives Tumorwachstum - Karzinom der Brustdrüse: Das linke Bild zeigt ein lichtmikroskopisches Bild in kleiner Vergrößerung (beachte das sternförmige, aggressive Wachstum), das rechte das stärker vergrößerte lichtmikroskopische Bild des Karzinoms.

Erweitert wird die Aussagekraft der klassischen Lichtmikroskopie durch neuere Untersuchungsmethoden wie Immunhistochemie zum Nachweis von Proteinen (tumorassoziierte Eiweißkörper, Hormone, etc.) oder Erregern sowie Methoden aus dem Bereich der Molekularbiologie (einschließlich Elektronenmikroskopie, Hybridisierungstechniken, Molekulargenetik). Damit gewinnt die Molekularpathologie auch im klinisch-diagnostischen Bereich immer mehr an Bedeutung. Abbildung 3.

Karzinomatöse Umwandlung des Oberflächenepithels des Gebärmutterhalses — Assoziation mit Tumorzellen — KarzinomfokusAbbildung 3: Karzinomatöse Umwandlung des Oberflächenepithels des Gebärmutterhalses (oberes Bild). Eine molekularpathologische Untersuchung auf Viruskomponenten (Nukleinsäuren von humanen Papillomviren) zeigt deren Assoziation mit Tumorzellen (blau im mittleren Bild). Im unteren Bild findet sich ein kleiner Karzinomfokus, der in das umliegende entzündlich veränderte Gewebe vordringt.

Die Obduktion (Untersuchung von Leichen) hat zwar heute aufgrund der Fortschritte der klinischen Diagnostik etwas an diagnostischer Bedeutung verloren, ist aber nach wie vor ein wichtiges Instrument der Lehre, der Qualitätssicherung, der Überprüfung und Weiterentwicklung klinisch-diagnostischer Methoden, der Erfassung von Therapieeffekten und der Epidemiologie von Krankheiten und deren Vorstufen und damit auch der Krankheitsprävention.

Molekularpathologie bedient sich der Erkenntnisse und Methoden der modernen Molekularbiologie (einschließlich Biochemie, Genetik, Zellbiologie, Biophysik) bei Einsatz an pathologischem Humanmaterial. Wesentlich sind auch die Untersuchungen an Krankheitsmodellen in vivo und in vitro (z.B. Zellkultur, Tierversuch, genetisch modifizierte Organismen). Dies beruht auf der Überlegung, dass die „Krankheit“ einer „Karikatur des Normalen“ entspricht und das Verständnis für krankhafte Veränderungen, deren Entwicklung und eventuelle therapeutische Beeinflussung Kenntnisse der Normalsituation voraussetzt. Wichtige molekularpathologische Fragestellungen ergeben sich im Bereich von Infektions-, Stoffwechsel- und Tumorerkrankungen. Abbildung 4.

Nachweis einer Hepatitis-B-Virus InfektionAbbildung 4 . Nachweis einer Hepatitis-B-Virus Infektion. Immunhistochemische Darstellung von Komponenten des Hepatitis-B-Virus in der Leber zum Nachweis einer Virusinfektion. Im linken Bild ist das Hepatitis-B-Core-Antigen (braun), im rechten das Hepatitis-B-Oberflächen-Antigen (rot) dargestellt.

Aus dem Gesagten geht hervor, dass in der Pathologie Grundlagenforschung und klinische Pathologie im Sinne einer Translation an das Krankenbett eng verknüpft sind. Moderne Medizin ist ohne die Beiträge der Pathologie undenkbar.

Conclusio:

Wie in allen Bereichen der Medizin weiß auch der Pathologe nicht alles, kann nicht alles, kommt aber ebenso wenig immer zu spät.


 

inge Thu, 25.08.2011 - 05:20

Das Immunsystem – Janusköpfig?

Das Immunsystem – Janusköpfig?

Mi, 17.08.2011- 23:00 — Peter Swetly

Peter Swetly

Das Immunsystem höherer Lebewesen hat sich im Laufe der Evolution zu einem hochspezialisierten und effektiven Netzwerk entwickelt, welches gezielt Infektionen abwehren und als fremd erkanntes Gewebe abbauen kann. Eine Vielfalt von Mechanismen für die Erkennung und Eliminierung von Fremdkeimen kommen dabei zum Einsatz und ermöglichen das Überleben.

Seit langem wird auch die Rolle des Immunsystems bei der Erkennung und Eliminierung von Tumoren untersucht. Die grundlegende Annahme ist, dass das Immunsystem imstande ist, Tumorgewebe als fremd zu erkennen und zu eliminieren. Diese Hypothese wird durch eine histologische Beobachtung genährt: Maligne Tumoren, wie etwa das Mammacarcinom, weisen eine hohe Dichte an Zellen des Immunsystems im Tumorgewebe auf.

Besonders prominent vertreten sind dabei Makrophagen oder Fresszellen. Makrophagen sind Immunzellen, die an der vordersten Front als Abwehrspezialisten stehen. Sie verschlingen Pathogene, tote Zellen und Fremdzellen und bauen sie zu kleinen Molekülen ab. Eine besonders hohe Dichte dieser Fresszellen im Tumorgewebe (tumorassoziierte Makrophagen = TAM) schien daher eine gute Voraussetzung dafür, dass das Immunsystem das Tumorgewebe angreift.

DeNardo und Mitarbeiter haben nun diese Hypothese in Mammacarcinomen geprüft [1]. Und sie haben eine interessante Erkenntnis gewonnen.

Sie haben beobachtet, dass eine Tumorabwehr vom Zusammenwirken der TAM`s mit anderen Immunzellen, den sogenannten cytotoxischen T-Lymphozyten abhängig ist:

Wenn das Verhältnis von TAM zu cytotoxischen T-Zellen ausgewogen ist, dann kommt es zu Tumorregression und Erhöhung der Lebenserwartung der Patientinnen. Das ist die erwartete Wirkung der Immunzellen. Wenn hingegen eine hohe Zahl an TAM`s und eine geringe Zahl an cytotoxischen T-Zellen im Tumorgewebe vorliegen, resultiert eine Förderung des Tumorwachstums und eine Herabsetzung der Lebenserwartung.

Es scheint also vom Verhältnis Makrophagen zu cytotoxischen T-Zellen abzuhängen, ob Tumorabwehr oder Tumorwachstum entstehen.

Nun beginnt die Suche nach Substanzen, welche die TAM-Konzentration in Tumorgeweben verringern können, um ein unbalanciertes Verhältnis ausgleichen zu können.

Erste Ergebnisse weisen darauf hin, dass die Herabsetzung der TAM Konzentration auch mit einer erhöhten Wirksamkeit einer chemotherapeutischen Behandlung einhergeht und eine Reduktion von Primärtumor und Metastasierung beobachtet wird.

Das Immunsystem ist also janusgesichtig in seinem Verhältnis zu Tumoren, und es bedarf einer exakten Analyse, um sein Potential zum Wohle der Patientinnen und Patienten umzusetzen.

Literatur

[1] D.G. DeNardo et.al., "Cancer Discovery", doi 10.1158/2159-8274, CD-10-0028 (2011)


Anmerkungen der Redaktion

cytotoxisch: für Zellen giftig. Pathogene: Einflussfaktoren, die Erkrankungen ursächlich bedingen können. Das kann alles mögliche sein, beginnend bei bakteriellen Erregern über giftige Substanzen bishin zu Stress oder Lärm.

Empfehlenswert für alle, die einen leicht verständlichen Überblick über das Immunsystem und seine Bedeutung bei Krebserkrankungen bekommen möchten: Deutsches Krebsforschungszentrum: Immunsystem


 

inge Thu, 18.08.2011 - 00:00

Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

Do, 11.08.2011- 04:20 — Peter Schuster

Peter SchusterIcon Politik & Gesellschaft

Ein oft gehörter Ausspruch sagt: „Erstklassige Wissenschaftler rekrutieren nur erstklassige Wissenschaftler, zweitklassige rekrutieren nur drittklassige“. Die Folgen dieses Faktums sind überall zu sehen, besonders ausgeprägt in Ländern, in denen Wissenschaft kein besonderes Prestige besitzt. Eine mittelklassige Forschungsstätte kann nicht mit Hilfe sondern nur gegen den Willen der dort tätigen Wissenschaftler zu einer Spitzeneinrichtung aufgerüstet werden.

Eine Konsequenz davon ist den alljährlich durchgeführten Rankings der Universitäten zu entnehmen: Die Spitzenplätze – und dies erinnert an die berühmtesten Opernhäuser – werden stets von denselben Lehr- und Forschungseinrichtungen mit kleinen Verschiebungen innerhalb der Spitzengruppe eingenommen. Die heimischen Universitäten besetzen bestenfalls Ränge der Mittelklasse und die Tendenz ist vor allem für die Bewertung der großen Universitäten weiterhin fallend.

(In dem vor kurzem publizierten ‚Academic Ranking of World Universities 2010’ liegt von den österreichischen Universitäten eine in den Rängen 151-200, zwei liegen in den Rängen 201-300, drei in den Rängen 301-400 und eine liegt schließlich in den Rängen 401-500. Gegenüber 2009 haben sich zwei Universitäten von den Rängen 401-500 in die Ränge 301-400 verbessert. Das Ranking 2010 der renommierten privaten Firma QS-Quacquarelli Symonds Ltd. sieht ähnliche Positionen für die österreichischen Universitäten vor. Im davon unabhängigen auf etwas anderen Kriterien basierenden Ranking 2010 der englischen Zeitung Times besetzen die beiden besten österreichischen Universitäten die Ränge 187 und 195.)

Das Wissenschaftsmagazin Nature führte eine Umfrage unter 10.500 Wissenschaftler aus 16 Staaten durch, welche die Zufriedenheit mit der eigenen wissenschaftlichen Karriere und den Faktoren, die zu dieser beitragen – Entlohnung, Infrastruktur, Unabhängigkeit in der Forschung – ermitteln sollte [1]. Mohammed Hassan bringt das Ergebnis auf die einfache Formel [2]:

‚Pay them and they will stay. Keep them and it will pay‘

Diese zwei Sätze treffen den Nagel auf den Kopf, wenn man unter ‘pay them’ auch die Ausgaben für die Wissenschaftsinfrastruktur und die Kosten für die wissenschaftliche Arbeit mit einbezieht, denn Spitzenkräfte in den Naturwissenschaften können nur dann erfolgreich angeworben werden, wenn die Forschungsbedingungen exzellent sind und ein stimulierendes wissenschaftliches Umfeld existiert. Den höchsten Stellenwert für die Wissenschaftler hat nach der Nature-Umfrage der Grad an Unabhängigkeit bei der wissenschaftlichen Arbeit.

Gewünscht ist die verantwortliche Mitarbeit in einem Team gleichberechtigter Forscher, das alte Modell der ‚Sklavenwirtschaft‘ unter einem ‚allmächtigen‘ Abteilungs- oder Institutsleiter hat endgültig ausgedient. Interessant ist, dass über alle einzelnen Faktoren genommen der Zufriedenheitsgrad bei den Wissenschaftlern aus den skandinavischen Staaten und den Niederlanden am größten ist, gefolgt von der Schweiz, Nordamerika, Großbritannien, Frankreich, Deutschland und Australien. Die Schlusslichter hinsichtlich der Zufriedenheit bilden Indien, China und überraschenderweise Japan an letzter Stelle. Aus Österreich hatten zu wenige Wissenschaftler geantwortet, um eine signifikante Auswertung durchführen zu können.

Wie steht es an Österreichs Universitäten mit der Rekrutierung von Wissenschaftlern?

Zur Hinterfragung der Tragfähigkeit oft angesprochener Exzellenzstrategien möchte ich nur ein Illustrationsbeispiel anführen und auf Entwicklungen in meinem eigenen Fach eingehen. Die Chemie kann stellvertretend für die meisten anderen naturwissenschaftlichen Fächer angesehen werden – als ein ähnlich gelagertes Beispiel außerhalb der Naturwissenschaften sei auch die Situation in der österreichischen wissenschaftlichen Geographie zitiert [3]. Es ist unverfänglich, mit der universitären chemischen Forschung im ausgehenden neunzehnten Jahrhundert zu beginnen: Mittelmäßige Forscher bereiteten großen Schaden. Der Zyniker und Spötter Karl Kraus hat dies für die Chemie an der Technischen Hochschule Wien um 1900 so ausgedrückt [4]:

 

„ … Bis zum Jahre 1894 war diese Lehrkanzel (Anmerkung des Verfassers: Gemeint ist die organisch-chemische Technologie) mit dem berüchtigten J.J. Pohl besetzt, der die ganze Farbenchemie als einen „reichsdeutschen Schwindel“ bezeichnete. Ihm folgte der jetzige Hofrath Professor Dr. Hugo Ritter von Perger. Das bedeutete immerhin einen Fortschritt; denn während Pohl Farbstoffe kaum vom Hörensagen kannte, hat Perger schon manchen gesehen. Freilich erfunden hat er noch keinen. …“

Ein Jahr später äußerte er sich über die Verhältnisse an der Universität Wien nicht weniger sarkastisch [5]:

„ … Weder Hofrath von Perger noch der gegenwärtig einzige ordentliche Professor der Chemie an der Wiener Universität, Hofrath Adolf Lieben – ein Gelehrter, der vor Jahrzehnten wissenschaftliche Leistungen aufzuweisen hatte – sind im Stande, den Anforderungen zu entsprechen, die die vom österreichischen Chemikerverein entworfene Studienordnung an die Lehrer stellt. … Möge Herr von Hartel (Anmerkung des Verfassers: Wilhelm August von Hartel war in den Jahren 1900 bis 1905 Minister für Kultus und Unterricht) rechtzeitig auch an den Gelehrten denken, dem man … einen erst zu errichtenden Lehrstuhl an der Wiener Technik einräumen muss, wenn die chemische Industrie Oesterreichs sich von der deutschen Unterstützung durch technische Kräfte und vom deutschen Druck durch überlegene Concurrenz befreien soll.“

Die zum Teil von Vorurteilen getragenen und von Emotionen gespeisten Schilderungen mögen übertrieben erscheinen aber eine von Karl Kraus unabhängige Beschreibung der tristen Verhältnisse an der Universität Wien kann der im Jahre 1902 verfassten Denkschrift über die Philosophische Fakultät entnommen werden. Sie ist um nichts positiver [6]:

„ … Sollten unsere naturwissenschaftlichen Institute jemals mit denen Deutschlands in Konkurrenz treten, so wird es nicht genügen hier und dort durch momentane Flickarbeit die ärgsten Mängel zu beheben; es wird einer großen und groß angelegten Aktion bedürfen, um die Schäden, die durch langjährige Vernachlässigung entstanden sind wieder gutzumachen.… Dass jemand aus dem Ausland nach Wien an eine experimentelle Lehrkanzel kommt, ist so gut wie ausgeschlossen…“

Es ist wichtig zu erwähnen, dass das katastrophal geschilderte Niveau der Chemie an Wiens Universitäten einen Zeitpunkt betrifft, zu dem in Deutschland die großen chemischen Industriebetriebe – Badische Anilin- und Sodafabrik (BASF), Bayer AG, Farbwerke Hoechst AG – bereits drei Jahrzehnte bestanden und die Basis für die wirtschaftlich Stärke Deutschlands in der Chemie der ersten Hälfte des zwanzigsten Jahrhunderts legten.

Dies ist wahrscheinlich auch eine der Ursachen dafür, dass es in Österreich nie eine bodenständige chemische Großindustrie gegeben hat, mit Ausnahme der 1907 von Carl Auer von Welsbach gegründeten, vergleichsweise kleinen Treibacher Chemischen Werke. Carl Auer von Welsbach war ein höchst erfolgreicher Wissenschaftler, Erfinder und Unternehmer in einer Person und sein Lebenslauf stellt eindrucksvoll unter Beweis, wie erfolgreiche Grundlagenforschung Erfindungen und ihre wirtschaftlichen Umsetzungen unmittelbar nach sich ziehen kann.

In der Zeit nach dem zweiten Weltkrieg lag die Wissenschaft in Österreich danieder, insbesondere in den Naturwissenschaften äußerte sich der drastische Mangel an finanziellen Mitteln in vorsintflutlichen Ausrüstungen der experimentellen Labors. Während sich die Situation der Forschung im westlichen Europa rasch besserte, blieben die Zustände in Österreich bis in die späten Sechzigerjahre unverändert.

Die ausgebildeten Wissenschaftler wanderten in Scharen vorwiegend nach Deutschland aus, wo an den Max Planck-Instituten bereits wieder international erstrangige Verhältnisse herrschten – beispielsweise verließen 1967 von den Absolventen des Studiums aus dem Fach Chemie etwa 80% Österreich und zwar sofort nach der Promotion. Mehr Geld für die Wissenschaft und mehr Personal für die Universitäten gab es erst ab 1971 unter der Bundesministerin für Wissenschaft und Forschung Hertha Firnberg. Mit einigem Erfolg wurde der Versuch unternommen, abgewanderte Österreicher durch Berufungen an heimische Universitäten zurückzuholen. Es gab finanzielle Mittel für die Anschaffung zeitgemäßer Ausrüstung, ohne die erfolgreiche Forschung in den Naturwissenschaften nicht möglich ist.

Diese zweifelsohne sehr positiven Aspekte für die Wissenschaft wurden durch zwei Maßnahmen überschattet, welche gewaltige Handicaps für die österreichische Wissenschaft im europäischen und internationalen Kontext darstellten und bis heute noch nicht überwunden sind [7][8]:

(i) das oft als ‚Lex Firnberg‘ apostrophierte Universitätsorganisationsgesetz (UOG) 1975 und

(ii) die Umwandlung der auf dem Humboldtschen Ideal der Einheit von Forschung und Lehre aufbauenden bürgerlichen Universität in die Massenuniversität der sozialliberal geprägten Gesellschaft des Wohlfahrtsstaates.

An dieser Stelle wird nur auf Punkt (i) in Form der Konsequenzen des UOG 1975 für die Rekrutierungen von neuen Professoren eingegangen, ein paar Bemerkungen zu den Auswirkungen von Punkt (ii) auf die Ausbildung der Nachwuchskräfte folgt im nächsten Abschnitt.

Ende der Sechzigerjahre gab es an den Universitäten Österreich kaum jemanden, der nicht die Notwendigkeit von Reformen eingesehen hätte, und es war auch klar, dass der Einfluss der Lehrstuhlinhaber, der ordentlichen Universitätsprofessoren, die ihre Institute wie kleine, mehr oder minder aufgeklärte Fürsten regierten, einer Kontrolle und in manchen Fällen einer Korrektur unterworfen werden musste. An schlecht geführten Instituten mangelte es vor allem an Transparenz der Entscheidungen, insbesondere an solchen, die die Rekrutierung von Personal betrafen.

Das neue Gesetz schuf die ‚Universität der Kurien‘: Professoren, Vertreter des Mittelbaus, Vertreter des technischen Personals und Studierende trafen die Entscheidungen – Personalentscheidungen durch geheime Abstimmungen. Neben vielen Schwierigkeiten, die unter anderem durch das Überhandnehmen der Arbeit in den diversen neuen Gremien entstanden, war die Trennung von Entscheidung und Verantwortung der Entscheidung das gravierendste Problem. Auf Grund der weniger autoritären Wissenschaftskultur und der von zu erlernenden Labortechniken dominierten Ausbildung waren die negativen Auswirkungen der Mitbestimmung auf der Basis des UOG 1975 in den Naturwissenschaften weit geringer als in anderen Fakultäten.

Eine Ausnahme bildete allerdings die Rekrutierung von Professoren. Es wurden paritätisch zusammengesetzte Berufungsgremien eingeführt, in denen Studierende und Mittelbauvertreter über die Auswahl künftiger Fachvertreter entschieden, ohne dass sie ihre Entscheidungen gegenüber irgendeiner Person oder Instanz zu verantworten hatten. In Berufungskommissionen vor und nach der Implementierung des UOG 1975 tätig gewesen, kann ich nur bestätigen, dass die Transparenz der Entscheidungen in den paritätisch zusammengesetzten Gremien nicht zu- sondern abgenommen hatte.

An die Stelle mangelnder Einsicht in die Entscheidungen der autoritär agierenden Professoren traten ‚Clubzwang‘ bei der Mittelbaukurie und der Studentenkurie. Intrigen auf allen Ebenen taten das Übrige, um Entscheidungen über Berufungslisten herbeizuführen, welche argumentativ zu untermauern des Öfteren eine Zumutung für die Kommissionvorsitzenden war.

Die einmalige Chance, die substantielle Vermehrung der Planstellen für Professoren und wissenschaftliche Mitarbeiter für eine Exzellenzstrategie zur Anhebung der wissenschaftlichen Leistung an Österreichs Universitäten zu nutzen, wurde vertan. Im internationalen Ranking fiel die österreichische Hochschulwissenschaft sogar einige Plätze zurück. Fast alle Berufungen waren Hausberufungen und sie erfolgten ad personam, das heißt ohne internationale oder nationale Konkurrenz.

Die Einstellung zu Hausberufungen ist an fast allen nordamerikanischen Universitäten eine nachahmenswert pragmatische: Kann der lokale Kandidat in einer fairen weltweiten Konkurrenz bestehen, so ist er willkommen. Der Provost an einer Universität in den USA würde vom Board of Trustees sofort gefeuert, wenn er einen zweit- oder drittklassigen Forscher von auswärts einem jungen, nobelpreisverdächtigen Talent aus dem Hause vorzöge.

Er hätte aber auch die Hölle auf Erden, wenn er eine hausinterne wissenschaftliche Niete bevorzugte. Die in Österreich aus dem Haus berufenen Professoren der Ära Lex Firnberg hatten nur in ganz wenigen Ausnahmefällen Konkurrenzangebote in Form von Berufungen an ausländische Universitäten. Daneben taten sich fatalerweise für den Mittelbau neue Karrieremöglichkeiten als Funktionäre in den zahlreichen Gremien auf, und dabei gingen weitere wertvolle Personalstellen für eine anspruchsvolle Wissenschaft verloren.

Die eigentlichen Verlierer des UOG 1975 waren aber jene Personen, für die es ursprünglich gedacht war: die jungen Hochschulassistenten und Hochschuldozenten, die an einer Laufbahn als Wissenschaftler interessiert waren. Anstatt den jungen Forschern ideale Arbeitsbedingungen und ein kompetitives wissenschaftliches Umfeld zu bieten, in welchem sie sich durch Verantwortung für eigene Forschung und jüngere Mitarbeiter als Wissenschaftlerpersönlichkeiten hätten profilieren können, wurden ihnen allen ‚inhaltsleere Professorentitel‘, ‚Mitsprache ohne Verantwortung‘ in den Hochschulgremien und ‚Tenure‘ gegeben.

Damit wurde die Entwicklung der Wissenschaft auf Jahrzehnte blockiert und der neue Karrierepfad des Hochschulfunktionärs ohne nennenswerten eigenen wissenschaftlichen Beitrag geschaffen. Die talentierten jungen Wissenschaftler wurden um ordentliche wissenschaftliche Karrieren gebracht, auch wenn sie exzellente Leistungen erbrachten.

Gut schnitten jene jungen Talente ab, die so früh wie möglich ins Ausland abwanderten, in Westeuropa oder in den USA eine wissenschaftliche Laufbahn einschlugen und nicht mehr wieder nach Österreich zurückkehrten. Fairerweise muss man ergänzen, dass die Situation in den Naturwissenschaften dadurch gemildert wurde, dass alle Wissenschaftler ohne Ansehen ihrer Position an den Universitäten durch den Fonds zur Förderung der wissenschaftlichen Forschung (FWF) Forschungsmittel für international kompetitive Projekte erhalten konnten und erhielten [9]. Ein weiteres Vorankommen in der wissenschaftlichen Karriereleiter war allerdings nicht mit inbegriffen.

Die Zeit der Lex Firnberg endete formal mit dem unter dem Wissenschaftsminister Erhard Busek eingeführten UOG 1993. Zwei Gründe ließen dieses Gesetz aber praktisch ohne Auswirkung verpuffen:

(i) die Schritte zur Befreiung der Universitäten von zentraler staatlicher Regulierung und die Stärkung der Machtbefugnisse der Verantwortungsträger waren zu zögerlich, und

(ii) das neue Gesetz wurde so schleppend implementiert, dass das UOG 2002 schon vor der Tür stand noch ehe sich das UOG 1993 auswirken konnte.

Unter der Ministerin für Bildung, Wissenschaft und Kultur, Elisabeth Gehrer, wurde – abgesehen von zwei Novellen – ein Schlussstrich unter die Universitätsreform gezogen. Die Mitbestimmung wurde auf ein vernünftiges Maß reduziert, Entscheidung und Verantwortung der Folgen der Entscheidung wurde wieder in einzelnen Personen vereinigt. Die Universitäten sollen nach wirtschaftlichen Kriterien verwaltet werden. Die oft geschmähte ‚neoliberale‘ Grundhaltung des UOG 2002 hatte eine Reihe von positiven Auswirkungen:

Erstmals entstand an den Universitäten ein wirtschaftliches Bewusstsein für Ausgaben und Folgekosten, das Bewusstsein für eine mögliche kommerzielle Nutzung von Erfindungen wurde geweckt und – ein wichtiges drittes Beispiel – die finanzielle Verfilzung von universitären Forschungslaboratorien mit den eingelagerten ‚Spin off‘-Firmen wurde durch die Einführung von Gesamtkostenrechnung entwirrt.

Für die Personalpolitik der Universitäten wurden Möglichkeiten zur Verbesserung der Rekrutierung von Spitzenwissenschaftlern geschaffen: Jede Universität kann – im Prinzip – autonom agieren und ihre Schwerpunkte dort setzen, wo sie ihre Stärken vermutet. Die Kontrollaufsicht des Ministeriums sollte nur über das Budget erfolgen, welches durch Leistungsvereinbarungen festgelegt wird.

Einige wenige Fakultäten an einzelnen Universitäten Österreichs haben die verbesserten Möglichkeiten zur Rekrutierung von Spitzenkräften schon genutzt. Im Großen und Ganzen zeigen aber die Rankings von Österreichs Universitäten nach wie vor einem Abwärtstrend bei bereits mäßigen Bewertungen im Mittelfeld und in den unteren Rängen.

In der heutigen globalisierten Wissenschaft ist die internationale Rekrutierung eine unabdingbare Voraussetzung für exzellente Nachwuchskräfte. Wenn die zur Verfügung stehenden Stellen nicht international sichtbar und in englischer Sprache ausgeschrieben werden, verzichten wir von vornherein auf einen Großteil der verfügbaren jungen Talente. Lockerer Umgang mit oder völliges Ignorieren der wissenschaftlichen Qualifikation von Bewerbern begleitet von unzureichenden Angeboten hat fatale Konsequenzen: Wo die Exzellenzkriterien zu reinen Lippenbekenntnissen verkommen, gehen Qualität und Anzahl der Interessenten für Professorenstellen dramatisch zurück. In einigen Fächern gibt es diese warnenden Anzeichen bereits.

Für Erfolge der viel gerühmten Autonomie von Österreichs Universitäten sind ausreichende und langfristige Budgets eine conditio sine qua non, andernfalls wird die Autonomie zu einem zahnlosen Papiertiger. Der von den Universitäten selbst zu leistende Betrag ist eine Strukturänderung in Richtung auf echte Departments nach ausländischem Vorbildern unter gleichzeitiger Übertragung der Entscheidungsvollmacht auf Professorenkollegien, die sich mit einer leistungsorientierten und dynamischen Entwicklung ihrer Einheit und der gesamten Universität identifizieren – mit der reinen Umbenennung von alten Instituten in ‚neue Departments‘, wie dies an einigen österreichischen Universitäten geschehen ist, wurde erwartungsgemäß gar nichts erreicht.

Dessen ungeachtet gibt es auch positive Entwicklungen wie einige Beispiele zeigen, unter anderen: ein paar physikalische Institute gehören zur Weltspitze, die Entwicklung des Vienna Biocenters in der Dr. Bohrgasse in Wien ist eine über Österreich hinaus bekannte Erfolgsgeschichte – ein Grundlagenforschungsinstitut des pharmazeutischen Industriebetriebs Boehringer-Ingelheim, zwei außeruniversitäre Forschungsinstitute der Österreichischen Akademie der Wissenschaften und Institute zweier Universitäten kooperieren auf einem vor zwanzig Jahren gegründeten Campus und betreiben bereits Forschung der Spitzenklasse. Die stimulierende Atmosphäre hat auch schon zur Neugründung einiger Biotechnologiefirmen geführt.

Das Vienna Biocenter in der Dr. Bohrgasse ist leider eine Ausnahme in der Entwicklung österreichischer Forschungszentren. Österreichs Universitäten sind mit kleinen Einheiten über große Flächen verteilt. Kein Entwicklungsplan für die Wissenschaft hat die Widmung von Grundstücken und Arealen für die Wissenschaft bestimmt, sondern die Tatsache, dass irgendwo ein Grundstück zur Verfügung stand, welches kein zahlungskräftiger Partner erwerben wollte.

Wie könnte es sonst geschehen sein, dass sich die größte Universität Österreichs mit Dutzenden von Standorten fast über das gesamte Gebiet der Bundeshauptstadt Wien mit kleinen und kleinsten Einheiten erstreckt? Im Zeitalter der Disziplinen übergreifenden Forschung ist dies ein Anachronismus der besonders gravierenden Art.

Weltweit werden zu kleine Einheiten zusammengeführt, um das für innovative Forschung unentbehrliche Gespräch zwischen Wissenschaftlern verschiedener Fachrichtungen zu stimulieren. Es entstehen überaus produktive Konzentrationen von verwandten Wissenschaften. Ich beschränke mich auf ein einziges Beispiel stellvertretend für viele andere: Am Campus für Molekularbiologie der ETH Zürich am Hönggerberg wurde ein neues Gebäude für das in Gründung befindliche Institut für Systembiologie gebaut, um Informatiker, Mathematiker und Biologen zusammenzubringen.

Zurück zu Positivem: Auf dem Gelände des Allgemeinen Krankenhauses entstand inmitten der Universitätskliniken ein Forschungsinstitut der Österreichischen Akademie der Wissenschaften (ÖAW), welches entsprechend der Rockefellerschen Vision den biomedizinischen Forscher möglichst nah an das Krankenbett heranführt. In Linz entstand mit dem ‚Johann Radon-Institute for Computational and Applied Mathematics’ (RICAM) der ÖAW eine neue Einrichtung, die in wenigen Jahren Bekanntheit auf Weltniveau erreichte. Die im Vergleich zu Universitätsinstituten kleinen Forschungseinrichtungen der Österreichischen Akademie schneiden ebenso wie das Boehringer-Institut bei der Rekrutierung von Spitzenforschern wesentlich besser ab als die Universitäten.

Das Rezept für die erfolgreiche Anwerbung ist einfach: Wenige Entscheidungsträger mit voller Verantwortung für ihre Auswahl gestatten das bei internationaler Konkurrenz unabdingbare rasche Handeln und Verhandeln. Ein weiterer Kandidat für eine wissenschaftliche Exzellenzeinrichtung ist das ‚Institute for Science and Technology Austria‘ (ISTA), welches in Maria Gugging in der Nähe von Wien errichtet wird und wissenschaftlich noch im Aufbau begriffen ist.


Der Artikel ist der dritte Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:

Dieses Symposium hatte den sich eben in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen („Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011).


Literatur

[1] Gene Russo. 2010. For Love and Money. Nature 465:1104-1107.

[2] Mohammed H.A. Hassan. Brain circulation. Nature 465:1006-1007.

[3] Elisabeth Lichtenberger. 2008. Die institutionelle Situation der österreichischen wissenschaftlichen Geographie zu Beginn des 21. Jahrhunderts. Mitteilungen der Österreichischen Geographischen Gesellschaft 150:33-48.

[4] Karl Kraus. 1900. Chemie in Wien an der Technik. Die Fackel 31(2):18.

[5] Karl Kraus. 1901. Hofrath Lieben. Die Fackel 74(4):16.

[6] Akademischer Senat der Universität Wien. 1902. Denkschrift über die gegenwärtige Lage der Philosophischen Fakultät der Universität Wien. Adolf Holzhausen, Wien. Zitiert aus: Ulrike Felt. 2000. Die Stadt als verdichteter Raum der Begegnung zwischen Wissenschaft und Öffentlichkeit. Reflexionen zu einem Vergleich der Wissenschaftspopularisieung in Wien und Berlin der Jahrhundertwende. In: Constantin Goschler, Ed. Wissenschaft und Öffentlichkeit in Berlin, 1870 – 1930. Franz Steiner Verlag, Stuttgart, p.185-220.

[7] Manfried Welan. 2002. Schon viermal Universitätsreform. Wiener Zeitung – Archiv. 29.November 2002.

[8] Hans Pechar. 2010. 30 Jahre Realitätsverweigerung sind genug. Der „offene Hochschulzugang“ liegt offenbar in den letzten Zügen, Und das ist gut so. – Vorauseilender Nachruf zu einem österreichischen Sonderweg und seine fatalen bindungspolitischen Folgen. Der Standard. 24./25.Juli 2010, p.31.

[9] Christoph Aichner. 2007. 40 Jahre im Dienste der Forschung. Gründung und Geschichte des Fonds zurFörderung der wissenschaftlichen Forschung (1967-2007). Diplomarbeit, Universität Innsbruck, Philosophisch-Historische Fakultät.


 

inge Thu, 11.08.2011 - 05:20

Ist die Kernenergie böse?

Ist die Kernenergie böse?

Fr, 04.08.2011- 04:20 — Helmut Rauch

Icon MINT Helmut Rauch

Vor der Erdbeben-, Tsunami- und Reaktorkatastrophe in Fukushima am 11. März 2011 sprach man von einer Renaissance der Kernenergie, und in vielen Ländern wurden Expansionspläne für diese Energiegewinnungsmethode geschmiedet. Nun sind jedoch die Bedenken bezüglich der Kernenergie wieder beachtlich gestiegen, und bei der Realisierung neuer Anlagen ist mit einem deutlichen Rückschlag zu rechnen. Dazu ist zu bemerken, dass der Schaden durch den Tsunami deutlich größer ist als der durch die damit in Verbindung stehende Reaktorkatastrophe.

Hier ist deswegen eine rationale Analyse der Ursachen, der Konsequenzen und der zukünftigen Entwicklung erforderlich. Im Folgenden sollen kurz die Grundprinzipien der nuklearen Energiegewinnung, deren Vorteile und die damit verbundenen Risikofaktoren angesprochen werden.

Status [1]

Derzeit sind 432 Kernkraftwerke weltweit in Betrieb und 62 in Bau, dazu kommen noch 240 Forschungsreaktoren und über 200 Reaktoren in U-Booten und Flugzeugträgern sowie 25 Reaktoren in erdnahen Umlaufbahnen. Die weltweite elektrische Kernenergieproduktion beträgt 2558 TWh, was einem Anteil von ca. 16% entspricht und im Vergleich mit fossilen Kraftwerken einer Reduktion des CO2-Ausstosses um 1,2 Milliarden Tonnen gleichkommt.

Grundprinzipien [2,3,4]

  • Schwere Atomkerne (z.B. Uran-235 oder Plutonium-239) unterliegen bei der Absorption eines Neutrons einem Spaltprozess, bei dem zwei bis drei weitere Neutronen freigesetzt werden und jeweils zwei, meist radioaktive, Spaltprodukte entstehen. Es handelt sich dabei um einen statistischen, also völlig unvorhersagbaren, Prozess, weswegen unvermeidlich eine große Anzahl von verschiedenen Spaltprodukten mit sehr unterschiedlichen Halbwertszeiten entstehen, die dann sowohl bei der Nachzerfallswärme als auch beim radioaktiven Abfall Probleme bereiten. Bei jedem Spaltprozess wird gleichzeitig eine Energie von zirka 200 MeV freigesetzt, d.h. eine millionenfach höhere Energie als bei chemischen Reaktionen, was wohl den zentralen Vorteil der Kernenergie ausmacht.
  • Mit den erzeugten Spaltneutronen kann auf verschiedene Arten eine selbsterhaltende Kettenreaktion aufrecht erhalten werden. Davon leiten sich die verschiedenen Reaktortypen ab, die in Abbildung 1 skizziert sind. Für eine stabile Steuerung der Kettenreaktion spielen neben den Spaltneutronen auch der kleine Anteil (ca. 0,6%) der verzögerten Neutronen eine entscheidende Rolle. Diese entstehen verzögert nach dem vorhergehenden Zerfall einiger Spaltprodukte. Dieser 0,6%-Anteil stellt gleichzeitig eine Sicherheitsmarge dar, die zum Glück vorhanden ist, die aber größer sein könnte.

Reaktortypen

Druck- und Siedewasserreaktor mit und ohne Wärmetauscher

Abbildung 1: Schema der hier diskutierten Kernkraftwerkstypen. Der meistinstallierte Druckwasserreaktor mit, und der Siedewasserreaktor ohne (wie Fukushima) internen Wärmetauscher (oben) und der Druckröhrenreaktor (wie Tschernobyl) sowie der mit flüssigem Natrium gekühlte Schnelle Reaktor (unten).

  • Für die Betriebssicherheit eines Kernreaktors ist die Stabilität der Kettenreaktion in Bezug auf Temperaturänderungen, auf Geometrieänderungen und Änderungen der Zusammensetzung wesentlich. Während jeder Temperaturanstieg stets dämpfend auf die Kettenreaktion wirkt, können Geometrie- und Zusammensetzungsänderungen auch stimulierend wirken. Das ist der Fall bei Tschernobyl-Typ Reaktoren, wo zum Beispiel Dampfblasen die Kettenreaktion wegen der geringeren parasitären Absorption in Wasser anheizen (void effect). Eine ähnliche Situation besteht leider auch bei den schnellen Reaktoren.
  • Unter den Spaltprodukten und deren Zerfallsprodukten befinden sich auch solche, die Neutronen sehr stark parasitär absorbieren (z.B. Xenon-135) und daher die Kettenreaktion behindern. Da diese Substanzen meist durch Zerfall anderer Spaltprodukte entstehen, werden diese auch nach dem Abschalten der Reaktoren weiter produziert, ohne parasitär absorbiert zu werden. Das führt zu einer Art Vergiftung des Reaktors, was seine kurzfristige Wiederinbetriebnahme verhindert und bedeutet, dass Kernenergie im Wesentlichen nur für die Grundlastversorgung geeignet ist.

Problemfelder

1. Geringe Sicherheitsmarge der Kettenreaktion

Wie bereits oben angesprochen beträgt die Sicherheitsmarge bezüglich der Kettenreaktion nur etwa 0,6% bei Uran-235 und ist bei Plutonium-239 noch geringer (0,3%). Das bedeutet, dass es bei stärkeren Änderungen des Vermehrungsfaktors der Kettenreaktion zu einer prompten Kritikalität, d.h. zu einem Durchgehen der Kettenreaktion innerhalb einiger Millisekunden kommt. Das kann verursacht sein durch unkontrollierte Bewegungen der Kontrollstäbe oder bei einigen Reaktortypen auch durch Dampfblasenbildung im Kühlmittel. Letzteres war mit entscheidend beim Reaktorunglück in Tschernobyl.

Bei zukünftigen Entwicklungen wird diskutiert, die Sicherheitsmarge dadurch zu verbessern, indem man zusätzlich zu den Spaltneutronen noch Neutronen durch andere Kernprozesse erzeugt. Das kann mit hochenergetischen Protonen (ca. 1 GeV) erfolgen, die man in einem Beschleuniger erzeugt und auf ein Target im Reaktor schießt, wo es zu einer Zertrümmerung (Spallation) schwerer Kerne kommt, bei der bis zu 20 Neutronen pro Reaktion erzeugt werden.

2. Nachzerfallswärme

Nachzerfallswärme eines 1000 MWe Kernkraftwerkes

Abbildung2: Nachzerfallswärme eines 1000 MWe Kernkraftwerkes

Hier liegt das zentrale Problem der Reaktorsicherheit. Der hochradioaktive Abfall zeigt selbst nach dem Abschalten der Kettenreaktion noch eine beträchtliche Wärmeentwicklung, wie in Abbildung 2 dargestellt ist. Nach einigen Tagen sind das noch immer zirka 10 MW, die sicher weggekühlt werden müssen. Dafür stehen in der Regel 3 unabhängige Notkühlsysteme zur Verfügung, die durch redundante Energieversorgungssysteme ständig einsatzbereit sein sollten. Bei der Reaktorkatastrophe in Fukushima wurden alle diese Systeme infolge der Überflutung durch den Tsunami gleichzeitig außer Kraft gesetzt, was zum Schmelzen der Brennelemente, zur Wasserstoffproduktion und zu den bekannten Explosionen geführt hat. Bei zukünftigen Reaktorkonzepten versucht man, auch geschmolzene Brennelemente sicher innerhalb des Containments beherrschen und mittels Naturzirkulation über längere Zeitabschnitte hinweg kühlen zu können.

3. Radioaktiver Abfall

Radiotoxizität des radioaktiven Abfalls

Abbildung 3: Radiotoxizität des radioaktiven Abfalls

Auch hier spielen die radioaktiven Spaltprodukte eine wesentliche Rolle, dazu kommen noch die sehr langlebigen Transurane, die durch die Absorption von Neutronen in Uran-238 während des Reaktorbetriebes entstanden sind. Der radioaktive Abfall wird in Wiederaufbereitungsanlagen vom restlichen Uran und vom während des Betriebes entstandenen Plutonium getrennt und sollte einer sicheren Lagerung zugeführt werden. Dabei gibt es neben einiger technischer vor allem gesellschaftspolitische Probleme. Bei geeigneter Behandlung kann man erreichen, dass das Toxizitätsniveau nach ca. 800 Jahren unter das des ursprünglich verwendeten Erzes sinkt (Abbildung 3). Neuerdings gibt es Anstrengungen, den langlebigen radioaktiven Abfall durch Transmutation mittels hochenergetischer Protonen im kurzlebigen Abfall zu konvertieren. Damit ergeben sich interessante Perspektiven nicht nur für die Behandlung des radioaktiven Abfalls sondern, falls die Sache innerhalb eines Reaktors stattfindet, auch für eine Erhöhung der vorher besprochenen Sicherheitsmarge bei der Kettenreaktion (bis zu 10%) (accelerator driven system – ADS).

4. Terror und Einwirkungen von außen

An sich sind Kernkraftwerke massive Bauwerke, und Anschläge von außen wären wahrscheinlich nicht sehr wirksam. Was Anschläge durch eingeschleuste Personen oder das Betriebspersonal betrifft, so sind hier effiziente Kontrollsysteme angezeigt. Flugzeugabstürze, die zentral das Containment betreffen, sind bei den derzeitigen Anlagen nicht voll abgesichert, sollen das aber bei der nächsten Generation solcher Anlagen sein.

Neue Entwicklungen

  • Im Bereich konventioneller Kernkraftwerke Hier ist die Weiterentwicklung konventioneller Kernkraftwerke auf der Basis der Druck- und Siedewasserreaktoren zu erwähnen. In Europa ist das der „European Pressurized Water Reactor – EPR“ der bereits in Finnland und Frankreich gebaut wird. Er besitzt ein doppeltes Containment, was ihn unter anderem gegen Flugzeugabstürze sicher macht, und er beherrscht auch Kernschmelzunfälle, indem er die Kernschmelze auf einer großen Fläche verteilt und durch Luftkonvektion über längere Zeiträume hinweg kühlen kann. In den USA gibt es ähnliche Projekte (AP-600 und ABWR).
  • Generation 4 Kernkraftwerke. Einen Schritt weiter geht man bei Reaktoren der 4. Generation (z.B. [5]). Es sind das meist „Schnelle Reaktoren“, die mit flüssigem Natrium oder flüssigem Blei gekühlt werden müssen und die im Prinzip in der Lage sind, mehr Brennstoff zu erbrüten als sie verbrauchen. Dadurch wären derartige Reaktoren extrem resourcenschonend. Statt 200 t/Jahr bei Druck- und Siedewasserreaktoren werden hier beim Betrieb eines 1000 MWe Kraftwerkes nur 1,1 t/Jahr Uranerz benötigt. Die Frage der nuklearen Sicherheit stellt sich dabei jedoch in besonderer Form; einerseits wegen des zumindest lokal positiven Dampfblasenkoeffizienten (void coefficient) und andererseits wegen der Notwendigkeit eines doppelten Wärmetauschers (siehe Abbildung 1).

Transmutation durch Reaktor/Beschleuniger-Kombination Kombination eines Reaktors mit einem Protonen-Beschleuniger zur Energieerzeugung und zur Transmutation des radioaktiven Abfalls.

Abbildung 4: Kombination eines Reaktors mit einem Protonen-Beschleuniger zur Energieerzeugung und zur Transmutation des radioaktiven Abfalls.

Kombinationen mit einem „accelerator driven system (ADS)“ und einem Abfalltransmutator erscheinen machbar [6]. Auch gasgekühlte Hochtemperaturreaktoren stehen bei dieser Generation zur Diskussion. Diese wären speziell für die chemische Prozesswärme und eine zukünftige Wasserstofftechnologie von Bedeutung.

  • Fusionskraftwerke. Hier wird die Verschmelzung leichter zu schwereren Kernen ausgenützt. Auch in diesem Fall kann Energie gewonnen werden, wie es uns ja die Sonne seit Jahrmilliarden vormacht. Man versucht seit Jahrzehnten und zum Teil mit großem Aufwand, auch auf der Erde eine derartige Reaktion zu beherrschen und zu verwenden.
  • Da es sich dabei jedoch um die Reaktion gleichartig geladener Teilchen handelt, muss die Coulomb-Abstoßung überwunden werden. Das bedeutet, man benötigt extrem hohe Temperaturen oder extrem hohe Dichten. Ersterer Weg wird bei Tokomak- und Stellerator-Anlagen benützt, wo in sehr starken Magnetfeldern versucht wird, ein Deuterium-Tritium Plasma genügend lange zusammen zu halten, um genügend Fusionsvorgänge zu ermöglichen. Ein Deuterium-Tritium Gemisch bietet sich deshalb als beste Möglichkeit an, da damit die kritische Reaktionskinetik am ehesten erreichbar erscheint (Lawson-Kriterium).

Tritium selbst ist aber radioaktiv, was die Sache nicht einfacher macht. Man benötigt Temperaturen bis zu ca. 100 Mill. Grad und Tritiummengen, die einer Aktivität von ca. 1,6x106 TBq und einer Menge von Ca. 4,5 kg entspricht. Die weltweit größte Fusionsanlage (ITER) wird derzeit im Rahmen einer weltweiten Kooperation in Südfrankreich errichtet und soll erstmals das Lawson-Kriterium überschreiten, d.h. die erfolgten Fusionen sollen mehr Energie liefern als vorher in das Plasma investiert wurde. Die Stabilität des Plasmas, aber auch Materialprobleme bezüglich der extremen Hitze- und Strahlungsbelastung werfen zum Teil noch ungeklärte Fragen auf.

Eine Alternative zur Magnetfusion stellt die Trägheitsfusion dar. Bei dieser versucht man, ein Deuterium-Tritium Gemisch so stark zu komprimieren, dass die entsprechenden Atomkerne fusionieren. Diese notwendige Verdichtung kann man am ehesten durch einen allseitigen Beschuss eines geeigneten Pellet mit intensiver Laser- oder Partikelstrahlung erreichen [7]. Der technische Aufwand ist auch bei dieser Methode sehr hoch, und ein Durchbruch ist auch hier in nächster Zeit nicht zu erwarten. Außerdem steht diese Forschung in relativ engem Zusammenhang mit militärischer Forschung, weswegen der aktuelle Stand nicht genau bekannt ist.

Résumé

Die im Titel enthaltene Frage kann in der gestellten Form wohl nicht beantwortet werden, zumal „gut“ und „böse“ zwar auf Menschen nicht aber auf technische Entwicklungen anzuwenden ist.

Die Kernenergie ist so eine technische Entwicklung, die eine neue Dimension der Energiegewinnung eingeleitet hat und sich hier die Frage eher nach der Effizienz und nach der Sicherheit stellt. Bezüglich der Effizienz scheint die Situation geklärt zu sein. Die überwiegende Zahl der Staaten, die Kernenergie nutzen, wollen diese ausbauen und andere wollen in diese Technologie einsteigen.

Die Stromerzeugungskosten und die Verfügbarkeit sind als sehr günstig einzuschätzen. In diesem Sinne wird die Kernenergie auch weiterhin einen wesentlichen Beitrag zum Energiemix leisten. Die Sicherheit derartiger Anlagen wird aus verschiedenen Blickwinkeln gesehen, und es ist schwer, rationale Elemente in die Diskussion einzubringen. Unabhängige Untersuchungen zeigen, dass das Risiko der Kernenergie keineswegs höher ist als das bei anderen Stromerzeugungsmethoden, aber das persönliche Empfinden in der Bevölkerung ist anders [8,9].

Unfälle, wie die in Tschernobyl und Fukushima, haben dazu beigetragen, wobei man allerdings auch berücksichtigen sollte, dass gerade aus derartigen Unfällen sehr viel gelernt werden kann, was zu einer Erhöhung der Sicherheit beitragen wird [10]. In diesem Sinne wird es auch im Bereich der Kernenergie weitere Fortschritte bezüglich Effizienz und Sicherheit geben und damit eine Verbesserung der Akzeptanz.

Literatur

[1] „International Status and Prospects of Nuclear Power - Edition 2010“, IAEA, Vienna 2011

[2] www.kernfragen.de

[3] H. Rauch: „Derzeitige und künftige nukleare Energiesysteme“, E & M, 98 (1998) 139

[4] H. Böck, M. Gerstmayr, E. Radde: „Kernfrage Atomkraft“, Goldeck Verlag, Wien 2011

[5] J.G. Marques: „Evolution of nuclear fission reactors“, Energy Conversion and Management 51 (2010) 1774

[6] C. Rubbia: „A high gain energy amplifier operated with fast neutrons”, AIP Conf. Proc. 346 (1994) 44

[7] S. Atzeni, J. Meyer-ter-Vehn: „The physics of inertial fusion“, Clarendon Press, Oxford 2004

[8] R.P. Gale and A. Butturini: „Chernobyl and Leukemia-Perspective”, Leukemia 5 (1991) 441

[9] R.P. Gale: „Die wahre Gefahr“, Der Spiegel 14 (2011) 114

[10] C. Peachey: „Safety first“, Nucl.Eng.Int., June 2011, S.18, www.neimagazine.com


Anmerkungen der Redaktion

Glossar

Coulomb-Abstoßung: abstoßende Kraft zwischen elektrisch gleich geladenen Körpern, auch Teilchen, die von den elektrischen Ladungen (positiv oder negativ) bewirkt wird. Ungleiche Ladungen ziehen einander an. Die Coulomb-Abstoßung zwischen den im Molekül außen befindlichen, negativ geladenen Elektronen bewirkt bspw., dass Festkörper einander nicht einfach durchdringen.

Deuterium, Tritium: Isotope des Wasserstoff (Elementsymbol H​). Das chemische Element als solches wird durch die Anzahl der im Atomkern vorhandenen, elektrisch positiv geladenen Protonen bestimmt. Alles mit einem einzigen Proton im Kern bspw. ist Wassertoff und benimmt sich chemisch gleich. Die Anzahl der elektrisch ungeladenen, neutralen, Neutronen bestimmt das Isotop: 2 Neutronen: Deuterium, 3 Neutronen: Tritium. Chemisch ist Tritium also Wasserstoff (und kann als solcher durchaus z.B. in einem Wassermolekül (H2O) vorkommen).

eV: Elektronenvolt. In der Atom- und Kernphysik gebräuchliche Einheit der Energie. Ein Elektronvolt ist die von einem Elektron oder sonstigen einfach geladenen Teilchen gewonnene kinetische Energie beim Durchlaufen einer Spannungsdifferenz von 1 Volt im Vakuum. 1 MeV = 1 000 000 eV.

Kettenreaktion: Reaktion, die sich von selbst fortsetzt. In einer Spaltungskettenreaktion absorbiert ein spaltbarer Kern ein Neutron, spaltet sich und setzt dabei mehrere Neutronen frei (bei 235U im Mittel 2,46). Diese Neutronen können ihrerseits wieder durch andere spaltbare Kerne absorbiert werden, Spaltungen auslösen und weitere Neutronen freisetzen.

Parasitäre Absorption: beschreibt den Neutronenverlust durch Absorption im Kühlmittel, den Struktur- und Kontrollmaterialien sowie den Spaltprodukten.

Transmutation: Umwandlung der beim Betrieb von Kernreaktoren durch Neutroneneinfang im U-238 entstehenden langlebigen Nuklide in stabile oder kurzlebige Nuklide.

Transurane: Chemische Elemente im Periodensystem, deren Kernladungszahl größer als die des Urans (= 92) ist. Mit Ausnahme des Plutoniums werden Transurane künstlich hergestellt.

TWh: Terawattstunde. 1 Milliarde kWh. Empfehlenswert für alle, die mehr über den Aufbau von Atomen und Atomkernen, von Kernumwandlungen und Radioaktivität erfahren möchten: Kernenergie Basiswissen; Martin Volkmer, 2007 und als Nachschlagewerk: Lexikon zur Kernenergie; W. Koelzer, Forschungszentrum Karlsruhe GmbH, Mai 2011


 

inge Thu, 11.08.2011 - 05:20

Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?

Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?

Fr, 28.07.2011- 06:27 — Georg Wick

Icon Politik & GesellschaftGeorg Wick

Im Jahr 2009 wurde ich von der Zeitschrift „Cellular and Molecular Life Science“ eingeladen, einen Beitrag für deren gelegentlich erscheinende Rubrik „Memories of Senior Scientists“ zu schreiben. Nach längerem Überlegen habe ich diese Einladung angenommen und einen Artikel mit dem Titel „Self and Non-Self“ verfasst (1)

In dieser Rubrik sollen ältere Wissenschaftler auf relativ engem Raum beschreiben, welche Personen und äußere Umstände ihren wissenschaftlichen Lebenslauf besonders geprägt haben. Die Bewältigung dieser Aufgabe stellte sich als äußerst schwierig heraus, und nach Fertigstellung des Manuskripts zeigte sich interessanterweise, dass vor allem positive Einflüsse vermerkt wurden, die vielen negativen Erlebnisse und Enttäuschungen, die ja für einen wissenschaftlichen Lebenslauf ebenfalls sehr prägend sind, aber ausgeklammert worden waren.

Wahrscheinlich lag das daran, dass man positive Konnotationen mit bestimmten Personen leicht zu Papier bringen kann, während man negative Assoziationen mit bestimmten Namen zu Lebzeiten ungern preisgibt oder diese - was noch wahrscheinlicher ist - verdrängt. bzw. nicht mehr wichtig nimmt.

Ich habe jedenfalls diesen Artikel mit dem Satz begonnen „Life has been good to me!“, und so habe ich mein wissenschaftliches Leben auch wirklich empfunden. Da der Zeitpunkt des Verfassens dieses Artikels ungefähr mit jenem meiner Emeritierung zusammenfiel, kann ich inzwischen auf fast 4 Jahre wissenschaftlicher Tätigkeit als Emeritus zurückblicken, und ich kann sagen, dass die zu Beginn meiner „Memories“ gemachte Feststellung auch heute noch Gültigkeit hat.

Ich habe, dank der Unterstützung durch das Rektorat der Medizinischen Universität Innsbruck (MUI) sowie Prof. Lukas Huber, meinem früheren Dissertanten und PostDoc, dem jetzigen Leiter des Biozentrums der MUI, auch als Emeritus weiterhin ausgezeichnete Arbeitsbedingungen vorgefunden. Die ungebrochene Fortsetzung meiner wissenschaftlichen Tätigkeit war allerdings nur möglich, weil es mir gelungen ist, kompetitive Drittmittel (FWF, EU) einzuwerben und damit eine junge und kompetente Arbeitsgruppe zu rekrutieren bzw. aufzubauen. Das bringt mich zum eigentlichen Themas dieses ScienceBlogs.

In Österreich geht durch unsere verfehlte Pensionspolitik außerhalb und innerhalb der akademischen Szene viel Know-How verloren, das für unsere Wirtschaft und Wissenschaft einen beträchtlichen Wert haben könnte. In Bezug auf die Wirtschaft bedenke man nur den Verlust seltener handwerklicher Fähigkeiten, das Know-How älterer Techniker und Ingenieure, Archivare, etc. Künstler haben es da besser, denn sie können, wenn sie wollen, bis an ihr Lebensende weiter ihrer Passion frönen.

Auch für Wissenschaftler wäre dies eine Option, wenn man, ähnlich wie in den Vereinigten Staaten, auch nach der Pensionierung bzw. Emeritierung weiterarbeiten könnte. Dabei gäbe es für die Berechtigung zum Weiterarbeiten ein ganz einfaches Kriterium: die Einwerbung kompetitiver Drittmittel. Dies bedeutet also, dass bei erfolgreichem fachlichen Wettbewerb - und damit einer strikten Qualitätskontrolle - eines eingereichten Projekts von der universitären oder extrauniversitären akademischen Institution die Infrastruktur bereitgestellt werden sollte, um diese international noch wettbewerbsfähigen Wissenschaftler an der Institution zu halten.

Dies hat nicht nur für die involvierten Wissenschaftler, sondern auch für die an diesem Projekt arbeitenden Studenten, Postdocs und Techniker Vorteile: Sie können von der Erfahrung, der Übersicht und dem persönlichem Netzwerk des Senior Investigators profitieren, insbesondere wenn sie auch - wie dies bei meiner Arbeitsgruppe der Fall ist – in einen grösseren Verbund, in unserem Fall das Biozentrum der MUI, eingebunden sind und an Diskussionen und Seminaren, Ausschreibungen und Wettbewerben etc. aktiv teilnehmen.

Abgesehen von den bereits lange existierenden derartigen Programmen in angelsächsischen Ländern haben auch schon einige Deutsche und zwei Schweizer Universitäten, insbesondere aber die Max-Planck-Gesellschaft, eigene Programme für die Weiterbeschäftigung älterer Wissenschaftler entwickelt und implementiert.

Es ist zu hoffen, dass es auch in Österreich gelingt, eine meines Wissens bis jetzt noch nicht flächendeckend existierende Emeritus-Kultur zu etablieren, die es erlaubt, unser wichtigstes Kapital, nämlich die intellektuellen Ressourcen, in ihrer Gesamtheit voll auszuschöpfen.


(1) Wick G. Memories of a Senior Scientist: Self and Non-Self (PDF; kostenpflichtiges Angebot) Cell Mol Life Sci., Mar 66(6):949-61 (2009)


 

inge Thu, 28.07.2011 - 06:26

Grundlagenforschung in Österreich: Erkennen von Exzellenz

Grundlagenforschung in Österreich: Erkennen von Exzellenz

Fr, 21.07.2011 - 05:20 — Peter Schuster

Peter SchusterIcon Politik & Gesellschaft

Die Bewertung von innovativen Projekten ist zweifellos schwierig. Eine Förderung von Grundlagenforschung, die in wissenschaftliches Neuland vordringt, ist ohne einen hohen Vertrauensvorschuss in die Forscher unmöglich.

Das Vertrauen in die Wissenschaft ist in den USA besonders hoch und deutlich stärker als in Kontinentaleuropa: Im Jahre 2009 ergab eine breit angelegte Umfrage, dass die Wissenschaftler im Vertrauen der Bürger hinter den ‚Firefightern‘ an Stelle zwei stehen1, Politiker und Banker dagegen die Schlusslichter bildeten.

Weltweit wird mehr Vertrauen den Wissenschaftlern entgegengebracht, die bereits Erfolge verzeichnen können. Aus diesem Grund ist es von vorrangiger Bedeutung, Nachwuchswissenschaftlern schon sehr früh in ihrer Karriere die Chance zu unabhängiger, wissenschaftlicher Arbeit zu geben – ein Gesichtspunkt, auf den in der Folge noch eingegangen werden wird.

Forschungsleistung muss selbstverständlich auch in der Grundlagenforschung beurteilt werden können. Die Bürger verlangen mit Recht einsichtige Kriterien der Begutachtung des Erfolges und der Bewertung der Ergebnisse. Politiker und Referenten, welche über die verhältnismäßig hohen Förderungssummen zu entscheiden haben, legen großen Wert auf einfach handhabbare, quantitative Indikatoren. Diese gibt es mittlerweile auch auf der Basis einer Bewertung der Zahl der Publikationen und der Publikationsmedien, in welchen die Wissenschaftler über ihre Ergebnisse berichten. Auch das Echo, welches die Publikationen in der wissenschaftlichen Community finden, kann in Form von bibliometrischen Maßzahlen quantifiziert werden (z.B.: "Impact factor" - Gesamtzahl der Zitierungen eines Autors, "Hirsch factor" - Zitierungshäufigkeit der Publikationen).

Sieht man diese Indikatoren für berühmte Naturwissenschaftler nach, so erhält man ein eindeutiges Ergebnis2: Kein Spitzenwissenschaftler schneidet bei diesen Kriterien schlecht ab, aber der Umkehrschluss ist unzutreffend, denn es gibt auch viele durchschnittliche Wissenschaftler mit beeindruckenden quantitativen Faktoren. Allerdings sind die oft benutzten und oft geschmähten quantitativen Kriterien zum Erkennen von Minderleistung sehr gut einsetzbar: Wenn ein Forscher kaum publiziert oder seine Arbeiten in der wissenschaftlichen Community keine Beachtung finden, dann ist der Grund dafür ernsthaft zu hinterfragen.

Wie kann man nun Exzellenz erkennen?

Ein Beispiel aus der Musikwelt soll als Illustration dienen: Wenn man einen Opernliebhaber nach dem besten Opernhaus der Welt fragt, dann erhält man verschiedene Antworten, einer nennt die Covent Garden Royal Opera in London, ein anderer bevorzugt die Wiener Staatsoper, einem dritten gefällt die MET in New York am besten. Fragen Sie aber nach den zehn besten Opernhäusern der Welt, dann werden die Wiener Oper, die Mailänder Skala und die Metropolitan Opera mit größter Sicherheit darunter sein. Ein zweites Beispiel kann dem Spitzensport entnommen werden: Ob man den Medaillenspiegel der olympischen Winterspiele heranzieht, die Weltmeisterschaftstitel oder den Weltcup, Österreich liegt immer unter den ersten zehn Nationen.

Tabelle 1: Zahlen der bis heute verliehenen Nobelpreise. Die für die Fächer Physik, Chemie und Physiologie/Medizin seit Beginn der Nobelstiftung bis heute (1901-2010) verliehenen Preise nach Nationen aufgeschlüsselt. Halbe Zahlen entstehen durch die Zuordnung von Preisträgern zu zwei Ländern. Quelle: Veröffentlichungen der Nobelstiftung, Statistik der Preise.

Physik  Chemie Physiologie /Medizin 
Nation Zahl Nation Zahl Nation Zahl
U.S.A. 82 U.S.A. 59½ U.S.A. 92
Deutschland 23½ Deutschland 28 Großbritannien 27
Großbritannien 21 Großbritannien 25 Deutschland 16
Frankreich 12 Frankreich 8 Frankreich 10
Russland (UdSSR) Schweiz 6 Schweden 8
Niederlande 8 Japan 4 Schweiz
Japan 6 Schweden 4 Australien 6
Schweden 4 Kanada Dänemark 5
Schweiz Israel 3 Österreich 5
Dänemark 3 Niederlande 3 Belgien 4
Österreich 3 Argentinien 1 Italien
Italien 3 Belgien 1 Kanada 2
China Dänemark 1 Niederlande 2
Kanada 2 Finnland 1 Russland
(UdSSR)
2
Indien 1 Italien 1 Argentinien
Irland 1 Neuseeland 1 Japan 1
Pakistan 1 Norwegen 1 Portugal 1
  Österreich 1 Spanien 1
Russland (UdSSR) 1 Südafrika 1
Tschechoslowakei 1 Ungarn 1
Ungarn 1 Neuseeland ½
Ägypten ½  
Australien ½

Geht man in der Wissenschaft analog vor, so kann man die Spitzeninstitute und die Spitzenwissenschaftler in einem Forschungsgebiet unschwer identifizieren. Einem Vertreter der Naturwissenschaften drängt sich der Nobelpreis als Ausdruck der Spitzenleistung auf. Seit 1901 wurden einige hundert Preise auf den Gebieten Physik, Chemie und Physiologie/Medizin vergeben. Es ist beachtenswert, dass es hier einen Wettbewerb zwischen den führenden Nationen in der Wissenschaft gibt, welcher jenem im Sport oder in der Kultur nicht nachsteht.

Die Länder erachten den Erfolg ihrer Spitzenwissenschaftler als eigenen Prestigegewinn und sind stolz auf ihre Preisträger. Dasselbe gilt für Universitäten: Sie erachten diese Preise für ihre Angehörigen als eigenen Erfolg. Die Größe der Länder spielt natürlich auch eine entscheidende Rolle, wie die Reihenfolge US > DE, GB > FR zeigt (Tabelle 1).

Der deutschsprachige Raum ist wegen der ähnlichen Wissenschaftsstruktur für einen detaillierten Vergleich gut geeignet. Die Zahl der Nobelpreise auf den einzelnen Gebieten spiegelt die bekannten wissenschaftlichen Stärken wie Chemie in Deutschland und der Schweiz, Medizin in Österreich wider. Um den zeitlichen Verlauf erkennen zu können, ist die kumulative Zahl der Nobelpreise für die drei deutschsprachigen Nationen in Abbildung 1 gegen die Jahreszahl aufgetragen: Nobelpreise nach 1901

Abbildung 1: Kumulative zeitliche Entwicklung der an Forscher aus dem deutschsprachigen Raum – Deutschland, Schweiz und Österreich – vergebenen Nobelpreise im Zeitraum 1901-2009. Quelle wie Tabelle 1.

Die Graphik zeigt eine überraschend geringe Abflachung der deutschen Kurve nach dem zweiten Weltkrieg. Die Kurven für die Schweiz und Österreich weisen hingegen eine solche auf. Während sich in der Schweiz um 1970 herum wieder der Vorkriegszuwachs einstellt, bleibt Österreich auf dem Wert von 1945 stehen. Einzige Ausnahme ist der Nobelpreis an Konrad Lorenz im Jahre 1973.

Sicherlich ist das oft verwendete Argument zutreffend, dass Österreich wegen der Vertreibung und Ermordung der jüdischen Intelligenz durch die Nationalsozialisten niemals mehr zur Vorkriegswissenschaft zurückgefunden hat. Der Vergleich zeigt jedoch, dass dies nicht die einzige Ursache sein kann. Weitere Gründe für das schlechte Abschneiden Österreichs sind sicherlich in der Vernachlässigung der akademischen Forschung und in dem schlechten Zustand der Universitäten bis lange nach dem Zweiten Weltkrieg zu finden.

Die deutsche Wissenschaftslandschaft erlaubt einen unmittelbaren Vergleich der Leistungsfähigkeit außeruniversitärer und universitärer Grundlagenforschung an Hand der zugesprochenen Nobelpreise: Von Deutschlands insgesamt 67 Nobelpreisträgern kommen 32 aus Kaiser Wilhelm- (seit 1947 Max Planck-) Instituten. Rund die Hälfte aller Nobelpreise erhielten Mitarbeiter der Max Planck-Gesellschaft (MPG), ebenso viele wie Forscher an den heute 105 Universitäten Deutschlands und anderen außeruniversitären Instituten, wobei die gesamte MPG etwa die Größe von etwa drei mittleren deutschen Universitäten hat. Der bekannte amerikanische Soziologe und vergleichende Geschichtsforscher Roger Hollingsworth begründete die Notwendigkeit außeruniversitärer Grundlagenforschung so3:

„The more functions an individual … tries to fulfill, the more unlikely it is to achieve excellence in all or even in one. Scientists who teach a lot have less time for research.”

Die amerikanischen Universitäten haben ein anderes Rezept, Spitzenwissenschaftler von unproduktiver Tätigkeit zu befreien: Die Inhaber von ‚Named Chairs‘ oder ‚Distinguished Professorships‘ werden von Verwaltungstätigkeit und Lehre weitestgehend entlastet. Der Erfolg dieses Modells hängt davon ab, dass jedes Fakultätsmitglied seine Rolle im Gesamtkonzept der Universität sieht und die überwiegend mit Lehre betrauten Kollegen nicht mit dem Argument: „Ohne die Belastung durch Lehre und Verwaltung wäre ich auch ein Spitzenwissenschaftler“, gegen die hauptsächlich in der Forschung engagierten Kollegen intrigieren.

Nobelpreise sind natürlich nicht der alleinige Gradmesser der naturwissenschaftlichen Leistungen eines Landes. Zieht man andere Indikatoren zu Rate, kommt man aber zu ganz ähnlichen Ergebnissen. Die traditionellen Stärken einiger Nationen in bestimmten Forschungsgebieten treten immer wieder zu Tage. Man kann dies sehr schön an Hand der Mathematik zeigen, für die es bekannter Weise keinen Nobelpreis gibt. Die Auszeichnung höchsten Ranges ist dort die Fields-Medaille, die alle vier Jahre durch die ‚International Mathematical Union‘ verliehen wird. Neben den Vereinigten Staaten dominieren Frankreich, Russland und Großbritannien.

Seit sieben Jahren vergibt die Norwegische Akademie der Wissenschaften eine andere höchste Auszeichnung auf dem Gebiet der Mathematik, den Abel-Preis. Trotz verschiedener Vergabemodalitäten – die Fields-Medaille wird nur an Mathematiker im Alter unter 40 Jahren vergeben, wogegen der Abel-Preis keine Altersbeschränkung kennt – stehen wieder die gleichen Nationen an der Spitze: die USA und Frankreich. Nach Österreich ist bis jetzt weder eine Fields-Medaille noch ein Abel-Preis gegangen.

Exzellenz bedarf einer Tradition von Spitzenleistung und kann nicht von einem Tag auf den anderen geschaffen werden. Ein Schulbeispiel für die Schaffung einer Einrichtung für Spitzenleistung bietet die Rockfeller University in New York [3]. Am Beginn im Jahre 1901 steht die Vision des reichen Philanthropen John D. Rockfeller, Senior, in den Vereinigten Staaten ein Institut für Biomedizinische Forschung von Weltrang zu schaffen, welches die Wissenschaft unmittelbar an das Krankenbett im Spital bringt. 1910 wird dasRockefeller Institute Hospitaleröffnet und 1965 wird das Institut zurRockefeller Universityumbenannt.

Die EDie kompromißlose Suche nach und erfolgreiche Rekrutierung von erstrangigen Talenten führte zu einer weltweit einmaligen Erfolgsgeschichte: Im spitalsmedizinischen Bereich wurden unter anderem Methoden zur Konservierung von Gesamtblut, Diätvorschriften zur genauen Kontrolle der Nährstoffe im Essen, die Methadon basierte Entwöhnungstherapie für Heroinsüchtige sowie die erste Therapie mit Kombinationspräparaten gegen HIV Infektionen entwickelt. ntdeckungen in der Grundlagenforschung wurden beispielsweise durch 23 Nobelpreise aus Chemie und Physiologie/Medizin gewürdigt, die an die ‚Rockefeller University‘ gingen.

Besonders eindrucksvolle Beispiele höchst erfolgreicher Exzellenzstrategien in der Wissenschaft bieten die rasch aufstrebenden Volkswirtschaften in Asien und Südamerika, die innerhalb weniger Jahre den Sprung von Entwicklungsländern zu Industrienationen geschafft haben. Zwei Voraussetzungen müssen dabei für die Schaffung von wissenschaftlichen Spitzeneinrichtungen gegeben sein:

  1. ausreichende finanzielle Mittel zur Investition in den Aufbau von Exzellenzzentren – Universitäten oder außeruniversitäre Forschungszentren – und
  2. kompromisslose Rekrutierung der besten Wissenschaftler, die bereit sind, am Aufbau mitzuarbeiten.

Drei asiatischen Staaten mit völlig verschiedenen politischen Systemen ist es innerhalb weniger Jahre gelungen, zu ernst zu nehmendenPlayernin der Wissenschaft zu werden.

  • Der kleine Tigerstaat Singapur mit einer ‚Einparteiendemokratie‘ besitzt heute mit derNational University of Singapureine Universität, welche in den internationalen Rankings vor den besten Universitäten Österreichs rangiert und hat es geschafft, mit einer ‚aggressiven‘ Investitions- und Rekrutierungspolitik zu einem weltweiten Spitzenplatz in der Biotechnologie zu werden.
  • Die kommunistische Diktatur der Volksrepublik China übt mit einer strikten Exzellenzstrategie erfolgreich Druck auf die eigenen Wissenschaftler aus, indem unter anderem Anreize und Anerkennungen für den wissenschaftlichen Erfolg gegeben werden. Trotz eines weit geringeren Entlohnungsniveaus gelingt die Rückholung von Chinesen vor allem aus den USA, welche mit dem mitgebrachten ‚Know-How‘ die Basis für den spektakulären Aufstieg der chinesischen Wissenschaft gelegt haben.
  • Einen ebenso kometenhaften Aufstieg in der Wissenschaft verzeichnet die Demokratie Indien: Der Subkontinent hat ohne strikte zentralistische Direktiven zuerst auf Informationstechnologie, insbesondere Dienstleistung in Form von beauftragter ‚Software‘-Entwicklung, gesetzt und dann, als die IT-Branche zu stagnieren begann, sich dem Biotechnologiesektor zugewendet. Für Indien typisch ist die große Zahl an neu entstandenen Privatunternehmen, die sich hervorragend entwickeln und eine gute wirtschaftliche Prognose haben.

Weitere Beispiele aufzuzählen fiele nicht schwierig; es sei hier nur festgehalten, dass Exzellenzstrategien zum Erfolg führen, wenn sie ernsthaft verfolgt werden, und dies unabhängig von der Größe und dem politischen Regime eines Staates.


 Der Artikel ist der zweite Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:

Teil 1:Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

Teil 3: Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

Teil 4: Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

Dieses Symposium hatte den sich eben in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen: „Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011 


Literatur

[1] Ralph J. Cicerone. 2010. Growing trust in science. Address of the President at the 147th Annual Meeting of the National Academy of Sciences USA. Washington. D.C.

[2] Peter Schuster. 2009. Welche Voraussetzungen benötigt Spitzenforschung und woran kann man ihre Ergebnissemessen? Österreichische Akademie der Wissenschaften, Almanach 2008, 158. Jahrgang. Verlag der Österreichischen Akademie der Wissenschaften, Wien, pp.333-344.

[3] J. Rogers Hollingsworth. 2004. Institutionalizing Excellence in Biomedical Research. The Case of the RockefellerUniversity. In: D. H. Stapelton (Ed.). Creating a Tradition of Biomedical Research. Contributions to the History of the Rockefeller University. The Rockefeller University Press, pp.17-63, New York

inge Thu, 21.07.2011 - 05:20

Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

Fr, 14.07.2011 - 04:20 — Hans Lassmann

Hans LassmannIcon Gehirn

Für lange Zeit galten das Gehirn und Rückenmark (gemeinsam bezeichnet als das zentrale Nervensystem) als Organe des menschlichen Körpers, die zu keiner Regeneration fähig sind. Diese pessimistische Sicht der Dinge hat sich jedoch zunehmend geändert.

Einschlägige Forschungsarbeiten lieferten eindrückliche Beweise für eine erhebliche Plastizität des zentralen Nervensystems. Die Funktion geschädigter Anteile kann durch andere Regionen des Gehirns zumindest zum Teil übernommen werden, und dies ist mit einem Umbau der Hirnstruktur und der Ausbildung neuer Verbindungen in den Nervenzellnetzwerken verbunden.

Neue Erkenntnisse aus der Grundlagenforschung zeigen, dass darüber hinaus das zentrale Nervensystem über eine Population von Stammzellen verfügt, aus denen sich neue Nerven- und Stützzellen entwickeln, die auch in neue, funktionell relevante Schaltkreise eingebaut werden können. In der Praxis ist jedoch das Ausmaß dieser Fähigkeit zur Reparatur und Regeneration begrenzt, und funktionelle Ausfälle nach einer Zerstörung von Hirngewebe können sich nur zum Teil zurückbilden.

Trotzdem haben diese neuen Forschungsergebnisse große Hoffnungen geweckt, durch therapeutische Verfahren die Regeneration im Nervensystem zu fördern und damit Dauerschäden neurologischer Erkrankungen zu mindern. Dies gilt nicht nur für Schäden nach direkter Verletzung oder nach Schlaganfällen, sondern auch für degenerative Erkrankungen des Nervensystems, wie zum Beispiel die Parkinson’sche oder die Alzheimer’sche Erkrankung. Ein in diesem Zusammenhang gegenwärtig besonders intensiv diskutiertes Gebiet ist die Förderung der Reparatur von Krankheitsherden im Nervensystem durch die Transplantation von Stammzellen oder neuronalen Vorläuferzellen.

Die Ergebnisse dieser Bemühungen sind aus wissenschaftlicher Sicht durchaus beeindruckend. Werden solche Zellen in experimentellen Krankheitsmodellen transplantiert, können dauerhafte klinische Ausfälle vermindert und eine zumindest teilweise Reparatur der Schäden nachgewiesen werden. Illustrative Beispiele dafür sind der Ersatz von dopaminergen1 Nervenzellen durch Transplantation von neuronalen Vorläuferzellen in Modellen der Parkinson’schen Erkrankung, oder die durch Stammzellen induzierte Neubildung von Myelinscheiden2 in Modellen der Multiplen Sklerose.

Stammzellen können auf verschiedenen Wegen zur Reparatur beitragen. Sie überleben im Nervensystem nach Transplantation. Sie können sich in Nervenzellen und Stützzellen differenzieren und damit zerstörte Zellen ersetzen. Dies ist jedoch nur in relativ geringem Ausmaß der Fall. In den meisten Fällen überleben sie im Transplantat als undifferenzierte Zellen, die Faktoren produzieren, welche die endogene Regeneration im Gehirn fördern.

Darüber hinaus produzieren Stammzellen Faktoren, die die Entzündung und Abwehrreaktionen im Gewebe unterdrücken und damit das Fortschreiten der Zerstörung des Gewebes vermindern. Eine zusätzliche, erstaunliche Eigenschaft von Stammzellen ist, dass sie selbst nach Injektion in das Blutgefäßsystem ihren Weg in die geschädigten Körperteile (einschließlich derer des Gehirns und Rückenmarkes) finden und damit nicht direkt in das geschädigte Organ injiziert werden müssen.

Trotz diesen viel versprechenden Ergebnissen ist man heute noch weit davon entfernt, größere, vollkommen zerstörte Anteile des Nervensystems wiederherzustellen, die auch in sinnvolle funktionelle Einheiten integriert werden. Und es ist fraglich, ob dies jemals gelingen kann.

Gegenwärtige Ergebnisse lassen vielmehr hoffen, die Regeneration in partiell geschädigten Anteilen des Gehirns und Rückenmarkes zu fördern und damit eine funktionelle Verbesserung zu erzielen. Es gibt unterschiedliche Arten von Stammzellen, die für eine solche Therapie zur Verfügung stehen. Diese umfassen pluripotente3, embryonale Stammzellen, Stammzellen aus dem Blut der Nabelschnur von Neugeborenen, adulte Stammzellen aus verschiedenen Organen – einschließlich des Nervensystems – und adulte Vorläuferzellen, die zum Beispiel bereits in Richtung neuronaler Zellen vorprogrammiert sind.

Pluripotente embryonale Stammzellen sind aus vielen Gründen am besten für therapeutische Zwecke geeignet, sie sind jedoch mit einem erheblichen ethischen Problem verbunden.

Ist es ethisch akzeptabel, menschliche Embryonen als Ersatzteillager für Patienten zu verwenden?

Aus diesem Grund konzentrieren sich viele Bemühungen darauf, Stammzellen von den betroffenen Patienten selbst zu gewinnen. Beispiele sind mesenchymale Stammzellen4 aus dem Knochenmark oder aus anderen Organen. Auch ist es in den letzten Jahren gelungen, ausdifferenzierte Zellen, zum Beispiel aus der Haut, durch genetische Manipulation in Stammzellen zurück zu verwandeln.

Diese faszinierenden Ergebnisse aus der Grundlagenforschung haben große Hoffnungen geweckt. Dementsprechend groß ist der Druck von Patienten und ihren Organisationen, endlich klinische Studien zu starten, die eine Anwendung dieser Erkenntnisse zum Wohl der betroffenen Patienten umsetzen.

Es gibt allerdings wesentliche Argumente, die diesem Ziel entgegenstehen. Als erstes muss man sich der Frage stellen, unter welchen Bedingungen überhaupt eine Reparatur oder die Förderung der Regeneration des geschädigten Nervengewebes sinnvoll ist. Im Unterschied zu niedrigeren Lebewesen hat die Evolution in Säugetieren Mechanismen entwickelt, die die Regeneration im zentralen Nervensystem aktiv unterdrücken. Offensichtlich ist in einem extrem komplexen Gehirn und Rückenmark eine fehlgeleitete Regeneration schädlicher als keine Regeneration.

Ein einfaches Beispiel dazu: Nach Verletzung des Rückenmarks ist es sicher wünschenswert, die fehlende Funktion einer Querschnittslähmung durch eine Regeneration der Nervenbahnen zum Teil wiederherzustellen. Führt dies jedoch durch Fehlregeneration in Regionen des Rückenmarkes, die für die Verarbeitung von Schmerzreizen verantwortlich sind, zu chronischen Schmerzzuständen des Patienten, ist dies wahrscheinlich belastender als der ursprüngliche Zustand. Man kann sich vorstellen, dass die Frage der Fehlregeneration im Gehirn, dessen Verschaltung viel komplexer ist als die im Rückenmark, zu noch viel größeren Problemen führen kann.

Ein zweites Beispiel ist die Transplantation dopaminerger Nervenzellen oder deren Vorläuferzellen in Patienten mit Parkinson’scher Erkrankung. Bei dieser Erkrankung gehen jene Nervenzellen zugrunde, die den Überträgerstoff Dopamin produzieren, und dies führt zu schweren Störungen des Bewegungsablaufes bei den betroffenen Patienten. Ziel der Transplantation ist, diese verlorenen dopaminergen Nervenzellen durch Stammzellen oder Vorläuferzellen zu ersetzen und damit wieder ausreichend Dopamin als Neurotransmitter zur Verfügung zu stellen. Klinische Studien an betroffenen Patienten haben gezeigt, dass dies im Prinzip möglich ist und die neurologischen Störungen gebessert werden können.

Man kann jedoch ein ähnliches Ergebnis erzielen, wenn man die Patienten mit L-DOPA, einem Vorläufer des Dopamins, behandelt. Das riskante Prozedere einer Zelltransplantation ist demnach nur gerechtfertigt, wenn sich zeigen lässt, dass der Zellersatz durch Transplantation zu besseren Ergebnissen führt als die pharmakologische Therapie. Dies ist bislang nicht überzeugend gelungen. Darüber hinaus hat sich rezent gezeigt, dass auch in den transplantierten Zellen ähnliche Veränderungen auftreten, die bei den Patienten zum Untergang ihrer eigenen dopaminergen Nervenzellen führen. Das heißt, dass die transplantierten Zellen nicht vor den krankheitsspezifischen Mechanismen der Neurodegeneration geschützt sind.

Sehr ähnliche Probleme muss man auch berücksichtigen, wenn man Stammzelltransplantation als Therapie für Patienten mit Multipler Sklerose vorschlägt. Hier zeigte sich in experimentellen Modellen, dass der direkte Ersatz des geschädigten Gewebes durch Stammzellen nur für einen geringen Anteil des therapeutischen Erfolges verantwortlich ist, und dass die Förderung der endogenen Regeneration und die Unterdrückung der Entzündungsreaktion durch Stammzellen besonders wichtig sind. Diese Effekte können jedoch auch die gegenwärtig in den Patienten bereits etablierten immunsuppressiven und immunmodulierenden Therapien erzielen. Ob dies durch die Transplantation von Stammzellen besser und mit weniger Nebenwirkungen erreicht werden kann, ist gegenwärtig unklar.

Das zweite Problem in der klinischen Anwendung der Stammzelltransplantation betrifft Aspekte der Sicherheit und des Risikos. Im Unterschied zu einer Therapie mit Medikamenten sind transplantierte Zellen schwer zu kontrollieren. Sind sie einmal transplantiert und überleben sie im Gewebe ist es nahezu unmöglich, sie wieder zu eliminieren, wenn sie unerwünschte oder gefährliche Eigenschaften entwickeln. Es gibt eine Reihe von Indizien, dass dies ein erhebliches Problem bereiten kann: ein wesentlicher Wirkmechanismus der transplantierten Stammzellen ist, dass sie „neurotrophe“ Faktoren produzieren, die die körpereigene Regeneration im Nervensystem fördern.

Diese Neurotrophine sind im normalen Nervensystem sehr eng reguliert. Stammzellen produzieren diese Faktoren in den meisten Fällen jedoch dauerhaft und ohne Regulation. Dies kann für die Periode der Reparation von Vorteil sein, es ist jedoch keineswegs klar, ob dadurch nicht auch langfristig Schäden induziert werden, wenn die Produktion nicht rechtzeitig gestoppt werden kann. Ein ähnliches Problem gilt für die entzündungshemmende oder immunsuppressive Wirkung von Stammzellen. Auch hier muss gewährleistet sein, dass diese Wirkung blockiert werden kann, wenn die Abwehr zur Bekämpfung von Infektionen nötig ist.

Ein bedeutendes Sicherheitsrisiko betrifft die Frage einer möglichen onkologischen Transformation der Zellen. Bisherige Daten zeigen, dass bestimmte Stammzellen, wenn sie in das Nervensystem transplantiert werden, als undifferenzierte Zellen im Gewebe persistieren, die sich langsam vermehren. Wenn das nicht gestoppt wird, ist langfristig im Gehirn oder Rückenmark ein Problem zu erwarten, da selbst langsam wachsende „gutartige“ Tumore im Nervensystem deletär5 sind.

Darüber hinaus besteht die Gefahr, dass solche Zellen durch die kontinuierliche Zellteilung Mutationen entwickeln, die auch zur malignen Transformation führen können. Dieses Risiko wird darüber hinaus potenziert, wenn Stammzellen durch genetische Manipulation induziert wurden.

Ohne Zweifel eröffnet die moderne Stammzellforschung faszinierende Perspektiven, die vollkommen neue Erkenntnisse über die Entwicklung des Nervensystems und sein Potential zur Reparatur und Regeneration geliefert haben.

Darüber hinaus lassen die bereits gewonnenen Erkenntnisse hoffen, dass damit neue Wege der Therapie neurologischer Erkrankungen eröffnet werden. Die Frage jedoch, ob und wann mit der klinischen Anwendung für Patienten begonnen werden soll, wird sehr kontrovers diskutiert. Aus meiner Sicht wird eindringlich vor einer vorschnellen und unkritischen Übertragung (Translation) dieser Forschungsergebnisse in die klinische Anwendung gewarnt. Eine solche sollte erst erwogen werden, wenn die hier genannten Fragen der Anwendung und langfristigen Sicherheit geklärt sind. Bis das soweit ist, ist noch ein langer Weg experimenteller Forschung zu gehen.

 


[1] auf Dopamin reagierend

[2] fettreiche Schicht um das Neuron, den faserartigen Fortsatz von Nervenzellen (de.wikipedia.org/wiki/Myelinscheide)

[3] Stammzellen mit der Fähigkeit, sich zu Zellen der drei Keimblätter (Ektoderm, Entoderm, Mesoderm) und der Keimbahn eines Organismus zu entwickeln (de.wikipedia.org/wiki/Pluripotenz)

[4] Vorläuferzellen des Bindegewebes (de.wikipedia.org/wiki/Mesenchymale_Stammzelle)

[5] schädlich, verderblich


Literatur

Allen LE et al 2010; Curr Opin Neurol 23: 426-432

Martino G, Pluchino S 2006, Nat Rev Neurosci 7:395-406

Pera MF 2011; Nature 471: 46-47

Reekmans K et al 2011; Stem Cell Rev Epub ahead of print

Sahni V, Kessler JA 2010, Nat Rev Neurol 6:363-372

inge Thu, 14.07.2011 - 05:20

Ein Regelbruch in der Proteinchemie

Ein Regelbruch in der Proteinchemie

Fr, 08.07.2011 - 00:00 — Peter Swetly

Icon ChemiePeter SwetlyWas ist ein Leben ohne Regeln? Ist es die große Freiheit? Regeln erlauben das Miteinander von Individuen und das Zusammenleben in Gemeinschaften. Wissenschaft, im besonderen Naturwissenschaft, ist auf Regeln angewiesen, entfaltet sich innerhalb der Regeln – und bricht diese manchmal. So sind einige Regeln kurzlebig, andere überdauern Jahrhunderte. Ein Beispiel von langer Haltbarkeit ist eine Regel der Biochemie: „Die Struktur eines Proteins bestimmt dessen Funktion.

Diese Regel gilt seit über 50 Jahren. In den 50er Jahren des 20. Jahrhunderts ist es gelungen, die Struktur von Proteinen auf verschiedenen Ebenen zu charakterisieren.

Zunächst gelang es die Primärstruktur von Proteinen aufzuklären. Proteine sind Aminosäureketten1, wobei die zwanzig natürlichen Aminosäuren linear aneinander gereiht und durch chemische Koppelung miteinander verbunden sind. Die Reihenfolge der Aminosäuren in der Proteinkette stellt nun die Grundlage für eine geordnete räumliche Struktur der Proteine dar. Durch Kristallisation der Proteine und durch Röntgenstrukturanalyse dieser Kristalle gelang es, die dreidimensionale Figur vieler Proteine bis in atomare Dimensionen genau nachzubilden.

Diese Methoden wurden in den letzten 50 Jahren schrittweise verfeinert, sodass einige tausend Proteine in ihrer räumlichen Struktur erfasst und beschrieben sind.

Warum führt die Aufklärung der Proteinstrukturen zu vielen Erkenntnissen der biochemischen Forschung? Diese Erkenntnisse helfen die physiologischen Abläufe in Zellen und Organismen zu erklären und waren für die Entwicklung moderner Arzneimittel grundlegend. Die Grundlage dafür ist die schon angeführte Hypothese: Die räumliche Struktur eines Proteins legt dessen biologische Funktion fest. Und Proteine haben vielfältige Funktionen in einem Organismus, von: „hochspezifischer Katalysator für biochemischen Prozess“, bis zu: „Bindungspartner für andere Proteine, für Nukleinsäuren, für Lipide (Fette), Zucker, Chemikalien und Arzneimittel“.

Die Arzneimittelwissenschaft hat sich aufgrund der Regeln, was Strukturen und damit zusammenhängende Funktionen betrifft, besonders zielorientiert entwickelt; die Identifizierung von Zielproteinen für Arzneimittel und von Arzneimitteln für ausgewählte Zielproteine ist die zentrale Fragestellung der Arzneimittelforschung geworden. Dabei gelingt es, die Bindung eines Arzneimittels an ein Protein im atomaren Maßstab nachzubilden und die winzige Strukturänderung, die durch die Bindung zustande kommt, mit einer geänderten Funktion des Proteins zu korrelieren.

Dadurch gelang es, sehr spezifische Arzneimittel zu finden, die selektiv an eine bestimmte Stelle nach dem Schlüssel-Schloss-Prinzip eines Proteins binden und möglichst nicht an andere Proteine. So können Nebenwirkungen der Arzneimittel reduziert werden.

Die Regel hat sich auf diese Weise tausendfach bewährt. Eines der Enzyme, die als Zielmolekül für die Entwicklung von immunsuppressiven Arzneimitteln identifiziert wurden, ist „Calcineurin“.

Als die Struktur des Calcineurins untersucht wurde, stellte sich heraus, dass nur ein Teil des Proteins eine exakte räumliche Struktur aufweist, ein Teil jedoch durch Aminosäurepositionen gekennzeichnet ist, die so variabel waren, dass keine exakte räumliche Zuordnung dafür möglich war. Das war eine große Überraschung, umso mehr, als eben diese variable Struktur für die Funktion des Calcineurins im Immunsystem notwendig war.

Die Regel „Die Struktur eines Proteins bestimmt dessen Funktion“ hat damit eine Ausnahme gefunden – das war 1995 – und seither ging die Suche los: gibt es weitere Ausnahmen? Gibt es Proteine mit Regionen, die derart ungeordnet sind, dass sie nicht spontan eine spezifische dreidimensionale Struktur bilden? Und es gibt sie. Heute gilt die Annahme, dass 40 Prozent aller menschlichen Proteine zumindest eine ungeordnete Region enthalten.

Warum wurden diese Ausnahmen nicht früher entdeckt? Dafür gibt es eine einfache Erklärung: Proteine mit derartig ungeordneten Regionen lassen sich nicht kristallisieren – und Kristalle sind die Voraussetzung, dass eine Röntgenstrukturanalyse durchgeführt werden kann. Sie wurden daher ignoriert.

Aber Kernmagnetresonanz-Spektroskopie2 als neue Methode erlaubt es nun auch Proteine mit ungeordneten Strukturen zu untersuchen, und die „Unordnung“ stellt sich als neue Eigenschaft von Proteinen dar. Noch hat diese Sichtweise nicht die Lehrbücher erreicht, aber sie hilft zu erklären, warum manche Proteine mit sehr vielen Partnern Bindungen aufbauen können. Biologie scheint die „Unordnung“ zu nützen, um vielfältige Funktionen aufzubauen. Es wird also eine Neubeurteilung des Struktur-Funktion-Paradigmas notwendig werden.

Auch die Arzneimittelforschung entwickelt nun großes Interesse an ungeordneten Proteinen, weil viele dieser Proteine eine entscheidende Rolle in Krankheiten spielen.

Schritt um Schritt entwickelt sich ein neues Bild hinsichtlich des Zusammenhangs zwischen Aminosäuresequenz in Proteinen, Struktur und Funktion: das Spektrum reicht von rigiden Strukturen, wie sie in molekularen Maschinen notwendig sind, bis hin zu völlig ungeordneten Proteinen. Die Aufklärung der Funktion der ungeordneten Proteine wird die Wissenschaft noch Jahre beschäftigen.


Literatur

T. Chonard, Nature 471/15.03.2011

Für diejenigen, die über die NMR-Spektroskopie von Proteinen mehr wissen wollen: Der Nobelvortrag von Kurt Wüthrich (2002) (PDF)

Erstellt: P. Swetly, 06.06.2011 1

1. Aminosäuren sind relativ kleine organische Verbindungen (Carbonsäuren), die zumindest eine Carboxylgruppe (-COOH) und eine Aminogruppe (-NH2) besitzen. Aus der Verknüpfung dieser Gruppen in der "Peptidbindung" resultieren lineare Ketten. Proteine bestehen aus ein bis mehreren dieser Ketten und können zwischen 100 bis zu mehrere 10 000 Aminosäuren enthalten.

2 Strukturbestimmung von Proteinen mittels Kernresonanz (NMR) Spektroskopie. Bestimmte Atomkerne, wie z.B. der Kern des in Proteinen sehr zahlreich vorkommenden Wasserstoffatoms 1H, besitzen ein magnetisches Moment und richten sich (wie Stabmagneten) in einem starken Magnetfeld unter Absorption von Energie in diskreten Orientierungen mit unterschiedlichen Energieniveaus aus. Ein Übergang zwischen diesen Niveaus wird durch ein zweites, variables Magnetfeld (Frequenz im Radiowellenbereich) induziert, wenn dessen Frequenz exakt dem Energieunterschied der Niveaus entspricht (= Resonanzfrequenz), und kann als elektrisches Signal gemessen werden. Form des Signals und Resonanzfrequenz jedes Wasserstoffatoms im Protein hängen von dessen jeweiliger chemischer Umgebung ab. Aus dem Spektrum aller Signale läßt sich die Positionierung der Wasserstoffatome im Protein feststellen und daraus dessen dreidimensionale Struktur bestimmen.

inge Fri, 08.07.2011 - 12:00

Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

Fr, 03.07.2011 - 00:00 — Peter Schuster

Peter SchusterIcon Politik & GesellschaftForschung wird als eine Ware oder besser als ein Produkt verstanden, welches die Öffentlichkeit dem Forschenden oder der Institution, in welcher der Wissenschaftler arbeitet, durch Zuwendungen „abkauft“. Der Wert des Produktes setzt sich aus verschiedenen Beiträgen zusammen: aus dem Kulturgut Wissenschaft, aus dem Prestigegewinn des Landes bei erstrangiger Spitzenforschung und aus dem kommerziellen Nutzen im Falle erfolgreicher Anwendung der Ergebnisse. Von diesen Werten und ihrer Mehrung durch gezielte Strategien soll am Beispiel der österreichischen Grundlagenforschung in Mathematik und Naturwissenschaften die Rede sein.

Obwohl die Problematik in anderen Wissensgebieten ähnlich gelagert ist, gelten dort zumeist andere Maßstäbe der Bewertung. Grundlagenforschung wird hier als selbstbestimmte Forschung verstanden, im Unterschied zu Forschung, die auf vorgegebene Ziele ausgerichtet ist. Exzellente Forschung ist heute überall anwendungsoffen, sie kann mögliche Anwendungen in der nahen Zukunft erkennen lassen, oder zur Zeit anwendungsfern erscheinen. Langfristige Prognosen über mangelnde Nutzbarkeit von Forschungsergebnissen haben sich nahezu immer als falsch herausgestellt. Selbst abstrakte Gebiete der Mathematik, wie die Zahlentheorie, finden wichtige Anwendungen.

Zahlen und Fakten

Wissenschaft und Forschung nehmen in den Gesellschaften aller entwickelten und an Entwicklung interessierten Länder einen breiten Raum ein. Die öffentliche Hand teilt den Budgetposten Bildung und Wissenschaft beachtliche Summen zu. Seit dem Jahre 1998 sind in Österreich die Ausgaben des Bundes zur Finanzierung von Forschung und Entwicklung ständig gestiegen. Auch die Bundesländer haben ihre Ausgaben auf diesem Sektor erhöht. Ungeachtet der Finanz- und Wirtschaftkrise gab es auch in den Jahren 2009 und 2010 Steigerungen in den Ausgaben des Bundes, welche allerdings im Wesentlichen nur den Rückgang der industriellen Forschungsausgaben kompensierten (siehe Tabelle). Der Auslandsbeitrag blieb nahezu konstant und so ergab sich in Summe eine geringe Steigerung der Forschungsquote in Prozenten des Bruttonationalprodukts (BIP).

 

Ausgaben für Forschung und Entwicklung in Österreich*)
  2009 2010
Herkunft der Gelder Mrd Euro % Mrd Euro %
Wirtschaft 3,44 45 3,38 43,3
Öffentlicher Sektor 2,95 38,6 3,22 41,2
davon Bund 2,55 33,3 2,82 36,1
Länder 0,40 5,2 0,40 5,1
Ausland 1,13 14,8 1,17 15,0
Sonstige 0,13 1,7 0,04 0,5
Gesamt 7,65 2,73 % BIP 7,81 2,76 % BIP

*) Quelle: Statistik Austria, 22.04.2010. Die Zahlen für 2010 entstammen einer Globalschätzung

Der geringe Anteil der Industrie an der Forschung ist in der Tat das Hauptproblem der Forschungslandschaft Österreichs: Den 43,3% an industriellem Forschungsanteil in Österreich stehen etwa 67,7% in Deutschland und 71% in den USA gegenüber.

Forschung und Entwicklung umfassen ein breites Spektrum von wissenschaftlichen und technologischen Aktivitäten. Welcher Anteil der genannten Aufwendungen in die Grundlagenforschung geflossen ist, ist nicht ganz einfach zu beantworten, da an den Universitäten die Aufwendungen für Forschung und Lehre nicht sauber getrennt sind. Die Statistik Austria spricht von 0,41% des BIP in Österreich im Jahre 2009 verglichen mit 0,53% in den USA und 0,83% in der Schweiz. Der Faktor zwei im Prozentsatz des BIP, welches pro Kopf im Jahre 2009 laut Weltwährungsfonds in der Schweiz mit US$ 67.600 deutlich über dem österreichischen Wert von US$ 46.000 lag, erklärt bereits die wesentlich schlechtere finanzielle Situation der Grundlagenforschung an den österreichischen akademischen Institutionen.

Eine noch bessere Illustration der Problematik ermöglichen die absoluten Zahlen, und ein Vergleich der Mittel für die Grundlagenforschung in Österreich und der Schweiz ist angebracht, da die beiden Staaten in den Bevölkerungszahlen ungefähr gleich groß sind:

Der schweizerische Nationalfonds (SNF) vergibt Bundesmittel in der Höhe von etwa 460 Millionen EUR für die Grundlagenforschung gegenüber den 135 Millionen EUR Budget des österreichischen Fonds zur Förderung der wissenschaftlichen Forschung (FWF). Die Schweizer Forscher im akademischen Bereich haben um einen Faktor 3,4 mehr Mittel zur Verfügung als ihre österreichischen Kollegen.

Dem stehen 90 Millionen EUR in der Schweiz aber 210 Millionen EUR in Österreich gegenüber, die über die Forschungsförderungsgesellschaft (FFG) in die Industrie fließen. Darüber hinaus ist die geringere Schweizer Summe nur den Universitäten zugänglich, wenn sie mit Unternehmen gemeinsame Forschungen durchführen. Der Präsident des SNF, Dieter Imboden, sagte in einem Interview mit dem Titel "Wir machen seit hundert Jahren dasselbe" in der Tageszeitung ‚Der Standard‘ vom 21. April 2010: „Die Schweiz scheut sich, direkt in Unternehmen zu investieren. … Das ganze Potential der Pharmaindustrie ist aus sich heraus gewachsen, ohne Geld des Bundes.“ Ende des Zitats.

Dessen ungeachtet liegt die Schweiz in der Anwendung von Forschungsergebnissen im Spitzenfeld: Der EU-Innovationsanzeiger führt die Schweiz weltweit als Nummer eins. Abgesehen von den Details aller Zahlen können wir eines festhalten: Der FWF hat zu wenig Geld, um die akademische österreichische Forschung so zu unterstützen und zu gestalten, wie dies in den erfolgreichen europäischen Ländern Europas der Fall ist. Es ist sehr schmeichelhaft, wenn die Österreichische Akademie der Wissenschaften mit ihren Forschungsinstituten als ‚Leuchtturm‘ apostrophiert wird.

In den Budgets der letzten beiden Jahre – von 2006 bis 2009 saß ich am Verhandlungstisch – haben sich die wissenschaftlichen Leistungen der Akademieinstitute nicht gespiegelt. Hervorragende Evaluierungen konnten nicht in von den Wissenschaftlern zu recht erwartete Budgetsteigerungen für die erfolgreichen Institute umgesetzt werden. Um zur Metapher zurückzukehren: Was nützt ein Leuchtturm in der rauhen See, wenn er keine Energie zum Betrieb seiner Lampen hat? In die österreichische Grundlagenforschung fließen leider weit weniger Mittel, als Ankündigungen und freudige Meldungen manchmal erwarten lassen. Wissen und Anwendung

Selbstbestimmte Forschung ist primär auf Wissenserwerb ausgerichtet und wird sinnvoller Weise nicht (nur) an der Erreichung von Zielvorgaben gemessen. Zum Unterschied davon streben zielorientierte Forschung und Entwicklung die Lösung vorgegebener Aufgaben an und sind erfolgreich, wenn die vorgegebenen Ziele erreicht, wenn die ‚Milestones‘ passiert wurden; ihr Erfolg ist dementsprechend einfach messbar: entweder wurden die Vorgaben erfüllt oder nicht. Auf Erkenntnisgewinn ausgerichtete Grundlagenforschung, das Vordringen in wissenschaftliches Neuland ist gerade dadurch gekennzeichnet, dass wir nicht wissen, wohin die Reise geht:

Neuland ist nur Neuland, wenn man es nicht schon von vornherein kennt. Würden Sie den Entdecker Christoph Kolumbus als gescheitert betrachten, weil er einen unbekannten Kontinent entdeckte, und damit das vorgegebene Ziel, Indien auf dem Seeweg nach Westen zu erreichen, verfehlte? Es ist unbestritten, dass die objektive Bewertung von echt innovativen Projekten im heute üblichen konventionellen Peer Review-System schwierig, wenn nicht gar unmöglich ist. Um eine Beurteilung unkonventioneller Vorhaben zu bewerkstelligen, sind Forschungspolitik und Wissenschaft gefordert.

Eine triviale Lösung des Problems wäre, Grundlagenforschung zu einem „Hobby“ der Wissenschaftler zu degradieren, wie es von einigen Extremisten in den Siebziger Jahren des vorigen Jahrhunderts gefordert wurde: „Wozu weitere Grundlagenforschung, wir wissen doch schon genug!“ war das Motto, und es hat sich auf allen Gebieten ad absurdum geführt. In Erinnerung rufen möchte ich einen Fünfjahresplan für die wissenschaftliche Forschung in der DDR aus jener Zeit. Der Plan, an den ich denke, legte unter anderem fest, dass die Forschungsvorhaben an Hochschulen nützliche Anwendungen finden müssen, und dass die Projekte gemeinsam mit den Industriebetrieben der DDR durchgeführt zu werden haben. Aus meinem eigenen Fach läßt sich berichten, dass die theoretische Chemie in der DDR vor der Verpflichtung zur Anwendbarkeit durchaus mit dem Leistungsniveau im westlichen Europa vergleichbar war, dann aber während des anwendungsbestimmten Fünfjahresplanes stark zurückfiel und sich bis zur Wende nicht mehr erholte.

Ergänzend sei hier noch ein Ausspruch zitiert, der auf Max Planck zurückgeht und von der Max-Planck-Gesellschaft in das Mission-Statement aufgenommen wurde: „Wissen muss der Anwendung vorausgehen“. Dies ist ein sehr tiefer und wichtiger Gedanke, denn es fehlt nicht an Beispielen, bei denen die Anwendung dem Wissen vorausging und gewaltige Schäden verursachte. Es seien hier nur drei Beispiele angeführt:

  1. Die Entdeckung der hochenergetischen Strahlung und ihre frühen Anwendungen. Radiumpräparate wurden einige Zeit lang als Schönheitsmittel empfohlen, in der Literatur findet sich auch ein Bericht über den Versuch, Dunkelhäutige mit Radiumpräparaten zu bleichen [1] und die Älteren unter uns erinnern sich sicherlich noch an die Uhren mit radioaktiv strahlenden Leuchtziffern.
  2. Das Märchen vom gesunden Spinat. Weit weniger schädlich ist dieses bekannte Beispiel mangelnder Wissensübermittlung aus den Ernährungswissenschaften: Im Jahre 1890 veröffentlichte der Schweizer Physiologe Gustav von Bunge Daten über den Eisengehalt verschiedener Gemüsesorten. Im Fall des Spinats bezog er den Eisengehalt auf getrocknete Spinatblätter und dieser ist, da 90 Gewichtsprozent Wasser fehlen, um etwa eine Zehnerpotenz größer als bei den anderen Pflanzen, für welche die Bestimmung auf Frischgewicht durchgeführt wurde [2]. ‚Popeye the Sailor‘ wäre ohne diese Fehlinterpretation der Daten niemals kreiert worden und vielen Millionen von Kindern wäre die Fütterung mit Spinat erspart geblieben.
  3. Das Märchen vom bösen Cholesterin. Dieses letzte Beispiel ist zweifelsohne weniger harmlos und gleichzeitig höchst aktuell: Der allgemein akzeptierte Zusammenhang zwischen der Konzentration des Cholesterins im Blut und dem Auftreten von Arteriosklerose sowie deren Folgen, Herzinfarkt und Schlaganfall, wurde durch eine Reihe von groß angelegten Untersuchungen in Frage gestellt und ist gegenwärtig Gegenstand intensiver Diskussion (Gegensätzliche Standpunkte sind in drei Monographien behandelt [3, 4, 5]. Angesichts der Tatsache, dass ein nicht unwesentlicher Teil der Bevölkerung eine Langzeitbehandlung mit Cholesterinsenkern aus der Gruppe der Statine verschrieben bekommt, welche beachtliche Nebenwirkungen aufweisen, erhält die Debatte um die Bedeutung von Cholesterin für Herz-Kreislauferkrankungen eine volksgesundheitliche Dimension (einige Ärzte haben vor Jahren sogar angeregt, Statine den Grundnahrungsmitteln beizumischen!). Die Notwendigkeit, mehr Wissen durch intensive Grundlagenforschung zu erwerben, tritt im Fall der gesundheitlichen und ernährungsphysiologischen Bedeutung von Cholesterin zwingend zu Tage.

Dieser Artikel ist der erste Teil der ausführlichen Fassung eines Referates, das anlässlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde. Dieses Symposium hatte den sich in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen („Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011..

 

Literatur

[1] Maria Rentetzi. 2007. Trafficking materials and gendered experimental practices. Columbia University Press, New York

[2] Mike Sutton. 2010. Spinach, iron and Popeye: Ironic lessons from biochemistry and history on the importance of healthy eating, healthy skepticism, and adequate citation. Internet Journal of Criminology. March 2010

[3] Uffe Ravnskov. 2000. The cholesterol myths: Exposing the fallacy that saturated fat and cholesterol cause heart disease. New Trends Publishing Co., Washington, D.C., USA

[4] Anthony Colpo. 2006. The great cholesterol con. Why everything you’ve been told about cholesterol, diet and heart disease is wrong! Second Ed. Anthony Colpo, Melbourne, AUS.

[5] Daniel Steinberg. 2007. The cholesterol wars: The skeptics vs. the preponderance of the evidence. Academic Press, San Diego, CA, USA

Redaktion Sun, 03.07.2011 - 12:00

Hat die Menschheit bereits den Boden unter den Füßen verloren?

Hat die Menschheit bereits den Boden unter den Füßen verloren?

Fr, 28.06.2011 - 06:00 — Gerhard Glatzel

Icon BiologieGerhard GlatzelSechs, acht oder in wenigen Jahrzehnten vielleicht mehr als neun Milliarden Menschen zu ernähren und mit pflanzlichen Rohstoffen zu versorgen, ist keine einfache Aufgabe. Bisher war es möglich, zumindest in der entwickelten Welt, die wachsende Bevölkerung mit Nahrungsmitteln zu versorgen, weil Pflanzenzüchtung, Pflanzenschutz, Düngung und Mechanisierung der Pflanzenproduktion in Großbetrieben eine Vervielfachung der Produktivität je Flächeneinheit Boden ermöglichten. Durch Umwandlung von Wald in Weide- und Ackerland sowie durch Bewässerung von Trockengebieten und Entwässerung von Sumpfland konnten scheinbar unbegrenzte Mengen an Nahrungsmitteln und pflanzlichen Rohstoffen erzeugt werden.

Überschüsse stellten die Agrarpolitik vor die schwierige Aufgabe, die Grundlagen der Agrarproduktion in den ländlichen Räumen der entwickelten Länder trotz extrem niedriger Weltmarktpreise für Agrargüter zu sichern. In vielen Entwicklungsländern hingegen konnte die Agrarproduktion mit dem Bevölkerungswachstum nicht Schritt halten, und Hunger, Brennholzmangel sowie dadurch begünstigte Krankheiten sind für fast eine Milliarde Menschen nach wie vor drückende Realität.

Die steigenden Preise von Lebensmitteln und pflanzlichen Rohstoffen wie Baumwolle zeigen, dass die Zeiten agrarischer Überproduktion und Überschüsse vermutlich vorüber sind, und dass wir uns in Zukunft immer mehr anstrengen werden müssen, um genügend pflanzliche Biomasse für Ernährung, Industrie und verstärkt auch für die energetische Nutzung bereitstellen zu können. Man kann natürlich einwenden, dass einiges an der Verknappung auf Spekulation oder Agrarpolitik zurückgeführt werden kann.

Es fällt aber auch auf, dass in der Diskussion um Energie aus Biomasse immer mehr die Energiesicherheit im Vordergrund steht und nicht mehr der Klimaschutz, der oft als Feigenblatt dafür diente, dem ländlichen Raum zusätzliche, aus öffentlichen Mitteln geförderte Einkommensmöglichkeiten zu erschließen. Besonders nach dem Nuklearreaktorunfall von Fukushima und der Abschaltung von Atomkraftwerken in Deutschland wird der Anbau von Energiepflanzen energisch gefordert und gefördert, auch wenn dessen Wirksamkeit hinsichtlich des Klimaschutzes oft umstritten ist und negative ökologischen Folgen in Kauf genommen werden müssen.

Die alles entscheidende Frage für eine Zukunft ohne Hunger und Rohstoffmangel ist, ob mit den klassischen Ansätzen der „grünen Revolution“ der stetig steigende Bedarf an Biomasse beherrschbar sein wird. Die massiven Investitionen in Agrarland seitens der internationalen Agrarindustrie und anderer Investoren („Land Grabbing“) zeigen, dass der Verfügbarkeit von Boden eine Schlüsselrolle eingeräumt wird. Daher soll im Folgenden über Boden als knappe Ressource diskutiert werden.

Die FAO (Food and Agricultural Organisation) der Vereinten Nationen veröffentlicht regelmäßig globale und regionale Übersichten über die Landnutzung und deren Veränderung (http://www.fao.org/landandwater/agll/landuse/). Die Daten zeigen, dass laufend landwirtschaftlich genutzter Boden durch Erosion, Versalzung, Wüstenbildung, Inanspruchnahme für Siedlungen sowie industrielle und Verkehrsinfrastruktur verloren geht, dass aber auch nach wie vor neues Land für die agrarische Produktion erschlossen wird.

Erschließung neuer Nutzflächen durch Rodung von Waldboden

Gobal nutzbare AckerbauflächenAbbildung 1. Gobal nutzbare Ackerbauflächen.

Anhand einer groben Übersicht über die globale Bodennutzung (Abbildung „Soil limits agriculture“) kann man die Möglichkeiten und Grenzen der Urbarmachung des bisher nicht für den Ackerbau genutzten Landes aufzeigen. Nur ein sehr kleiner Teil der Böden der Erde, nämlich gerade einmal 11 Prozent, sind ohne Einschränkungen für acker-bauliche Pflanzenproduktion, also für den Anbau von Getreide, Kartoffeln, Gemüse oder Faserpflanzen nutzbar.

Ursprünglich war ein Teil dieses Landes Steppe, ein erheblicher Teil aber auch Wald auf tiefgründigen Böden, welche nach der Rodung fruchtbares Ackerland ergaben. Die Rodung von Wald zur Gewinnung von Acker- und Weideland hat in allerjüngster Zeit einen neuen Höhepunkt erreicht. In Brasilien hat die Waldrodung im März und April 2011 gegenüber dem gleichen Zeitraum des Vorjahres um 473 Prozent zugenommen (The Economist, Sunday, June 5th, 2011). Brasilien hat im Mai dieses Jahres weitere Rodungen im Regenwald des Amazonas legalisiert. Die negativen Auswirkungen auf die Biodiversität und das Weltklima sind unbestritten, werden aber aus ökonomischen und politischen Gründen in Kauf genommen.

Die Satellitenbilder, die man sich in Google Earth ansehen kann, zeigen aber auch eine neue Dimension der Landnutzung nach der Rodung des Regenwaldes. Während man rechts im Bild die traditionelle Umwandlung in Weideland erkennen kann, die legal und illegal von Kleinbauern durch Brandrodung betrieben wird (achten Sie auf die gut erkennbaren Rauchfahnen), finden sich links die ausgedehnten Betriebe der Großgrundbesitzer und der Agrarindustrie. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und AgrarlandAbbildung 2. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und Agrarland.

Der immer weiter wachsende Markt für Rindfleisch, für den die OPIC (International Meat Organisation) bis 2050 eine Verdoppelung vorhersagt (Merco Press, September 28, 2010), führt zu diesem Boom. Da die Produktion von qualitativ hochwertigem Rindfleisch eine Mästung mit Kraftfutter voraussetzt, werden auf den besseren Böden zunehmend Getreide sowie Hülsen- und Ölfrüchte angebaut.

In Südostasien wurden riesige Regenwaldflächen in Ölpalmenplantagen umgewandelt. Zunächst hat man das naiven Europäern als Beitrag zum Klimaschutz verkauft, in der Zwischenzeit ist der Schwindel längst aufgeflogen, aber die Plantagen werden weiter ausgebaut, weil sich der Markt für Pflanzenöl günstig entwickelt hat.

Eine in der Öffentlichkeit weniger beachtete Umwandlung ist die Rodung von Naturwald für Holzplantagen. Im Urwald sterben die Bäume eines natürlichen Todes und ihr Holz ist oft morsch und von minderer Qualität. In Plantagen werden die Bäume, lange bevor sie altersschwach werden, geerntet. Durch Mechanisierung und Verwendung besonders wüchsiger Zuchtsorten, kann die Produktivität sehr wesentlich gesteigert werden. Auf der Strecke bleibt die Biodiversität, weil nur einige wenige Baumarten, wie Eukalyptus-, Akazien- oder Kiefernarten verwendet werden. Auch auf diesem Sektor hat massiv steigende Nachfrage an Holz für die Papier- und Zellstoffindustrie, insbesondere aus China und Indien, zu stark steigenden Investitionen in Forstplantagen geführt. Die WBCSD (World Business Council for Sustainable Development) sagt bis 2050 weltweit eine Verdreifachung der Holzplantagenflächen voraus. (http://www.internationalforestindustries.com/2011/05/23/fierce-competition-over-worlds-wood-supply/).

In Mitteleuropa haben sich Forstbetriebe nach der durch die Industrialisierung ausgelösten Energiekrise des 19. Jahrhunderts und der Ablöse des Holzes durch Kohle, Erdöl und Erdgas als thermische Energieträger zu Veredelungsbetrieben entwickelt, die darauf spezialisiert sind, den Zuwachs an Holzbiomasse in möglichst wertvolle Holzsortimente umzuwandeln. Ob unsere hochentwickelte, naturnahe Forstwirtschaft langfristig dem Trend zu vollmechanisierten Plantagen raschwüchsiger Baumarten widerstehen kann, wird sich zeigen. Massive Subvention von Energieholz nach Fukushima könnte den Trend verstärken, denn Forstbetriebe sind letztendlich auch nur Wirtschaftsbetriebe, die am Ende Ausgaben für die Waldbewirtschaftung mit den Erlösen vergleichen. Natürlich wird die Nachhaltigkeit der forstlichen Produktion weiterhin beachtet werden, aber negative Auswirkungen auf die Biodiversität, den Erholungswert und den Wasserhaushalt wird man wohl in Kauf nehmen müssen.

Erschließung anderer Böden durch Trockenlegung oder Bewässerung

Wie steht es um Möglichkeiten, andere als Waldböden für die Befriedigung des Hungers nach Biomasse der weiter wachsenden und anspruchsvoller werdenden Weltbevölkerung zu erschließen? Sieht man von den Permafrostböden und den Böden mit schwer änderbaren chemischen Problemen ab, sind die größten Tortenstücke im FAO-Kuchen die zu trockenen Böden (28%), die zu seichten Böden (22%) und die zu nassen Böden (10%).

In Mitteleuropa war die Entwässerung von Mooren ein probates Mittel, um der Landwirtschaft bislang nicht genutztes Land zu erschließen. Das Oderbruch, unter dem preußischen König Friedrich II. im 16. Jahrhundert entwässert und urbar gemacht, ist ein klassisches Beispiel für erfolgreiche technische Maßnahmen zur Erschließung von Neuland für die wachsende Bevölkerung mit militärisch strategischer Perspektive. Die Trockenlegung von Feuchtgebieten wurde in Mitteleuropa bis nach dem Zweiten Weltkrieg gefördert.

Heute weiß man, dass dabei riesige Mengen an CO2 freigesetzt wurden, der Landschaftswasserhaushalt oft massiv verschlechtert und die Biodiversität sowie der Erholungswert extrem geschmälert wurden. Daher erfolgte in den letzten Jahrzehnten oft ein Rückbau der Drainagen, und nicht zuletzt aus Klimaschutzgründen ist die Trockenlegung von Sümpfen zur Zeit kein Thema und wird auch in Entwicklungsländern international kaum gefördert.

Ganz anders sieht es hinsichtlich der trockenen Böden aus. Weltweit werden Bewässerungsprojekte gefördert und es gibt eine starke Zunahme der bewässerten Agrarflächen. Die FAO berichtet, dass während der vergangenen vier Jahrzehnte die künstliche Bewässerung den wesentlichsten Beitrag zur Steigerung der Nahrungsmittelproduktion leistete. Gegenwärtig werden 30 bis 40 Prozent der global konsumierten Nahrungsmittel auf bewässertem Land erzeugt. Während der vergangenen 50 Jahre hat sich die Fläche an Agrarland, das bewässert wird, verdoppelt (http://www.paristechreview.com/2011/03/03/hungry-land-potential-availability-arable-land-alternative-uses-impact-climate-change/). Bodenbewässerung mit Wasser aus Gletscherregionen in NeuseelandAbbildung 3. Bodenbewässerung mit Wasser aus Gletscherregionen in Neuseeland.

Ein neuerer Trend ist die Bewässerung von Weideland, wie sie beispielsweise in Neuseeland (Google Bild) betrieben wird. Mit Wasser aus Gletscherregionen kann sommerliche Trockenheit überbrückt werden, und für den Ackerbau zu seichtgründige Böden können bewässert und als Weideland genutzt werden. Tiefgründigere Böden im selben Bewässerungssystem können für den Anbau von Mastfutter genutzt werden.

Ein kritisches Problem wird in Zukunft der Rückgang der Gletscher im Gefolge der globalen Erwärmung sein. Bestehende Probleme sind die Verminderung der sommerlichen Wasserführung der Flüsse und die Grundwasserverschmutzung durch Düngemittel und Agrarchemikalien.

Besonders bedenklich ist die nicht nachhaltige Nutzung von Grundwasser für die Bewässerung von Ackerland. In vielen Gegenden der Welt, insbesondere in Nordafrika, in Indien und in Arabien wird Grundwasser aus dem Boden gepumpt, das durch Niederschläge nicht oder nicht hinreichend ergänzt wird. Wasser ist unter diesen Bedingungen genauso erschöpflich wie Erdöl. Bevölkerungswachstum, das sich auf begrenzte und zu Ende gehende Grundwasserreserven stützt, verschiebt derzeit unlösbare Probleme in die Zukunft und verstärkt sie. Defizite in der Grundwasserneubildung sind aber auch in Teilen Europas ein Problem und müssen in der Diskussion über die Steigerung der Biomasseproduktion zur Absicherung der Energieversorgung berücksichtigt werden.

Zusammenfassend ist festzuhalten, dass die Ressource „Boden“, als Grundlage der Biomasseproduktion auf dem Festland ein kritischer Engpass für die Ernährung der wachsenden Weltbevölkerung und deren Versorgung mit pflanzlichen Rohstoffen geworden ist. Wir sind tatsächlich dabei, den Boden unter den Füßen zu verlieren. Über Biomasse aus der Retorte oder aus den Meeren nachzudenken ist geboten, auch wenn sich befriedigende Lösungen noch nicht klar abzeichnen.


Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.


 

Redaktion Tue, 28.06.2011 - 12:00