2013

2013 Redaktion Wed, 20.03.2019 - 01:02

Der ScienceBlog zum Jahreswechsel 2013/2014

Der ScienceBlog zum Jahreswechsel 2013/2014

Fr, 27.12.2013 - 15:57 — Redaktion

Kaleidoskop “The distinctive character of our own time lies in the vast and constantly increasing part, which is played by natural knowledge. Not only is our daily life shaped by it, not only does the prosperity of millions of men depend on it, but our whole theory of life has long been influenced, consciously or unconsciously, by the general conceptions of the universe, which has been forced upon us by physical science.” Aus: Thomas H. Huxley (1882), Science and Culture

Abb.: Kaleidoskop; Artwork von Eric Taylor zum Debut-Album »Blue Siberia« des Rock-Trios »Star FK Radium«.

Dem obigen Zitat des britischen Biologen und Verfechter der Darwin’schen Evolutionstheorie T. H. Huxley merkt man wohl nicht an, dass es bereits 131 Jahre alt ist. Naturwissenschaften – ihre Grundlagen und Anwendungen – nehmen bei Huxley einen ungeheuer hohen Stellenwert ein, sie formen Leben und Weltbild des Einzelnen, wie das ganzer großer Gesellschaften.

Der Stellenwert der Naturwissenschaften in Österreich

Es erübrigt sich festzustellen, dass unser heutiges Leben in einem noch viel höherem Maße durch Naturwissenschaften und Technik geprägt ist. Dennoch begegnen weiteste Bevölkerungsschichten in unserem Land diesen Wissenszweigen mit Verständnislosigkeit, Desinteresse und Ablehnung, stufen sie bestenfalls als irrelevant für ihr eigenes Leben ein [1,2]. Der minimale Stellenwert, der bei uns der Wissenschaft ganz allgemein zugewiesen wird, kommt aktuell auch in der Ressortaufteilung des neuen Regierungsprogramms zum Ausdruck, in der blamablen Einsparung eines eigenständigen Ministeriums für Wissenschaft und Forschung (siehe auch unseren vorwöchigen Artikel „Quid pro quo?“[3]). Rot-schwarzes Schachbrettdenken hat es nicht erlaubt, Wissenschaftsagenda, Grundlagen- und Angewandte Forschung, die über zahlreiche Ministerien, insbesondere dem Ministerium für Verkehr, Innovation und Technologie, verstreut sind, in einem einzigen Wissenschaftsministerium zu bündeln. Damit ist wohl für die nächsten Jahre die Chance vertan, eine zeitgemäße Struktur der Forschungsagenda zu etablieren, in der die Förderungen von Projekten transparent, leistungsbezogen und dennoch ressourcenschonend vergeben werden.

Fehlende Bildungsstandards…

Der niedrige Stellenwert der Wissenschaft, vor allem der Naturwissenschaften, wird aber auch aus den „Bildungsplänen“ für die heranwachsende Jugend ersichtlich, aus der Wissenschaftsberichterstattung und -kommunikation für die Erwachsenen:

In Schulen existieren nach wie vor keine Bildungsstandards für Naturwissenschaften, darüber, was ein Pflichtschulabgänger, was ein Absolvent der AHS wissen sollte (siehe Bifie Bildungsstandards). In den Lehrplänen der Oberstufen sind naturwissenschaftliche Fächer nicht nur unterrepräsentiert, die Unterrichtsstunden wurden, trotz einem enorm angestiegenen Wissen, gegenüber früher gekürzt.

…und Mangel an seriöser, leicht verständlicher Information für Erwachsene…

Ihre rudimentären naturwissenschaftlichen Kenntnisse können Schulabgänger als Erwachsene aber kaum noch verbessern. Prinzipiell wäre Information aus den Massenmedien zu beziehen, vor allem aus dem Fernsehen, aber auch aus den Printmedien und in steigendem Maße aus dem Internet. Dem steht entgegen, dass in den ersten beiden Medien Unterhaltungswert und Befriedigung der Sensationsgier oberste Priorität besitzen, wenig quotenbringende Wissenschaftsberichte zumeist an unterster Stelle rangieren: In den Jahren 2009 bis 2012 hat der ORF die Sendezeit für „Wissenschaft und Bildung“ von 303 Stunden auf 214 Stunden (1,22 % der gesamten Sendezeit) reduziert, zugunsten eines erhöhten Angebots an Unterhaltung (46 %) und Sportsendungen (6,8 %). (Quelle: ORF-Jahresberichte). In den Printmedien führen überhaupt nur wenige Tageszeitungen eine Wissenschaftsrubrik – komplexe Sachverhalte werden aber auch hier häufig nicht allgemein verständlich dargestellt und sind zum Teil auch nicht ausreichend recherchiert.

Das Internet weist wohl ein ungeheures Wissensangebot auf; seriöse, leicht verständliche Information ist aber nicht einfach zu finden. Ein Großteil der Videos auf Youtube, aber auch viele Diskussionsplattformen und auf den ersten Blick seriös wirkende Webseiten, erweisen sich bei näherem Ansehen als zu wenig verständlich oder krass pseudowissenschaftlich. Die eigentliche Fachliteratur in ihrem „fachchinesisch“ erscheint auch für interessierte Laien natürlich weitestgehend unverständlich.

…führen über Unwissen zu Verunsicherung und Ablehnung

Unsere Gesellschaft besteht schon zum Großteil aus Menschen, die den Naturwissenschaften – und hier vor allem der Chemie – äußerst ablehnend gegenüberstehen. Befürchtungen hinsichtlich Gefahren, die in Lebensmitteln, Trinkwasser, Umwelt, Kosmetika, Arzneimittel und vielem anderen lauern, werden hier vor allem auch durch die Medien (und NGO’s) geschürt und führen zu beinahe schon irrationalen Ängsten. Eine adäquate, durchaus kritische Auseinandersetzung mit den zugrunde liegenden Problemen ist aber kaum möglich, da ja erforderliche Grundkenntnisse fehlen

Der ScienceBlog

Mit dem ScienceBlog streben wir an:

„Laien über wichtige naturwissenschaftliche Grundlagen und Standpunkte zu informieren, deren Grenzen in kritischer Weise abzustecken, Vorurteilen fundiert entgegenzutreten und insgesamt, in der Form eines zeitgemäßen Diskussionsforums, das zur Zeit leider sehr geringe, allgemeine Interesse an Naturwissenschaften zu steigern“.

Ein Kaleidoskop der Disziplinen…

Der ScienceBlog unterscheidet sich von anderen Wissenschaftsblogs dadurch, dass er nicht nur ein spezielles Fachgebiet darstellt, sondern transdisziplinären Charakter besitzt, die Naturwissenschaften in ihrer ganzen Breite umspannt. Er inkludiert also Physik, Geowissenschaften, Weltraumforschung, Chemie, Biologie bis hin zur molekularen Pharmakologie und Medizin. Ebenso sind Mathematik/Informatik als Grundlage und Gebiete, die auf Naturwissenschaften basieren, vertreten. Dazu kommen wissenschaftspolitische Artikel hinsichtlich naturwissenschaftlicher Bildung, Forschung und deren Förderung – mit speziellem Fokus auf die Situation in Österreich.

Damit entspricht der Blog der transdisziplinären Natur der meisten real existierenden Fragestellungen und ermöglicht deren Diskussion von der Warte verschiedener Fachrichtungen aus. Beispielsweise kommt ja die moderne Medizin („science-based medicine“) heute nicht mehr ohne Biochemie und Molekularbiologie aus, erfordert die Suche nach neuen Arzneimitteln ein breites Spektrum an Disziplinen, unter anderem die analytische und synthetische Chemie, die Strukturchemie, Biochemie, Molekularbiologie, der Informationstechnologien, Computermodellierungen und natürlich pharmazeutische Wissenschaften und medizinische Grundlagen.

Aktuelle Ansätze in den Naturwissenschaften benutzen Wissen und Technologien aus unterschiedlichsten Disziplinen und setzen diese kaleidoskopartig zu immer neuen Strukturen, zu immer neuen Anwendungen, zusammen. Dies gilt insbesondere für das Bestreben, die überaus komplexen Zusammenhänge von Systemen, wie beispielsweise von Zellen, Organen und ganzen Organismen in einer holistischen (systemtheoretischen) Weise zu beschreiben, das heißt, in ihrer Dynamik und unter Einbeziehung aller möglichen Wechselwirkungen. (Ein derartiger, äußerst aufwändiger Ansatz (beispielsweise der Systembiologie, Systempharmakologie,...) konnte natürlich erst auf der Basis der heute verfügbaren Möglichkeiten der Datenspeicherung und Datenverarbeitung ins Auge gefasst werden.) Ein Paradebeispiel stellt hier auch die als Leitwissenschaft des 21. Jahrhunderts apostrophierte „Synthetische Biologie“ dar.

…erfordert ein Kollektiv kompetenter Autoren

Wenn die Inhalte der Artikel durchwegs „state of the art“ sein sollen, fundierte wissenschaftliche Ergebnisse und Schlussfolgerungen aufzeigen sollen, können sie zweifellos nicht von einem einzelnen Blogger stammen. Der ScienceBlog hat es sich zur Aufgabe gemacht, international ausgewiesene (vorwiegend aus Österreich stammende) Experten als Autoren zu rekrutieren, die jeweils aus ihren Fachgebieten in leicht verständlicher, deutscher Sprache schreiben. Der Blog stellt also „Wissenschaft aus erster Hand“ dar. Damit unterscheidet sich unser Blog grundlegend von anderen naturwissenschaftlichen Blogs im Ausland, die häufig von einem einzelnen Blogger betreut werden und sich auf ein einzelnes Fachgebiet beschränken.

Der ScienceBlog 2013

Der ScienceBlog – vor zweieinhalb Jahren ins Leben gerufen – hat vor neun Monaten einen Relaunch erfahren und ist auf eine neue, eigene Webseite umgezogen [4]. Alle bis dahin erschienenen wissenschaftlichen Artikel wurden bereits auf die neue Seite übernommen – sie haben ja noch nichts an Gültigkeit der Information und der Aussagen eingebüßt.

Mit der Erscheinungsfrequenz 1 Artikel/Woche liegen bis jetzt Insgesamt 125 Artikel vor, die von 46 Autoren stammen. Zu den einzelnen Artikeln gibt es meistens weiterführende Links (seriöse, leicht verständliche Literatur und – wo immer möglich – Videos), die auch gepflegt werden.

Mit großer Freude können wir berichten, dass seit dem Relaunch die Zugriffszahlen zu unserem Blog stark ansteigen, dass wir in der Google-Bewertung („PageRank“) unserer Seite ein '7/10' erhalten haben – eine Bewertung, die bis jetzt nur sehr wenige Wissenschaftsblogs erzielten (z.B. das amerikanische Format: Science-Based-Medicine, nicht aber die großen deutschen Blog-Portale SciLogs.de oder ScienceBlogs.de).

Vision: ScienceBlog 2014

Unseren Blog wollen wir zu etwas Einzigartigem in der Blogosphäre gestalten.

Zur Zeit gruppieren wir die einzelnen Artikel nach Themenschwerpunkten (siehe z.B. die Schwerpunkte „Synthetische Biologie“ und „Klima & Klimawandel“) und erstellen zu allen Artikeln Schlagwortlisten. Dies gibt die Möglichkeit, auf alle Artikel zurückzugreifen, ein Thema von den Gesichtspunkten unterschiedlicher Disziplinen aus zu betrachten und (hoffentlich auch) zu diskutieren.

Es entsteht somit eine blogweite Informations- und Diskussions-Plattform über das gesamte Spektrum der Naturwissenschaften auf dem durch unsere Autoren garantierten höchsten Niveau! Ein neues Format, das über Themenschwerpunkte ein Vorgehen nach Art eines e-Books erlaubt, darüber hinaus aber die Möglichkeit einer breiten Diskussion bietet. In diesem Sinne

Ein Prosit Neujahr!

Allen unsere Autoren, denen wir herzlich für Ihre brillanten, wertvollen Artikel danken, die den ScienceBlog zu einer neuen Form der fächerübergreifenden Kommunikation zwischen Wissenschaft und Öffentlichkeit machen .

Allen unseren Besuchern, denen wir auch im neuen Jahr faszinierende Berichte über die Natur in uns und um uns versprechen. Wir hoffen, dass Sie uns auch in Ihrem Freundes- und Bekanntenkreis weiterempfehlen!


Siehe auch [1] Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

[2] Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden? [

3] Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

[4] ScienceBlog in neuem Gewande — Kontinuität und Neubeginn


 

inge Fri, 27.12.2013 - 15:57

Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

Fr, 20.12.2013 - 05:40 — Redaktion

Icon Politik & GesellschaftIn ihrem ScienceBlog-Artikel „Wissenschaftskommunikation in Österreich und die Rolle der Medien“ haben Josef Seethaler und Helmut Denk vor wenigen Wochen den alarmierend niedrigen Stellenwert beklagt, den Wissenschaft und Forschung in unserem Land haben: die Mehrheit der Österreicher (fast doppelt so viele wie im EU-Durchschnitt) betrachtet diesbezügliche Informationen als irrelevant für ihr tägliches Leben, weniger als die Hälfte stimmt einer Unterstützung der Grundlagenforschung durch die öffentliche Hand zu.

Hier wie dort bildet Österreich das Schlusslicht unter den Staaten der Europäischen Union. Wenn es noch eines weiteren Beweises für diese von Ignoranz und Desinteresse getragene Auffassung von Wissenschaft bedurft hätte, so bietet diesen die Ressortaufteilung des neuen Regierungsprogramms: die Einsparung eines eigenständigen Ministeriums für Wissenschaft und Forschung und die Zuordnung seiner Agenda zum Wirtschaftsministerium.

Was aber wird hier eingespart,

wenn der nun auch für Wissenschaft zuständige Minister Mitterlehner im Ö1-Morgenjournal vom 17.12. 2013 darlegt „da bleibt das Ministerium komplett gleich, was also die Abteilungen anbelangt, was die Sektionen betrifft, was aber auch die Spitzenbeamten anbelangt; es bleibt jeder in seinem Bereich jeder an seinem Arbeitsplatz“? Es kann doch wohl nicht nur um die Einsparung des Salärs des Wissenschaftsministers gehen!

Was bietet ein gemeinsames Dach mit dem Wirtschaftsministerium?

Dazu Mitterlehner: „es wird hier nur organisatorisch eine gemeinsame neue Führung gestaltet und ein neuer Anspruch auch erhoben, der sich auf die Forschung bezieht. Die EU hat all ihre Programme auf die Innovationskette ausgerichtet, von der Grundlagenforschung über die angewandte Forschung bis zu den Unternehmen hin. Und genau diese Synergiepotentiale, die bessere Effizienz, die verstärkte Effizienz wollen wir auch im Bereich Forschung leben.“

Dies ist die durchaus verständliche Sprache eines Wirtschaftsministers, der ja die Interessen von Industrie-, Gewerbe- und Tourismusbetrieben vertritt. Dies klingt ganz nach zielorientierter, angewandter Forschung, nach Lösungsansätzen für vorgegebene Probleme, deren Erfolge „unmittelbar“ meßbar/brauchbar sind. Die erkenntnisorientierte Grundlagenforschung läßt sich nicht in diesen Rahmen pressen, ist ja eine Reise ins Neuland. Gerade ihre Ergebnisse sind aber die Basis für Innovationen, für entscheidende Durchbrüche nicht nur in Hinblick auf eine prosperierende Wirtschaft eines Landes, sondern auch für das Wohlergehen unserer Gesellschaft und der unserer Nachkommen.

Das Regierungsprogramm gibt vor, daß in den nächsten fünf Jahren Bundesmit­tel zur Anhebung der Forschungsquote verfügbar gemacht werden sollen – allerdings mit dem Zusatz „unter Maßgabe budgetärer Möglichkeiten“. Angesichts limitierter Ressourcen und eines starken Druckes zur Unterstützung der durch das Wirtschaftsministerium vertretenen forschenden Unternehmen (Motto: Sicherung von Arbeitsplätzen, Wirtschafts“entfesselung“), werden ökonomische Überlegungen einer schnell verwertbaren angewandten Forschung und Technologieentwicklung wohl den Vorzug geben vor einer (in den Augen vieler Beurteiler vielleicht nutzlosen) Grundlagenforschung.

Für ein unabhängiges Wissenschaftsministerium!

Wissenschaft und Forschung werden im Regierungsprogramm als elementare Stützen der gesamtstaatlichen Entwicklung Österreichs und seiner Potentiale gesehen und sollen langfristig abgesichert werden. Wenn dazu Rahmenbedingungen und strukturelle Voraussetzungen bestmöglich, wettbewerbsfähig und zukunftsorientiert gestaltet werden müssen, so ist dies wohl am zielstrebigsten in einem eigenen Ministerium, unter Führung eines mit dem akademischen Forschungsbetrieb bestvertrauten Leiters, zu bewerkstelligen. Die Nachordnung unter (vorwiegend) ökonomische Interessen schadet der Wissenschaft und den Wissenschaftern, ist eine Geringschätzung der wichtigsten Ressource, die unser rohstoffarmes Land aufzuweisen hat.


Weiterführende Links

Im ScienceBlog

Josef Seethaler & Helmut Denk; 31.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

Josef Seethaler & Helmut Denk; 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

Franz Kerschbaum; 13.10.2011: Die Wissenschaftler sind ja selbst schuld

Peter Schuster; 08.09.2011: Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

Peter Schuster; 11.08.2011: Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

Peter Schuster; 21.07.2011: Grundlagenforschung in Österreich: Erkennen von Exzellenz

Peter Schuster; 03.07.2011: Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

Initiativen

Österreich braucht ein WIssenschaftsministerium

Für die Einführung des Ministeriums für Wissenschaft und Forschung

Ein eigenständiges Wissenschaftsministerium für Österreich


 

inge Fri, 20.12.2013 - 05:40

Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

Fr, 13.12.2013 - 06:19 — Gottfried Schatz

Icon BiologieGottfried SchatzAuch im Tierreich gibt es nicht nur Heterosexualität. An der Fruchtfliege Drosophila lässt sich das gut studieren. Gegenüber voreiligen Schlüssen vom tierischen auf das menschliche Sexualleben ist allerdings Skepsis angebracht.

«Wenn jemand beim Knaben schläft wie beim Weibe, die haben einen Greuel getan und sollen beide des Todes sterben; ihr Blut sei auf ihnen.» Der Nachhall dieses fast drei Jahrtausende alten biblischen Donnerworts aus Levitikus 20 ist auch heute noch nicht verstummt. Und da es auch die Liebe zwischen erwachsenen Männern verbot, hat es unzähligen von ihnen das Lebensglück geraubt. England liess noch 1835 Homosexuelle hinrichten; Hitlers Schergen deportierten und ermordeten Zehntausende von ihnen; und der berüchtigte Paragraf 175 des preussischen Strafrechts ahndete «Ausschweifung gegen die Natur» bis ins Jahr 1969. Erst 1997 setzte die Europäische Gemeinschaft im Vertrag von Amsterdam der gesetzlichen Ächtung homosexueller Menschen ein Ende. Auch die Zeit, als Psychiater Homosexuelle zu «heilen» versuchten, ist wohl endgültig vorbei.

Gene und/oder Umwelt?

Was bewegt Menschen zur gleichgeschlechtlichen Liebe? Sind es unsere Gene – oder ist es die Umwelt?

Dass Gene eine wichtige Rolle spielen, zeigen Untersuchungen an Zwillingsbrüdern: Ist einer von ihnen homosexuell, dann ist die Wahrscheinlichkeit, dass es auch der andere ist, bei eineiigen (also genetisch identischen) Zwillingen etwa doppelt so hoch wie bei zweieiigen – und bei diesen wiederum doppelt so hoch wie bei nichtverwandten adoptierten Brüdern. Diese und andere Ergebnisse sprechen dafür, dass mehrere Gene im Spiel sind, dass auch die Umgebung eine Rolle spielt und dass es zwischen Hetero- und Homosexualität viele Zwischentöne gibt. Wir Menschen sind nur ein später Zweig am Lebensbaum – es finden sich urtümliche Vorläufer unseres Verhaltens oft in Tieren oder sogar Bakterien.

Die Fruchtfliege Drosophila als Modell

Nicht zuletzt gilt dies auch für sexuelles Verhalten. Bei der Fruchtfliege Drosophila melanogaster (Abbildung) ist dieses Verhalten streng stereotyp, weil dieses kleine Insekt nur hunderttausend Nervenzellen besitzt – lächerlich wenig im Vergleich zu den zehn Milliarden Nervenzellen eines Menschen. Dennoch ist auch bei Drosophila die Werbung Männersache – und das letzte Wort ein Vorrecht des Weibchens. Und auch bei Drosophila interessieren sich einige Männchen sowohl für Weibchen als auch für Männchen.

Drosophila melanogasterAbbildung. Drosophila melanogaster – Männchen und Weibchen (Bild: Sarefo, Wikimedia Commons)

Genmutationen aber auch Medikamente verändern sexuelles Verhalten

Dieses bisexuelle Verhalten lässt sich durch Mutation einzelner Gene so verstärken, dass fast jedes Männchen beide Geschlechter mit gleicher Inbrunst umwirbt. Zwei dieser Gene entfalten ihre Wirkung bereits während der embryonalen Entwicklung, bei der sie Hunderte, wenn nicht Tausende untergeordneter Gene und damit die geschlechtsspezifische Ausbildung des Gehirns und anderer Körperteile steuern.

Ein weiteres Gen erhöht die Konzentration des Nervensignalstoffs Glutamat im Gehirn und erhöht damit die Reizschwelle gewisser Nervenzellen, die geschlechtsspezifische Gerüche verarbeiten. Fällt dieses Gen durch Mutation aus, so sinkt die Glutamatkonzentration im Gehirn, die Glutamat-spezifischen Nervenzellen werden überempfindlich – und melden dann vielleicht nicht nur weibliche, sondern auch männliche Düfte als sexuellen Anreiz. Deshalb können auch Medikamente, die Glutamat-spezifische Nervenzellen künstlich anregen, in normalen Fliegen bisexuelles Verhalten auslösen.

Attraktion zwischen Männchen wird aber offenbar auch von Nerven mitbestimmt, die auf das Gehirnhormon Serotonin ansprechen: Erhöht man die Konzentration dieses Hormons genetisch oder durch Medikamente, so werden nicht nur männliche Fliegen, sondern auch Rattenmännchen und Kater bisexuell.

Fliegenweibchen sind in ihrer sexuellen Vorliebe offenbar viel gefestigter, denn ihre kompromisslose Vorliebe für das «starke Geschlecht» liess sich bisher weder durch Medikamente noch durch Mutation von Genen ins Wanken bringen. Allerdings sind Untersuchungen zur sexuellen Neigung der Weibchen viel schwieriger durchzuführen als bei den Männchen; die Weibchen könnten also noch für Überraschungen sorgen.

Ein neues Gen unterdrückt Bisexualität

Im Gegensatz zu Drosophila melanogaster ist bei vielen anderen Drosophila-Arten männliche Bisexualität häufig oder gar die Regel. Warum «duldet» die Natur dieses Verhalten, obwohl es nicht der Fortpflanzung dient? Drosophila melanogaster schneiderte vor zwei bis drei Millionen Jahren aus Teilen ihres Erbmaterials ein neues Gen, das die Männchen auf Weibchen fixiert. Pflanzt man dieses Gen Männchen anderer Drosophila-Arten ein, unterdrückt es auch deren Bisexualität.

Auch eine Überzahl bisexueller Mutanten kann in «normalen» Drosophila-melanogaster-Männchen bisexuelles Verhalten auslösen. Diese Männchen folgen dabei offenbar nicht instinktiv einem aphrodisischen Duftbefehl ihrer bisexuellen Artgenossen, sondern ändern ihr sexuelles Verhalten erst im Verlauf von Stunden. Vermutlich müssen sie erst ihr Nervensystem oder andere Körperteile «umprogrammieren». Auch die Umwelt kann also bisexuelles Verhalten auslösen, wobei es noch offen ist, ob dieses erworbene Verhalten an die männlichen Nachkommen vererbt werden kann. Denkbar wäre dies, denn Umwelteinflüsse können die Struktur von Chromosomen so verändern, dass diese Veränderungen an die Nachkommen weitergegeben werden. Selbst für Fliegen sind Gene also nicht immer Schicksal.

So faszinierend diese Ergebnisse auch sind – über die menschliche Homosexualität verraten sie uns nur wenig. Bisexualität ist nicht Homosexualität – und eine Fliege kein Mensch. Gene beeinflussen zudem das Verhalten von Fliegen und Menschen nicht unmittelbar, sondern über den Bau von Körperstrukturen, die dem Verhalten zugrunde liegen; und sie erfüllen diese Aufgabe meist als komplexe, aus vielen Genen gewirkte Netzwerke. Wir haben zwar die Buchstabenfolgen aller dreizehntausend Drosophila-melanogaster-Gene entziffert, kennen aber erst wenige, die das Paarungsverhalten der Fliege mitprägen. Bei uns Menschen ist das Rätsel noch weit grösser, besitzen wir doch zweimal mehr Gene und hunderttausendmal mehr Nervenzellen als Drosophila. Zudem können wir auch die Anweisungen unserer Gene viel freier interpretieren und unser Gehirn im Wechselspiel mit der Umwelt viel individueller prägen.

Verschlungene Pfade

Es wäre deshalb töricht und verantwortungslos, Bi- oder Homosexualität bei uns Menschen einfach als genetischen Imperativ abzutun – oder aber den Einfluss von Genen zu leugnen und die Ursache allein der Umwelt zuzuschreiben. Dass Gene menschliche Homosexualität mitbestimmen, steht ausser Zweifel, doch auch hormonelle Einflüsse während der embryonalen Entwicklung scheinen eine wichtige Rolle zu spielen. Und da der Hormonstoffwechsel einer werdenden Mutter – und damit auch der des Embryos – auf Umwelteinflüsse anspricht, werden die molekularen Auslöser menschlicher Homosexualität wohl noch lange im Dunkeln bleiben.

Der Pfad von den Genen zum Verhalten ist bei uns Menschen verschlungener und wundersamer als bei Tieren und führt uns oft zu unerwarteten Ergebnissen. Wer wagte da zu behaupten, eines dieser Ergebnisse sei bei Tieren natürlich, bei uns Menschen jedoch «Sünde wider die Natur»? Dieser Sünde macht sich nur schuldig, wer uns nicht als Teil des Lebensbaumes, sondern als einmaliges Wunder der Schöpfung sieht. «Überall also liegen Vorbilder der menschlichen Handlungsweisen, in denen das Tier geübt wird; [. . .] sie [. . .] dennoch als Maschinen betrachten [zu] wollen, ist eine Sünde wider die Natur» – so Johann Gottfried Herder, vor mehr als zweihundert Jahren.


Weiterführende Links

Ein hervorragender Übersichtsartikel zu dem Thema (in Englisch): Bailey NW, M.Zuk: Same-sex sexual behavior and evolution. Trends in Ecology & Evolution, June 16, 2009 (free download) http://www.thestranger.com/images/blogimages/2009/09/14/1252958575-evolu...

Schwule Tiere"Missbrauch durch die Politik" : http://www.zeit.de/online/2008/22/homosexualitaet-tiere-interview/komple.... Zeit Interview: Gut 500 Tierarten verhalten sich homosexuell. Rückschlüsse auf den Menschen lassen sich daraus aber kaum ziehen, sagt Verhaltensforscher Paul Vasey

Der im Artikel angesprochene »Baum des Lebens« ist durchaus mehr als ein geflügeltes Wort. Wer an langen Winterabenden gerne herumschmökert, wird hier fündig: Tree of Life Web Project

 

Im ScienceBlog-Artikel Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind erläutert Schatz, inwiefern die Gene zwar wichtig, aber nicht allesbestimmend für die Ausprägung bestimmter Merkmale sind.


 

inge Fri, 13.12.2013 - 06:19

Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

Fr, 06.12.2013 - 07:38 — Christian Noe

Icon ChemieChristian NoeVor wenigen Tagen fand die Verleihung des Ignaz-Lieben Preises statt. Dieser prestigeträchtige, älteste Preis der Österreichischen Akademie der Wissenschaften wurde 1863 gestiftet und 1938 auf Grund der Verfolgung der Stifterfamilie eingestellt. Durch großzügige finanzielle Unterstützung von Isabel und Alfred Bader konnte der Preis 2004 reaktiviert werden. Der Chemiker Christian Noe war essentiell in diese Reaktivierung involviert; der nachfolgende Text ist die leicht gekürzte Fassung seines Vortrags zum heurigen 10-Jahresjubiläum der Preisvergabe.

Unser Dasein scheint kontinuierlich dahinzufließen, manchmal gemächlich, manchmal in reißendem Fluss. Ganz selten sind jene besonders intensiv erlebten Momente, welche sich bildhaft im Kopf festsetzen - manchmal für die Dauer des ganzen Lebens. Von einige wenigen solcher unvergesslicher Momente soll hier die Rede sein, um das scheinbar zufällige Zustandekommen und den Ablauf des Lieben-Projektes zu schildern, das seinen Höhepunkt in der Wiedererrichtung des Ignaz-Lieben Preises vor 10 Jahren fand.

Das Ignaz-Lieben Projekt ist ganz eng mit Alfred Bader verknüpft, jenem Mann der - als Kind aus Wien vertrieben - in einer schier unglaublichen Karriere das weltweit größte Feinchemieunternehmen geschaffen hat: Sigma-Aldrich. Es gibt kaum ein chemisches oder biologisches Labor in der Welt, in welchem sich nicht ein Katalog dieser Firma findet.

Alfred Bader und das Loschmidt-Projekt

Alfred Bader habe ich vor etwa 30 Jahren durch meinen Mentor Paul Löw-Beer kennengelernt.

Alfred BaderAbbildung 1. Alfred Bader (Quelle: http://www.chemheritage.org)

Einige Jahre später hat mich Alfred Bader gebeten in der Österreichischen Nationalbibliothek jenes weithin unbekannte Buch von Josef Loschmidt aus dem Jahre 1861 aufzustöbern, in welchem die erste Benzolformel abgebildet sein sollte [1]. Als ich das Buch aufschlug war ich perplex: Eine Abbildung des Äthylens war vor meinen Augen, dargestellt als Überlappung zweier Kohlenstoffatome, mit eingezeichneter Doppelbindung und den kleinen Wasserstoffatomen an den richtigen Positionen (siehe [2]: p. 198) – ein unvergesslicher Moment: Das sollte 1861 gezeichnet gewesen sein, lange bevor es auch nur die üblichen Strichformeln gab? Sei´s drum! Ich schickte die Kopien in die USA und Alfred Bader hielt – mit mir als Koautor - einen Vortrag bei der Jahrestagung der Amerikanischen Chemischen Gesellschaft „Loschmidt, not Kekule, published first benzene-ring diagrams“. Dies war der Beginn eines langen, gemeinsamen Weges, der in die Chemiegeschichte führte und Josef Loschmidt zum Mittelpunkt hatte.

Der großartige Visionär Loschmidt stellte ein Faszinosum für den spontan bilderfassenden Eidetiker Alfred Bader dar [2]. Mir wiederum wurde durch diese Beschäftigung immerhin klar, weshalb Loschmidt seine Zahl errechnet hat [1], und dass er in der Vorbereitung dazu quasi nebenher in genialer Weise einen geradezu perfekten Entwurf zur Konstitution der organischen Moleküle vorgelegt hat.

Alfred Bader trieb mich beharrlich an und hielt Vortrag um Vortrag: Für ihn war das Ganze auch ein Kampf gegen die Borniertheit von Chemiehistorikern. Josef Loschmidt musste einfach die ihm gebührende Anerkennung erhalten. Das Anliegen beherrschte ihn. Loschmidt wurde so zum Loschmidt-Projekt. 1995 zum 100 jährigen Todesjahr sollte ein Symposium stattfinden.

Robert Rosners Weg zum Chemiehistoriker

Ein weiterer unvergesslicher Moment: Ich stand an der Ecke Ring-Währingerstrasse. Wegen meiner anstehenden Berufung an die Universität Frankfurt musste ich eine Lösung für das Loschmidt-Projekt finden. Wilhelm Fleischhacker, damals Dekan der Naturwissen-schaftlichen Fakultät hatte sich bereit erklärt, die Schirmherrschaft über das Projekt zu übernehmen. Aber wer würde die notwendige wissenschaftliche Detailarbeit koordinieren? In diesem Moment tauchte aus der Tiefe der Rolltreppe Dr. Robert Rosner auf, der engste und treueste Mitarbeiter von Paul Löw-Beer in der Loba-Chemie. War das gar ein „deus ex machina“?

„Wie geht es Ihnen?“

„Ich bin jetzt in Pension.“

„Was machen Sie jetzt?“ „Ich studiere Geschichte.“

„Sie sind ein ausgezeichneter Chemiker. Sie sollten Chemiegeschichte studieren. Es gibt da ein ganz tolles Projekt, noch dazu gemeinsam mit Alfred Bader“.

Rosner wurde ein Eckpfeiler des Loschmidt Symposiums 1995 und nebenher einer der profiliertesten österreichischen Chemiehistoriker.

Die Geburt des Lieben-Projekts

Ein nächster Moment, ca. 15 Jahre später: Zurückberufen in die Heimat, immer noch voller Sendungsbewusstsein und optimistischem Gestaltungswillen, hatte mich der Zufall zum Dekan der Fakultät für Naturwissenschaften und Mathematik der Universität Wien gemacht. Dr. Rosner besuchte mich im imperialen Büro:

„Haben Sie schon etwas vom Ignaz-Lieben Preis (Abbildung 2) gehört?“

„Nein!“

„Der größte Preis der Akademie der Wissenschaften, von den Nationalsozialisten abgeschafft [3]. Man müsste ein Symposium dazu machen. Das ist aber nicht einfach zu finanzieren.“

„Wen interessiert schon ein Symposium über einen nicht mehr existierenden Preis. Wenn schon, dann muss man den Preis wiedererrichten.“

Stiftungsbrief des Ignaz-Lieben Preis (rechts: Ignaz-Lieben)Abbildung 2. Ignaz-Lieben Preis (benannt nach dem Gründer des Bankhauses Lieben, rechts): Stiftungsbrief datiert 1862, signiert von Adolf Lieben.

Es kam spontan, von naivem Optimismus getragen. Das war der Beginn des Lieben-Projektes. Natürlich benötigten wir vor allem die Rückendeckung der Akademie der Wissenschaften. Peter Schuster, der damalige Vizepräsident, den ich persönlich kannte und als besonders konstruktiv schätzte, gab - wie erhofft - sofort die Zustimmung. Das Projektteam konnte aufgestellt werden.

Ein Kern von „Aktivisten“ hatte sich schon im Zuge des Loschmidt Projektes gebildet. Hans Desser konnten wir als Generalsekretär gewinnen. Dr. Wolfgang Lieben-Sutter vertrat die Stifterfamilie. Die Chemiehistoriker waren u.a. mit Bobby Rosner, Werner Soukup und Gerhard Pohl präsent, für journalistische Kontakte war Reinhard Schlögel zuständig.

Nicht nur der Preis selbst sollte wiedererrichtet werden. Es sollte auch Ausstellungen geben. Also fand sich auch Georg Haber, der Direktor des Jüdischen Museums, in unserer Runde. Die Ideen sprudelten nur so: Ein wissenschaftliches Symposium anlässlich der Eröffnung, künstlerische Portraits der Preisträger von Udo Wid, und sogar eine Lesung von Carl Djerassi.

Wer aber wird den Lieben-Preis finanzieren?

Wie immer im Juni, war Alfred Bader mit seiner Frau Isabel auch 2003 nach Wien gekommen. Wie üblich sollte es vor allem eine Woche des Beisammenseins mit alten Freunden und mit viel Kunst sein. Der Zufall wollte es, dass zeitgleich im Kleinen Festsaal der Universität eine Tagung stattfand: „Österreich und der Nationalsozialismus – Die Folgen für die wissenschaftliche und humanistische Bildung“. Bader ging mehrmals hin und war sichtlich beeindruckt. „Ich dachte, es gibt in Wien nur wenige anständige Freunde, der Rest verwurzelt in der braunen Vergangenheit. Aber die Jugend ist ganz anders. Ich will das Geld für die Wiederrichtung des Lieben-Preises geben.“

Er sagte das spontan mit leichtem Lächeln und kam mir glücklich und irgendwie befreit vor. Ein vertriebener Jude als Stifter des neuen Lieben-Preises, rückblickend fast beschämend, voraussehend ein anhaltendes Zeichen des Sieges der Humanität über alle Gemeinheit hinweg.

Ich musste Dr. Wolfgang Lieben-Seutter zum Kaffee nach Hause einladen. Alfred Bader, ganz schüchtern:

„Erlauben Sie mir, dass ich das Geld für einen Preis gebe, welcher wieder den Namen Ihrer Familie trägt?“

Ein Brautvater, den der Bräutigam mit einem Heiratsantrag für seine Tochter überrascht, konnte nicht verdutzter sein, als es Dr. Lieben war. Auch das: ein unvergesslicher Moment und Anblick – alle waren glücklich. Es galt noch einige Feinheiten festzulegen: Der Preis sollte über die Grenzen hinweg, auch in den anderen Ländern der ehemaligen Donaumonarchie, ausgeschrieben werden. Das Preisgeld sollte 18.000 Dollar – später 36.000 Dollar – betragen, wie beim alten Preis: Nicht ohne Grund: 18 - Chai: die Zahl, die bei den Juden für das Leben steht! Auch der Preis lebte wieder.

Die Wiedergeburt des Lieben-Preises

Die zahlreichen Veranstaltungen zur Wiedererrichtung verliefen wie geplant, samt einem Konzert im Wiener Konzerthaus. Beim Gespräch im Senatsaal der Universität trafen sich die beiden Schulkollegen Alfred Bader und Carl Djerassi – und redeten erstmals seit jener Zeit wieder in deutscher Sprache miteinander.

Der erste neue Lieben-Preis wurde an den ungarischen Neurophysiologen Zoltan Nusser verliehen. Isabel und Alfred Bader nahmen zufrieden und glücklich an der Veranstaltung teil. Im Englischen gibt es den Ausdruck der „good chemistry“ zwischen Menschen. Eine solche bestand zwischen den Ehepaaren Bader und Mang, dem damaligen Präsidenten der Akademie. Auch das erwies sich als gute Fügung.

und die Stiftung der Baderpreise

Die Wien-Besuche der Baders in den nächsten Jahren waren eine Zeit voller positiver Dynamik. In fast logischer Konsequenz wurden die beiden Bader-Preise nacheinander ins Leben gerufen:

  • Der Bader Preis für Geschichte der Naturwissenschaften, inspiriert durch die Loschmidt-Forschung und
  • der Bader Preis für Kunstgeschichte, getragen von dem Wunsch des Stifters und genialen Experten für Barockkunst, dass diese in der Stadt des Barocks auch umfassend gewürdigt werden sollte.

Bader - der Mäzen

Das Triptychon der von Bader gestifteten Preise – ein Zufall? „Als zufällig bezeichnen wir eine Sache nur, wenn wir ihre Ursache nicht kennen.“ hat schon Baruch Spinoza in den Ethika geschrieben.

Alfred Bader hat sein erfolgreiches Leben aus der Wissenschaft heraus entwickelt. Die Chemie hat ihm von Anfang an Halt gegeben und ihn zeitlebens begleitet. Der Lieben Preis soll daher den Besten ihres Faches den weiteren Berufsweg ebnen. Das war neben der großartigen Versöhnungsgeste sein eigentliches Motiv, das Preisgeld bereitzustellen.

In der Chemiegeschichte wiederum hat der Industrielle Alfred Bader in späten Jahren wieder zu eigener Forschungsarbeit gefunden, mit dem Ziel zur historischen Wahrheit zu gelangen, dabei Wesentliches aufzuzeigen und zugleich einem großen Wissenschaftler Gerechtigkeit widerfahren zu lassen. Dieser Preis soll vor allem auch jüngere Naturwissenschaftler motivieren, sich mit der Geschichte und der gesellschaftlichen Bedeutung ihres Faches zu befassen.

Der Preis für Kunstgeschichte scheint da zunächst nicht hineinzupassen: „Studiere die Wissenschaft der Kunst! Studiere die Kunst der Wissenschaft! Nimm wahr, dass alles mit allem anderen verbunden ist!“ heißt es allerdings schon bei Leonardo da Vinci. Die Liebe zum Sammeln, die Liebe zur Kunst sind gleichermaßen wie alles andere Tun von Alfred Bader Ausdruck einer intellektuellen Gesamtpersönlichkeit. Im Geschäftsleben handelt er beherrscht und scharf logisch denkend. Auf der anderen Seite vermag er durch seine besondere eidetische Begabung in Bruchteilen von Sekunden spontan Verborgenes in Bildern wahrzunehmen, das dem normalen Betrachter verschlossen bleibt.

Das erfüllte und erfolgreiche Leben Alfred Baders ist somit zugleich auch eine Mahnung an Naturwissenschaftler, sich aus der Beschränktheit ihrer Disziplinen herauszubewegen.

Die Ignaz-Lieben Gesellschaft zur Erforschung der Geschichte der Naturwissenschaften

Das Ignaz-Lieben-Projekt war mit der Preis-Wiedererrichtung allerdings nicht ganz abgeschlossen. Die Idee einer engen Zusammenarbeit von Naturwissenschaftlern und Historikern sollte in einem Initiativkolleg der Universität weiterleben. Der Wissenschaftshistoriker Mitchell Ash, Professor an der Universität Wien, hat hier von Anfang an die Federführung übernommen, mit großem Erfolg das Initiativkolleg zur Bewilligung geführt und aus diesem mittlerweile ein großes FWF-Doktoratsprogramm entwickelt.

Zusätzlich wurde 2006 die Ignaz-Lieben-Gesellschaft gegründet, deren Ziel eine umfassende Förderung und Dokumentation der Geschichte der Naturwissenschaften in Österreich und den angrenzenden Ländern der ehemaligen Donaumonarchie ist, wobei die gegenseitige Durchdringung von Wissenschaft, Gesellschaft, Politik und Kultur herausgearbeitet werden soll. Die systematische Zusammenarbeit von an Geschichte interessierten Naturwissenschaftlern mit professionellen Historikern bewährt sich, die Gesellschaft verweist auf ein sehr erfolgreiches Wirken. Parallel zur Lieben-Preisverleihung findet jährlich entweder ein Workshop oder ein Symposium statt, beispielsweise „Über die Wurzeln der Sexualhormonforschung“ (2008), in welchem Zeitzeugen vortrugen, „Zentraleuropäische Wissenschaft und Technologie im frühen 20. Jahrhundert“ waren Themen der folgenden Veranstaltungen. Auch das heurige Symposium knüpft mit „Wissenschaft, Technik, Industrie und das Militär in der Habsburgermonarchie im 1. Weltkrieg” an diese Themen an. welches vor zwei Wochen an der Technischen Universität stattfand, war ein Erfolg. Details zur Ignaz-Lieben-Gesellschaft und zu ihren Veranstaltungen finden sich auf der homepage: http://www.i-l-g.at/. .

Vor nicht einmal 200 Jahren, hat der große Wortschöpfer William Whewell den Begriff „scientist“ als Bezeichnung für jene Naturphilosophen geprägt, welche ihre Wissenschaft auf das Messbare und Wägbare beschränken wollten. Letztlich ging es dabei um den aufkommenden grundsätzlich reduktionistischen Ansatz der Experimentalforschung, welcher mittlerweile den Triumph und die Dominanz der modernen Naturwissenschaften herbeigeführt hat. Die damals kreierten Fachdisziplinen - wie Physik, Chemie, Biologie - haben sich mittlerweile zu Wissenschaftsstämmen mit eigener Kultur entwickelt. Von manchen werden sie bereits als beengende Silos wahrgenommen. Heute ist es daher ein wichtiges Anliegen geworden, die reduktionistische Enge der Wissenschaftsdisziplinen aufzubrechen. Diese Forderung gilt nicht zuletzt auch für die unzeitgemäße Trennung von Geistes- und Naturwissenschaften. Mit ihrer verpflichtenden Zusammenarbeit von Geistes- und Naturwissenschaftlern kann die Lieben Gesellschaft dazu sicher einen Beitrag leisten.


[1] Der Chemiker und Physiker Joseph Loschmidt (1821 - 1895), Professor an der Universität Wien. stellte in seinem 1861 erschienenen Buch „ Chemische Studien“ als erster Strukturformeln organischer Verbindungen dar - insgesamt von 368 Verbindungen -, wobei er für Benzol eine ringförmige Struktur vorschlug (4 Jahre vor Kekule, dem die Entdeckung des Benzolrings zugeschrieben wird). Loschmidt folgerte, daß die meisten aromatischen Verbindungen als Derivate des Benzols C6H6 angesehen werden können, ebenso wie die aliphatischen Verbindungen als Derivate des Methans CH4. Bekannt wurde Loschmidt vor allem durch die nach ihm benannte Konstante: der Zahl der Moleküle eines idealen Gases, die sich in einem definierten Volumen befinden.

[2] A.Bader, Josef Loschmidt the father of Molecular Modelling . Royal Institution Proceedings 64 (1992), pp. 197–2–05. http://www.loschmidt.cz/pdf/father.pdf (link existiert nicht mehr)

[3] Der Ignaz-Lieben-Preis - 1862 von Adolf Lieben gestiftet –wurde 1937 zum letzten Mal verliehen. Durch eine großzügige Stiftung von Alfred Bader konnte er 2004 zum ersten Mal wieder vergeben werden.


Weiterführende Links

http://www.i-l-g.at/PDF/dokumente/Lieben-Preis-2.pdf

http://stipendien.oeaw.ac.at/de/geschichte-des-ignaz-l-lieben-preises

Zur Preisvergabe 2013: http://www.oeaw.ac.at/deutsch/aktuell/presse/pressemeldungen/aktuelle-na...

Sigma-Aldrich – weltweit größte, von Alfred Bader aufgebaute Feinchemikalienfirma: http://www.sigmaaldrich.com/customer-service/about-us/sigma-aldrich-hist...


 
inge Fri, 06.12.2013 - 07:38

Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

Fr, 29.11.2013 - 08:56 — Peter Schuster

Icon MINTPeter SchusterExponentielles Wachstum erschöpft sehr rasch und effizient die vorhandenen Ressourcen. Ist ein essentielles Reservoir entleert und eine Auffüllung nicht möglich, so stirbt die Mangel leidende Population aus. Dementsprechend liegt die einzige Möglichkeit mit raschem Wachstum zurecht zu kommen in der Wiederverwertung - dem Recyceln – von Material.

Der britische Nationalökonom und Sozialphilosoph Robert Malthus (1766 - 1834) dürfte wohl der Erste gewesen sein, der sich mit den Konsequenzen auseinandersetzte, wenn Wachstum in Form einer geometrischen Progression* erfolgt. Konkret hatte er in einigen amerikanischen Kolonien, die über ausreichend Ressourcen verfügten, beobachtet, daß sich die Bevölkerung im Zeitabstand von jeweils 25 Jahren verdoppelte. In seinem „Essay on the Principle of Population” [1] stellte Malthus die These auf, dass sich die Population der Menschen in einer geometrischen Progression (1, 2, 4, 8, 16, 32, 64, 128…..) vermehrt, die Nahrungsmittelproduktion dagegen bestenfalls in arithmetischer Progression (linear; 1, 2, 3, 4, 5,6,…), dass es daher zu einer Auseinanderentwicklung von Lebensmittel-Nachfrage und Angebot kommen müsste. Als Konsequenz prognostizierte er eine steigende Verknappung der Lebensmittel, die zur fortschreitenden Verelendung der Bevölkerung, Hungersnöten, Krieg und Epidemien führen sollte.

Ununterbrochenes, grenzenloses Wachstum – eine Vervielfachung durch Autokatalyse* - wird heute üblicherweise durch eine Exponentialfunktion* dargestellt, wobei dafür auch unlimitierte Ressourcen angenommen werden. Eine klassische Veranschaulichung bedient sich der Metapher von den Seerosen: Angenommen, Seerosen verdoppeln täglich die Fläche, die sie auf einem Teich bedecken. Wenn sie vor drei Tagen ein Achtel des Teichs bedeckt hatten und damit kaum sichtbar waren, hatten sie sich vor zwei Tagen auf ein Viertel, vor einem Tag bereits auf die Hälfte des Teichs ausgedehnt und nehmen heute die gesamte Oberfläche ein – eine Katastrophe, da sie damit Licht abhängiges Leben im darunter liegenden Wasser verhindern.

Malthus hatte die einfache und nach wie vor gültige Voraussage gemacht, dass das Auseinanderdriften von Bevölkerungswachstum und Nahrungsmittelproduktion zu Hungerkatastrophen führen muss und nur durch Geburtenkontrolle in Schach gehalten werden kann (Abbildung 1).

Malthus: Essay on the Principle of PopulationAbbildung 1. Essay on the Principle of Population. Robert Malthus veröffentlichte diese Abhandlung anonym im Jahre 1798 [1].

Auch, wenn neue Technologien, wie beispielsweise die „grüne Revolution“ der 1960er und 1970er Jahre, zu nicht vorhersehbaren Steigerungen der Ernteerträge führten, änderten diese nichts an dem prinzipiellen Problem:

Ein Mehr an verfügbarer Nahrung verursacht einen Anstieg in einer Population und zwar so lange, bis ein Grenzwert erreicht wird, an welchem die nun die vergrößerte Population zu hungern beginnt. Das Malthus-Modell zeigt Geburtenkontrolle als den einzig richtigen Ausweg aus dem Dilemma.

Wachstum und Biologische Evolution

Die biologische Evolution basiert darauf, dass sich die einzelnen Individuen in Populationen von Spezies multiplikativ vermehren und miteinander konkurrieren. Auch, wenn exponentielles Wachstum nur über eine limitierte Zeitspanne aufrecht erhalten werden kann, bleibt der Prozeß einer „Selection of the fittest“ der gleiche – ob es sich nun um eine wachsende, gleichbleibende oder sogar sinkende Population handelt, solange die Spezies nicht als Ganzes ausstirbt. Erfolgreiche Konkurrenz bei exponentiellem Wachstum gelingt nur Varianten, die exponentiell mit höherer Fitness oder solchen, die „hyperbolisch“ wachsen.

Abbildung 2 illustriert unterschiedliche Formen von Wachstumskurven

Grenzenloses Wachstum – Idealisierte FunktionenAbbildung 2. Grenzenloses Wachstum – Idealisierte Funktionen. Zu Beginn (Zeitpunkt: 0​) haben alle Funktionen den Wert: x(0​) = 1. Wachstum: i) hyperbolisch ( x(t) = 1 / (1-t) ; lila) ii) exponentiell (x(t) = expt; rot) iii) parabolisch (x(t)=(1+t/2)²; blau), iv) linear (x(t) = 1 + t; schwarz), v) sublinear (x(t) = 1+t/(1+t); blau), vi) logarithmisch (x(t) = 1+log(1+t); rot), sublogarithmisch (x(t) = 1+t/(1+t); lila). Im gelben Bereich erreicht das Wachstum den Wert „unendlich“ in endlicher Zeit, im grauen Bereich dagegen erst nach unendlicher Zeit und es bleibt endlich Im grünen Bereich auch nach unendlicher Zeitdauer.

Hyperbolisches, exponentielles und parabolisches Wachstum verbrauchen sehr rasch und effizient die vorhandenen Ressourcen. Dementsprechend liegt die einzige Möglichkeit mit raschem Wachstum zurecht zu kommen in der Wiederverwertung - dem Recyceln – von Material: stärkeres Wachstum von Varianten mit begrenzter Lebensdauer führt zu einer erhöhten Absterberate und damit zu mehr an recycelbarer Substanz. Auch lineares Wachstum und das noch langsamere logarithmische Wachstum nähern sich der Unendlichmarke, wenn man unendlich lang wartet.

In allen diesen Fällen ist Recycling also eine Voraussetzung für effizientes Wachstum aber keine ausreichende Bedingung – es können ja Ressourcen, wie beispielsweise Energie, dabei (vollständig) aufgebraucht werden.

Nur die langsamste „sublogarithmische“ Form erreicht auch nach unendlich langer Zeit einen endlichen Grenzwert. Es erscheint wichtig darauf hinzuweisen, daß nur diese langsamste Form des Wachstums mit einem Reservoir an vorhandenen Ressourcen auskommen und über längere Zeit aufrechterhalten werden kann. Dieser Typ Wachstumskurve zeichnet sich dadurch aus, dass die Wachstumsraten mit zunehmender Dauer sinken.

Jede Form grenzenlosen Wachstums – charakterisiert durch Wachstumskurven mit hyperbolischem, exponentiellem, parabolischem, linearen und sublinearem Verlauf – kann nur für begrenzte Zeitdauer andauern. Es muß hier nicht besonders betont werden, daß Ökonomen, die eine konstante Wachstumsrate predigen, in der einen oder anderen Weise einem Trugschluß unterliegen.

Recycling ist ausreichend um Darwinsche Selektion in einer konstant bleibenden Population fortbestehen zu lassen und Grenzen der Populationsgröße können prinzipiell für alle Formen des Wachstums erzwungen werden – Recyceln der Ressourcen hilft dann die Populationen zu erhalten.

Ursprung des Lebens – Autokatalyse - Recycling

Theoretische und experimentelle Modelle zum Ursprung des Lebens konzentrieren sich üblicherweise auf ein oder mehrere der drei Kernpunkte, nämlich auf die

i. Erzeugung, Speicherung und Erhaltung von Information in den Genen,

ii. Aufnahme von Energie und Umwandlung zur Treibkraft von Stoffwechselprozessen,

iii. Schaffung eines abgeschlossenen lokalen Umfelds durch Kompartimentbildung

Basis der Darwin’schen Selektion und unabdingbar auch in den frühesten Phasen der Evolution - im Übergang von unbelebter zu lebender Materie - ist dann der autokatalytische Prozeß, der zur Vervielfachung der Spezies führt (s.o.). Der noch präbiotische Stoffwechsel muß die zentrale Hauptaufgabe lösen: die Produktion der Bausteine, aus denen die wichtigsten Biomoleküle, Proteine und Nukleinsäuren, hergestellt werden können - ein riesiges Reservoir an organischen Verbindungen in ein relativ kleines Set von Schlüsselmolekülen zu „kanalisieren“.

In die Diskussion, wie ein derartiger früher Stoffwechsel ausgesehen haben könnte, ist erst in jüngster Zeit auch der Aspekt des Recycelns eingeflossen. Es bedeutet zweifellos einen Selektions-Vorteil, wenn in der Reaktion A + X → 2X das autokatalytische Produkt X zu einem weiteren Produkt D abgebaut wird, das in einem Energie-abhängigen Prozess wieder in den Ausgangsstoff A zurückverwandelt – recycelt - werden kann. Ein derartiges Recycling-System, das seine Energie aus photochemischen Reaktionen beziehen sollte, wurde bereits vor drei Jahrzehnten vorgeschlagen [2]. Interessanterweise bezieht die erste, mit eigenem Stoffwechsel ausgestattete Protozelle (das „Los Alamos Bug“) ihre Energie aus einer photochemischen Reaktion an einem Rutheniumkomplex.

Offensichtlich ist Photochemie die geeignetste Taktik um energieabhängige Reaktionen zu ermöglichen: Licht als Energiequelle erscheint ja unerschöpflich. Lichtabhängige an Membranen gekoppelte Reaktionen dürften auch die ersten und bis jetzt effizientesten Wege gewesen sein, auf welchen präbiotische und frühe prokaryotische Zellen Energie „einfingen“ und in chemische Energie umwandelten [3]: Die ältesten uns bekannten Fossilien sind vermutlich Relikte ursprünglicher photosynthetischer Cyanobakterien [4]. Dazu kommt, daß photochemische Reaktionen hochspezifisch ablaufen und zu hohen Produktmengen führen können, vor allem, wenn die Quantenausbeute keine Rolle spielt.

Bevölkerungswachstum und Recycling

Kommen wir nun wieder auf unser ursprüngliches Problem zurück – die Ernährung einer exponentiell wachsenden Weltbevölkerung (Abbildung 3).

Malthus, dessen Prognosen offensichtlich nicht eintrafen, konnte natürlich den technischen Fortschritt im vergangenen Jahrhundert, insbesondere die „Grüne Revolution“ nicht voraussehen. Auf Grund der Verwendung von modifizierten Pflanzen, synthetisch hergestellten Düngemitteln, Pestiziden, Bewässerungssystemen und der Mechanisierung der Feldarbeit sind die Ernteerträge weltweit enorm gestiegen und haben trotz der enorm gestiegenen Population den „Hunger in der Welt“ reduziert (aber nicht beseitigen können).

Weltbevölkerung und ErnteerträgeAbbildung 3. Innerhalb der letzten 60 Jahre ist die Weltbevölkerung nahezu auf das Dreifache angewachsen. Gleichzeitig führte die „Grüne Revolution“ zur enormen Steigerung der Ernteerträge.

Die Grundprobleme bestehen aber weiter. Das Bevölkerungswachstum setzt sich ungebrochen fort, die landwirtschaftliche Produktion verlangsamt sich, es gibt nur wenige neue, für den Ackerbau geeignete Gebiete, die Verstädterung reduziert zusätzlich landwirtschaftlich nutzbare Flächen. Dazu kommen alle die durch die Intensivwirtschaft verursachten negativen Effekte auf die Umwelt.

Damit stellt sich die Frage, inwieweit Ressourcen/Rohstoffe langfristig zur Verfügung stehen werden und wie diese aus industriellen Abfällen wiedergewonnen werden können.

Wertvolle Metalle lassen sich leicht recyceln, die meisten Metall erzeugenden Konzerne besitzen ein Repertoire an Verfahren, um jegliche Art von Metall aus Rückständen und Schlacken aufzureinigen, und sie wenden diese Verfahren an, wann immer die Preise auf dem Weltmarkt genug hoch sind.

Hinsichtlich der landwirtschaftlichen Nutzung sind Verbrauch und Recycling zweier essentieller Elemente zu beachten, die eine conditio sine qua non für jegliches Leben darstellen: Stickstoff und Phosphor.

Recycling von Stickstoff

Gasförmiger molekularer Stickstoff (N2) ist ubiquitär, findet sich in unerschöpflichen Mengen in in unserer Atmosphäre. Allerdings kann Stickstoff in dieser Form weder von Pflanzen noch von Tieren verwertet werden, nur einige Bakterienstämme sind dazu in der Lage und produzieren daraus Stickstoff-haltige Moleküle, zum Nutzen aller anderer Organismen.

Bis zum Beginn des 20. Jahrhunderts gab es nur zwei Formen von Techniken zur Gewinnung eines für uns verwertbaren Stickstoffs, durch Verwendung von: i) Leguminosen – d.i. Hülsenfrüchte –, die in Symbiose mit den Stickstoff-assimilierenden Bakterien der Spezies Rhizobium leben, und ii) Dünger aus Guano, dem Exkrement von Vögeln, welche auch heute noch in großen Kolonien die Inseln entlang der Küste von Peru und Chile besiedeln. Die Verwendung von Guano als Dünger bedeutet ein Recyceln des Stickstoffs, allerdings mit einer unglaublich langen Zykluszeit.

Diese Situation änderte sich vollkommen, als zwei deutsche Chemiker, Fritz Haber und Carl Bosch, ein Verfahren erfanden, in welchem sie aus molekularem Stickstoff und Wasserstoff mit Hilfe eines Katalysators Ammoniak herstellen konnten. Auch, wenn dieses Verfahren äusserst viel Energie verbraucht, haben die aus dem synthetischen Ammoniak hergestellten Düngemittel den natürlichen Guanodünger praktisch vollständig ersetzt – vermutlich war dies die wichtigste Grundlage einer ausreichernden Nahrungsmittelproduktion für eine enorm gewachsene und weiter wachsende Weltbevölkerung. Die Relevanz der Ammoniaksynthese ist vielleicht am besten aus einer Abschätzung von Robert Horwath aus dem Jahr 2008 ersichtlich: dieser findet, dass bereits mehr als 80 % des in den menschlichen Proteinen eingebauten Stickstoffs eine Haber-Bosch Anlage von innen gesehen haben.

Der Stickstoff-Zyklus ist ein hervorragendes Beispiel für ein Recycling mit einem riesigen Reservoir. Die Produktion von synthetischem, verwertbarem Stickstoff stößt praktisch an keine Grenzen außer an die der Energieversorgung und der Umweltprobleme auf Grund der intensivst betriebenen Landwirtschaft und der durch Düngemittel verursachten Verunreinigung von Wasser.

Recycling von Phosphor

Phosphor ist ein essentielles Element in unseren Biopolymeren, beispielsweise den Nukleinsäuren. Intensiver Ackerbau benötigt Phosphat-haltigen Dünger, darüber hinaus sind Phosphate unabdingbare Bestandteile moderner Waschmittel.

Die herkömmliche Quelle für Phosphor sind phosphatreiche Mineralien (z.B. Apatit). Frühere Lagerstätten sind nun aber bereits weitgehend erschöpft, geeignete neue, mit geringer (Schwermetall-) Verunreinigung zunehmend schwerer zu finden. In Analogie zu dem häufig verwendeten Begriff „peak oil“ – also dem Ende des Erdöls - sprechen einige Experten schon vom „peak phosphorous“.

Mittlerweile hat die Phosphor-Industrie Strategien entwickelt um Phosphate aus Abwässern zurückzugewinnen. Hier besteht aber ein gravierender Unterschied zum Recyceln von Stickstoff, der in reiner Form aus einem praktisch unerschöpflichen Reservoir erhalten wird: Die Rückgewinnung von Phosphaten erfolgt aus hochverdünnten Lösungen, die jede Menge Verunreinigungen enthalten, eine Aufreinigung von Phosphaten, die bereits in Flüsse oder gar ins Meer gelangt sind, ist ökonomisch praktisch nicht vertretbar.

Fazit

Exponentielles Wachstum erschöpft alle Reservoire an Ressourcen. Ist ein essentielles Reservoir entleert und eine Auffüllung nicht möglich, so stirbt die Mangel leidende Population aus. (Experimentelle Modelle zur präbiotischen Evolution haben hier ihre Schwachstellen.)

Recyceln bietet eine Lösung des Problems, da die Menge des recycelten Materials mit der Menge an Autokatalysatoren gekoppelt ist und die Effizienz des Recyclingprozesses, zusammen mit anderen Faktoren, die Menge an Autokatalysatoren bestimmt, die aufrechterhalten werden kann. Dies gilt in gleicher Weise für die früheste („primordial“) Form der Autokatalyse, für die biologische Evolution der Spezies und ebenso für die Entwicklung der menschlichen Gesellschaften.


[1] Robert Malthus: Eine Abhandlung über das Bevölkerungsgesetz oder eine Untersuchung seiner Bedeutung für die menschliche Wohlfahrt in Vergangenheit und Zukunft, nebst einer Prüfung unserer Aussichten auf eine künftige Beseitigung oder Linderung der Übel, die es verursacht (6. Auflage, aus dem Englischen übersetzt und frei abrufbar; Digitale Texte der Bibliothek des Seminars für Wirtschafts- und Sozialgeschichte, Uni Köln) http://www.digitalis.uni-koeln.de/Malthus/malthus_index.html

[2] Schuster, P.; Sigmund, K. Dynamics of evolutionary optimization. Ber. Bunseges. Phys. Chem. 1985, 89, 668-682.

[3] Lane, N.; Martin, W.F. The origin of membrane bioenergetics. Cell 2012, 151, 1406-1416.

[4] Schopf, J.W. Fossil evidence of Archaean life. Phil.Trans.Roy.Soc.London B 2006, 361, 869-855.

Eine ausführlichere Version dieses Essays (in Englisch) findet sich auf der homepage des Autors: http://www.tbi.univie.ac.at/~pks/Preprints/pks_365.pdf


*Glossar

Autokatalyse: Das Produkt (X) einer Reaktion ist ein Katalysator, der von ihm selbst katalysierten Reaktion: (A) + X → 2X. Da im Verlauf der Reaktion das Produkt - die Menge des Katalysators - ansteigt, nimmt die Geschwindigkeit der Reaktion exponentiell zu.

Arithmetische Progression: Zahlenfolge, in der aufeinanderfolgende Zahlen sich um denselben Betrag erhöhen, z.B. um 1: 1, 2, 3, 4, 5, 6,…..

Geometrische Progression: Zahlenfolge, in der aufeinanderfolgende Zahlen in einem konstanten Verhältnis stehen, also mit demselben Faktor multipliziert werden; z.B. mit dem Faktor 2: 2, 4, 8, 16, 32, 64,….

Exponentialfunktion: In gleich langen Zeitintervallen ändert sich der Funktionswert um denselben Faktor: y = aX (a: Basis, x: Exponent), beispielsweise beträgt bei einer Basis 2 der Funktionswert nach 1, 2, 3, 4, 5, 6 Zeitintervallen: 21, 22, 23, 24, 25, 26,………also: 2, 4, 8, 16, 32, 64,….Der Verlauf natürlicher Prozesse des Wachstums und auch des Zerfalls (z.B. des radioaktiven Zerfalls) wird am besten durch eine Funktion mit der sogenannten natürlichen Basis e, der von Leonhard Euler eingeführten Zahl = 2,7182….dargestellt, also f(x) = ex.


Weiterführende Links

Nur noch Stehplätze. Thomas Robert Malthus: Das Bevölkerungsgesetz (Christoph Neßhöver 1999, Zeit online) http://www.zeit.de/1999/21/199921.biblio-serie_.xml

Bevölkerungswachstum: Die Welt ist nicht genug (M. Becker, Spiegel Online 2011). http://www.spiegel.de/wissenschaft/mensch/bevoelkerungswachstum-die-welt-ist-nicht-genug-a-794203.html


 

inge Fri, 29.11.2013 - 08:56

Forschungszentrum – Reparaturwerkstatt – Gewebefarm. — Das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie

Forschungszentrum – Reparaturwerkstatt – Gewebefarm. — Das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie

Fr, 22.11.2013 - 05:01 — Heinz Redl

Icon Medizin Heinz RedlMit dem Ziel die diagnostischen und therapeutischen Maßnahmen in Unfallchirurgie und Intensivmedizin zu verbessern, wurde 1980 das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie gegründet. Bahnbrechende Innovationen im Bereich der regenerativen Medizin und der Behandlung von Schock und Sepsis und deren erfolgreiche Anwendung an Patienten haben der Institution weltweite Anerkennung gebracht. Heinz Redl ist seit 15 Jahren Leiter dieses Instituts, das Grundlagenforschung mit angewandter Forschung und translationaler Medizin verknüpft.

Die Grundlagen für derartige Heilerfolge stammen aus der traumatologischen Forschung, der „Wissenschaft von Verletzungen und Wunden sowie deren Entstehung und Therapie“. In diesem, bei uns seit dem Beginn der 1970er Jahre etablierten Gebiet leistet Österreich weltweite Pionierarbeit, liefert bahnbrechende Entwicklungen und beispielgebende Resultate.

Altgriechische Traumatologie: Achilleus bandagiert den Arm seines verletzten FreundesAbbildung 1. Altgriechische Traumatologie: Achilleus bandagiert den Arm seines verletzten Freundes Patroklos (Vasenmalerei 5 Jh AC)

40 Jahre Traumaforschung in Österreich

Entsprechend der für sie im Gesetz festgelegten Verpflichtung, die ständige Verbesserung der Behandlung von Patienten zu gewährleisten, hat die Allgemeine Unfallversicherungsanstalt (AUVA) bereits 1973 ein Forschungsinstitut für Traumatologie eingerichtet, das zusammen mit dem 1980 gegründeten Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma) das Forschungszentrum für Traumatologie bildet und im Wiener Unfallkrankenhaus Lorenz Böhler angesiedelt ist. Im Jahr 1998 wurde zur Unterstützung die non-profit Organisation Trauma Care Consult eingegliedert.

Eine Aussenstelle wurde im Jahr 2003 in Linz errichtet, die in Kooperation mit der Blutbank des oberösterreichischen Roten Kreuz betrieben wird und sich der Gewinnung und Erforschung von humanen, adulten Stammzellen widmet.

Das LBI Trauma: „vom Labortisch zum Krankenbett“

Das Ziel der Arbeiten am LBI Trauma ist es die diagnostischen und therapeutischen Maßnahmen in Unfallchirurgie und Intensivmedizin zu verbessern. Dies erfolgt einerseits durch eigene Forschungsprojekte im Bereich der Geweberegeneration und Polytrauma/Schock/Sepsis, aber auch durch Evaluation und praktische Anwendung internationaler Forschungsergebnisse.

Forschungsmaxime ist dabei die Verbindung von experimenteller Forschung und klinischer Anwendung „vom Labortisch zum Krankenbett“- die sogenannte translationale Forschung. Durch eine enge interdisziplinäre Zusammenarbeit präklinischer und klinischer Experten-Teams gehen gesicherte Ergebnisse aus der Grundlagenforschung rasch und direkt in die Anwendung über und kommen speziell Unfall-Patienten zugute.

In diesem Sinne „versorgt“ das LBI Trauma die 7 Unfallkrankenhäuser und 4 Rehabilitätszentren der AUVA mit den Ergebnissen seiner Forschung und Entwicklungen (Abbildung 2).

 Die 7 Unfallkrankenhäusern und 4 Rehabiltationszentren der AUVAAbbildung 2. Forschung für rund 4,7 Millionen Versicherte. Neueste medizinische Kenntnisse und Methoden werden in den 7 Unfallkrankenhäusern und 4 Rehabiltationszentren der AUVA zur Behandlung von jährlich rund 375 000 Verletzten eingesetzt.

Das Team des LBI besteht zur Zeit aus rund 80 Personen - aus Chemikern, Biochemikern, Ärzten, Tierärzten, Physikern, Medizin- und Elektrotechnikern. Auf Grund dieser multidisziplinären Zusammensetzung ist es möglich ein sehr großes Spektrum angewandter Forschung abzudecken.

Das LBI Trauma ist in fächerübergreifenden Kooperationen in vielen Gebieten der Humanmedizin engagiert und an zahlreichen österreichischen und europäischen Forschungsprojekten beteiligt (u.a. GENAU und EU-Projekte Angioscaff, BIODESIGN)

Eine Kooperation mit der Medizinischen Universität Wien, der Bernhard Gottlieb Universitätszahnklinik und dem Oberösterreichischen Roten Kreuz hat 2006 zur Gründung des österreichischen Forschungsclusters für Geweberegeneration geführt, in welchem das LBI die zentrale Rolle spielt. Dieser Cluster führt in einer gemeinsamen Forschungsstruktur das interdisziplinäre Forscherteam des LBI und Spezialisten für bildgebende Verfahren (z.B. Hochfeld Magnet Resonanz) zusammen mit klinischen Experten für die Regeneration von Knochen, Gelenken und Nerven. Das Ziel dieses Forschungsclusters ist ein besseres Verständnis der Regeneration von Weichteilen, Knorpel, Knochen und Nerven und - darauf aufbauend - neue und verbesserte Behandlungsmethoden.

Erfolg und internationale Reputation des Forschungszentrums werden nicht nur durch die Anzahl an wissenschaftlichen Publikationen (über 1200 seit 1980), Monographien und Patentfamilien dokumentiert, sondern auch durch die Rolle in den internationalen Fachgesellschaften, die es durch die Organisation großer internationaler Fachkongresse in Wien erlangt hat, beispielsweise des dritten Weltkongresses der Tissue Engineering & Regenerative Medicine Society (TERMIS) im September 2012, die den Autor zu ihrem europäischen Präsidenten gewählt hat.

Das Institut ist auch in der Aus- und Weiterbildung von Ärzten, Studenten und PostDocs involviert und veranstaltet Lehrgänge in Partnerschaft mit dem Technikum Wien (" Tissue Engineering and Regenerative Medicine"), der TU Wien ("Biomedical Engineering") sowie der Medizinischen Universität Wien ("Regeneration of Bone and Joint").

Finanziert wird das LBI Trauma von der AUVA und der Ludwig Boltzmann Gesellschaft, darüber hinaus auch direkt über Projekte aus der Industrie und der Europäischen Union.

Forschungsschwerpunkte des LBI

Die beiden großen Forschungsbereiche am LBI Trauma sind Geweberegeneration und Intensivmedizin. Daneben bietet das Institut als Service für klinische Mediziner Ausstattung und Methoden, die es erlauben Forschungsfragen in der Unfallchirurgie kompetent zu bearbeiten. Ein Überblick über die Forschungsbereiche und Projekte ist in Abbildung 3 gegeben. Forschungsbereiche und Projekte des LBI TraumaAbbildung 3. Forschungsbereiche und Projekte des LBI Trauma. Details zur Organisation der Bereiche und einzelnen Projekte: siehe http://trauma.lbg.ac.at/

Schwerpunkt: Geweberegeneration

Ein Zugang zur Geweberegeneration ist es, die Wundheilung durch den Einsatz von Wachstumsfaktoren oder speziellen Wundverbänden zu beschleunigen.

Ein anderer Zugang beruht auf der Möglichkeit Stammzellen zu verwenden, die aus verschiedenen Quellen, wie zum Beispiel aus dem Knochenmark, dem Fettgewebe, der Plazenta oder der Nabelschnur gewonnen werden können. Diese Stammzellen können entweder mit Hilfe von Wachstumsfaktoren oder mechanischer Stimulierung oder einer Kombination von beiden in vitro oder in vivo in die gewünschte Zellart differenziert werden. Die Zellen werden dann in spezifischen Trägerstrukturen („Scaffolds“) oder Hydrogele eingebracht, die biochemisch stabil und biokompatibel und zusätzlich biologisch abbaubar sein müssen.

Der Verbund aus Zellen und Trägerstrukturen wird in passende Modelle implantiert oder injiziert und dort auf Biokompatibilität geprüft und die regenerative Kapazität gemessen. Bei Haut können spezielle Belastungs-/Dehnungstests durchgeführt werden, bei Knochen und Osteosynthesematerialien stehen verschiedene biomechanische Tests und morphologische Methoden zu Verfügung.

Blutstillung (Hämostase). Neben der Weiterentwicklung der Gewebeklebung mit Fibrin werden neue Methoden zum Stoppen von Blutungen erforscht. Ein großes Problem stellen Gerinnungsstörungen bei der Versorgung von Schwerverletzten dar, die mit massiven Blutungen einhergehen und zu einer deutlich erhöhten Mortalität führen.

Knochenregeneration. Hier geht es um die Entwicklung neuer und die Verbesserung existierender Behandlungsverfahren (Ersatzmaterialien und Implantatoberflächen) und die Untersuchung aktueller Therapiekonzepte im Hinblick auf ihre Effizienz und ethische Vertretbarkeit in der Praxis. Grundlagenforschung und optimierte biomechanische und histologische Methoden unterstützen die Arbeit des Teams.

Neurogeneration. Der Bereich der Neuroregeneration beschäftigt sich mit den kritischsten Ereignissen von Traumapatienten und ist daher in zwei spezialisierte Teams gegliedert:

Das erste Team befasst sich mit Rückenmarksverletzungen (d.i. mit dem Zentralnervensystem), wobei das Hauptaugenmerk bei speziellen bildgebenden Verfahren, den molekularen Mechanismen und den therapeutischen Aspekten liegt, um Sekundärschäden nach einer Rückenmarksverletzung zu reduzieren.

Das zweite Team beschäftigt sich mit der Regeneration peripherer Nerven und der Reinnervation ihrer Zielorgane (wie zB. der Muskulatur). Es werden sowohl experimentelle wie auch klinische Studien durchgeführt um eine Verbesserungen der Regeneration peripherer Nerven und der mikrochirurgischen Nervennahttechnik zu erreichen. Auch sind die Verbesserung der funktionellen Endergebnisse durch die Nützung und Verstärkung der Plastizität des Gehirnes Teil dieser Forschung. Können Nervendefekte nicht direkt „genäht" werden, so werden diese mit Zell - besiedelten und Wachstumsfaktor - versetzten bioresorbierbaren künstlichen Nerven-Transplantaten überbrückt.

Knorpel-/Sehnenregeneration. Im Bereich Knorpel und Sehnen wird an der Verbesserung der Regeneration, nach einem Trauma, durch neue Kombinationen von Zellen, Biomaterialien und Wachstumsfaktoren beziehungsweise mechanischer Stimulierung gearbeitet. Ziel ist das Austesten neuer Methoden und die Überführung in die klinische Anwendung, wobei vor allem bildgebende Verfahren zur Qualitätskontrolle eingesetzt werden sollen.

Schwerpunkt: Intensivmedizin

Dieser Forschungsbereich versucht die wesentlichen pathologischen Vorgänge aufzuklären, die der Sepsis und dem septischen Schock zugrunde liegen. Zum Einen vermag das Blutgefäß-system die Organe nicht mehr ausreichend zu durchbluten und zum Anderen vermögen die Zellen nicht mehr ausreichend Sauerstoff aus dem Blut aufzunehmen.

Die Forschungsziele sowohl experimentell als auch klinisch im Bereich von Schock und Trauma umfassen das Verständnis der zugrundeliegenden Mechanismen. Dazu zählt vor allem die Aufklärung der molekularen Mechanismen, die das Entzündungsgeschehen und Organversagen im septischen Schock verursachen. Das Hauptaugenmerk gilt dabei auf den so genannten reaktiven Sauerstoff Spezies (ROS), Stickstoffmonoxyd (NO), verschiedenen Übergangsmetallen, sowie wichtigen pro- and anti-entzündlichen Mediatorstoffen, die an den pathologischen Veränderungen bei Sepsis und in Folge beim Organversagen beteiligt sind.

Ein weiterer wichtiger Aspekt ist die Untersuchung der durch Sepsis ausgelösten Funktionsänderungen und Schädigungen an Zellen und subzellulären Organellen. Damit wird versucht, Einblicke in die Kausalkette der Vorgänge zu bekommen, die letztlich zum (multiplen) Organversagen und zum Tod führen kann. Das Hauptaugenmerk dabei liegt auf den Mitochondrien und ihrer Funktion unter septischen Bedingungen.

Angestrebt wird eine maßgeschneiderte Therapie („personalisierte Medizin“), die vom individuellen Immunstatus des Patienten ausgeht und sensitive Nachweismethoden zur Diagnose, Planung und Überwachung individueller therapeutischer Maßnahmen anwendet.

Reparieren und/oder regenerieren. Auf dem Weg zum künstlich hergestellten Organersatz

Mit der Weiterentwicklung des „Fibrinklebers“ hat das Institut Geschichte geschrieben. Wo früher Blutgefäße oder Gewebeteile genäht wurden, wird heute weltweit geklebt. Die Möglichkeiten und Vorteile dieses für jegliche „Reparaturen“ – Blutstillung, Verschluß von verletzten Gewebeteilen, Wundheilung, etc. – essentiellen Verfahrens sollen demnächst in einem eigenen Artikel: „Kleben statt Nähen“ dargestellt werden.

Wenn heute die volle Funktionsfähigkeit von kranken, verletzten bis hin zu zerstörten Organ(teil)en wieder hergestellt werden soll, kann dies im Prinzip durch gezielte Züchtung von körpereigenen Geweben – Tissue Engineering – bereits bewerkstelligt werden. Derartige Züchtungen basieren auf menschlichen Zellen, welche die in Frage stehenden Gewebe – Knochen, Sehnen, Knorpel, Haut, etc. – zu regenerieren vermögen. Diese Zellen werden auf eine Trägerstruktur aufgebracht und durch mechanische Reize oder biologische Stimuli (z.B. Wachstumsfaktoren) zur Vermehrung angeregt. Stammzellen, vor allem aus dem Fettgewebe des betroffenen Patienten, sind hervorragend für derartige Züchtungen geeignet. Als Trägerstruktur dienen biologische Materialien wie humanes Fibrin oder Seiden-Fibroin.

Diese Methode wird bei uns beispielsweise für schwere Knieverletzungen, wie den Kreuzbandriß, entwickelt: Eine Trägerstruktur aus Seidenfibroin wird mit Stammzellen besiedelt und – in Kooperation mit der TU Wien - im Bioreaktor gedehnt und gedreht, wie dies unter natürlicher Belastung der Fall ist. Die Trägerstruktur weist die Stabilität, Reißfestigkeit und Beweglichkeit eines natürlichen Kreuzbandes auf und kann, in das Kniegelenk eingesetzt, sofort mechanisch belastet werden. Innerhalb weniger Monate haben die Stammzellen dann ein neues, natürliches und belastbares Band generiert und die Trägerstruktur wurde vom Körper abgebaut. Dieses im Tiermodell bereits erprobte Verfahren soll in Kürze an Patienten getestet werden.

Kombinationen von Zellen auf Trägern mit wachstumsfördernden Maßnahmen, wie Wachstumsfaktoren und/oder mechanischen Reizen (z.B. Stroßwellen), erbringen Verbesserungen in der Regeneration von Nerven und ihrer Funktionalität. Mit derartigen Systemen könnten beispielsweise Erfolge bei Querschnittsgelähmten erzielt werden. Stoßwellentherapie wird übrigens bereits seit längerer Zeit in der Therapie von schlecht heilenden Knochenbrüchen und chronischen Wunden eingesetzt.

Die Vision in Zukunft verletzte oder auch altersbedingt veränderte Gewebe nicht nur reparieren sondern mittels künstlich hergestellter Produkte auch regenerieren zu können, erscheint durchaus plausibel.


Weiterführende Links

Webseite des LBI Trauma: http://trauma.lbg.ac.at/de/
Video über das LBI Trauma: http://www.meetscience.tv/episode/LBI_Trauma 7:12 min
Webseite der Allgemeinen Unfallversicherungsanstalt: http://www.auva.at/mediaDB/754204_Alles%20aus%20EINER%20Hand.pdf


 

inge Fri, 22.11.2013 - 05:01

Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle

Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle

Fr, 15.11.2013 - 06:07 — Christian Noe

Icon ChemieChristian NoePhysik und Chemie reichen aus, um die Entstehung der großen Klassen der Biomoleküle ( der Kohlehydrate, Lipide, Aminosäuren, Nukleinsäuren) aus den in der Uratmosphäre vorhandenen Molekülen zu erklären. Das kleine Molekül des Formaldehyds war auf Grund seiner ihm innewohnenden Reaktivität in der Lage ein nahezu vollständiges Set an präbiotischen Biomolekülen aufzubauen.

Die Monaden wovon wir allhier reden werden, sind nichts anders als einfache Substanzen woraus die zusammen gesetzten Dinge oder composita bestehen. Unter dem Wort einfach verstehet man dasjenige welches keine Teile hat….. Und diese Monaden sind die wahrhaften Atomi der Natur und mit einem Worte die Elemente derer Dinge. Gottfried Wilh. von Leibnitz. Lehrsätze über die Monadologie, 1714

Gottfried Wilh. von Leibnitz. Lehrsätze über die Monadologie, 1714

Beginnend mit den Pythagoräern, über Gordano Bruno und Gottfried Leibniz bis hin in unsere Zeit verwenden Philosophen den Begriff Monade – abgeleitet vom griechischen „monas“: die Einheit - um „elementare Einheiten“ zu beschreiben, aus denen die Erscheinungen der Wirklichkeit zusammengesetzt sind. Auch, wenn Bedeutungen und Deutungen der Monaden unterschiedlich ausfallen, so ist es deren gemeinsames Charakteristikum , daß sie nicht nur kleinste physische Einheiten, sondern auch deren Funktionen definieren.

Ein „verstaubter“ Begriff in der modernen Biologie?

Unsere heutige Zielsetzung strebt an Lebensformen in holistischer Weise als Systeme (systembiologisch) erfassen und verstehen zu wollen. In diesem Sinne erscheint die Metapher „Monade“ durchaus passend:

in einem derartigen sytembiologischen Ansatz steht die Monade dann für die kleinste Einheit, welche im Kern bereits die Anlage für das Funktionieren des ganzen Systems enthält.

Auf Biomoleküle angewandt wäre eine Monade ein kleinstes Biomolekül, dessen ureigene Reaktionsbereitschaft ausreicht um ein anfängliches („primordial“) metabolisches System aufzubauen, aus welchem sich in Folge das eigentliche Stoffwechselsystem entwickeln kann. Dieses stellt neben der Kompartmentalisierung, der Aufrechterhaltung eines stationären Zustands (einer Homöostase) und der Reproduktion eines der funktionellen Charakteristika lebender Organismen dar.

Wie Untersuchungen auch aus unseren Forschungslabors während der letzten drei Jahrzehnte zeigten*, ist das kleine, aus vier Atomen bestehende Molekül des Formaldehyds auf Grund seiner ihm innewohnenden Reaktivität in der Lage ein nahezu vollständiges Set an präbiotischen Biomolekülen aufzubauen.

Formaldehyd und die Uratmosphäre

Von den sechs wichtigsten chemischen Elementen aus denen unsere Biomoleküle zusammengesetzt sind - Kohlenstoff (C), Wasserstoff (H​), Sauerstoff (O), Stickstoff (N), Phosphor (P) und Schwefel (S​) – enthält Formaldehyd drei Elemente C, H und O. (Abbildung 1). Kohlehydrate – d.i. vor allem Zucker und Stärke –, die aus eben diesen Atomen bestehen, sind offensichtlich aus der Kondensation von Formaldehyd-Molekülen hervorgegangen.

FormaldehydAbbildung 1. Chemische Struktur des Formaldehyds. Im Kugel-Stab-Modell (rechts oben) sind die Atome als Kugeln und die Bindungen als Stäbchen maßstabgerecht dargestellt.

In der Uratmosphäre lagen die Elemente C, H, O und N vorwiegend in der Form der Moleküle CO2, H2O und N2 vor, daneben auch als Methan (CH4), Ammoniak (NH3) und Wasserstoff (H2). (Diese Moleküle finden sich beispielsweise auch in vulkanischer Asche.) Die Frage ob auch bereits Formaldehyd zur Verfügung stand, wird durch die Tatsache bestätigt, daß Formaldehyd als eine der am häufigsten vorkommenden chemischen Verbindungen im interstellaren Raum und als eine Hauptkomponente im Eis der Kometen nachweisbar ist und daß er experimentell, in Versuchen, die diverse präbiotische Bedingungen simulieren, aus unterschiedlichen Gasgemischen entsteht. (Dazu gehören die berühmten Versuche von Stanley Miller und Harold Urey in den 1950er Jahren, in denen aus den Gasen NH3, H2, CH4 und Wasserdampf mit Hilfe elektrischer Entladungen eine „Ursuppe“ organischer Verbindungen - von Formaldehyd und Hydrogencyanid (HCN) bis hin zu Aminosäuren – erzeugt wurde.)

Vom Formaldehyd zu den Biomolekülen

Seit der Entdeckung vor rund 160 Jahren wurde die Reaktion des Formaldehyds mit sich selbst – die sogenannte Formose-Reaktion - intensivst untersucht - einerseits unter dem Aspekt eine neue Quelle zur Erzeugung von Nährstoffen generieren zu können, andererseits um die Rolle des Formaldehyds in der präbiotischen Evolution aufzuklären.

Erste Analysen der aus der Formose Reaktion hervorgegangenen Produkte zeigten, daß aus Formaldehyd ein überaus komplexes Reaktionsgemisch entsteht, in welchem auch biologisch relevante Zucker, wie z.B. Glukose, vorkommen. In der weiteren Folge wurden die Mechanismen, die den einzelnen Schritten in dem Gesamtprozeß zugrundeliegen, aufgeklärt:

Der erste Schritt – die Kondensation von 2 Formaldehyd Molekülen – führt zum sogenannten Glykolaldehyd, der als einfachster Zucker („Diose“) betrachtet werden kann. Der Mechanismus dieser Reaktion basiert auf der Fähigkeit des Formaldehyds seine Partial-Ladungsverteilung so „umzupolen“, daß der Kohlenstoff eines Moleküls an den Kohlenstoff eines zweiten Moleküls addiert, eine C-C Bindung entsteht.

Der Weg zu den Kohlehydraten

Aus Glykolaldehyd entstehen durch Selbstkonstituierung Zuckermoleküle: 3 Moleküle ergeben Zucker mit einem Gerüst aus 6 C-Atomen, die sogenannten Hexosen, zu denen u.a. Glukose („Traubenzucker“), Galaktose und Mannose gehören. Ein typisches Ergebnis einer derartigen Trimerisierung ist in Abbildung 2 aufgezeigt. Das Produktgemisch verschiebt sich dabei mit fortschreitender Reaktionszeit hin zur Glukose als Hauptprodukt.

Selbstkondensation von GlykolaldehydAbbildung 2. Typischer Verlauf der Selbstkondensation von Glykolaldehyd (nur Hauptprodukte sind gezeigt). Reaktion in Äther unter alkalischen Bedingungen, bei Raumtemperatur. Details: siehe CR Noe et al., 2013.

In Gegenwart von Formaldehyd bilden sich aus Glykolaldehyd Zucker mit einem Gerüst aus 5 C-Atomen, die sogenannten Pentosen, wobei als Hauptprodukt zunächst Ribose entsteht – einer der essentiellen Bausteine der Nukleinsäuren -, und das Gleichgewicht sich in der Folge langsam zum Holzzucker Xylose verlagert.

Vom Formaldehyd zur ersten Aminosäure

Die oben erwähnte Fähigkeit des Formaldehyds zur „Umpolung“ seiner Ladungsverteilung kann auch eine Verknüpfung des Formaldehyds-Kohlenstoffs mit anderen Molekülen der Uratmosphäre bewirken, wie dem Ammoniak oder Hydrogencyanid, und damit zum Selbst-Aufbau der Aminosäuren führen.

Die Addition von Cyanid an Formaldehyd führt zur Bildung eines sogenannten Cyanohydrins, welches – hydrolysiert – Glykolsäure, die einfachste alpha-Hydroxycarbonsäure ergibt. Zusätzliche Addition von Ammoniak führt nach Hydrolyse zur einfachsten Aminosäure, dem Glycin.

Ebenso wie der ubiquitäre Formaldehyd sind auch Glykolaldehyd und weitere organische Verbindungen im interstellaren Raum vorhanden: Als der Murchinson Meteorit 1969 auf die Erde fiel, ergab die chemische Analyse, daß er 18 Aminosäuren enthielt.

Entstehung „chiraler“ Verbindungen

Glykolaldehyd polymerisiert sehr leicht und bildet dabei stets schraubenförmige Ketten. Es können links drehende Schrauben oder rechts drehende Schrauben auskristallisieren, in welchen die Atome (-O-C-) ähnlich angeordnet sind, wie etwa jene in Quarzkristallen (-O-Si-). Aus der Addition von Cyanid an den Glykolaldehyd entsteht als Produkt ein Molekül, welches an einem der Kohlenstoffatome vier verschiedene Substituenten (-CN, -OH, –H und -CH2OH) trägt, die häufigste strukturelle Voraussetzung, um in organischen Molekülen Asymmetrie zu bewirken. Es sind zwei unterschiedliche räumliche Anordnungen der Substituenten möglich, die resultierenden Moleküle sind unterscheidbar, können wie Bild und Spiegelbild (oder linke und rechte Hand), nicht zur Deckung gebracht werden können – es ist eine sogenannte chirale (von griechisch: „cheir“ die Hand) Verbindung entstanden.

Chiralität chemischer Verbindungen ist ein fundamentales Prinzip der Biochemie: in den großen Klassen der Biomoleküle, wie Kohlehydrate, Aminosäuren, Nukleinsäuren, ist (nahezu) ausschließlich jeweils nur eine der chiralen Formen vorhanden. Auch alle Proteine, die spezifisch mit einem Partner reagieren – Enzyme, Rezeptoren, Transporter – bevorzugen diesen in einer chiralen Form. Wir konnten zeigen, dass jene Effekte, welche zu schraubenförmigen Anordnung des Polyformaldehyds führen, auch bei der Trimerisierung von Glykolaldehyd zur Wirkung kommen. Man darf grundsätzlich erwarten, dass bei dieser Reaktion Traubenzucker in einheitlicher räumlicher Anordnung das überwiegende Hauptprodukt sein kann. Damit sind diese (stereoelektronischen) Effekte zugleich eine zentrale Basis für die Ausrichtung der Amplifikation der Chiralität in den lebenden Systemen, welche im Laufe der Evolution durch Proteine und Enzyme schließlich perfektioniert wird.

Formaldehyd in der präbiotischen Evolution

Selbstkondensation und Reaktionen mit anderen Molekülen der Uratmosphäre haben zu den großen Klassen der Biomoleküle, u.a, von Kohlehydraten, Aminosäuren, Komponenten von Nukleinsäuren und Stoffwechselsystemen geführt. Ein stark vereinfachtes Bild der Reaktionen von Formaldehyd ist in Abbildung 3 gegeben. Formaldehyd in der präbiotischen EvolutionAbbildung 3. Die Rolle des Formaldehyds in der präbiotischen Evolution. Durch Selbstkondensation entsteht Glykolaldehyd und aus diesem in Folge Kohlehydrate (liks). Addition von Cyanid und Ammoniak an Formaldehyd generieren alpha-Hydroxycarbonsäuren und Aminosäuren (rechts). Addition von Cyanid an Glykolaldehyd .führt zur Bildung chiraler Verbindungen (Mitte unten)

Man kann also davon ausgehen, daß weder D-Glukose noch L-Aminosäuren als Bausteine der Proteine, oder die Komponenten der RNA „Leben“ zu ihrer Entstehung benötigen. Dementsprechend lässt sich natürlich aus deren Vorhandensein ebensowenig auf die Existenz von „Leben“ schließen. Es ist vielmehr die inhärente Reaktivität des „Urmoleküls“ Formaldehyd, welches – abhängig von äußeren Bedingungen - über Selbstkonstituierung und Addition anderer „Urmoleküle“ bzw. „Monaden des Biosystems“ zum Aufbau einer übersehbaren Palette von durch ihre Reaktivität verbundenen Biomolekülen geführt hat.

Mit dem Einschließen solcher durch rein chemische Evolution geschaffenen Ur-Biomolekülsysteme in Kompartimente wurde in der Folge eine weitere Stufe in der Evolution erreicht. Im geschlossenen Kompartiment entsprach das Gleichgewicht der vorhandenen Biomoleküle im Prinzip der Homöostase einer Zelle. Es waren prä-metabolische Systeme entstanden. Ein wesentliches Kriterium des Lebens bestand nun in der Möglichkeit der lebenden Zelle, auf Störungen der Homöostase zu reagieren. Mit der Ausbildung prä-metabolischer Systeme in zellulären Kompartimenten war die Voraussetzung dazu eröffnet.

Natürlich bleiben bei diesen Schritten der chemischen Evolution weiterhin viele Fragen ausgeblendet. Weder die Mechanismen der zellulären Antwort, noch die Integration mit der RNA-Welt sind unmittelbar angesprochen. Es ist allerdings zu zweifeln, dass es nur reiner Zufall war, dass sich aus diesen Protozellen „Leben“ entwickeln konnte. Man sollte es hier eher mit dem Statement des Philosophen Baruch Spinoza halten, der meinte, daß wir dann eine Sache als „Zufall“ ansehen, wenn wir sie nicht verstehen. (At res aliqua nulla alia de causa contingens dicitur nisi respectu defectus nostrae cognitionis.)


* Details und Literatur zu diesem Essay finden sich in einem aktuellen, online frei zugänglichem Reviewartikel des Autors: C.R. Noe et al., Formaldehyde—A Key Monad of the Biomolecular System, Life 2013, 3, 486-501.


Weiterführende Links

Sutter's Mill: Meteorit enthielt Bausteine für Leben „Mit einem gewaltigen Knall ging der Meteorit Sutter's Mill im April 2012 in den USA nieder. Nun haben Wissenschaftler in den Bruchstücken komplexe Kohlenstoffverbindungen nachgewiesen - wichtige Bausteine für die Entstehung von Leben auf der Erde.“ http://www.spiegel.de/wissenschaft/weltall/meteorit-sutter-s-mill-liefer...

U. Kutschera: Was sind Ursprungstheorien? (Tatsache Evolution) (2011) Die Gesetze der Physik und Chemie reichen aus, um im Prinzip den Ursprung der ersten Vorläufer-Zellen zu verstehen, obwohl noch viele Detailfragen zur chemischen Evolution ungelöst und daher Gegenstand der Forschung sind. 10:35 min Artikel: Jack W. Szostak und Alonso Ricardo (2010) „Wie das Leben auf die Erde kam“ Im Labor wiederholen Forscher die tastenden Schritte, mit denen einst aus unbelebter Materie die ersten Organismen entstanden. Harald Lesch: Wasser - Grundbaustein des Lebens (2012) 11:17 min. Harald Lesch: Alpha centauri – Wie dünn war die Ursuppe? Folge 54 (2012) 14.15 min. Entstehung des Lebens - Abiogenese 10 min. Im ScienceBlog: P. Schuster: Zum Ursprung des Lebens — Konzepte und Diskussionen


 

inge Fri, 15.11.2013 - 06:07

Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

Fr, 08.11.2013 - 07:50 — Gottfried Schatz

Icon BiologieGottfried Schatz

Mitochondrien - essentielle Bestandteile der Zellen aller höheren Lebewesen - erzeugen durch die Verbrennung von Nahrung die zum Leben notwendige Energie. Diese ursprünglich freilebenden Bakterien wurden von anderen Bakterien vor rund zwei Milliarden Jahren eingefangen. Gottfried Schatz`s Arbeiten über Mitochondrien erzielten Durchbrüche in diesem Forschungsgebiet (u.a. Entdeckung der mitochondrialen DNA, Aufklärung des Mechanismus des Proteintransports in Mitochondrien ).

Noch nie hatte ich so gefroren. Auf der Flucht vor den Kriegswirren waren wir im Februar 1945 in unserem ungeheizten Zug nachts stecken geblieben, und die schneidende Kälte verhinderte jeden Schlaf. Bei Morgengrauen schlüpfte ich jedoch heimlich unter den Mantel meines schlummernden Sitznachbarn, dessen Körperwärme mir endlich den ersehnten Schlaf schenkte. Nie werde ich diese wohlige Wärme vergessen. Aber woher kam sie? Ich konnte nicht ahnen, dass sie einmal mein Forscherleben prägen und mir aus der Frühzeit des Lebens erzählen würde.

Meine Zellen gewinnen Energie durch Verbrennung von Nahrung. Bei dieser «Zellatmung» verbrauchen sie Sauerstoffgas, speichern einen Teil der Verbrennungsenergie als chemische Energie und verwenden diese zum Leben. Je mehr Arbeit eine Zelle leistet, desto intensiver atmet sie. Meine Gehirnzellen atmen intensiver als alle anderen Zellen meines Körpers und erzeugen pro Gramm und pro Sekunde zehntausendmal mehr Energie als ein Gramm unserer Sonne.

Ein Blick in die Geschichte des Lebens

All dies verdanken meine Zellen winzigen Verbrennungsmaschinen - den Mitochondrien. Im Mikroskop erscheinen sie meist als einzelne Würmchen, können aber auch als kontinuierliches Netzwerk die ganze Zelle durchziehen (Abbildung 1, links). Sie besitzen sogar eigene Erbanlagen, die den Bauplan für dreizehn Proteine tragen (Abbildung 1, rechts).

MitochondrienAbbildung 1. Mitochondrien sind kleine Zellorganellen, die in Zellen mit hohem Energieverbrauch sehr zahlreich vorliegen (1000 – 2000 z.B.in Hirn, Muskel). Links: Osteosarkom Zellen. Färbungen: Mitochondrien: grün, Zellkerne blau, Tubulin rot (Konfokalmikroskop, Quelle: Cell Image Library CIL:40472). Rechts: elektronmikroskopisches Bild eines Mitochondriums, darunter schematische Abbildung. EP (gelb): die innere Membran ist dicht mit den Proteinen der Verbrennungsmaschine (Elementarpartikel) besetzt (Quelle: http://microbewiki.kenyon.edu)

Jedes dieser Proteine ist ein Teil der Verbrennungsmaschine; und wenn eines ausfällt, kann dies für den betroffenen Menschen Blindheit, Taubheit, Muskelschwund, Demenz oder frühen Tod bedeuten. Warum tragen meine Mitochondrien Erbanlagen, obwohl die meisten von ihnen in den Chromosomen des Zellkerns gespeichert sind? Es gibt dafür keine logische Erklärung. Die Antwort liegt in der Geschichte des Lebens - und diese ist so grossartig und spannend wie keine zweite.

Lebende Zellen gibt es auf unserer Erde seit mindestens 3,8 Milliarden Jahren. Die ersten Lebewesen gewannen ihre Energie wahrscheinlich ähnlich wie die heutigen Hefezellen, die organische Stoffe wie Zucker zu Alkohol und Kohlendioxid abbauen. Solche Gärungsprozesse liefern zwar wenig Energie, benötigen jedoch kein Sauerstoffgas; dies war für die frühen Lebewesen entscheidend, da dieses Gas in der jungen Erdatmosphäre noch fehlte. Als sich das Leben immer mehr ausbreitete, verbrauchte es die vorhandenen organischen Stoffe und schlitterte in eine gigantische Energiekrise. Der Retter war ein neuartiges Lebewesen, das Licht als Energiequelle verwendete und so dem Leben auf unserer Erde eine praktisch unbegrenzte Energiequelle erschloss - die Kernfusionen in unserer Sonne. Die lichtverwertenden Lebewesen überwucherten den Erdball, so dass noch heute gewaltige versteinerte Hügel in den Meeren von ihnen zeugen. Die Verwertung von Sonnenlicht setzte jedoch aus Wasser Sauerstoffgas frei, das Zellen durch Oxidation schädigt. Diese Vergiftung mit Sauerstoffgas verursachte wahrscheinlich das grösste Massensterben in der Geschichte des Lebens, bis Zellen schliesslich Schutzmechanismen entwickelten und sich auch in der oxidierenden Atmosphäre vermehren konnten. Unsere heutige Atmosphäre besteht zu einem Fünftel aus Sauerstoffgas, das zur Gänze ein Abfallprodukt lebender Zellen ist. Bald entwickelten sich Zellen, die mit diesem Gas die organischen Überreste anderer Zellen verbrannten und die Verbrennungsenergie zum Leben verwendeten. Die Zellatmung war erfunden. Vor etwa zweitausend Millionen Jahren gab es auf unserer Erde somit drei Hauptarten von Lebewesen, die alle den heutigen Bakterien ähnlich waren. Sie besassen nur wenig Erbsubstanz und deswegen nicht genügend biologische Information, um komplexe vielzellige Organismen zu bilden. Die erste Art verwendete die Energie des Sonnenlichts. Die zweite verbrannte die Überreste dieser Lebewesen. Und die dritte Art konnte weder das eine noch das andere, sondern lebte wie die allerersten Zellen mehr schlecht als recht von der Vergärung zuckerartiger Stoffe.

Eingefangene Bakterien

Doch gerade dieser rückschrittlichen dritten Art gelang vor etwa anderthalb Milliarden Jahren ein Meisterstück: Sie fing atmende Bakterien ein, benützte sie als Energielieferanten und bot ihnen im Gegenzug wahrscheinlich eine schützende Umgebung und eine bessere Verwahrung der Erbsubstanz (Abbildung 2). EndosymbiontentheorieAbbildung 2. Einfangen von Bakterien – die Endosymbiontentheorie. „Atmende“ Bakterien (C) und photosynthetische Bakterien (E) sind von anderen Bakterien (B, Archäa?) eingefangen worden und haben sich zu Zellorganellen – Mitochondrien und Plastiden – eukaryotischen Zellen entwickelt. (Bild: Wikipedia)

Die eingefangenen Bakterien gewöhnten sich an ihren Wirt, übergaben ihm nach und nach den grössten Teil ihrer Erbsubstanz und konnten deshalb bald nicht mehr ohne ihn leben. Sie wurden zu seinen Atmungsorganen - den Mitochondrien. Umgekehrt nahmen sie mit der Zeit ihrem Wirt so viele wichtige Stoffwechselprozesse ab, dass auch dieser schliesslich nicht mehr allein leben konnte. Diese Lebensgemeinschaft schuf einen neuen Zelltyp, der über das Erbgut zweier Lebewesen verfügte und deshalb komplexe Pflanzen und Tiere bilden konnte. Das Erbgut in meinen Mitochondrien ist der kümmerliche Rest des Erbguts der einst freilebenden Bakterien.

Mitochondrien steuern ihre Feuer sehr genau und drosseln sie, wenn die Zelle über genügend Energie verfügt. Wenn diese Steuerung versagt, sind die Auswirkungen verheerend. Ein tragisches Beispiel dafür war eine 27-jährige Schwedin, die 1959 in einer Klinik Hilfe suchte, weil sie selbst bei grösster Kälte stark schwitzte und trotz ihrer abnormalen Esssucht spindeldürr blieb. Die Ärzte erkannten zwar, dass die Feuer ihrer Mitochondrien ausser Kontrolle brannten, konnten ihr aber nicht helfen, so dass sie sich zehn Jahre später verzweifelt das Leben nahm.

Selbst in gesunden Mitochondrien arbeitet die Verbrennung nicht perfekt, sondern wirft Nebenprodukte ab, welche die Zelle - und vor allem die Mitochondrien selbst - durch Oxidation schädigen. Diese Schäden tragen dazu bei, dass meine Mitochondrien und mein ganzer Körper altern. Geschädigte Mitochondrien liefern mehr oxidierende Abfälle, welche dann die Schäden weiter verstärken. Aus diesem Teufelskreis führt für eine Zelle oft nur der Selbstmord. Wenn Mitochondrien so stark geschädigt sind, dass ihre Energielieferung zusammenbricht, senden sie chemische Botenstoffe aus, die der Zelle befehlen, sich selbst zu töten. Die Zelle verdaut sich dann selbst, verpackt die Überbleibsel in kleine Membransäcke und überlässt diese streunenden Fresszellen als Beute. Sie orchestriert dieses Harakiri ebenso sorgfältig wie Wachstum und Teilung und bestätigt damit, dass Leben und Tod zwei Erscheinungsformen eines grösseren Ganzen sind. So wie Persephone als Tochter der Fruchtbarkeitsgöttin mit Hades über die Toten herrschte, können meine lebenspendenden Mitochondrien meinen Zellen auch den Tod verkünden. Sie und ihr Wirt suchen immer noch neue Wege, um miteinander auszukommen. Meine Mitochondrien sind ein Teil von mir, aber immer noch Fremde.


Weiterführende Links: Scobel - Die Zelle 58:16 min Gottfried Schatz: spricht auf der Frankfurter Buchmesse 2010 über sein Buch "Feuersucher", die Entdeckung der Mitochondrien und die Leidenschaft eines Naturwissenschaftlers. 3:08 min Neue Videos von Gottfried Schatz: Podiumsgespräch Das Wunder "Schöpfung" (21.10.2013) Prof. Dr. Gustav Tammann und Prof. Dr. Gottfried Schatz. entführen uns mit verständlichen Worten in die faszinierende Welt des Makro- und Mikrokosmos- 49:15 min Interview Aeschbacher vom (17.01.2013 – 12:06 min) Vortrag : What Science is, what it gives us – and what it takes to succced in it. (9.6.2013). EMPA TV 52:03 min


 

inge Fri, 08.11.2013 - 07:50

Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

Do, 31.10.2013 - 23:00 — Josef Seethaler & Helmut Denk

ÖAWJosef SeethalerHelmut DenkDie Kluft zwischen Wissenschaft und Öffentlichkeit zu verringern ist eine Forderung an die Wissenschaft selbst. Aber auch die Medien – allen voran das öffentlich-rechtliche Fernsehen – sollten hier eine besonders wichtige Rolle spielen: Informationen über wissenschaftliche Forschungen müssten jene Themen begleiten, mit denen sie sich auseinandersetzen, wären also überall zu platzieren, auch in Politik und Wirtschaft, in Kultur und Sport und im Lifestyle.

Die Forschung zum Thema Wissenschaftskommunikation ist sich ziemlich einig: Die unbefriedigende Bilanz des Ist-Zustandes ist auf ein ebenso einseitiges wie überholtes Verständnis von Wissenschaftsjournalismus zurückzuführen, das ausschließlich dem Postulat der Wissenschaftsvermittlung und Wissenschaftspopularisierung gehorcht. Ihm liegt die Vorstellung eines Informationstransfers aus der Wissenschaft in die Öffentlichkeit zugrunde, welche die Medienberichterstattung einerseits nach wissenschaftlichen Maßstäben beurteilt und andererseits Relevanzkriterien und Kommunikationserwartungen des Publikums den Bedürfnissen der Wissenschafts-PR unterordnet.

Kritik an der Wissenschaftspopularisierung

Obwohl in den USA schon in den 1980er Jahren und einige Jahre später auch in der britischen Wissenschaftslandschaft in zunehmendem Maße Kritik an diesem „Popularisierungsparadigma“ formuliert wurde, vollzog sich dennoch in vielen europäischen Staaten die eingangs erwähnte Ausweitung der Wissenschaftsberichterstattung unter seiner Prämisse – und führten zu jener für Wissenschaft, Journalismus und Gesellschaft unbefriedigenden Situation, die sich in den empirischen Daten widerspiegelt:

  • Die Wissenschaft steht unter Druck, sich so gut wie möglich zu „verkaufen“, um die politisch geforderte Legitimierung ihrer Tätigkeit zu erreichen.
  • Der Journalismus steht unter Druck, sein eigenes Selbstverständnis, nämlich die Vermittlung von Lebenszusammenhängen, zu verleugnen, um die Auftraggeber einer als PR-Produkt missverstandenen Wissenschaftsberichterstattung zufriedenzustellen.
  • Die Gesellschaft steht unter Druck, mit einer Wissenschaftsberichterstattung vorlieb zu nehmen, die kaum ihren Bedürfnissen entspricht. Sie verfügt aber über die Freiheit, Wissenschaftsberichterstattung als ein Medienangebot unter vielen zu begreifen, das sie anderen Angeboten hintanstellen kann. Das bedeutet, dass die Wissenschafts-PR vor allem die Forschungspolitik und weniger die Gesellschaft bedient.

Paradigmenwechsel in der Wissenschaftskommunikation

Dem normativen Konzept einer wissenschaftszentrierten „Aufklärung“ der Öffentlichkeit setzen neuere medien- und kommunikationswissenschaftliche Forschungen ein Modell entgegen, dessen Fokus nicht mehr auf der „erfolgreichen“ Vermittlung, sondern auf der Rezeption und Integration wissenschaftlich fundierten Wissens in den Lebenszusammenhang der Menschen liegt.

Statt der zentralen Annahme von Wissenschaft als eine dem Wertfreiheitspostulat unterliegende und gewissermaßen neutrale Tätigkeit, verweist es auf soziale Bedingtheit und Interessengebundenheit auch wissenschaftlicher Erkenntnisse. In diesem Zusammenhang bedeutet Wissenschaftskommunikation nicht Wissenschaftsvermittlung, sondern die kommunikative Einbettung von Wissenschaft in gesellschaftliche Zusammenhänge.

Ein solches Modell geht davon aus, dass in einer funktional ausdifferenzierten Gesellschaft die Beobachtung von Ereignissen für die Ausbildung wechselseitiger gesellschaftlicher Umwelterwartungen durch ein eigenes Funktionssystem, die Öffentlichkeit, übernommen werden, als dessen organisiertes Leistungssystem der Journalismus fungiert. Seine gesellschaftliche Funktion besteht darin, die Komplexität der Ereignisse unter dem Gesichtspunkt, ob sie zur Ausbildung von gegenseitigen gesellschaftlichen Umwelterwartungen beitragen können, zu reduzieren. Matthias Kohring von der Universität Mannheim hat die Funktion des Wissenschaftsjournalismus auf den Punkt gebracht:

„Ein Journalist informiert nicht schon deshalb über ein wissenschaftliches Ergebnis, weil es produziert wurde und schon deshalb einen (Nachrichten-)Wert hatte. Dieser Ansicht sind vor allem Wissenschaftler. Ein Journalist informiert über dieses Ergebnis, weil es einen Bezug zur übrigen Gesellschaft aufweist, und zwar aus der Sicht dieser ‚übrigen Gesellschaft“.

Gerade darin, dass der Journalismus – anders als unter der Perspektive einer Wissenschaftspopularisierung – Gesellschaft und Wissenschaft in gleicher Weise auf Ereignisse hin beobachtet, die wechselseitig von Relevanz sind, liegt für beide Seiten der Gewinn begründet. In diesem Prozess kommt nicht einzelnen „Highlights“ und nicht einzelnen „Stars“, sondern der Glaubwürdigkeit und Vertrauenswürdigkeit von Wissenschaft (wie dies auch in der Eurobarometer-Umfrage zum Ausdruck kommt) zentrale Bedeutung für die Risikowahrnehmung und Wissensaneignung der Menschen zu.

Empfehlungen

Forderungen an die Wissenschaft

Die Kluft zwischen Wissenschaft und Öffentlichkeit zu verringern ist also zuallererst eine Forderung an die Wissenschaft selbst. Es geht um das Selbstverständnis der Wissenschaft, die sich angesichts einer zunehmenden Beschränkung der Ressourcen und wachsender administrativer Reglementierungen zusehends dem Diktat der Ökonomisierung vorbeugt.

Dies heißt nicht, dass ökonomische Überlegungen in der wissenschaftlichen Tätigkeit keinen Platz hätten, sondern dass die Selbstkommerzialisierung der Wissenschaft deren besonderen Charakter als meritorisches Gut gefährdet:

Gerade weil die Wissenschaft sich dem Wechselspiel von Angebot und Nachfrage entzieht, kann sie ihre gesellschaftliche Wirkkraft entfalten. Der „Erfolg“ von Wissenschaft bemisst sich nicht allein im wirtschaftlichen oder politischen „Nutzen“, sondern auch in Kategorien wissenschaftlicher Qualität und wissenschaftlicher Ethik.

Diese Alleinstellungsmerkmale der Wissenschaft sollten im öffentlichen Diskurs stärker als Vorteil und als Voraussetzung für wissenschaftliche Erkenntnis positioniert werden.

Die Wissenschaft ist aber auch aufgefordert, ihren Anspruch auf „Wahrheit“ zu überdenken. Eine Wissenschaft, die sich der gesellschaftlichen Bedingtheit und Interessengebundenheit auch wissenschaftlichen Wissens bewusst ist und damit die Pluralität und Diskussion von wissenschaftlichen Meinungen nicht nur für sich als konstitutiv begreift, wird auch der Öffentlichkeit vermitteln, dass Wissen stets im Fluss ist und das Nebeneinander von Meinungen in der Auseinandersetzung keine Schwäche, sondern eine Stärke ist, weil auch die Komplexität der Probleme oft alternative Problemlösungen erfordert.

Der „Wahrheitsanspruch“ hingegen mündet im „Popularisierungsparadigma“, da Wahrheit nicht zur Diskussion stehen, sondern nur in ihrer Komplexität reduziert, „popularisiert“ werden kann – und damit im schlimmsten Fall in der dem wissenschaftlichen Diskurs entkoppelten politischen Öffentlichkeit für populistische Lösungen missbraucht wird.

Forderungen an die Medien

Die Medien sind eingeladen, an diesem Paradigmenwechsel mitzuwirken und Wissenschaft in ihrer Vielfalt der Problemdefinitions- und Problemlösungskompetenz aus dem Ghetto der Wissenschaftsseiten herauszuholen und dort zu platzieren, wo sie hingehört: nämlich mitten ins Leben.

Wissenschaftsjournalismus ist überall: in der Politik, in der Wirtschaft, in der Kultur, im Sport und im Lifestyle.

Wenn Wissenschaft und Forschung derart als Querschnittsmaterie begriffen werden, sind Auswirkungen auf Programmstrukturen und journalistische Praxis unausweichlich.

Die derzeitige, von der Wissenschafts-PR dominierte Situation ist ja (auch) dadurch entstanden, dass traditioneller Wissenschaftsjournalismus nicht über Anzeigen finanzierbar war. Dies wird in gleicher Weise für den hier angedachten „neuen“ Wissenschaftsjournalismus gelten, der weniger auf PR, aber umso stärker auf die beidseitige Beobachtung von Wissenschaft und Gesellschaft setzt. Auch wenn es in Zeiten von Sparbudgets unpopulär ist:

Die „traditionellen“ Medien, aber auch die neuen Formen der „social media“ brauchen dafür die Unterstützung durch die öffentliche Hand, in Form von Maßnahmen der Medienförderung, der journalistischen Aus- und Weiterbildung und der Qualitätssicherung.

Rolle des Fernsehens

Das öffentlich-rechtliche Fernsehen spielt in den Beziehungen zwischen Wissenschaften und Medien eine besondere Rolle. Das Fernsehen ist (um nochmals auf die Eurobarometer-Daten zurückzukommen) nicht nur die zentrale, sondern die bei weitem glaubwürdigste Quelle für wissenschaftliche Information (Abbildung 1), woraus sich vor allem für ein öffentlich-rechtliches Unternehmen eine besondere Verantwortung ableiten lässt.

InformationsmedienAbbildung 1. Informationsmedien für Wissenschaftsthemen (Quelle: Special EUROBAROMETER 282. 2007 (QB4))

Fast die Hälfte der österreichischen Bevölkerung nutzt das Fernsehen für den Bezug wissenschaftlicher Informationen, fast zwei Drittel halten es für glaubwürdig. An zweiter Stelle stehen Zeitungen (42 Prozent); die Nutzung des Internets liegt etwa gleich hoch mit jener der Special Interest Magazine an dritter Stelle (mit jeweils an die 25 Prozent), ist aber in besonderer Weise abhängig von Alter und Bildungsgrad. Noch deutlicher lasst sich der Stellenwert des Fernsehens an den Prioritäten des Publikums ablesen: Vier Fünftel aller Österreicher bevorzugen das Fernsehen als Quelle wissenschaftlicher Information. Im europäischen Durchschnitt liegen übrigens tatsachliche Nutzung und Prioritätensetzung viel näher beieinander; die österreichischen Daten lassen sich daher als Aufforderung an die Fernsehverantwortlichen lesen, in das Angebot an wissenschaftlicher Information zu investieren – das Publikum wurde es honorieren.

Das gilt auch für die Forderung, Wissenschaft aus dem Ghetto der Wissenschaftsberichterstattung herauszuholen. So wichtig eigene Wissenschaftssendungen oder gar ein eigener Spartenkanal sein mögen, Informationen über wissenschaftliche Forschungen müssen jene Themen begleiten, mit denen sie sich auseinandersetzen. Gerade bei durchschnittlicher Mediennutzung bevorzugt das österreichische Publikum regelmäßige kurze Berichte – und zwar zur Primetime. Ziel ist die öffentliche Thematisierung grundlegender Fragen durch die Wissenschaft und die Einbindung ihres Problemlösungspotenzials in den gesellschaftlichen Diskurs. Wie das Beispiel der USA und Großbritanniens zeigt, ist der Weg von einem solchen „Public Understanding of Science“ zu einem „Public Engagement with Science“ ein langer und schwieriger Weg, aber er ist unausweichlich, wenn Wissenschaft und Forschung in der Öffentlichkeit jenen Stellenwert einnehmen sollen, der ihnen in einer Gesellschaft, die mehr denn je auf Wissen und Know-how aufbaut, zukommen müsste. Dies gilt insbesondere für der Bildung unserer Jugend, wenn sie später einmal als gut-informierte Staatsbürger handeln sollen (Abbildung 2).

PädagogikAbbildung 2. Antworten zu: “Wissenschaft bereitet die Jugend vor auf ihr Handeln als gut-informierte Staatsbürger“ (Quelle: Special EUROBAROMETER 340,2010) QC15.3)

Die Österreichische Akademie der Wissenschaften sieht ihren Beitrag darin, eine unabhängige Plattform für einen pluralistischen Diskurs über gesellschaftlich relevante Problemstellungen zu bieten, in dem die öffentliche Beratung gleichwertig zur Problemanalyse und Problembewertung hinzutritt und der Prozess für eine breite Beteiligung eröffnet wird.


Anmerkungen der Redaktion

Der vorliegende Text basiert auf dem Artikel: Josef Seethaler & Helmut Denk: Bedeutung des öffentlich-rechtlichen Rundfunks für die Wissenschaft in Österreich. ORF-Schriftenreihe "Texte 8- Öffentlich-rechtliche Qualität im Diskurs (2012). (PDF-DOwnload; zuletzt abgerufen am 8.10.2013).

Auf Grund der Länge dieses Artikels und der Absicht, diesen ungekürzt und zusätzlich mit Illustrationen versehen zu bringen, wurde dieser geteilt. Teil 1: „Wissenschaftskommunikation in Österreich und die Rolle der Medien. Eine Bestandsaufnahme“

Literaturzitate zu beiden Teilen sind unter der angegebenen Quelle zu finden. Die Illustrationen basieren auf „Special Eurobarometer“ Umfragen.

Weiterführende Links

 Zum “Special Eurobarometer” 2007

“During spring 2007, the European Commission undertook a public opinion survey (Eurobarometer) to find out what Europeans think about the reporting of scientific research in the media. The survey was carried out in the 27 EU Member States, interviewing approximately 27 000 people.”

“What is the level of public interest in scientific research? Which information sources do European citizens prefer to use to find out about science and research? How satisfied is the public with the way science and research is communicated in the different media: written, audiovisual, new media? What do citizens think about the quality and quantity of information on science and research available in the media?” D

azu gibt es umfassende Berichte (in Englisch) Scientific research in the media 119p. (PDF-Download; December 2007)

 Public Opinion (PDF-Download)

Special Eurobarometer: Science and Technology Report (2010), 163 p (PDF-Download)

Bisher im ScienceBlog erschienene Artikel zum Thema Wissenschaftskommunikation:


 

inge Thu, 31.10.2013 - 23:00

Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor

Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor

Do, 24.10.2013 - 23:00 — Carl Djerassi

Icon ChemieCarl Djerassi

Carl Djerassi, einer der bedeutendsten und höchstdekorierten Chemiker der Welt, hat 1951 mit den Synthesen von Cortison und insbesondere von Norethisteron, dem Wirkstoff des ersten oralen Verhütungsmittels - der „Pille“- Geschichte geschrieben. Diese und weitere Erfolge haben die Wissenschaft geprägt und ebenso die Verhaltensnormen unserer Gesellschaften revolutioniert. Der vorliegende Beitrag beschäftigt sich nicht mit den Leistungen des Chemikers Djerassi, sondern mit seinem Bestreben einem breiteren Publikum Naturwissenschaften nahezubringen, wofür er neue Formen der Kommunikation „Science in Fiction“ und „Science in Theater“ entwickelt hat. Dieses Anliegen ist auch Thema seiner letzten, vor rund einem Monat erschienenen, Autobiografie „Der Schattensammler“, woraus er dem ScienceBlog Ausschnitte zur Verfügung stellt.

Carl-Djerassi-BriefmarkeAuf der österreichischen Briefmarke, die mein Gesicht trägt, werde ich als Romancier und Chemiker bezeichnet. ,,Romancier" ist ein schönes Wort, das ich liebend gern für mich in Anspruch nehme. Darum möchte ich aufzeichnen, wie ich mich vom Chemiker - der wie alle Naturwissenschaftler, die publizieren, ipso facto ein Schriftsteller ist - in jemanden verwandelte, der im fortgeschrittenen Alter beschloss, in den Mantel des Romanautors zu schlüpfen und in der Folge auch in den des Bühnenautors.

„Was für ein Chemiker sind Sie?“

Das setzt zwei weitere Fragen voraus, nämlich: „Warum sind Sie Naturwissenschaftler geworden?“ und: „Warum sind Sie es so lange geblieben?“ Die erste ist kurz und bündig zu beantworten: durch einen „glücklichen Zufall“. Dier zweite ebenfalls: aus „Nervenkitzel, Neugier und Ehrgeiz“.

Da mein Professorenleben ursprünglich in der Chemie begann, muß ich zunächst erläutern, was für ein Chemiker ich eigentlich bin. Ich bin organischer Chemiker, d.h. ich beschäftige mich mit Molekülen, die Kohlenstoffatome enthalten. Das klingt einfach, bis einem klar wird, daß es die ganze Chemie des Lebens mit ihren Abermillionen von natürlichen und synthetischen Substanzen umfaßt, deren Molekulargewicht von 16 für das einfache Gas Methan bis hin zu den Proteinen und Polymeren reicht, deren Molekulargewicht über eine Million betragen kann.

Um meine eigene chemische Persona zu beschreiben, ist es am einfachsten, den Bereich der organischen Chemie zunächst in theoretische und experimentelle organische Chemie zu unterteilen, wobei letztere mein Gebiet ist. Von den vielfältigen Unterteilungen der letztgenannten nenne ich nur zwei: Synthese und Strukturbestimmung. Meine gesamte Forschung in der Industrie – erst bei CIBA in New Jersey, ein Jahr lang vor dem Promotionsstudium und weitere vier Jahre nach der Promotion, und anschließend zwei Jahre bei Syntex in Mexico City - fand auf dem Gebiet der synthetischen organischen Chemie statt (Abbildung 2), während der überwiegende Teil meiner universitären Forschung, beginnend mit meinen ersten Kaktusstudien im Jahr 1952, auf die eine oder andere Art mit der Aufklärung der chemischen Struktur von Naturstoffen verbunden war.

Djerassi & ZaffaroniAbbildung 2. „Interessanterweise ist das von Syntex entwickelte Norethisteron noch immer ein allgemein benutzter aktiver Wirkstoff oraler Kontrazeptiva“ Carl Djerassi (rechts) und Alejandro Zaffaroni (links) diskutieren die chemische Struktur des Norethisteron.

In den 1960er Jahren verlagerte sich mein Interesse von der kontrazeptiven „Hardware“ wie der Pille auf die kontrazeptive „Software“, d.h. auf die kulturellen, politischen, religiösen, wirtschaftlichen und juristischen Aspekte der Empfängnisverhütung. Nachdem ich mich in diesen Dschungel begeben hatte, war es nur ein kleiner Schritt, diesem Interesse durch die Einführung einer der ersten gesellschaftspolitischen Lehrveranstaltungen des neu gegründeten Fachbereichs Humanbiologie an der Universität Stanford nachzugehen.

„Deformation professionelle“

Als ich begann die Standardpraktiken eines Chemieprofessors hinter mir zu lassen, wurde ich ,,deformiert" und habe dadurch das Niveau meines professoralen und meines beruflichen Lebens in einer Weise erweitert und angehoben, die ich keineswegs verteidigen muss. Vielmehr halte ich diese Deformation für etwas Verlockendes und die Reaktion meiner Studenten hat dies oft bestätigt. Es ist jedoch fraglich, ob alle meine Chemikerkollegen an der Stanford University, wo ich über ein halbes Jahrhundert, länger als jedes andere Mitglied des Fachbereichs Chemie, tätig war, diese Meinung teilen. Ich sage dies, weil die Chemie, neben der Physik, die exakteste der exakten Wissenschaften ist, der Fels, auf dem die biomedizinische, die Umwelt- und die Materialwissenschaft ihre molekularen Strukturen aufbauen; gleichzeitig ist sie auch die eigenständigste unter den exakten Wissenschaften.

Leider errichten viele ihrer akademischen Vertreter stolz hohe, wenn nicht sogar undurchdringliche Mauern, die eine sinnvolle intellektuelle Interaktion mit nicht naturwissenschaftlichen Fachbereichen verhindern, und es werden kaum Versuche unternommen, diese Kluft zu überbrücken. Obwohl sich Chemiker in dieser Zeit der grassierenden Chemophobie ständig in die Defensive gedrängt fühlen, sind die meisten nicht gewillt, naturwissenschaftliche Laien für ihre Disziplin zu gewinnen, nicht einmal innerhalb der akademischen Welt. Mit missionarischer Arbeit dieser Art sind in der akademischen Chemikergemeinschaft kaum Pluspunkte zu sammeln.

Vom Chemiker zum Romancier

Was veranlaßte mich, einen Naturwissenschaftler aus der exakten Wissenschaft der Chemie, in die Belletristik überzuwechseln? Obwohl die Kluft zwischen den Naturwissenschaften und der kulturellen Welt der Geistes-und Sozialwissenschaften immer größer wird, verschwenden Naturwissenschaftler herzlich wenig Zeit darauf, mit diesen anderen Kulturen ins Gespräch zu kommen. Das liegt vor allem an der Besessenheit des Naturwissenschaftlers, Anerkennung unter seinesgleichen zu finden und daran, daß seine Zunft kaum Anreize bietet, mit der breiten Öffentlichkeit zu kommunizieren, die nichts zu der beruflichen Reputation des Wissenschaftlers beiträgt.

Science-in-Fiction – ein neues Genre

Ich beschloß etwas zu unternehmen, um einem breiteren Publikum die Kultur der Naturwissenschaften nahezubringen, und zwar mit einem Genre dem ich kurze Zeit später den Namen Science-in-Fiction gab. Für mich fällt ein literarischer Text nur dann in dieses Genre, wenn die darin beschriebenen Vorgänge allesamt plausibel sind.

Für die Science-Fiction gelten diese Einschränkungen nicht. Damit will ich keinesfalls andeuten, daß die naturwissenschaftlichen Fantasieprodukte in der Science-Fiction unangebracht wären. Aber, wenn man die freie Erfindung wirklich dazu nutzen will, um einer wissenschaftlich unbeleckten Öffentlichkeit unbemerkt wissenschaftliche Fakten zu Bewußtsein zu bringen – eine Art Schmuggel, den ich intellektuell und gesellschaftlich für nützlich halte – dann ist es ausschlaggebend, die zugrundeliegenden wissenschaftlichen Fakten exakt wiederzugeben. Wie soll der wissenschaftliche Laie andernfalls wissen, was ihm zur Unterhaltung präsentiert wird und was Faktenwissen ist?

Aber warum sich dabei ausgerechnet der Erzählliteratur zu widmen?

Die meisten naturwissenschaftlich nicht vorgebildeten Menschen schrecken vor den Naturwissenschaften zurück und lassen innerlich einen Vorhang herunter, sobald sie merken, daß ihnen irgendwelche wissenschaftlichen Fakten aufgetischt werden sollen. Genau diesen Teil der Öffentlichkeit – die wissenschaftsfernen oder sogar wissenschaftsfeindlichen Leser – möchte ich erreichen. Statt mit der aggressiven Einleitung „Ich werde Ihnen jetzt etwas über mein Fachgebiet erzählen“ anzufangen, beginne ich lieber ganz harmlos „Ich werde Ihnen jetzt eine Geschichte erzählen“, und baue dann realistische naturwissenschaftliche Vorgänge und aus dem Leben gegriffene Wissenschaftler in die Handlung ein.

Zur Stammeskultur der Wissenschaftler

Wie ich im Nachwort meines ersten Science-in-Fiction Romans „Cantors Dilemma“ (inzwischen in der 29. Auflage) ausdrücklich hervorhob, agieren Wissenschaftler innerhalb einer Stammeskultur, deren Regel, Sitten und Eigenarten im Allgemeinen nicht durch Vorlesungen oder Bücher vermittelt werden, sondern vielmehr in einer Mentor-Schüler Beziehung durch eine Art intellektuelle Osmose erworben werden. Gewiefte junge Wissenschaftler sind voll damit beschäftigt, die egoistischen Interessen ihres Mentors zu verinnerlichen: die Veröffentlichungspraktiken und Fragen der Priorität, die Reihenfolge der Autoren, die Wahl der Fachzeitschriften, die Bemühungen um eine Festanstellung, das Einwerben von Drittmitteln, die Schadenfreude und sogar das Gieren nach dem Nobelpreis. Die meisten dieser Aspekte haben mit dem Verlangen nach namentlicher Anerkennung und finanzieller Belohnung zu tun, und jeder dieser Aspekte ist mit ethischen Nuancen behaftet.

Für mich, der ich über vier Jahrzehnte in dieser Stammeskultur verbracht habe, war es wichtig, daß Naturwissenschaftler von der Öffentlichkeit nicht vorrangig als Fachidioten, Frankensteins oder Strangeloves („Drs Seltsam“) wahrgenommen werden. Und da sich Science-in Fiction nicht nur mit Wissenschaft befaßt, sondern insbesondere mit Wissenschaftlern, glaube ich, daß ein Stammesangehöriger seine Kultur und die Verhaltensweisen seines Stammes am besten beschreiben kann, wie ich es in einer auf vier Bände angelegten Romanreihe (Cantors Dilemma; Das Bourbaki Gambit; Menachems Same; und NO) getan habe.

Auf diesem Terrain tummle ich mich seit über 20 Jahren, und der interessierte Leser kann es erkunden, wenn er in diesen Büchern schmökert*, die infolge meines Ehrgeizes entstanden sind, auf diesem Gebiete zu schürfen.

Science-in-Fiction – „hineingeschmuggelte“ Didaktik

Während die Aufsätze und Artikel eines Naturwissenschaftlers vorrangig der Übermittlung von Erkenntnissen dienen und unter diesem Gesichtspunkt akzeptiert und beurteilt werden, einschließlich ihrer didaktischen Komponente, würde ein Romancier didaktischen Ballast dieser Art ablehnen, da Lehrhaftigkeit, sofern sie nicht gut versteckt ist, bei Schriftstellerkollegen und Literaturkritikern für ein Werk oft den Todesstoß bedeutet. Hinzu kommt, dass für den wissenschaftlichen Autor der Inhalt zählt, während Stil nur schmückendes Beiwerk ist. Niemand würde das bei einem Romancier zu sagen wagen.

Meinen eigenen literarischen Arbeiten haftet ganz bewusst zumindest ein Hauch von Lehrhaftigkeit an. Wenn die Worte in der Ars Poetica von Quintus Horatius Flaccus, ,,lectorem delectando pariterque monendo" (den Leser erfreuen und unterweisen zugleich), auch 2.000 Jahre später noch beifällig als zutreffende Beschreibung des Wortes ,,didaktisch" zitiert werden, was spricht dann dagegen, dass ich mich in dem, was Horaz predigte, zumindest versuche?

Science-in-Theatre - der Bühnenautor

Ich habe bereits erwähnt, daß die Überzeugung vieler naturwissenschaftlich nicht vorgebildeter Menschen, sie seien unfähig einschlägige Begriffe zu verstehen, sie davon abhält es auch nur zu versuchen. Für dieses Publikum, und nicht für den schnörkellosen Vortrag, können „Fallbeispiele“ eine reizvolle und überzeugende Methode sein, derartige Schwellen zu überwinden. Wenn auf der Bühne – nicht vom Rednerpult aus oder auf den Druckseiten einer Publikation – ein „Fallbeispiel“ erzählt und verhandelt wird, beginnen wir uns mit Science-in-Theater zu beschäftigen (Abbildung 3).

OxygenAbbildung 3. Fallbeispiel: Wer kann den Ruhm für sich verbuchen Entdecker des Sauerstoffs zu sein? Lavoisier, Scheele oder Priestley? Fiktive Szene aus Oxygen von Carl Djerassi und Roald Hoffmann. (Scheele und Priestley beobachten das berühmte Experiment von Lavoisier zur Rolle des Sauerstoffs in der Atmung.)

Um in diesem Genre zu schreiben, muß der Autor kein Naturwissenschaftler sein. Seit den frühen Dramen mit naturwissenschaftlichem Bezug, wurde alle großen und erfolgreichen diesbezüglichen Stücke von anerkannten Dramatikern geschrieben, die ihre wissenschaftlichen Kenntnisse aus zweiter Hand hatten und Naturwissenschaft hauptsächlich zu metaphorischen Zwecken benutzten.

Wie kommt es, daß meines Wissens noch kein „harter“ Naturwissenschaftler anerkannter Dramatiker geworden ist, während Mediziner (u.a. Anton Tschechow, Arthur Schnitzler) durchaus einen Beitrag geleistet haben? Ist der Mangel an Chemikern, die Stücke schreiben, darauf zurückzuführen, daß es ihnen schwerfällt, selbst mit ihresgleichen ohne Wandtafel, Dias oder andere piktographische Hilfsmittel zu kommunizieren? Oder liegt es daran, daß Chemiker sich in erster Linie mit Abstraktionen auf Molekularebene beschäftigen, während Ärzte ihre Zeit damit verbringen, sich die Geschichten anderer Menschen anzuhören? Oder liegt es daran, daß der gesamte schriftliche Austausch unter Naturwissenschaftlern rein monologisch ist, während das Theater das Reich des Dialogs ist?

Vielleicht steckt in keiner dieser Verallgemeinerungen der wahre Grund, dennoch reizte mich vor allem der letzte Punkt, mich als Bühnenautor zu versuchen.

Science-in-Fiction ist nicht Science Fiction – ist es Autobiographie?

Die Art Romane und Theaterstücke, die ich in den letzten zwei Jahrzehnten geschrieben habe, haben mich etwas erreichen lassen, was bei einer herkömmlichen Autobiographie schlicht unmöglich ist: den eigenen psychischen Filter zu umgehen und somit Analytiker und Analysand gleichzeitig zu sein. Autobiographien weisen per definitionem Lücken auf – ob aus Versehen oder mit Absicht -, sowohl aus Gründen der Diskretion, als auch aus Scham, Verlegenheit oder auch nur als Folge eines schlechten Gedächtnisses. Meine Romane und Theaterstücke ermöglichten es mir, dem Naturwissenschaftler, dem es an Selbstreflexion fehlte, mich unter dem Deckmantel der freien Erfindung mit den unauslöschlichen Spuren zu beschäftigen, die die Kultur der naturwissenschaftlichen Zunft, der ich über ein halbes Jahrhundert angehörte, bei mir hinterlassen haben. Zweifellos sind die zentralen Themen meiner literarischen Arbeit allesamt unbewußt einem inneren Verlangen entsprungen, diese in meinem Leben so wichtigen Themen unter dem Deckmantel der Fiktion unter die Lupe zu nehmen.

Manche Romanautoren sind verkappte Autobiografen, und ich hege nicht den geringsten Zweifel, dass ich zu dieser Untergruppe gehöre.


*Neben 1308 wissenschaftlichen Veröffentlichungen in peer-reviewed Journalen (Thomson Reuters, Web of Knowledge) hat Carl Djerassi eine Reihe von Sachbüchern (Die Mutter der Pille, Von der Pille zum PC), Lyrik, Kurzgeschichten, Romane und Theaterstücke verfaßt.

Eine vollständige Darstellung der schriftstellerischen Tätigkeit, inkl. Inhaltsangaben, Ausschnitten aus seinen Texten, links findet sich auf der Webseite: Webseite: http://www.djerassi.com/

Weiterführende Links

Vortrag von Carl Djerassi über seine Entwicklung vom Wissenschaftler zum Schriftsteller an der Universität Graz (2012): 1:21:57Zusammenschnitt der Dialoge zwischen Prof. Carl Djerassi und Prof. Markus Hengstschläger auf der Bühne des ACADEMIA SUPERIOR PLENUM. "What can the theatre do for science: OXYGEN and PHALLACY": Carl Djerassi at Science Gallery 1:30:53 min (Trinity College Dublin, August 2011; an excerpt from "PHALLACY”, selected clips from a recording of “Oxygen”) A Conversation with Carl Djerassi, 1:11:52 min. Veröffentlicht am 13.04.2012 ; Annual Reviews In this interview, he explains how he went from being a high school student in Vienna escaping the Nazi regime to developing the first birth-control pill in Mexico. Eventually, he oversaw the development of insecticide-free pest control products, which prevented insects from reaching sexual maturity.


 

inge Thu, 24.10.2013 - 23:00

Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

Do, 17.10.2013 - 23:00 — Josef Seethaler & Helmut Denk

ÖAWJosef SeethalerHelmut DenkWissenschaft und Forschung nehmen in unserem Land einen alarmierend niedrigen Stellenwert ein, die Mehrzahl der Österreicher bewertet diesbezügliche Informationen als irrelevant für ihr tägliches Leben. Auf der Datengrundlage aktueller Umfragen (EU-Special Eurobarometer) analysieren Josef Seethaler (Institut für vergleichende Medien- und Kommunikationsforschung der ÖAW) und Helmut Denk (Altpräsident der ÖAW) die Problematik von Wissenschaftsberichten in den Medien.

Das Verhältnis von Wissenschaft und Medien hat sich in den letzten fünfzehn Jahren deutlich gewandelt. Die Wissenschaftsberichterstattung, deren Bedeutung Mitte der 1990er Jahre noch als „stabil marginal“ galt - um den deutschen Kommunikationswissenschaftler Walter Hömberg zu zitieren –, ist heute ein fixer und wichtiger Bestandteil des Medienangebots, vor allem im öffentlich-rechtlichen Rundfunk. Wissenschaftler wiederum sind sich bewusst, dass in der modernen Wissensgesellschaft die Vermittlung für ihre Themen, Resultate und Anliegen an die Öffentlichkeit ein unabdingbarer Bestandteil der wissenschaftlichen Tätigkeit selbst ist. Aber auch erhöhter gesellschaftlicher und politischer Legitimierungsdruck lasst die öffentliche Aufmerksamkeit und die mediale Präsenz zu wettbewerbsrelevanten, wenn auch riskanten Ressourcen werden. Wissenschafts-PR hat sich heute zu einem florierenden Wirtschaftszweig entwickelt, dessen „Nebenwirkungen“ aus einer wissenschaftlichen oder wissenschaftsethischen Sicht nicht immer wünschenswert sind.

Nicht nur deshalb stellt sich die Frage, ob die gegenwärtige Situation befriedigend oder doch verbesserungswürdig ist, und zwar im Sinne aller Beteiligten: für die Wissenschaft, die Medien und für die Gesellschaft, an die sich Wissenschaft und Medien richten.

Zum Stellenwert der Forschung

Ein Blick auf den Stellenwert, den die Forschung in Osterreich in der öffentlichen Wahrnehmung einnimmt, ist alarmierend. Laut einer von der Europäischen Kommission 2010 in Auftrag gegebenen Umfrage in allen EU-Ländern erklären 57 Prozent der Österreicher, dass Informationen über Wissenschaft und Forschung für ihr tägliches Leben keinerlei Bedeutung haben. Das sind fast doppelt so viele wie im EU-Durchschnitt. (Abbildung 1).

Bedeutung von WisenschaftskenntnissenAbbildung 1. Dem Satz: „Kenntnisse über Wissenschaft und Forschung zu besitzen, ist für mein tägliches Leben nicht von Bedeutung“ stimmen 57 % der Österreicher zu (grün), aber nur 33 % im EU-27-Mittel [Quelle: Special EUROBAROMETER 340.2010 (QC6.10)]

Weniger als die Hälfte der Bevölkerung stimmt einer öffentlichen Unterstützung von Grundlagenforschung zu. Das ist rund um die Hälfte weniger als im EU-Durchschnitt. In beiden Rankings bildet Österreich das Schlusslicht unter den Staaten der Europäischen Union (Abbildung 2).

Unterstützung der GrundlagenforschungAbbildung 2. Unterstützung der Grundlagenforschung. (Antwort auf: „Auch wenn sich daraus kein unmittelbarer Nutzen ergibt, ist wissenschaftliche Forschung, die das Wissensspektrum erweitert, notwendig und sollte von der Regierung unterstützt werden“; Quelle:EUROBAROMETER 340.2010 (QC1.5)

Das nationale Image der österreichischen Forschung ist somit denkbar schlecht. Das kann nicht allein an der Medienberichterstattung liegen, hängt aber doch ganz wesentlich mit dieser zusammen; in unserer heutigen Informationsgesellschaft haben die Bürger in kaum einem gesellschaftlichen Bereich die Möglichkeit eigener Primärerfahrung und beziehen ihre Kenntnisse über fast alle Bereiche des öffentlichen Lebens aus den Medien.

Wissenschaftsberichte in den Medien

Welche Medieninhalte interessieren die österreichische Bevölkerung am meisten? Laut einer anderen EU-weiten Umfrage (Special Eurobarometer 282; Abbildung 3) ist es in erster Linie Unterhaltung. Dagegen wäre auch gar nichts einzuwenden, läge nicht in Osterreich der Anteil jener Personen, für die Unterhaltung zu den drei primären Medieninteressen zahlen, weit über dem EU-Durchschnitt (53 gegenuber 35 Prozent). An zweiter Stelle steht der Sport mit 45 Prozent. Mit großem Abstand folgen Politik und Kunst; das Interesse für Wissenschaft und Wirtschaft liegt hingegen mit 22 Prozent signifikant unter dem EU Durchschnitt von 31 Prozent (von Ländern wie Schweden mit über 50 Prozent-Anteilen ganz zu schweigen).

MedieninhalteAbbildung 3. Welche Medieninhalte interessieren Österreicher? (Quelle: Special EUROBAROMETER 282. 2007 (QB1)) Die Medien bedienen mit ihrem Angebot im Interesse hoher Reichweitenquoten allzu oft genau diese Interessenlage, woraus sich aber ein circulus vitiosus ergibt: wichtige Zukunftsthemen finden weder in den Medien noch in der österreichischen Bevölkerung die entsprechende Resonanz.

In der Bewertung der über die Medien vermittelten Wissenschaftsinformation zeigt sich ein scheinbar widersprüchliches Bild: Einerseits erklären rund zwei Drittel der Österreicher – und damit um 10 Prozent mehr als im EU-Durchschnitt –, mit der Wissenschaftsberichterstattung im Generellen zufrieden oder zumindest weitgehend zufrieden zu sein. Auch das Ausmaß dessen, was geboten wird, scheint zu genügen: Lediglich ein Drittel der Befragten wünscht sich einen höheren Stellenwert der Wissenschaftsberichte.

Kritik an den Medienberichten

Andererseits entspricht die Qualität der Berichterstattung nur teilweise ihren Erwartungen (Abbildung 4). So sind für die Österreicher Verständlichkeit, Nützlichkeit der Information, persönliche Betroffenheit und die berichteten Themen die entscheidenden Kriterien für die Nutzung von wissenschaftlicher Information, wobei sie darüber hinaus – mehr als alle anderen EU-Bürger – dem Unterhaltungswert der Information eine nicht zu unterschätzende Bedeutung einräumen (22 gegenuber 9 Prozent).

Allerdings empfinden über die Hälfte der Österreicher (56 bzw. 57 Prozent) wissenschaftliche Beiträge als schwer verständlich und in einem noch höheren Ausmaß (61 Prozent) als zu weit entfernt von den eigenen Bedürfnissen.

Ferner glauben mehr als die Hälfte der Österreicher, dass europäische oder internationale Forschung in den Medienberichten überrepräsentiert ist. Für 57 Prozent sind diese Berichte schließlich auch zu wenig unterhaltend.

WissenschaftsberichterstattungAbbildung 4. Wichtigste Eigenschaften der Wissenschaftsberichterstattung (Quelle: Special EUROBAROMETER 282. 2007 (QB7a,b; Stufe 1+2); Daten für Österreich)

Immerhin entspricht das gebotene Themenspektrum den Vorstellungen von 58 Prozent der Österreicher, und mehr als die Hälfte erachten die Informationen sogar als nützlich.

Wer soll wissenschaftliche Themen präsentieren?

Die Mehrheit der Österreicher (36 Prozent) wünscht sich eine gemeinsame Präsentation durch Wissenschaftler und Journalisten. Wenn dies nicht möglich ist, werden Wissenschaftler gegenüber Journalisten bevorzugt (24 gegenuber 13 Prozent), begründet durch deren höhere Glaubwürdigkeit, Präzision und Objektivität (Abbildung 5).

PräsentatorAbbildung 5. Wer sollte Wissenschaftsberichte präsentieren? (Daten für Österreich; Special Eurobarometer: 282.207 (QB4) und 340.210 (QC5)

Die Umfrage verweist also auf eine prekäre Situation: Wissenschaftler genießen zwar einen guten Ruf, können aber offenbar nur selten die richtigen Worte finden, um mit einem breiteren Publikum zu kommunizieren (siehe Abbildung 4: Verständlichkeit). Journalisten gelingt es zwar zu einem gewissen Grad, relevante und als nützlich empfundene Themen aufzugreifen, aber es gelingt nicht, sie so spannend zu präsentieren, dass zumindest die an wissenschaftlichen Informationen Interessierten ihre Suche nach Wissen intensivieren möchten, geschweige denn, dass ihre Zahl erweitert und zumindest an ein europäisches Durchschnittsmaß herangeführt werden kann.

Fazit

Unterm Strich bleibt das Ziel jedweder Kommunikation über weite Strecken unerreicht: Betroffenheit. Damit können wissenschaftliche Erkenntnisse und Überlegungen oft nicht auf die Bedürfnisse der Menschen bezogen, nicht in ihren Lebenszusammenhang integriert werden.


Anmerkungen der Redaktion

Der vorliegende Text basiert auf dem Artikel: Josef Seethaler & Helmut Denk: Bedeutung des öffentlich-rechtlichen Rundfunks für die Wissenschaft in Österreich. ORF-Schriftenreihe "Texte 5- Öffentlich-rechtliche Qualität im Diskurs (2012). (PDF-DOwnload; zuletzt abgerufen am 8.10.2013).

Auf Grund der Länge dieses Artikels und der Absicht diesen ungekürzt zu bringen und zusätzlich mit Illustrationen versehen zu bringen, erscheint dieser in 2 Teilen. Teil 2: ›Wissenschaftskommunikation in Österreich und die Rolle der Medien. Was sollte verändert werden?‹ erscheint in Kürze.

Literaturzitate zu beiden Teilen sind unter der angegebenen Quelle zu finden. Die Illustrationen basieren auf „Special Eurobarometer“ Umfragen.

Weiterführende Links

Special Eurobarometer: Science and Technology Report (2010), 163 p (PDF-Download)

Bisher im ScienceBlog erschienene Artikel zum Thema Wissenschaftskommunikation:


 

inge Thu, 17.10.2013 - 23:00

Transportunternehmen Zelle

Transportunternehmen Zelle

Fr, 11.10.2013 - 18:52 — Inge Schuster

Icon Politik & Gesellschaft

Inge SchusterDie Verleihung des diesjährigen Nobelpreises für Medizin oder Physiologie an James E. Rothman, Randy W. Schekman und Thomas C. Südhof, zeichnet deren Entdeckungen zu einem essentiellen Transportsystem in unseren Zellen aus, nämlich die Organisation des Transports von Molekülen, verpackt in sogenannte Vesikeln. Auf Grund ihrer fundamentalen Bedeutung sind diese Forschungsergebnisse bereits als etablierter Wissensstandard in allen einschlägigen Lehrbüchern angeführt und unabdingbarer Bestandteil von biologischen (Einführungs)vorlesungen.

„In einem großen und geschäftigen Hafen sind Systeme notwendig, die sicherstellen, daß die korrekte Fracht zur richtigen Zeit an den korrekten Zielort geliefert wird.“ Mit etwa diesen Worten illustrierte Juleen Zierath, Vorsitzende des Komitees für den Medizin Nobelpreis, die Situation, in der sich Zellen höherer Organismen (Eukaryoten) befinden [1]

Zellen sind Fabriken, die - für den „Eigenbedarf“ oder auch für den Export - unterschiedlichste Biomoleküle produzieren, angefangen von Hormonen und Neurotransmittern bis hin zu großen Proteinen, welche exakt zur richtigen Zeit, an präzise definierten Stellen innerhalb der Zelle anlangen müssen oder aus der Zelle ausgeschleust werden um ihre Funktionen ausüben zu können. (Man denke hier beispielsweise an das Timing der Insulin-Ausschüttung zur Regulation unseres Blutzuckerhaushalts oder die Freisetzung von Neurotransmittern zur Signalübertragung von einer Nervenzelle zur benachbarten Nervenzelle.)

Die Reise von Molekülen quer durch die Zelle, vom Produktionsort zum Zielort, ist allerdings kein einfaches Dahinschwimmen im Zellsaft (Cytoplasma). Eukaryotische Zellen weisen komplexe interne Strukturen auf: unterschiedliche von Membranen umschlossene Kompartimente (Organellen) mit spezifischen Funktionen, die auf eine räumlich und zeitlich präzise Lieferung und Abfuhr spezifischer Substanzen angewiesen sind. Um in diese Organellen hinein oder heraus zu gelangen, müssen die Moleküle irgendwie deren Membranen durchqueren, Barrieren, die vor allem für große Moleküle vollkommen unpassierbar erscheinen.

Der in unseren Zellen realisierte Ausweg aus diesem Dilemma besteht darin Substanzen in sogenannte Vesikel – das sind winzige, von einer Membran umschlossene Bläschen – zu verpacken. Wenn diese Vesikel nun an die Membran einer Zellorganelle oder an die „Außenhaut“ der Zelle – die Zellmembran - stoßen, verschmelzen sie mit dieser und entleeren ihre Fracht in das Innere der Organelle oder in die Umgebung der Zelle. Die Existenz derartiger Vesikel und deren Fähigkeit Proteine von einem Zellkompartiment zum anderen zu transferieren, in die Zelle hinein oder aus der Zelle heraus zu schleusen wurde zwar schon vor Jahrzehnten entdeckt (u.a. durch die Arbeiten des berühmten Zellbiologen und Nobelpreiträger George E. Palade), die zugrundeliegenden Mechanismen der präzisen Organisation und Kontrolle dieser Transportvorgänge blieben jedoch lange unbekannt.

Die nun prämierten Forschungen erklären diese Mechanismen, welche für alle höheren Lebewesen Gültigkeit haben, von einzelligen Hefen bis zu höchst komplex aufgebauten Lebensformen (Abbildung 1).

ZellstrukturAbbildung 1. Die Zellen aller höheren Lebewesen weisen eine komplexe innere Struktur aus Kompartimenten mit unterschiedlichen Funktionen auf und sie benutzen das gleiche Vesikel-Transportsystem (rote Kreise) um Substanzen in die Kompartimente hinein und hinaus zu befördern. (Eingezeichnete Organellen: Zellkern , endoplasmatisches Retikulum, Golgiapparat; Bild modifiziert nach [1] und Servier Medical Art.)

Um es mit der Metapher eines Postversands auszudrücken: die Moleküle werden verschickt in Pakete verpackt, mit der exakten Adresse des Empfängers beschriftet und mit dem exakten Liefertermin versehen.

Der Transportweg

Der Biochemiker Randy W Schekman (University of California at Berkeley), hat Hefezellen als Modell benutzt und bereits in den 1970-er Jahren begonnen den Prozeß zu untersuchen, wie Glykoproteine aus diesen Zellen ausgeschleust (sezerniert) werden. Dazu hat er Mutanten erzeugt, in denen einzelne Schritte im Vesikeltransport defekt waren. Derartige Defekte konnte er an Hand der sich nun in den Zellen aufstauenden Vesikel erkennen und in Folge die dafür verantwortlichen, insgesamt 23 Gene identifizieren. Systematische Untersuchungen wiesen diese Gene als Schlüsselgene für die einzelnen Schritte auf dem Transportweg der Vesikel aus - vom Ort der Beladung mit ihrer „Fracht“ über bestimmte Kompartimente der Zelle bis hin zur Fusion mit der Zellmembran an der Zelloberfläche .

Wie erkennen Transportvesikel wohin sie ihre Fracht bringen müssen?

Der Zellbiologe James E. Rothman (Yale University, New Haven, Conneticut ) hat (beginned in den 1980er Jahren) die wesentlich komplexeren Zellen von Säugetieren als Modelle für seine Untersuchungen verwendet. Er interessierte sich vor allem für den Fusionsprozeß von Vesikeln mit der jeweiligen Zielmembran und für die Kontrolle dieses Vorgangs durch Proteine. Dabei entdeckte er, daß sowohl die Vesikel als auch die Zielmembranen an ihren Oberflächen jeweils einen Proteinkomplex aufweisen. Beim Auftreffen eines Vesikels an den Zielort docken dort seine Proteine ineinandergreifend – wie bei einem Reißverschluß - an spezifische komplementäre Proteine auf der Zielmembran an und lösen damit den Fusionsprozeß aus (Abbildung 2). Da eine Vielzahl derartiger Proteine existiert, diese aber nur in spezifischen Kombinationen miteinander wechselwirken können, ist gewährleistet, daß die Fusion nur an der richtigen Stelle erfolgt, die „Fracht“ punktgenau an der korrekten Adresse entladen wird.

VesikeltransportAbbildung 2. Schematische Darstellung des Vesikeltransports (Vesikel: rot, Molkül-Fracht: orange) und ihrer Fusion mit der Zellmembran (Bild modifiziert nach Servier Medical Art).

Ein sehr wichtiges Ergebnis zeigte, dass einige der Gene, die Schekman in der Hefe entdeckt hatte, mit denen korrespondierten, die Rothman in den Säugetierzellen identifizierte, daß also das vesikuläre Transportsystem bereits sehr früh in der Geschichte des irdischen Lebens entstanden war und über die Evolution beibehalten wurde.

Wie erfolgt das präzise Timing der Vesikel-Fusion?

Der Biophysiker Thomas C. Südhof (Stanford University, CA) setzt sich seit 3 Jahrzehnten mit der Signalübertragung der Nervenzellen auseinander. Die präzise und überaus rasche (in Millisekunden stattfindende) Weiterleitung der Signale ist die Grundlage jedweder Informationsverarbeitung in unserem Gehirn, also unseres Bewusstseins, unserer Emotionen, unseres Verhaltens.

Neuronen kommunizieren mit Hilfe von Botenstoffen, den Neurotransmittern (z.B. Dopamin, Acetycholin), über ihre Synapsen hinweg (d.i. den Kontakten zwischen dem knollenartigen Terminal des langen „Leitungskabels“ (Axon) einer Nervenzelle und den ebenfalls knolligen Terminals der verästelten Fortsätze (Dendriten) der Nachbarzelle). Ein elektrischer Impuls, der entlang des „Kabels“ läuft, bewirkt die Freisetzung der am Terminal in den Vesikeln gespeicherten Neurotransmitter, die dann über den Zwischenraum (dem synaptischen Spalt) hinweg an spezifischen Rezeptoren des Terminals der Nachbarzelle binden und damit deren Erregung auslösen (Abbildung 3).

SignaltransferAbbildung 3. Signaltransfer an den Synapsen der Nervenzellen. Fusion der Vesikel mit der Membran des Terminals einer Nervenzelle und Sekretion der „Molekülfracht“ (rot) in den synaptischen Spalt (vereinfachte Darstellung, Bild modifiziert nach Servier Medical Art).

Südhof und seine Gruppe haben in den letzten dreissig Jahren den molekularen Mechanismus aufgeklärt, der die überaus rasche Fusion der Vesikel mit der Zellmembran des Terminals und die darauf folgende Freisetzung der Neurotransmitter auslöst: Durch das elektrische Signal werden kurzfristig Calciumkanäle geöffnet, durch welche Calcium von außen in das Terminal einströmt. Dies bewirkt, daß Proteine an der Oberfläche der Vesikel so nahe an korrespondierende Proteine an der Membran des Terminals gebracht werden, daß sie ineinandergreifend andocken und damit die Fusion auslösen.

Ähnliche Proteine wurden später entdeckt, die eine analoge Rolle in anderen physiologischen Vorgängen spielen – das Spektrum reicht von der Hormonsekretion (z.B.von Insulin) über die den Fertilisation von Eizellen bis hin zu den Vorgängen der Immunabwehr von Erregern.

Fazit

Die diesjährigen Nobelpreisträger haben mit unterschiedlichen Ansätzen den fundamentalen Prozeß des Vesikeltransports aufgeklärt, der für viele physiologische Vorgänge und in allen höheren Lebewesen Gültigkeit hat. Störungen in diesem Prozeß führen beim Menschen zu Erkrankungen des Nervensystems, des Immunsystems, des Hormonsystems (z.B. Diabetes). In der Presseaussendung des Nobel Assemblies heißt es dazu [3]:

“Without this wonderfully precise organization, the cell would lapse into chaos.”


[1] Bekanntmachung der Preisträger: Video 8 min http://www.nobelprize.org/mediaplayer/index.php?id=1949
[2] Scientific Background: http://www.nobelprize.org/nobel_prizes/medicine/laureates/2013/advanced-...
[3] Presse-Aussendung des Nobelpreis Komittees: http://www.nobelprize.org/nobel_prizes/medicine/laureates/2013/press.html

Weiterführende Links

The science behind Thomas Südhof's Nobel prize. http://med.stanford.edu/ism/2013/october/nobel-explainer-1007.html
Rothman Laboratory http://medicine.yale.edu/cellbio/rothman/index.aspx
Schekman Laboratory http://mcb.berkeley.edu/labs/schekman/index.html


 

inge Fri, 11.10.2013 - 18:32

Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt

Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt

Fr, 26.09.2013 - 21:16 — Gottfried Schatz

Icon BiologieGottfried SchatzSind Männer und Frauen aus demselben Holz geschnitzt? Die Molekularbiologie zeigt, daß der genetische Unterschied zwischen Frau und Mann um eine Größenordnung höher ist als zwischen Frau und Frau: in den Körperzellen bilden die Geschlechtschromosomen der Frau ein Paar aus zwei gleichen X-Chromosomen, während in den männliche Zellen das Paar aus einem X-Chromosom und einem wesentlich kleineren Y-Chromosom besteht.

WürfelWelche Eltern freuen sich nicht, wenn ihr Kind ihnen ähnlich ist? Doch sie mögen sich auch fragen, welche geheimnisvolle Kraft ihm Begabungen verlieh, die ihnen selbst fehlen. Es war das Würfelspiel der sexuellen Fortpflanzung, das die Gene beider Eltern vermischte und so dem Kind ein völlig neues – und somit einmaliges – Erbgut schenkte. Dieses Würfelspiel sichert unserer Spezies biologische Vielfalt und erneuernde Kraft. Es gibt zwar auch Lebewesen ohne Sexualität, doch sie sind wenig wandlungsfähig und sterben meist schnell aus.

Die Chromosomen

Sexuelle Fortpflanzung fordert zwei Geschlechter. Bei vielen Fischen und Reptilien bestimmt die Bruttemperatur das Geschlecht des im Ei reifenden Lebewesens. Je nach Tierart kann dabei eine tiefe Temperatur die Entwicklung von Männchen oder Weibchen fördern. Andere Lebewesen steuern das Geschlecht ihrer Nachkommen über bestimmte Gene – und wieder andere über eine Kombination dieser Mechanismen.

Säugetiere, Fliegen und einige Pflanzen bestimmen das Geschlecht über besondere Chromosomen. Jede unserer Körperzellen besitzt 46 wurmartige Chromosomen, in denen die fadenförmigen Gene hochverdrillt und mit Proteinen verpackt sind (Abbildung 1).

MOUSEHINTAbbildung 1. Der Chromosomensatz eines Mannes. Die 46 Chromosomen bilden 22 Chrosomenpaare mit gleichen Chromosomen, das Paar der Geschlechtschromosomen setzt sich aus dem X-Chromosom und dem viel kleineren Y-Chromosom zusammen (Bild: National Human Genome Research Institute; commons)

In Frauen sind je zwei dieser Chromosomen nahezu identisch; eines stammt jeweils von der Mutter und das andere vom Vater. Mit einer Ausnahme gilt dies auch für Männer. Die Ausnahme ist das sogenannte X-Chromosom, das in Frauen mit einem zweiten X-Chromosom, in Männern jedoch mit einem ihm unähnlichen Partner – dem Y-Chromosom – gepaart ist. Dieses findet sich nur in Männern. Es trägt lediglich 72 Protein-kodierende Gene, etwa ein Zwanzigstel der Zahl der Gene, die das X-Chromosom und die meisten anderen Chromosomen tragen. Viele der Gene auf dem X- und dem Y-Chromosom steuern die Ausbildung des Geschlechts und die sexuelle Fortpflanzung.

Ei- und Spermazellen besitzen keine Chromosomenpaare, sondern von jedem Chromosom nur ein einziges Exemplar. Die (weibliche) Eizelle trägt stets ein X-Chromosom und die (männliche) Spermazelle entweder ein X- oder ein Y-Chromosom. Die Befruchtung des Eies durch eine X-haltige Spermazelle führt zu einem XX-Embryo – also zu einer Frau. Die Befruchtung durch eine Y-haltige Spermazelle bringt einen XY-Embryo hervor – also einen Mann. Bevor sich aber die beiden Partner eines Chromosomenpaares voneinander trennen, um in eine Ei- oder Spermazelle sortiert zu werden, tauschen sie Teile untereinander aus und verändern sich oft auch noch auf andere Weise. Dabei mischen sie die Gene der beiden Eltern nach dem Zufallsprinzip in schier unendlichen Kombinationen. Gibt es ein grossartigeres Würfelspiel?

Genschrott

Y- und X-Chromosomen entstanden vor etwa 300 Millionen Jahren, als sich die Säugetiere von den Reptilien trennten. Das X-Chromosom bewahrte die meisten seiner ursprünglichen Gene, doch das Y-Chromosom verlor sie fast alle, weil es beschädigte Gene nicht ausbessern kann. Gene sind nämlich chemisch instabil und müssen laufend repariert werden. Ein Gen auf einem der 22 «normalen» Chromosomenpaare hat dafür ein gleichartiges Gen am Partnerchromosom als Sicherheitskopie zur Verfügung. Bei Frauen gilt dies natürlich auch für die Gene ihres XX-Chromosomenpaares. Bei Männern haben jedoch weder das X- noch das Y-Chromosom einen gleichartigen Partner – und somit ihre Gene keine Sicherheitskopie. Gene des X-Chromosoms können etwaige Schäden immerhin ausbügeln, wenn sie über sexuelle Fortpflanzung wieder in eine weibliche Körperzelle gelangen, die ihnen ein zweites X-Chromosom bietet. Genen des Y-Chromosoms ist jedoch dieser Weg verwehrt, weil in Männern auch die Körperzellen nur ein einziges Y-Chromosom tragen. Überdies muss ein Y-Chromosom lange Zeit in einer Spermazelle ausharren, die wegen ihres hohen Energiebedarfs intensiv atmet und deshalb ihre Gene verstärkt durch Oxidation schädigt. Gene am Y-Chromosom leben also gefährlich und mutieren etwa fünfmal schneller als die meisten anderen Gene, so dass das menschliche Y-Chromosom heute mit Genschrott übersät ist. Noch dazu können selbst verhältnismässig intakte Y-Chromosomen für immer verloren gehen, wenn ihr männlicher Träger keinen Sohn zeugt. Unser Y-Chromosom dürfte deshalb früher oder später ganz verschwinden. Wahrscheinlich versuchen seine geschlechtsbestimmenden Gene schon jetzt, sich auf andere Chromosomen zu retten. Weil einzelne Teile des Y-Chromosoms verschieden schnell mutieren, ist es allerdings noch ungewiss, wie lange sich dieses Chromosom noch halten kann. Schätzungen schwanken zwischen etwa 100 000 und über 10 Millionen Jahren.

Selbst Mutationen am X-Chromosom betreffen vor allem Männer, weil sie ja auch von diesem Chromosom nur ein Exemplar besitzen und deshalb seine Mutationen nicht mit einer intakten Sicherheitskopie abpuffern oder übertünchen können. Für die Evolution ist deshalb das X-Chromosom ein Experimentierfeld für neue Gene, die vorwiegend Männern zugutekommen. Auffallend viele dieser Gene steuern Fortpflanzung und geistige Entwicklung. Ist das X-Chromosom also «smart und sexy» – wie dies eine meiner Kolleginnen behauptet hat? Könnte es sein, dass Intelligenz auf Frauen als Merkmal «guter» Gene – und damit als sexuelles Lockmittel – wirkt und intelligenten Männern besonders reichen Kindersegen beschert?

Wenn aber unser Y-Chromosom ganz verschwinden sollte, würde dies auch für uns Männer das Aus bedeuten? Glücklicherweise nicht, denn unsere Spezies könnte ohne sie nicht überleben. Die «Männlichkeitsgene» würden dann wohl von einem anderen Chromosom aus – gewissermassen aus dem Exil – wirken. Das grosse Würfelspiel würde dann dieses Exil langsam, aber sicher zu einem neuen Männlichkeitschromosom umformen und so eine weitere Runde des Werdens und Vergehens einläuten.

Zwang und Freiheit

Dass Männer und Frauen nicht aus demselben Holz geschnitzt sind, bestätigt also auch die molekulare Biologie. Leider verführt fast jede neue Entdeckung geschlechtsspezifischer Denk- und Verhaltensmuster zu vorschnellen und oberflächlichen Schlüssen über «Stärken» und «Schwächen» – oder aber zur «politisch korrekten» Leugnung jeglicher Unterschiede. Solche Reaktionen verletzen mein Menschenbild, weil sie nicht wahrhaben wollen, wie entscheidend biologische Unterschiede zwischen Mann und Frau unser Leben und unsere Kultur bereichern.

Eiferer beider Seiten haben dieses Thema nicht nur in unserer Gesellschaft, sondern sogar in der Wissenschaftsgemeinde tabuisiert und diese damit ins Mark getroffen. Denn wenn wir Wissenschafter kontroverse Fragen nicht mehr frei und emotionslos diskutieren können, verlieren wir den Boden unter den Füssen. Natürlich widersprechen viele der in unserer Urzeit entwickelten geschlechtsspezifischen Verhaltensmuster den heutigen Bedürfnissen; anders als Tiere können wir jedoch biologische Zwänge kraft unseres Verstandes und unserer Kultur überwinden und veredeln. Dazu mussten wir in einem jahrmillionenlangen Kampf urtümliche Gene zerstören und andere neu entwickeln. Erst dieser Kampf hat uns zu Menschen geformt.


Weiterführende Links

Human chromosomes. Video, 0:47 min (einfaches Englisch) Why Sex Really Matters: David Page at TEDxBeaconStreet; Video 20:15 min (besonders empfehlenswert!! Vortrag in klarem, einfachen Englisch): David Page, Director of the Whitehead Institute and professor of biology at MIT, has shaped modern genomics and mapped the Y chromosome. And he's here to say, "Human genome, we have a problem." Page contends that medical research is overlooking a fundamental fact with the assumption that male and female cells are equal and interchangeable in the lab, most notably because conventional wisdom holds that the X and Y chromosomes are relevant only within the reproductive tract. But if the sexes are equal, why are women more likely than men to develop certain diseases, and vice versa?

David C. Page - The Y Chromosome Video 13:39 min (etwas anspruchsvoller; in Englisch)


 

inge Thu, 26.09.2013 - 21:16

Der gläserne Wissenschafter (oder: Täuschung durch „Wissenschaft“?)

Der gläserne Wissenschafter (oder: Täuschung durch „Wissenschaft“?)

Fr, 20.09.2013 - 08:28 — Peter Stütz

Peter StützIcon Politik & Gesellschaft

Fälle von wissenschaftlichem Fehlverhalten sind in den letzten Jahren in zunehmendem Maße bekannt geworden und haben zu berechtigtem Argwohn der Öffentlichkeit hinsichtlich der Arbeitsweise von Wissenschaftern und der Glaubwürdigkeit ihrer Ergebnisse geführt. Als Beispiel sei hier nur der Physiker Jan Hendryk Schön genannt, der lange als „Rising Star“ gefeiert wurde, bis man ihm nachwies, daß er in zahlreichen seiner Veröffentlichungen Meßdaten gefälscht hatte. Auch der Veterinärmediziner Hwang Woo-suk hatte weltweite Berühmtheit durch seine Stammzellarbeiten erreicht, welche sich später als Totalfälschungen herausstellten – ordnungsgemäße Aufzeichnungen fehlten, Versuchsführung, Messergebnisse und Fotos zur Dokumentation der Ergebnisse waren erfunden.

In beiden Fällen waren die Arbeiten in Spitzenjournalen, wie Nature und Science, erschienen und lösten nun Mißtrauen gegenüber der Qualität des Begutachtungsverfahrens (nicht nur) dieser Zeitschriften aus. Außerdem mussten ranghohe Politiker zurücktreten, als ihnen nachgewiesen wurde, dass große Teile ihrer Doktorarbeit fahrlässig von anderen Autoren abgeschrieben worden waren.

Fehlverhalten - ein Schaden für die Allgemeinheit

Fehlverhalten von Wissenschaftern beschädigt ganz allgemein deren eigenes Ansehen und das Ansehen ihrer Institutionen und führt darüber hinaus bis hin zur Ablehnung ganzer Forschungsrichtungen. Es bedeutet aber auch ein Vergeuden von finanziellen Ressourcen, von Zeit und menschlicher Arbeitskraft aller derjenigen, die im guten Glauben versuchen Projekte auf Basis der gefälschten Befunde aufzubauen. Wenn es sich noch dazu um manipulierte Forschungsergebnisse aus pharmazeutischen/medizinischen Untersuchungen handelt, sind massiv negative Folgen für das Gesundheitssystem nicht auszuschließen. Welches Ausmaß Konsequenzen für die Entwicklung neuer Medikamente und Therapien haben, wenn diese auf der Basis publizierter, aber unreproduzierbarer oder gar erfundener Angaben über neue Therapien von Krankheiten beruhen, kann nur vage vermutet werden:

Der Forschungs- und Entwicklungsprozeß, der zu einem innovativen, neuen Arzneimittel mit umfassenden Patentschutz führen soll, dauert sehr lange (etwa 15 Jahre), ist immens teuer (bis zu 2 Milliarden $ ) und mit einem sehr hohen Risiko verbunden – von den Arzneimittel-Kandidaten, die nach rund 6 Jahren präklinischer Forschung und Entwicklung in die klinischen Untersuchungen eintreten, erreichen im Schnitt nur 6 % den Markt. Der Großteil der Kandidaten scheidet in den klinischen Prüfungen aus, vor allem auf Grund mangelnder Wirksamkeit und/oder untolerierbaren Nebenwirkungen. Einerseits ist unbestritten, dass es heute schon sehr viele gute Medikamente gibt, die nur schwer zu übertreffen sind. Andererseits dürfte ein Grund für die hohe Ausfallsrate darin liegen, daß die Arzneimittel-Kandidaten für die Modulation biologischer Angriffspunkte (Targets) entwickelt wurden, die für die zu behandelnden Krankheiten nicht genügend relevant sind, nicht entsprechend „validiert“ wurden. Letzeres wird eine kürzlich vom Pharmakonzern Bayer publizierte Studie unterstützt: als man dort 67 als ausreichend validiert beschriebene Targets zu reproduzieren oder verifizieren versuchte, gelang dies nur in 14 Fällen! [1]

Wieviele Wissenschafter manipulieren Daten oder wenden andere fragwürdige Praktiken an?

Dazu haben in den letzten Jahren anonyme Befragungen von vielen Tausenden Wissenschaftern stattgefunden. In einer der neueren, durchaus repräsentativ erscheinenden Analysen gaben rund 2 % der Befragten zu, selbst zumindest einmal Daten gefälscht/erfunden zu haben, dies aber bei 14 %der Kollegen beobachtet zu haben. Andere fragwürdige Praktiken hatten rund 34 % selbst angewandt, aber bei rund 72 % der Kollegen bemerkt [2]. Auskunft über die Art der bestürzend hohen Zahl an fragwürdigen Praktiken kann aus einer Befragung von insgesamt 3247 US-Wissenschaftern erhalten werden (Abbildung 1).

Analyse der Befragung von 3247 Wissenschaftern in den USAAbbildung 1. Analyse der Befragung von 3247 Wissenschaftern in den USA: Prozent der Wissenschafter, die zugaben mindestens 1x in einem Zeitraum von 3 Jahren ein bestimmtes Fehlverhalten begangen zu haben. (Unvollständige Auflistung der Daten von Martinson et al., 2005[3])

Das Ergebnis dieser Befragung zeigt in Summe ein Überwiegen von schlechter Versuchsführung, Dokumentation und Analyse. Dies dürfte zweifellos auch auf andere Länder außerhalb den USA zutreffen.

Die Beweggründe für derartige Praktiken sind vielfältig: es ist der heute zum Aufbau/Erhalt einer Karriere vorherrschende Zwang zu publizieren („Publish or Perish“) ebenso wie die Zufriedenstellung des Vorgesetzten, der bestimmte Ergebnisse sehen möchte und die Tatsache, daß negative Ergebnisse nicht belohnt werden. Dazu kommt fehlende Objektivität den eigenen Daten gegenüber, ein Herauspicken von „sexy“ Ergebnissen, die in die eigene Hypothese passen.

Es ist heute im Zeitalter der elektronischen Dokumentation leichter denn je Daten zu manipulieren. Können diese dann von unabhängigen Forschern nicht reproduziert werden, werden häufig Unterschiede in der Laborausstattung, in den Materialien (vom selben Hersteller, aber unterschiedliche Agenzien/Chargen) und den Methoden als gängige Ausreden vorgeschützt.

Kontrolle und Selbstkontrolle im wissenschaftlichen Arbeiten

Eine relativ einfacher Weg um fragwürdige Praktiken zumindest entscheidend zu reduzieren, aber auch als Selbstschutz vor ungerechtfertigten Anschuldigungen, ist durch die korrekte Führung eines Laborjournals gegeben, welches Versuche komplett dokumentiert und auch nach vielen Jahren der Nachprüfung durch andere Forscher und der eventuellen Kontrolle durch Behörden standhält.

Das Laborjournal – ein rechtsgültiges Dokument

Ein gut geführtes Laborjournal dient

  • Als chronologische Aufzeichnung – daher Nachweis - aller experimentellen Aktivitäten,
  • als essentielle Grundlage seriöser wissenschaftlicher Berichte,
  • als rechtsgültiges Dokument zum Nachweis des Inhalts, der Autorenschaft und des Zeitpunkts von Innovationen und
  • als Unterlage einer eventuellen Kontrolle von Behörden.

Das Laborjournal enthält die komplette Dokumentation eines Versuchs von der Planung bis zu den Ergebnissen, d.h.

  • Bezeichnung des Versuchs und der Zielsetzung,
  • Angabe der verwendeten Materialien, Geräte und Methoden,
  • Beschreibung der Durchführung eines Experiments, wobei anfallende Messwerte und Berechnungen – inklusive eines links zu den Rohdaten - und auch Beobachtungen während des Experiments (z.B. durch Fotos) dokumentiert werden,
  • sowie die Auswertung und Schlussfolgerungen.
  • Ein Inhaltsverzeichnis am Beginn erleichtert den Überblick über den Versuch und dessen Wiederauffinden durch externe Prüfer.

Die Darstellung eines Versuchs muß dabei so detailliert erfolgen, daß eine fachlich versierte Person diesen auch nach Jahren erfolgreich reproduzieren kann. (Dies stellt insbesondere in Labors mit häufigem Mitarbeiterwechsel – z.B. Diplomanden, Doktoranden – ein massives Problem dar und kann zur Datenmanipulation führen.) Die Einträge in das Laborjournal werden durch Datum und Unterschrift (des Experimentators und einer zweiten fachkundigen Person) bestätigt. Im Falle eines Patentstreits ermöglicht dieses Vorgehen den exakten Nachweis, wann und von wem eine Erfindung gemacht wurde.

Wie sieht ein Laborjournal aus?

 

LaborjournalAbbildung 2. Ein Laborjournal

 

Ein Laborjournal ist kein Collegeheft, sondern im allgemeinen ein fixgebundenes Buch, in welchem die Seiten fortlaufend nummeriert und datiert sind. Die Eintragungen in das Buch erfolgen leserlich handschriftlich, und chronologisch, das heißt das Experiment unmittelbar begleitend. Um zu verhindern, daß „unpassende“ Ergebnisse entfernt oder manipuliert werden, dürfen Seiten nicht herausgerissen werden, Irrtümer nicht unkenntlich gemacht werden, d.h. man streicht sie mit einer dünnen Linie durch, fügt eine Korrektur ein und bestätigt diese durch ein eigenes Visum. Unbeschriebene Teile einer Seite werden diagonal durchgestrichen. Ein Beispiel ist in Abbildung 2 gezeigt.

Im digitalen Zeitalter hat man allerdings bereits begonnen zu elektronischen Laborjournalen überzugehen. Für beide Arten von Laborjournalen – handschriftlich und elektronisch - gelten im Prinzip dieselben Regeln. Die elektronische Variante bietet gegenüber der manuellen Vorteile hinsichtlich der enormen Menge an Rohdaten, Auswertungen und Darstellungen in Tabellen- und Grafikform, die nun in einem definierten Folder untergebracht werden können, ebenso wie hinsichtlich der, in Subfoldern übersichtlich platzierten, relevanten Literatur und der Methodenbeschreibungen. Ein weiterer Pluspunkt ist die Suchfunktion, die ein rasches Auffinden von Daten gestattet und die Möglichkeit Informationen automatisch weiterzuleiten und in Datenbanken zu inkorporieren. Zur Zeit gibt es allerdings noch keine generell akzeptierte Lösung für die elektronische Signatur derartiger Dokumente und auch deren Archivierung für 15 Jahre und länger erscheint problematisch.

Qualitätssicherungssysteme

Von besonderer Bedeutung ist die Qualität der wissenschaftlichen Untersuchungen für Behörden und akademische und kommerzielle Institutionen, wenn es sich dabei um gesundheits- und umweltrelevante Sicherheitsprüfungen im Anschluss an reine Forschungsarbeit handelt, welche als Basis für eine Risikoabschätzung/Gefahrenbewertung dienen sollen. Hier wurden seit den späten 70er-Jahren von den Staatengemeinschaften internationale Kriterien zur Durchführung und Überwachung derartiger Untersuchungen aufgestellt, vor allem die Qualitätssicherungsysteme:

  • „Gute Laborpraxis“ („Good Laboratory Practice“ - GLP), welche „sich mit dem organisatorischen Ablauf und den Rahmenbedingungen befasst, unter denen nicht-klinische gesundheits- und umweltrelevante Sicherheitsprüfungen geplant, durchgeführt und überwacht werden sowie mit der Aufzeichnung, Archivierung und Berichterstattung der Prüfungen.“ [4]
  • „Gute Herstellungspraxis“ (“Good Manufacturing Practice” – GMP) - eine „Qualitätssicherung der Produktionsabläufe und Produktionsorte zur Gewährleistung der Produktqualität von Arzneimitteln, Wirkstoffen, Lebens- und Futtermittel und Kosmetika und der für die Vermarktung verpflichtenden Anforderungen der Gesundheitsbehörden“ [5 ]
  • „Gute Klinische Praxis“ („Good Clinical Practice“ – GCP), “ein internationaler ethischer und wissenschaftlicher Standard für Planung, Durchführung, Dokumentation und Berichterstattung von klinischen Prüfungen am Menschen.“ [6]

Alle diese im Laufe der Zeit laufend verbesserten Systeme sind aber ohne entsprechende Kontrolle praktisch wirkungslos. Eine detaillierte Beschreibung dieser Systeme findet sich in den zitierten Dokumenten.

Unzumutbare Zwangsmaßnahmen oder Notwendigkeit?

Sicherlich gibt es nicht wenige Wissenschafter, vor allem in akademischen Institutionen, welche die Führung eines kontrollierbaren Laborjournals ablehnen, dies als Eingriff in ihren Verantwortungsbereich (durch, in ihren Augen, weniger kompetente Personen), als Mißtrauen in ihre Fähigkeiten ansehen. Dem sollte man die Vorteile einer korrekten Protokollierung entgegenhalten, die ein rechtskräftig dokumentierter Nachweis der eigenen Ideen, Innovationen, Konzepte und Erfolge und damit auch eine hervorragende Basis für Berichte und Veröffentlichungen darstellt. Dazu gehört auch eine Archivierung von Laborjournalen inkl. dazugehörigen Primär- und Sekundärdaten sowie der elektronischen Datenträger in verschließbaren Räumen über längere Zeiträume. Gerade in diesem Punkt besteht bei den meisten Universitäten ein großer Nachholbedarf!

Schlechte Versuchsführung, Dokumentation und Analyse stehen – wie in Abbildung 1 gezeigt – an der Spitze fragwürdiger Praktiken. Die „Zwangsmaßnahme“ einer korrekten Dokumentation führt zweifellos zu der Reduktion der Praktiken (auch, wenn Datenfälschungen nicht vollständig ausgeschlossen werden können) und von allfälligen Fehlern und Schlampereien und damit zu einer höheren Qualität der Untersuchungen. Dies sollte auch Grund genug sein um bereits Studenten anzuweisen, wie „Gute Wissenschaft“ ausgeführt und dokumentiert werden sollte, sie zu sensibilisieren für alle – auch selteneren – Spielarten wissenschaftlichen Fehlverhaltens, im Sinne der kürzlich vom European Research Council herausgegebenen „ERC Scientific Misconduct Strategy“ [7]:

“To maintain the trust of both the scientific community and society as a whole is to uphold ethical standards at all stages of the competitive process, and to maintain and promote a culture of research integrity.”


[1] F Prinz et al., Believe it or not: how much can we rely on published data on potential drug targets? Nature Reviews Drug Discovery 10, 712, 2011
[2] D Fanielli. How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. PLoS ONE 4(5): e5738, 2009.
[3] BC Martinson et al., Scientists behave badly. Nature 435: 737-38, 2005
[4]http://www.oecd.org/chemicalsafety/testing/oecdseriesonprinciplesofgoodlaboratorypracticeglpandcompliancemonitoring.htm
[5] http://ec.europa.eu/health/documents/eudralex/vol-4/index_en.htm
[6] http://www.mk1dd.de/bereiche/qualitaetsmanagement/klinische-studien/ich-...
[7] http://erc.europa.eu/sites/default/files/document/file/ERC_Scientific_mi...

 


Weiterführende Links

Im ScienceBlog: Diskussionsthema: Wissenschaftliches Fehlverhalten

Natascha Miljkovics Plagiatspräventions-Blog (Agentur Zitier-Weise)

»Vier von fünf Studenten schummeln« Studie an Deutschen Universitäten (im wesentlichen Geistes-, Sozial, Wirtschaftswissenschaftliche Fächer):

http://www.zeit.de/2012/34/C-Abschreibestudie-Interview-Sattler/komplett...
http://www.zeit.de/campus/2012/05/abschreiben-schummeln-studenten-studie...
http://pdf.zeit.de/studium/hochschule/2012-08/schummeln-studie-studium.pdf


inge Fri, 20.09.2013 - 08:28

Die Sage vom bösen Cholesterin

Die Sage vom bösen Cholesterin

Fr, 13.09.2013 - 12:21 — Inge Schuster

<Icon Gehirn

Inge SchusterAus der Annahme mit Cholesterin den wesentlichen Auslöser lebensbedrohender Gefäßerkrankungen entdeckt zu haben, entwickelte sich diese Substanz in den letzten Jahrzehnten zum Schreckgespenst der Medizin. Wie böse ist Cholesterin tatsächlich? Der vorliegende Artikel beschreibt die essentielle Rolle des Cholesterins in Aufbau und Funktion unserer Körperzellen: als unabdingbarer Bestandteil von Zellmembranen, deren Eigenschaften es reguliert, aber auch als Vorläufer bioaktiver Steroide, vor allem der Steroidhormone, welche zentrale Lebensvorgänge - Entwicklung, Fortpflanzung und Stoffwechsel - steuern.

Ein um seriöse Auskunft bemühter Laie findet in Medien und Literatur weitestgehend negative Darstellungen des Naturstoffs, die bis hin zur Panikmache gehen. Sind verheerende Erkrankungen wie Herzinfarkt und Schlaganfall zwangsläufig Folge eines erhöhten Cholesterinspiegels, können diese effizient verhindert werden, wenn man den Cholesterinspiegel mit dem Produkt X, dem Medikament Y senkt? Über die essentielle Rolle des Cholesterins für die Funktion jeder einzelner Körperzelle und unseres ganzen Organismus wird dagegen kaum berichtet.

Was ist Cholesterin?

Cholesterin, ein starres, hydrophobes (in Wasser praktisch unlösliches) Molekül, ist ein Grundbaustein aller tierischen Organismen. Weil es - im 18. Jahrhundert - erstmals aus Gallensteinen isoliert wurde, erhielt es, wie damals üblich, eine diesem Vorkommen entsprechende, aus griechischen Worten zusammengesetzte Bezeichnung (chole: Galle, stereos: fest).Die chemische Struktur (Abbildung 1) setzt sich aus einem starren Gerüst von 4 Kohlenstoff-Wasserstoffringen (A – D) zusammen und einer flexiblen Kohlenstoff-Wasserstoff (Alkan) -Seitenkette. Eine Hydroxylgruppe (OH-Gruppe) macht Cholesterin zum Alkohol und ist für die spezifische Wechselwirkung mit anderen Biomolekülen wichtig.

Chemische Struktur des CholesterinAbbildung 1. Die chemische Struktur des Cholesterin besteht aus 3 sechsgliedrigen (A – C) und einem fünfgliedrigen (D) Kohlenstoff-Wasserstoffring der eine flexible Seitenkette trägt.

Das starre 4-Ringsystem war namensgebend für die Stoffklasse der „Steroide“ in welche Cholesterin und mit ihm verwandte Verbindungen fallen. Derartige Steroide - essentielle Bestandteile auch der anderen höheren Lebensformen (Eukaryonten), also der Pilze und Pflanzen - tauchen bereits sehr früh in der Erdgeschichte auf: der Nachweis in 2,7 Milliarden Jahre alten australischen Schiefern markiert den Übergang von einfachen (prokaryotischen) zu höheren (eukaryotischen) Lebensformen.

Cholesterin im Menschen – eine Bilanz

Das Cholesterin im unserem Organismus, beim Erwachsenen mit 100 – 150 g rund 0,15 % des Körpergewichts, stammt zum Großteil aus körpereigener Produktion, wozu praktisch alle Körperzellen in der Lage sind (Abbildung 2). Jedenfalls liegt die tägliche Syntheserate von 1 – 2 g Cholesterin über der Menge dessen, was wir mit der Nahrung aufnehmen (zumeist zwischen 0,1 – 0,3 g, höchstens 0,5 g). Die Eliminierung von Cholesterin aus dem Körper erfolgt im wesentlichen in veränderter – metabolisierter – Form als Gallensäuren (täglich ca. 0,5 g) und u.a. als Abbauprodukte von bioaktiven Cholesterinmetaboliten, in unveränderter Form in Hauschuppen (etwa 0,1 g täglich).

Cholesterinbilanz im adulten Menschen -  vereinfachtAbbildung 2. Cholesterinbilanz im adulten Menschen - vereinfachte Darstellung. Der Pool von 100 – 150 g Cholesterin im Organismus resultiert zum Großteil aus der körpereigenen Synthese. Etwa 25 % des gesamten Cholesterin finden sich im Hirn, rund 7 % zirkulieren im Blutstrom.

Wo befindet sich das Cholesterin im Körper und welche Funktionen hat es dort?

Cholesterin ist über den ganzen Organismus verteilt: zu mehr als 90 % ist es in den Zellen lokalisiert, im Blutkreislauf zirkulieren bei „normalem Cholesterinspiegel (um die 200 mg/dl)“ nur rund 7 %.

Organspiegel. In den meisten Organen (z.B. Leber, Lunge, Niere) liegen Konzentrationen zwischen 2 und 3 mg Cholesterin/g Gewebe vor. Diese Organspiegel steigen weder bei stark erhöhtem Cholesterin im Blut noch mit zunehmendem Alter erkennbar an. Offensichtlich besteht ein dynamisches Gleichgewicht (eine Homöostase) des zellulären Cholesteringehalts, reguliert von der (über Rezeptoren vermittelte) Aufnahme des Cholesterins aus dem Blutstrom (siehe unten), seiner Neusynthese in der Zelle und der Fähigkeit der Zelle überschüssiges Cholesterin zu eliminieren.

Im Blut zirkuliert das über die Nahrung aufgenommene und das selbst synthetisierte Cholesterin verpackt in Lipoproteine verschiedener Dichte (freies Cholesterin wäre im Plasma unlöslich). Lipoproteine setzen sich aus Lipiden und Proteinen zusammen, die eine micellenartige Struktur bilden: innen sind unpolare Triglyceride und Cholesterin in veresterter Form, in der äußeren Hülle, die mit der wässrigen Phase in Kontakt steht, zeigen sich polare Teile des Proteins, Kopfgruppen der Phospholipide und die Hydroxylgruppe des Cholesterin. Das Low Density Lipoprotein (LDL) transportiert Cholesterin – aber auch andere ansonsten unlösliche Stoffe - zu (nahezu) allen Geweben: LDL dockt hier an seinen in den Zellmembranen lokalisierten, spezifischen Rezeptor (LDLR) an, wird mit diesem zusammen in die Zellen aufgenommen und setzt dort das Cholesterin (und andere transportierte Stoffe) zur Verwendung frei. Im Gegensatz dazu wird überschüssiges Cholesterin aus den Zellen in High Density Lipoprotein (HDL) verpackt zur Leber transportiert („reverser Transport“), dort über spezifische Rezeptoren (HDLR) aufgenommen und zu Gallensäuren abgebaut, die über die Galle in den Darm gelangen (siehe unten).

Das Gehirn hat bezüglich Cholesteringehalt und dessen Regulierung eine Ausnahmestellung unter den Organen: i) bei nur rund 2 % des Körpergewichts enthält es 25 % des gesamten Cholesterin. ii) Da eine sehr effiziente Barriere zwischen dem Blut und dem Hirn („Blut-Hirn Schranke“) die Aufnahme des Cholesterins aus dem Blutstrom verhindert, ist das Hirn auf die eigene Synthese angewiesen. Auch für die Eliminierung überschüssigen Cholesterins aus dem Hirn besteht ein eigener Weg. Der überwiegende Anteil des in den Organen gespeicherten Cholesterin ist essentieller Bestandteil der Zellmembranen.

Barrierefunktion und Modulierung der Membraneigenschaften

Zellmembranen. Alle biologischen Membranen stellen Barrieren zwischen Kompartimenten und deren jeweiliger Umgebung dar und sind strukturell in vergleichbarer Weise aus einer Doppelschicht von Lipiden aufgebaut in die Proteine eingebettet/assoziiert sind (Abbildung 3).

Ausschnitt aus einer ZellmembranAbbildung 3. Ausschnitt aus einer Zellmembran. Schematische Darstellung. (Bild: modifiziert aus Wikipedia)

Cholesterin ist Grundbaustein aller tierischen Membranen, wobei intrazelluläre Membranen weniger Cholesterin enthalten (3 -6 %) als die Zellmembran (mehr als 20 % des Lipidgehalts). Die Zellmembran ist Permeabilitätsbarriere zwischen Zelle und Umgebung, schützt die Zelle vor dem Eindringen verschiedenartigster Stoffe und pathogener Keime. Cholesterin trägt entscheidend zur Barrierefunktion bei, moduliert die Beweglichkeit (Fluidität) der Lipidmoleküle und damit die Plastizität der Membran. Cholesterin ist dabei nicht gleichmäßig in der Membran verteilt, sondern bildet auch Inseln („rafts“), in welchen Signalmoleküle konzentriert auftreten, deren Funktion Cholesterin moduliert.

Myelin. Von spezieller Bedeutung sind die Zellmembranen, aus denen die sogenannten Myelinscheiden entstehen, welche als Umhüllung und Isolierung der Nervenfasern (Axon) dienen. Dieses Myelin – bis zu 80 % aus Lipiden, davon zu rund 22 % aus Cholesterin bestehend - ermöglicht die höchst effiziente, rasche Weiterleitung des elektrischen Nervenimpulses vom Zellköper einer Nervenzelle (Neuron) entlang seines Axons zur nächsten Nervenzelle. Myelin erscheint optisch weiß - die hohe Dichte an Nervenfasern im Gehirn ergibt die “weiße Substanz” und erklärt so die hohe Cholesterinkonzentration in diesem Organ.

Hornhaut. Auf den gesamten Körper bezogen bildet die oberste Schichte – Hornschichte- unserer Haut eine hochwirksame Barriere, die uns sowohl vor dem Eindringen von Stoffen aus unserer Umgebung und vor Mikroben schützt als auch verhindert, daß zu viel Wasser aus unserem Körper verdunstet. Diese Hornhaut (stratum corneum), besteht aus mehreren Schichten dicht gepackter, mit hochvernetzten, unlöslichen Proteinen gefüllter, abgestorbener Zellen, welche – wie Ziegel im Mörtel - in eine Lipidmatrix eingebettet sind. Diese Lipidmatrix - zu gleichen Teilen aus Cholesterin, Ceramid und Fettsäuren bestehend, unterbindet die Penetration kleiner, vor allem wasserlöslicher Moleküle weitgehend, die großer Moleküle vollständig. (Die Pharmaforschung sucht seit Jahrzehnten nach geeigneten Strategien, um eine effiziente Aufnahme von Arzneimitteln durch die Haut ermöglichen).

Cholesterins ist zentraler Ausgangsstoff bioaktiver Produkte

Cholesterin wird durch spezifische Enzyme, die an definierten Stellen seiner Seitenkette oder an den Ringen angreifen, zu einer Vielzahl und Vielfalt an bioaktiven Produkten umgewandelt (Abbildung 4). Die wichtigsten davon sind:

Cholesterins als Vorläufer bioaktiver ProdukteAbbildung 4. Die zentrale Rolle des Cholesterins als Vorläufer bioaktiver Produkte

Steroidhorme. Cholesterin hat eine zentrale Bedeutung für die hormonelle Kontrolle unserer Lebensvorgänge. In einer Kaskade von Reaktionen wird Cholesterin an verschiedenen Stellen oxydiert und es enstehen daraus in Folge alle Steroidhormone: Corticosteroide, Mineralcorticoide, Androgene, Östrogene und Gestagene. In Summe sind diese Hormone in die Steuerung unseres Stoffwechsels involviert, in die Regulierung der Immunfunktionen, in die Kontrolle des Wasser und Salzhaushalts, in die Entwicklung von Geschlechtsmerkmalen und in die Fortpflanzung.

Oxysterole. Aus Cholesterin entstehen auch eine Reihe sogenannter Oxysterole. Diese sind u.a. verantwortlich für die Regulierung von Synthese, Aufnahme und Elimination von Cholesterin und sie beeinflussen spezifische Funktionen von Zellen des Immunsystems.

Vitamin D. Die unmittelbare Vorstufe in der Synthese des Cholesterins – 7-Dehydrocholesterin – wird in der Haut durch UV-Licht zu Vitamin D umgewandelt, aus welchem das Hormon entsteht, welches vor allem den Calciumhaushalt und damit u.a. den Aufbau unserer Knochen reguliert, darüber hinaus aber eine Fülle an anderen Aktivitäten auf Zellwachstum- und Differenzierung und auf spezifische Funktionen des Immunsystems zeigt.

Gallensäuren. In der Leber entstehen durch Oxydation aus Cholesterin wasserlösliche Gallensäuren, welche mit der Galle in den Darm ausgeschieden werden und dort – wie Seifen - die aus der Nahrung stammenden Lipide emulgieren – eine Vorbedingung für die Fettverdauung und anschließende Aufnahme in den Organismus.

Ach, was muß man oft vom bösen Cholesterin hören oder lesen!

Der erste Vers aus Max und Moritz - in leicht abgewandelter Form - charakterisiert auch das, was allgemein über Cholesterin berichtet wird. Aus der Annahme mit Cholesterin den wesentlichen Auslöser lebensbedrohender Gefäßerkrankungen entdeckt zu haben, entwickelte sich diese Substanz in den letzten Jahrzehnten zum Schreckgespenst der Medizin. Atherosklerose ist ja durch sogenannte Plaques – fett- und cholesterinreiche Ablagerungen - an der Innenwand der Arterien charakterisiert, die zu deren Verhärtung und Verengung führen, und zum Großteil durch Atherosklerose verursachte Herz-Kreislauferkrankunge stehen in der westlichen Welt an der Spitze der Todesursachen.

Bereits vor 60 Jahren hatte der amerikanische Ernährungsphysiologe Ancel Keys postuliert, daß für die starke Zunahme von Herz-Kreislauferkrankungen in seinem Land der hohe Konsum an fett- und cholesterinreicher Nahrung verantwortlich wäre. Er untermauerte seine Hypothese mit einer breit angelegten klinischen Studie, die eine offensichtlich überzeugende Korrelation zwischen Cholesterinspiegel, Fettkonsum und Sterblichkeit zeigte. Diese (nicht sehr korrekt analysierte) Studie hatte großen Einfluß auf die Fachwelt, auch weil in vielen Tierversuchen und großen klinischen Untersuchungen (wie z.B in der bereits seit 1948 in den US laufenden Framingham Studie http://www.framinghamheartstudy.org/about/history.htm ) eine Korrelation zwischen „westlicher“ fett- und cholesterinreicher Diät, Cholesterinspiegel im Blut und Atherosklerose gezeigt wurde.

Führt also ein hoher Cholesterinspiegel zwangsläufig zur Atherosklerose und ihren Folgen? Dem steht die Tatsache entgegen, daß rund 50 % der Patienten „normale“ Cholesterinwerte, aber ein hoher Anteil gesunder Menschen stark erhöhte Cholesterinwerte aufweisen. Möglicherweise sind ja die „normalen“ Werte zu hoch. Cholesterin im Blut unserer nächsten Verwandten im Tierreich, der Affen ist rund 40 % niedriger, erreicht aber bei „westlicher Diät“ vergleichbare Werte wie der Mensch und die Tiere entwickeln Atherosklerose. Dies trifft auch auf die meisten der anderen untersuchten Tiere, einschließlich unserer Haustiere Hund und Katze, zu.

Sollte man also den Cholesterinspiegel vor allem bei Herz-Kreislauferkrankungen, aber auch zur Primärprevention ganz allgemein zu senken versuchen? Pharma- und Nahrungsmittelindustrie werben in aggressiver Weise für ihre Produkte, schüren die Angst vor dem „bösen Cholesterin“. Die Pharma erzielt mit ihren Cholesterinsenkern – vorwiegend den sogenannten Statinen – enorme Umsätze (allein in Deutschland werden Statine von mehr als 4 Millionen Menschen eingenommen). Das von Pfizer stammende Lipitor erzielte vor dem Auslaufen seines Patents jährlich über 12 Milliarden Dollar.

Statine blockieren sehr effizient die Cholesterinsynthese in einer sehr frühen Stufe und erzielen so eine dramatische Senkung der Cholesterinspiegel (und auch des LDL). Verglichen damit ist die Reduktion von Herzinfarkt, Schlaganfall und Mortalität allerdings eher bescheiden: für die Reduktion um 1 Attacke müssen: 60 Patienten oder - als Präventivmaßnahme - 268 gesunde Menschen jeweils 5 Jahre lang behandelt werden. Mit diesem eher kleinen Nutzen sind allerdings (zumeist reversible) Nebenwirkungen verbunden: Statine blockieren ja nicht nur die Synthese von Cholesterin, sondern auch die Bildung seiner zahlreichen Vorstufen, wie z.B. von Coenzyme Q, das eine essentielle Rolle in der mitochondrialen Energiegewinnung spielt oder von den, für die Entstehung von Glykoproteinen verantwortlichen, Dolicholen. Bis zu 20 % der Statin-Konsumenten leiden an Muskelschwäche- und Schmerzen, die Inzidenz von Diabetes ist deutlich erhöht, ebenso die von Neuropathien und die Reduktion kognitiver Fähigkeiten bis hin zur (reversiblen) Demenz ist evident.

Die Analysen der letzten großen klinischen Untersuchungen und Metaanalysen früherer Untersuchungen legen zudem nahe, daß der (relativ kleine) therapeutische Effekt der Statine gar nicht auf Cholesterinsenkung sondern vielmehr auf deren antientzündlicher Wirkung beruht.

Damit kommen wir zu einem Umdenken: Cholesterin ist nicht Auslöser der Atherosklerose, wohl aber einer der zahlreichen Risikofaktoren. Es sei hier auf einen vor wenigen Wochen im ScienceBlog erschienenen Artikel von Georg Wick verwiesen, der Atherosklerose als Autoimmunkrankheit aufzeigt und überzeugende Hypothesen zur Auslösung dieser Erkrankung und therapeutische Ansätze zu ihrer Behandlung bietet*.

*Georg Wick: Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien.


Weiterführende Links

Zu den im Artikel beschriebenen Themen existiert detaillierte Literatur, die auf Anfrage zur Verfügung gestellt wird.i

Video

3sat nano - Mythos Cholesterin 5:43 min



 

inge Fri, 13.09.2013 - 00:21

Comments

The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks

The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks

Fr, 04.10.2013 - 04:37 — Walter Kutschera

Icon PhysikWalter KutscheraAls Folge der Kernwaffentests in den 50er -60er Jahren des vorigen Jahrhunderts kam es zur vermehrten Bildung von radioaktivem 14C in der Atmosphäre und nach Ende der Tests zu dessen raschem Absinken. In die DNA von Körperzellen eingebautes 14C zeigt das Alter der Zellen an und erlaubt fundamentale Rückschlüsse über deren Erneuerungsraten.

Die atmosphärischen Kernwaffentests in den Jahren 1950 bis 1963 sind ein gutes Beispiel dafür, dass eine drohende Umweltbelastung selbst unter widrigen politischen Umständen gestoppt werden kann, wenn man die Ursachen und ihre Folgen klar erkannt hat. Es erscheint aus heutiger Sicht eigentlich erstaunlich, dass die USA und die Sowjetunion mitten im kalten Krieg beschlossen, ihre massiven Kernwaffentests zu beenden, um der globalen Verbreitung von radioaktiven Abfall Einhalt zu gebieten (Nuclear Test Ban Treaty von 1963). Als ein zunächst wenig beachteter Nebeneffekt wurde bei diesen Tests auch der natürliche Gehalt des radioaktiven Kohlenstoffisotops (14C) in der Atmosphäre erhöht.Atombombentest 1.11.1952Abbildung 1. Der erste Wasserstoffbombentest der USA im Pazifik am 1. November 1952, der eine 700 mal größere Sprengwirkung hatte als die Atombombe von Hiroshima. Das Schema rechts zeigt die Entstehung des radioaktiven Kohlenstoffisotops 14C durch Bombardierung des Stickstoffs 14N mit Neutronen.

Auf natürliche Weise werden durch die kosmische Strahlung (hochenergetische Protonen), die seit Jahrmillionen unsere Erde bombardiert, Atome der Atmosphäre zertrümmert und daher ständig Neutronen freigesetzt, die 14N in 14C umwandeln. Die frisch erzeugten 14C Atome verbinden sich schnell mit Sauerstoff zu 14CO2 und werden dadurch ein Teil des CO2 Pools der Atmosphäre (Abbildung 1). Allerdings ist der Anteil des 14C Isotops relativ zu den stabilen Kohlenstoffisotopen (12C und 13C) winzig klein. 12C : 13C : 14C = 0.99 : 0.01 : 0.000 000 000 001 (10-12).

Einbau von 14C in die belebte Materie

Da die Landpflanzen in der Photosynthese CO2 aus der Luft aufnehmen, wird 14C mit in die Pflanzen eingebaut. Pflanzen wiederum dienen als Nahrung für andere Lebewesen und durch die hohe Löslichkeit von CO2 im Wasser (man denke an Bier und Mineralwasser) findet 14C auch Eingang in die marine Welt. So ist die gesamte belebte Materie (Biosphäre) von 14C durchdrungen. Da dieser Vorgang seit Jahrmillionen abläuft, hat sich ein fast konstantes Gleichgewicht zwischen Produktion und Zerfall von 14C auf der Erde eingestellt und man kann annehmen, dass auch alle Lebewesen dieses Gleichgewicht widerspiegeln.

In Form von organischen Molekülen enthält der Mensch je nach Körpergewicht etwa 14 bis 16 kg Kohlenstoff. Mit der oben genannten 14C-Konzentration in Kohlenstoff und der 14C-Halbwertszeit von 5700 Jahren erhält man über das radioaktive Zerfallsgesetz eine Zerfallsrate von ca. 4000 14C Atomen pro Sekunde. Und diese Radioaktivität tragen wir das ganze Leben mit uns herum. Die bekannte 14C-Altersbestimmung in der Archäologie beruht nun darauf, dass nach dem Tod eines Organismus sein 14C-Gehalt abnimmt, während der Gehalt der stabilen Kohlenstoffisotope 12C und 13C unverändert bleibt. Das bedeutet, dass man aus der Messung der Isotopenverhältnisse 14C/12C oder 14C/13C das Alter bestimmen kann.

Der 14C Bombenpeak

Durch die Kernwaffentests wurden nun ebenfalls Neutronen in der Atmosphäre freigesetzt, die Stickstoff (14N) in 14C umwandelten. Dies hat in wenigen Jahren zu einer Verdoppelung des 14C-Gehalts in der Atmosphäre geführt. Als die atmosphärischen Kernwaffentests 1963 gestoppt wurden, hat sich der Überschuss von 14C durch den CO2-Austausch auf die Biosphäre und die Hydrosphäre (Ozeane, Flüsse und Seen) übertragen und ist dadurch bis heute in der Atmosphäre schon fast wieder auf den “vornuklearen“ Gehalt abgesunken (Abbildung 2). Das Resultat dieses schnellen Anstiegs und Abfalls des atmosphärischen 14C-Gehalts wird als 14C-Bombenpeak bezeichnet. C Bombenpeak

Abbildung 2. Der 14C Bombenpeak. 14C-Messungen im atmosphärischen CO2 der südlichen und nördlichen Hemisphäre geben den durch die Kernwaffentests erzeugten 14C-Überschuss über dem natürlichen 14C-Gehalt wieder.

Einbau von 14C aus Kernwaffentests in menschliche DNA

Das 14C Bombensignal hat sich durch die Nahrungsaufnahme auch relativ schnell auf die Menschen übertragen, was bedeutet, dass die gesamte Menschheit in den letzten 50 Jahren durch diesen schnell veränderlichen 14C-Überschuss markiert wurde. Dabei wurde das Signal durch den Metabolismus im Körper auf jede Zelle übertragen. Insbesondere wurde auch der Kohlenstoff in jedem DNA-Molekül markiert. Die DNA (Desoxyribonukleinsäure) ist ein Riesenmolekül, das 1011 C Atome enthält und die gesamte Erbinformation in jeder Zelle des Körpers gespeichert hat. Die DNA nimmt nun nur solange 14C auf, bis die Zelle die letzte Teilung gemacht hat. Von diesem Zeitpunkt an verändert sich die DNA nicht mehr. Wenn man nun die Annahme macht, dass der 14C Gehalt der DNA das Jahr der letzten Zellteilung widerspiegelt und man dies mit der 14C-Bombenpeak Kurve vergleicht, dann kann man diesen Zeitpunkt durch Messung des 14C-Gehalt in der DNA bestimmen. Dass diese Bedingung tatsächlich erfüllt ist, wurde 2005 von einer Gruppe des Departments for Cell and Molecular Biology des Karolinska Instituts in Stockholm gezeigt.

Wie alt sind menschliche Zellen?

Durch die Messung des 14C-Gehalts in der DNA, die von Millionen von Zellen eines bestimmten Körperorgans extrahiert wurde, kann dadurch die Geburtsstunde von neuen Zellen, die nach der Geburt des Individuums gebildet wurden, bestimmt werden. Derartige Untersuchungen werden an Organproben bereits verstorbener Personen durchgeführt, von denen man allerdings das Geburtsdatum und die Lebensdauer kennen muss. Das Material für diese Untersuchungen kann von sogenannten Gewebebanken angefordert werden, für welche Menschen Ihren Körper nach dem Tode der Wissenschaft zur Verfügung gestellt haben. Das Einmalige an diesen Untersuchungen ist, dass man keine besonderen Maßnahmen zur Markierung der untersuchten Proben treffen muss, da wir alle automatisch durch die Kernwaffenexperimente mit 14C markiert wurden, wenn wir innerhalb der letzten 50 bis 60 Jahre gelebt haben. Wir sind alle unabsichtlich zu potentiellen Forschungsobjekten geworden!

Datierung menschlicher ZellenAbbildung 3. Prinzip der Datierung von menschlichen Zellen mit dem 14C-Bombenpeak.

Finden Zellerneuerungen im Gehirn statt?

Eines der interessantesten Forschungsobjekte der Biomedizin ist zweifelsohne unser Gehirn. Mit Hilfe der 14C-Bombenpeak Datierung lässt sich nun tatsächlich die Frage angehen, wann und in welchem Maße neue Zellen in unserem Gehirn entstehen (Abbildung 3). Eine weitverbreitende Meinung ist ja die, dass im Gehirn nach der Geburt keine neuen Zellen mehr gebildet werden.

Die Frage der Neubildung bestimmter Zelltypen ist nun an deren 14C-Gehalt der DNA ablesbar. Dazu werden die Gehirnzellen vor einer 14C-Messung mit molekularbiologischen Methoden nach ihrer Zugehörigkeit zu Neuronen oder anderen Zellentypen sortiert. Insbesondere ist man dabei an den Nervenzellen (Neuronen) interessiert, die als wesentliche Schaltstellen für Nervenimpulse im Gehirn gelten [2].

In einer Zusammenarbeit mit den Molekularbiologen von Stockholm haben wir am Vienna Environmental Research Accelerator (VERA) der Universität Wien geringste Mengen von DNA (ein paar Millionstel Gramm) aus dem Riechzentrum des menschlichen Gehirns auf seinen 14C-Gehalt untersucht. Das überraschende Ergebnis war, dass beim Menschen nach der Geburt keine neuen Neuronen mehr gebildet wurden, während bei Nagetieren bis zu 50% im erwachsenen Alter erneuert werden [3].

Solche Bestimmungen wurden auch schon für den Hippocampus, einem zentralen Teil des Gehirns, der für Gedächtnis, Lernfähigkeit und Gefühle verantwortlich zeichnet, durchgeführt. Das überaus wichtige Ergebnis dieser Versuche ist, dass hier Neuronen während des ganzem Lebens neu gebildet werden können [4].

Untersuchungen zu Zellerneuerungen an Hand des 14C-Bombenpeaks wurden auch schon auf andere Zelltypen wie beispielsweise Herzmuskel- und Fettzellen ausgedehnt und damit wichtige Schlußfolgerungen über die Zelldynamik dieser Zellen erzielt.

The Ugly and the Beautiful

Die Kombination eines ungewollten Nebeneffekts der Kernwaffentests mit einer nützlichen Anwendung in der Molekularbiologie hat diesem Artikel den Namen gegeben, der wohl in diesem Fall berechtigt ist.

 

[1] Spalding KL et al., (2005), Retrospective birth dating of cells. Cell 122: 33

[2] Bhardawaj RD et al., (2006). Neocortical neurogenesis in humans is restricted to development. PNAS 103:12564-12568

[3] Bergmann O et al., (2012), The Age of Olfactory Bulb Neurons in Humans. Neuron 74:634-639

[4] Spalding KL et al., (2013). Dynamics of hippocampal neurogenesis in adult humans. Cell 153:1219-1277.


Weiterführende Links

Atombombenversuche (Nevada): arte doku Youtube Videos 3Teile a ca. 15:30 min 1. Teil:

http://www.youtube.com/watch?v=a9Ubvtbj9R4&list=PL897A05AE36108E23

Zur 14C-Altersbestimmung: Harald Lesch: Wie bestimmt man das Alter von Gesteinen? Youtube Video 14:33 min http://www.youtube.com/watch?v=OqVLyt06zds

Ein sehr guter (relativ einfacher) Überblick über die von Kutschera angewandte Massenspektrometrie: W. Kutschera, Massenspektrometrie - Das Sortieren von Atomen „One by One“. Physik in unserer Zeit / 31. Jahrg. 2000 / Nr. 5, 203-208. http://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.220/lehre/Atom... (free download) (“Sortiert man die in einem Stück Materie enthaltenen Atome nach ihrer Kernladung, Masse und relativen Häufigkeit, so hat man die atomare Zusammensetzung vollständig bestimmt. Die Beschleunigermassenspektrometrie ermöglicht diese Analyse mit bisher nie gekannter Empfindlichkeit”)


 

inge Fri, 04.10.2013 - 04:37

CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu braucht man das?

CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu braucht man das?

Fr, 06.09.2013 - 07120 — Manfred Jeitler

Icon PhysikManfred Jeitler

Das bei Genf angesiedelte CERN (Conseil Européen pour la Recherche Nucléaire) hat mit Hilfe großer Teilchenbeschleuniger bereits fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und die Wechselwirkung zwischen diesen erzielt. Im vorangegangenen Artikel (1) hat der Autor erklärt, warum man dafür Teilchen auf sehr hohe Geschwindigkeit und zur Kollision bringen muß. Daneben sind am CERN als Nebenprodukte u.a. auch das World Wide Web enstanden - um Wissenschaftlern die Kommunikation zu erleichtern -, ebenso wie innovative Technologien der Strahlentherapie .

Im vorangegangen Artikel (1) hatten wir über die Bestandteile der Materie - die „Teilchen“ -, gesprochen. Diese Bestandteile der Atome sind teilweise „Elementarteilchen“ (wie zum Beispiel das Elektron): elementar in dem Sinne, dass sie keine innere Struktur aufweisen. Andere, wie zum Beispiel das Neutron, bestehen wiederum aus noch kleineren Teilchen, den so genannten „Quarks“, können also eigentlich nicht als „Elementarteilchen“ bezeichnet werden.

Autodrom: alle fahren gleich schnell!

Da die uns interessierenden Teilchen sehr klein und leicht sind, haben sie bei den für uns wichtigen Energien im Allgemeinen eine sehr hohe Geschwindigkeit. Es gibt aber eine absolute Geschwindigkeitsbeschränkung, an die sich die Teilchen halten müssen: die Lichtgeschwindigkeit (d.i. die Geschwindigkeit von Licht im Vakuum). Für Überschreitung der Lichtgeschwindigkeit hat noch kein Teilchen je ein Strafmandat gekriegt! (Vor einiger Zeit hat man geglaubt, ein paar Neutrinos auf frischer Tat ertappt zu haben. Obwohl das in Italien war, hat sich dann aber herausgestellt, dass die Neutrinos sich ganz brav an die Lichtgeschwindigkeitsbeschränkung gehalten haben und die „Radarfalle“ der Physiker einen Messfehler hatte.)

Wenn wir den Teilchen beim Umherfliegen zuschauen könnten würde uns das Bild vielleicht an ein Autodrom im Wurstelprater erinnern: alle fahren (fast) gleich schnell. Der 27 km lange Large-Hadron-Collider (LHC)-Tunnel des CERN enthält die letzte Stufe des Beschleunigerkomplexes ((1): Abbildung 1). Darin werden die Protonen von 99,999 783 % der Lichtgeschwindigkeit auf 99,999 996 % der Lichtgeschwindigkeit beschleunigt. Die Protonen haben danach allerdings fast acht Mal so viel Energie wie vorher!

Die „Sekundärteilchen“, die dann bei den Protonkollisionen entstehen, sind zwar nicht ganz so schnell, wenn sie aber nicht wenigstens so um die 90 Prozent der Lichtgeschwindigkeit haben, haben sie so wenig Energie, dass wir sie mit unseren Detektoren gar nicht wahrnehmen können. Es geht also so zu wie auf einer amerikanischen Autobahn, wo sich jeder brav an die 70-Meilen-Beschränkung hält und keiner auch nur fünf km/h schneller oder langsamer fährt.

Netz oder Tenniskunststück?

Wenn Sie ungefähr so gut Tennis spielen können wie ich, dann treffen Sie alle Mal ganz leicht ins Netz. (Drüber zu schießen ist für mich schon schwieriger. Drum bin ich auch lieber Physiker geworden und habe keine professionelle Tennislaufbahn eingeschlagen.) Wenn Sie aber ein Tennis-Ass sind, habe ich eine kleine Aufgabe für Sie: Sie und Ihr Partner schießen jeder gleichzeitig einen Ball ab, und über dem Netz sollen sich die beiden Bälle treffen. Damit sind Sie dann, glaube ich, eine Zeit lang beschäftigt. Gerade so etwas machen die Physiker am LHC, dem größten Beschleuniger am CERN: der LHC ist ein so genannter „Collider“, eine Kollisionsmaschine. Die Protonen werden damit nicht auf einen ruhenden, großen Block geworfen (was leichter wäre), sondern gegeneinander geschossen (und da zu treffen ist bei der Kleinheit der Protonen ziemlich schwer). Ganz schön ambitioniert, diese Physiker.

Warum machen sie das denn? Wenn Sie mit dem Auto einen Unfall bauen, ist es für Sie noch immer besser, in ein stehendes Auto hinein zu fahren, als in eines, das Ihnen mit derselben Geschwindigkeit entgegen kommt. Die Energie, die Ihre Motorhaube und Sie selbst zerquetscht, ist dann nur etwa halb so groß. Aber bloß, um die Kollisionsenergie zu verdoppeln, würden es doch die Physiker nicht akzeptieren, die Protonen gegeneinander zu schießen und dabei natürlich nur eine recht geringe Trefferquote zu haben? Da baut man doch lieber den Beschleuniger ein bisschen stärker und trifft jedes Mal?

Tatsächlich ist aber in der Nähe der Lichtgeschwindigkeit der Unterschied viel größer als ein Faktor zwei! Schuld daran sind der Herr Einstein und seine Relativitätstheorie. Bei Geschwindigkeiten nahe der Lichtgeschwindigkeit muss man anders rechnen als bei den Geschwindigkeiten, die wir aus dem täglichen Leben gewohnt sind. Beim LHC würde man nur etwa 1 Prozent der Kollisionsenergie erreichen, wenn man nicht frontal auf gegenlaufende Protonen sondern auf unbewegtes Material (sozusagen eine „Zielscheibe“, ein so genanntes „Target“) schießen wollte. Wollte man mit denselben technischen Einrichtungen die Energie erreichen, die wir bei Protonkollisionen jetzt haben, so müsste man den Beschleuniger etwa hundert Mal größer bauen. Ein 3000 km langer Tunnel wird dann aber doch etwas aufwändig, da ist es schon besser, man strengt sich etwas an und schießt die Protonen gegeneinander.

Frontalzusammenstöße: LHC-Experimente

Genau das macht man bei den LHC-Experimenten. Hier ist man bestrebt, die höchsten erreichbaren Kollisionsenergien zu erzielen. Damit kann man dann in großer Menge schwere instabile Teilchen erzeugen, wie zum Beispiel das oben bereits erwähnt Higgs-Teilchen. Die dabei gegeneinander laufenden Protonen sind viel kleiner als der Durchmesser der Protonstrahlen. Daher ist die Wahrscheinlichkeit einer Kollision für ein bestimmtes Proton sehr klein (ähnlich wie bei dem oben erwähnten Tenniskunststück), und die meisten laufen auch nach einer „Kollision“ der Strahlen unbeirrt weiter. Nur weil in beiden Strahlen nicht nur eines, sondern sehr viele Protonen umlaufen (etwa hunderttausend Milliarden), kommt es immer wieder zu Zusammenstößen. Die anderen Protonen laufen weiter und haben beim nächsten Kreuzungspunkt wieder die Chance, ein anderes Proton zu treffen. CMS-DetektorAbbildung 1. Der Detektor „CMS“, eine der vier großen Anlagen zur Beobachtung der Protonkollisionen am LHC.

Es gibt vier solche Kreuzungspunkte, an denen große „Detektoren“ beobachten, was bei einem Zusammenstoß passiert (Abbildung 1). Zwischen diesen Kreuzungspunkten fliegen die Protonen jeweils in einem getrennten Rohr in eine Richtung, etwa wie die Autos auf einer Autobahn mit getrennten Fahrtrichtungen. Bei den Detektoren an den Kreuzungspunkten wechseln dann die Protonen jeweils von Rechtsverkehr (wie in Österreich) auf Linksverkehr (wie in England) oder umgekehrt. Nach einem Umlauf um den LHC-Ring geht es dann gleich in den nächsten, ähnlich wie bei einem Formel-1 Rennen. In einer Sekunde geht es 11245 Mal im Kreis herum (mit fast Lichtgeschwindigkeit, wie Sie schon wissen), und das „Rennen“ dauert viele Stunden. Zum Unterschied von den Rennautos machen die Protonen aber keine Boxenstopps und müssen nicht auftanken: sobald sie vom Beschleuniger auf ihre Endgeschwindigkeit (und damit endgültige Energie) gebracht worden sind, fliegen sie im Wesentlichen ohne Widerstand immer weiter.

Zwei der vier Detektoren suchen nach neuen, schweren Teilchen beliebiger Art. Diese beiden Anlagen heißen „ATLAS“ und „CMS“(Abbildung 2). Bei CMS ist das Wiener Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften maßgeblich beteiligt, und bei ATLAS arbeitet eine Arbeitsgruppe der Universität Innsbruck mit. Ein weiterer Detektor mit dem schönen Namen „ALICE“ untersucht, was passiert, wenn man statt Protonen Blei-Kerne aufeinander schießt. Und schließlich gibt es am LHC noch die Anlage „LHCb“, die sich bei ihren Untersuchungen auf Teilchen konzentriert, die so genannte „schöne“ Quarks („beauty“ oder „bottom“ Quarks) enthalten. Computerrekonstruiertes ZerfallsereignisAbbildung 2 Mit dem Computer rekonstruierte Darstellung eines mit dem Detektor „CMS“ am LHC aufgezeichneten Ereignisses. Möglicher Weise handelt es sich hier um den Zerfall eines Higgs-Teilchens.

Ins Schwarze getroffen: „Fixed-Target-Experimente“

Nicht bei allen Untersuchungen braucht man die allerhöchsten Kollisionsenergien. Manchmal kommt es eher darauf an, sehr viele Zusammenstöße zu untersuchen. Das ist wie bei einer Meinungsumfrage: je mehr Leute Sie befragen, desto eher können Sie das Wahlergebnis vorhersagen. Dann schießt man nicht die Protonen wie Tennisbälle gegeneinander, sondern einfach in ein großes „Netz“, in das man eben viel leichter und öfter trifft. Dieses „Netz“ oder „Target“ (englisch für „Zielscheibe“) ist tatsächlich ein Metallstab mit ein paar Millimeter Durchmesser. Noch immer dünn, aber riesengroß im Vergleich zu den Protonstrahlen (und erst recht im Vergleich zu denen einzelnen Protonen). Auch bei diesen Experimenten ist Österreich mehrfach beteiligt.

Neutrinos auf Italienurlaub

Wenn Sie im Sommer nach Italien fahren, so müssen Sie mühsam auf irgendwelche Alpenpässe hinauf und auf der anderen Seite wieder hinunter, oder Sie fahren durch einen Tunnel. Neutrinos haben’s da leichter: die reisen schnurstracks durch die Erde. Neutrinos sind eine Art von Teilchen, die so klein sind und so wenig mit anderen Teilchen oder mit anderer Materie wechselwirken, dass sie durch die ganze Erde, durch die ganze Sonne und noch viel weiter fliegen können, ohne dass ihnen was passiert. Das haben sich die Physiker am CERN und in Italien zu Nutze gemacht. Es gibt nämlich sehr interessante Effekte, die auftreten, wenn Neutrinos lange unterwegs sind. So große Anlagen zu bauen, könnte man sich nicht leisten. Man schießt lieber einfach die Neutrinos am CERN, wo sie produziert wurden, in die Erde, und in der Nähe von Rom kommen sie dann wieder zum Vorschein. Unter dem Gran Sasso, einem hohen Berg bei Rom, stehen große Detektoren, die diese Neutrinos dann nachweisen. Natürlich nicht alle, denn auch mit den Detektoren „sprechen“ die Neutrinos meistens nicht, aber von vielen Milliarden wird halt manchmal eines nachgewiesen, und das ermöglicht dann interessante Rückschlüsse auf die Physik der Teilchen.

Was kümmern uns diese Teilchen?

Felix - What's the use?Vielleicht denken Sie sich jetzt: das ist ja alles schön und gut, aber was ist so interessant an irgendwelchen Teilchen, die man künstlich erzeugt und die dann eh gleich wieder zerfallen? Ist das nicht eine abstruse Spielerei ohne jeden Wirklichkeitsbezug? Nein! Keineswegs! Diese Teilchen gibt es ja in der Natur, sie entstehen und verschwinden ständig, sind aber für das Verständnis der Struktur der uns umgebenden Materie ungemein wichtig. Nur, wenn wir ihre Natur verstehen, können wir herausfinden, „was die Welt im Innersten zusammenhält“, wie es schon Goethes Faust angestrebt hat.

So waren die Entdeckung eines Teilchens mit den Eigenschaften des seit langem vorhergesagten Higgs-Bosons, aber auch schon die Entdeckungen der so genannten W- und Z-Bosonen vor dreißig Jahren (wofür CERN-Physiker damals den Nobelpreis erhielten) glänzende, unbedingt notwendige Bestätigungen für unsere Theorie der Struktur der Materie auf subatomarem Niveau. Hätte man diese Teilchen nicht entdeckt, so müssten wir dieses so genannte „Standardmodell“ über Bord werfen und uns etwas Neues überlegen. Zur Zeit suchen die CERN-Physiker nach neuen, so genannten „supersymmetrischen“ Teilchen. Je nachdem, ob man sie findet oder nicht, wird man sich für die eine oder die andere Art von weiterführenden Theorien entscheiden müssen.

Direkte praktische Auswirkungen hat das für unser Leben vielleicht nicht: die Materie würde auch nicht zerfallen, wenn wir nicht wüssten, was sie zusammenhält. Streben nach Erkenntnis und Verständnis ist aber die Grundlage aller Kultur. Außerdem aber ist auch technischer Fortschritt auf längere Sicht ohne Grundlagenforschung nicht möglich.

Auswirkungen auf das praktische Leben

Vielleicht interessieren Sie sich eigentlich nicht sehr für Physik (auch wenn das eher unwahrscheinlich ist ... dann hätten Sie nämlich wohl nicht bis hier her gelesen). Aber gesetzt den Fall, jemandem ist die Physik egal: das ist ja durchaus möglich, es gibt ja auch Leute, die keine Oper mögen oder denen es nicht wichtig ist, was die alten Ägypter über das Leben nach dem Tode gedacht haben. Wenn also jemandem die Struktur der Materie und der Aufbau der Welt nicht untersuchungswert erscheint, ist dann für diesen die ganze CERN-Forschung nur hinausgeworfenes Geld?

Entwicklung des World Wide Web

Ganz sicher nicht. Die Grundlagenforschung war schon immer wichtig für die technische Entwicklung und den Fortschritt in allen möglichen praxisorientierten Bereichen. Ein Beispiel, das mit dem CERN zu tun hat, ist das World Wide Web. Entwickelt wurde es ursprünglich am CERN, um den Physikern den Austausch von Informationen zu erleichtern. Heute kann man ohne dieses System nicht einmal mehr Flugtickets oder Theaterkarten kaufen. Die Beschleunigerforschung ist aber auch in einem Bereich wichtig, der uns eigentlich noch viel mehr berührt, als irgendwelche finanzielle Erleichterungen: es handelt sich um unsere Gesundheit.

Ihrer Gesundheit zuliebe: MedAustron

Mit der steigenden Lebenserwartung der Menschen und den immer besseren Möglichkeiten, verschiedene Krankheiten zu heilen, spielen in unserem Leben Krebserkrankungen leider eine immer größere Rolle. Viele davon können mit Strahlentherapie erfolgreich behandelt werden, die Nebenerscheinungen dieser Behandlungen sind jedoch ein großes Problem. Einige dieser Erkrankungen kann man viel gezielter mit Protonen oder Ionen behandeln als mit den herkömmlicheren und billigeren Gammastrahlenanlagen, die in Spitälern zu finden sind. Dafür braucht man allerdings große Beschleunigeranlagen. Zur Zeit wird in Wiener Neustadt eine solche Anlage gebaut, das „MedAustron“. Das gesamte Know-How dafür kommt vom CERN. Hier haben die österreichischen Ingenieure und Physiker die Anlage konstruiert, ohne die Unterstützung der CERN-Physiker hätte man dieses Zentrum unmöglich so bauen können, wie dies nun geschieht.

CERN: ein Weltzentrum

Im Verlaufe der Zeit ist man bei der Erforschung der Elementarteilchen zu immer höheren Energien übergegangen, und dementsprechend mussten die Beschleuniger immer größer und komplizierter werden. Heute kann sich keine einzelne Universität und auch kein einzelnes Land Anlagen von der Größe des CERN leisten. Dementsprechend ist es ganz natürlich, dass heute die ganze Welt in diesem Bereich zusammenarbeitet. Das CERN ist schon lange kein rein „europäisches“ Zentrum mehr. Hier arbeiten auch jede Menge Amerikaner, Russen, Chinesen, Japaner, Inder und Vertreter praktisch aller Länder mit, in denen aktiv Elementarteilchenphysik verfolgt wird. Da man sich nicht mehr mehrere derartige Anlagen in der Welt leisten kann, ist es natürlich wichtig, dass es auch am CERN eine gewisse innere Konkurrenz gibt, mehrere Experimente, die ihre Resultate gegenseitig überprüfen können. Die Tatsache, dass hier alle nebeneinander arbeiten können, ist aber ungemein befruchtend und wertvoll für alle Wissenschaftler, die hier tätig sind.

Studentenjobs: Diplomarbeit am CERN

Vielleicht haben Sie jetzt den Eindruck gewonnen, dass die Arbeit am CERN interessant und lohnend ist und denken sich: „Schade, dass nicht ich oder meine Kinder, oder meine Enkel auch dort arbeiten können!“ Dem ist aber keineswegs so! Das CERN lebt ja von der Mitarbeit der Wissenschaftler aus allen beteiligten Ländern. Vor allem junge Menschen sind es, die hier im Rahmen einer Diplomarbeit, einer Dissertation oder einer anderen Arbeit einige Jahre lang arbeiten, ihre neuen Ideen einbringen und gleichzeitig wertvolle Erfahrungen sammeln. In ihr Heimatland zurückgekehrt können sie diese Erfahrungen dann in der Wirtschaft oder in der Forschung anwenden. Dieser ständige Austausch ist also sowohl für das CERN wie auch für seine Mitgliedsländer von großem Wert. Kommen Sie, schauen Sie sich’s an ... und machen Sie mit.


(1) CERN: Ein Beschleunigerzentrum — Wozu beschleunigen? http://scienceblog.at/cern-ein-beschleunigerzentrum-%E2%80%94-wozu-besch...
Artikel im ScienceBlog:
Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen
Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?


Weiterführende Links

Vorträge und Vorlesungen von Manfred Jeitler

Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012)

Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012)
Astro-Particle Physics (WS 2012/13) — PDF-Downloads:
Teil 1 Überblick
Teil 2: Detektoren
Teil 3: Beschleunigungsmechanismen
Introduction to Particle Physics

CERN

Publikumsseiten des CERN

Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen) http://education.web.cern.ch/education/Chapter2/Intro.html


 

inge Fri, 06.09.2013 - 07:10

CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

Fr, 23.08.2013 - 05:36 — Manfred Jeitler

Icon Physik

Manfred JeitlerDas bei Genf angesiedelte CERN (Conseil Européen pour la Recherche Nucléaire) erzielt mit Hilfe großer Teilchenbeschleuniger fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und die Wechselwirkung zwischen diesen. Im diesem Artikel erklärt der Autor warum man dafür Teilchen auf sehr hohe Geschwindigkeit und zur Kollision bringen muß. Ein in Kürze folgender Artikel wird sich mit den Experimenten am CERN und deren Ergebnissen beschäftigen.

Warum denn so eilig?

Das europäische Teilchenphysikzentrum CERN ist eine Beschleunigeranlage. „Beschleunigen“ heißt in unserem Sprachgebrauch so viel wie „schneller machen“. Dass heute alles recht schnell gehen soll, wissen wir ja zur Genüge. Wir reisen mit Autos und Flugzeugen, um recht schnell woanders zu sein, von wo wir dann umso rascher wieder abreisen können. Und jetzt verfallen die Physiker auch diesem Schnelligkeitswahn und bauen sogar ein eigenes Zentrum, um alles noch schneller zu machen! Geht es nicht auch ein bisschen langsamer? So etwas denken Sie sich vielleicht jetzt.

Alice im Wunderland – HaseAlice im Wunderland - das weiße Kaninchen: “Oh dear! Oh dear! I shall be too late!" (Lewis Caroll; free clipart, http://www.disneyclips.com/linktous.html)

Die Antwort kommt vielleicht etwas überraschend: nein, langsamer geht es zwar nicht, aber eigentlich kommt es den Physikern überhaupt nicht auf die Schnelligkeit an. Was die Beschleuniger für uns tun, ist, den Teilchen höhere Energien zu verleihen. (Um welche Teilchen es sich hier eigentlich handelt, werden wir weiter unten besprechen.) Bei höheren Geschwindigkeiten hat das bewegte Objekt eine höhere Energie, das wissen wir alle. Im normalen Leben ist das eher eine unangenehme Nebenerscheinung: wenn man mit dem Auto schnell unterwegs ist, will man nur recht rasch von A nach B kommen; dass die in der Geschwindigkeit des Autos steckende Energie beim ungewollten Zusammenstoß mit einem Baum oder anderen Fahrzeug dann dazu verbraucht wird, um das Auto und seine Insassen zu deformieren, ist ein zwar bekannter, aber durchaus unerwünschter Nebeneffekt. Für den Teilchenphysiker sieht das ganz anders aus. Dass die Teilchen so rasch umherfliegen, macht ihre Beobachtung etwas schwieriger. Sie zu untersuchen, geht aber nur, indem man sie mit großer Energie gegeneinander schießt (Abbildung 1).Large Hadron Collider – LHC

Abbildung 1. Large Hadron Collider – LHC. Im Strahlrohr des LHC-Beschleunigers fliegen in einem 27 km langen kreisförmigen Tunnel ständig gegenläufig Protonen herum. Sie werden auf hohe Energien beschleunigt und dann zur Kollision gebracht.

Bitte nur anschauen, nicht kaputt machen?

Wenn Sie sich an Ihre frühe Kindheit erinnern, so werden Sie das verstehen: das Innenleben eines Spielzeugs haben wir damals dadurch untersucht, dass wir es fest auf den Boden geworfen haben, bis das Ganze auseinander gebrochen ist. Für erwachsene Menschen scheint die Methode etwas brutal. Wenn ein Industriespion das Auto der Konkurrenzfirma nachbauen will, wird er wohl nicht damit gegen einen Baum fahren, sondern es eher mit dem Schraubenzieher sorgfältig in seine Teile zerlegen und diese einzeln abzeichnen. Nur diese Teilchenphysiker scheinen ja ganz infantile Methoden zu verwenden.

Wir dürfen aber nicht vergessen, dass es bei Teilchen gar keine andere Möglichkeit gibt. „Sehen“ im landläufigen Sinn des Wortes kann man sie ja nicht, dafür sind sie zu klein. Was heißt denn „sehen“? Man dreht eine Lampe auf und schießt damit „Photonen“, die Teilchen, aus denen das Licht besteht, auf das zu untersuchende Objekt (oder man geht einfach in die Sonne, die uns Photonen in großer Zahl frei Haus liefert). Dieses Objekt wirft die Photonen dann in verschiedene Richtungen zurück, und ein Teil davon landet in unserem Auge. Aus deren Verteilung (wo dunkel, wo hell) und Energie (Farbe: ein blaues Photon hat mehr Energie als ein rotes) können wir dann die Form und Beschaffenheit des Gegenstandes ableiten.

Elementarteilchen sind so klein, dass sie zu einem bestimmten Zeitpunkt bestenfalls von einem Photon getroffen werden können. Dieses Photon können wir vielleicht wahrnehmen. Es gibt aber dem anderen Teilchen gleichzeitig einen Schubser, sodass dieses danach ein bisschen wo anders sein und mit anderer Energie durch die Gegend fliegen wird: wir haben seinen Ort und seine Energie beeinflusst. Trotzdem können wir auf diese Weise etwas über die Teilchen lernen. Dabei machen wir uns die Tatsache zu Nutze, dass Elementarteilchen derselben Sorte immer gleich sind. Kein Elektron ist dicker als ein anderes, kein Positron ist hübscher als sein Nachbar. Diese Teilchen sind keine Individualisten. Sie können Ihrem Lieblingsteilchen kein rotes Mascherl umhängen, um es wieder zu erkennen. Wenn Sie eine sehr gute Beobachtungsgabe haben, können Sie vielleicht einem Taschenspieler auf die Schliche kommen, wenn er Ihnen mit dem Drei-Karten-Trick das Geld aus der Tasche ziehen will (ich habe das allerdings nie geschafft). Bei Elementarteilchen haben Sie keine Chance, versuchen Sie’s gar nicht: sie verlieren allemal. Für die Physiker ist das aber gut: selbst wenn ein Elektron entwischt, nachdem es ein anderes Teilchen reflektiert hat, macht das nichts: wir untersuchen ein paar Tausend Elektronen, und da sie alle gleich sind, wissen wir dann etwas über „das Elektron“ schlechthin.

Die Teilchenphysiker haben noch etwas den Menschen im täglichen Leben voraus: sie haben verschiedene Arten von „Licht“, könnte man sagen, denn sie können Teilchen nicht nur mit Photonen, sondern auch mit einer ganzen Reihe anderer Teilchen bewerfen und sie in diesem „Licht“ untersuchen. Ganz unbekannt ist Ihnen das wahrscheinlich nicht, Sie haben vermutlich schon von Elektronenmikroskopen gehört, bei denen man Objekte nicht mit normalem Licht, sondern mit einem Elektronenstrahl „beleuchtet“.

Aber warum denn so stark draufhauen?

Erinnern Sie sich, warum man Elektronenmikroskope braucht? Ganz kleine Objekte wie z.B. Viren kann man mit normalem Licht nicht untersuchen, weil dieses zu wenig Energie hat. Je kleiner die Struktur, desto größer muss die Energie sein, um sie ordentlich zu sehen. Wenn Sie eine Nähnadel einfädeln wollen, brauchen Sie dafür gutes Licht. Die Schuhbänder kriegt man auch im halbdunklen Vorzimmer ganz gut in die Ösen hinein. Um Elementarteilchen immer genauer zu untersuchen, muss man sie mit Teilchen immer höherer Energie beschießen.

Entsprechend dem obigen Beispiel mit dem Kinderspielzeug denken Sie vielleicht, wir sehen auf diese Weise die Oberfläche der Teilchen und vielleicht auch noch, was drinnen steckt, indem wir sie auseinander brechen. Das stimmt nur zum Teil. „Auseinander brechen“ in dem uns geläufigen Sinn geht nämlich bei Elementarteilchen nicht. Die hohe Energie unserer Teilchen birgt aber noch eine Möglichkeit in sich: wir können damit neue Teilchen erzeugen!

Aus Bums wird Dings

Es gibt eine Formel in der modernen Physik, die auch die meisten Nichtphysiker kennen und die gleichsam ein Symbol für Klugheit und Verständnis geworden ist:

E=mc2

. Was heißt das? Energie (abgekürzt „E“) ist dasselbe wie Masse (abgekürzt „m“), nur mit einem Umrechnungsfaktor multipliziert (der ist ziemlich groß, nämlich das Quadrat der Lichtgeschwindigkeit „c“: c2). Sie können also, wenn Sie wollen, ihr Gewicht in Kilowattstunden angeben (ich schätze, Sie wiegen so um die 2000 Milliarden kWh) und die Stromrechnung in Kilogramm umrechnen (vermutlich verbraucht Ihr Haushalt so um die 0,000 000 1 kg Strom pro Jahr).

Den Mechanismus der Stromerzeugung in einem Kernkraftwerk kann man so verstehen: tatsächlich wiegen alle „Abfälle“ ein kleines bisschen weniger als der ursprüngliche Kernbrennstoff. Aus etwas Materie (oder Masse) haben wir damit Energie gewonnen. Salopp könnte man sagen: „Aus Dings wird Bums“.

Man kann den Spieß aber auch umdrehen und aus Energie Materie erzeugen. Ich würde Ihnen jetzt nicht empfehlen, den Zucker für den Frühstückskaffee aus der Steckdose zu beziehen. Abgesehen davon, dass das technisch recht aufwändig wäre, käme Ihnen dabei der Zucker für ein Heferl Kaffee bei den jetzigen Strompreisen auf etwa 10 Millionen Euro. Da haben Sie’s beim Greißler billiger. Für viele Elementarteilchen ist das aber die Methode der Wahl: es sind instabile Teilchen, die nach ganz kurzer Zeit zerfallen. Sie kommen sehr wohl auch in der Natur vor, wo sie bei Zusammenstößen von anderen Teilchen (z.B. aus der kosmischen Strahlung) entstehen.

Ein so ein Teilchen ist zum Beispiel das so genannte „Higgs-Teilchen“, benannt nach dem Physiker, der es erstmals vorhergesagt hat. Das ist etwa 125 Mal schwerer als ein Proton. Nachgewiesen wurde dieses Teilchens erstmals 2012 am CERN.* Dazu wurden Protonen gegeneinander geschossen, und dann konnte in einigen (sehr seltenen) Fällen das Higgs-Teilchen nachgewiesen werden. Es ist so, als würden zwei Fahrräder mit hoher Geschwindigkeit gegeneinander prallen, und plötzlich ist an der Unfallstelle ein Auto, das rasch davonfährt, und noch dazu ein ganzer Haufen von Fahrrädern, Tretrollern und Skateboards, die alle schnell auseinander fliegen. Wenn Sie so was im Fernsehen präsentiert bekommen, werden Sie sich vielleicht sagen, „Also das ist wohl der allerblödeste Science-Fiction-Film, den ich je gesehen habe!“ In der Elementarteilchenphysik geht es aber tatsächlich so zu! Und das „Auto“ (Higgs-Boson) war klarer Weise nicht in einem der „Fahrräder“ (Protonen) versteckt, sondern es entsteht tatsächlich durch die vorhandene Bewegungsenergie der „Fahrräder“ beim Zusammenprall. Aus Bums wird Dings.

Aber was sind denn nun diese „Teilchen“ oder „Elementarteilchen“?

Ja, das kann man nicht mit einem Wort sagen, drum habe ich es auch bis jetzt verschwiegen. Was Atome sind, wissen Sie wahrscheinlich: es sind die Bestandteile der Materie. Die „Teilchen“, von denen wir hier sprechen, sind wiederum die Bestandteile der Atome. Von manchen haben Sie schon gehört, und ich habe sie auch oben erwähnt, ohne sie genauer zu beschreiben. Es gibt Protonen (die gemeinsam mit „Neutronen“ in den „Kernen“ der Atome sitzen), Elektronen (die darum herumfliegen), Photonen (die Teilchen des Lichts) und noch eine ganze Menge anderer Teilchen, die instabil sind, aber beim Zerfall von radioaktiven Atomen oder bei hochenergetischen Zusammenstößen anderer Teilchen erzeugt werden können. Einige dieser Teilchen (wie zum Beispiel das Elektron) sind „Elementarteilchen“: elementar in dem Sinne, dass sie keine innere Struktur aufweisen, aus nichts anderem bestehen. Andere bestehen wiederum aus noch kleineren Teilchen wie zum Beispiel das Proton (Abbildung 2) oder das Neutron , nämlich aus den so genannten „Quarks“, und man kann sie darum eigentlich nicht als „Elementarteilchen“ bezeichnen. Darum müssen wir den allgemeinen Ausdruck „Teilchen“ verwenden aber uns immer daran erinnern, dass wir damit etwas anderes als z.B. die Russteilchen in Autoabgasen meinen.

ProtonAbbildung 2. Proton. Ein Proton besteht nach unserem heutigen Wissen aus mehreren noch kleineren Teilchen, den so genannten „Quarks“.

In Fortsetzung des Artikels erscheint in Kürze: CERN: Ein Beschleunigerzentrum. Experimente, Ergebnisse und wozu braucht man das? Zu dem Thema Elementarteilchen hält der Autor am 22. November 2013 um 19:00 h einen Vortrag an der Wiener Urania: "Die Sprache der Elementarteilchen". *Siehe Manfred Jeitler, Scienceblog 2013:


Weiterführende Links

Vorträge und Vorlesungen von Manfred Jeitler

Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012)

Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012)

Astro-Particle Physics (WS 2012/13) — PDF-Downloads:

Introduction to Particle Physics

CERN

Publikumsseiten des CERN Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen) CERN teaching resources

inge Sun, 23.06.2013 - 05:35

Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen

Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen

Fr, 30.08.2013 - 05:56 — Gottfried Schatz

Icon BiologieGottfried SchatzWenn unsere Zugvögel nun nach dem Süden aufbrechen, orientieren sie sich auf ihrer Route u.a. nach Stärke und Richtung des Magnetfelds der Erde. Diesen Magnetsinn teilen sie mit vielen anderen Lebewesen, angefangen von Bakterien bis hin zu Säugetieren. Wie die einzelnen Spezies das Magnetfeld „fühlen“ und verarbeiten, ist noch weitgehend unerforscht.

Wie ist die Welt um mich beschaffen? Ich kann sie sehen, riechen, hören, betasten und schmecken, doch obwohl ich für diese Sinne Hunderte verschiedener biologischer Sensoren und mindestens ein Zehntel meiner Gene einsetze, öffnen sie mir nur ein schmales Tor zur Wirklichkeit. Meine Augen sehen nur einen verschwindenden Teil des immensen elektromagnetischen Spektrums, meine Ohren sind taub gegenüber tiefen und hohen Tönen, und meine Nase ist stumpf gegenüber Millionen von Düften, die mich umgeben. Um die Grenzen der Sinne zu erweitern, suchen viele Menschen Zuflucht bei Esoterik, Mystik oder Drogen. Und entspringen nicht auch Wissenschaft und Kunst unserem Sehnen, die Pforten der Wahrnehmung zu erweitern? Welche Welt würde sich mir erschliessen, wenn ich ultraviolettes oder infrarotes Licht sehen, Ultraschall hören, elektrische Felder spüren oder das Magnetfeld der Erde wahrnehmen könnte?

Bakterien, Schildkröten, Hummer

Viele Tiere besitzen solche Sinne, und keiner von ihnen ist geheimnisvoller als der Magnetsinn. Unser Planet ist ein gigantischer Magnet, weil sich in seinem Inneren flüssige eisenhaltige Schichten gegeneinander bewegen (Abbildung 1). Das Erdmagnetische Feld

Abbildung 1. Das Erdmagnetische Feld (dargestellt als Feld eines Stabmagnets). Es verläuft nicht parallel zur Rotationsachse; seine Intensität ist am stärksten an den Polen, am schwächsten am magnetischen Äquator.

Die magnetischen Feldlinien verlaufen am Äquator ungefähr parallel zur Erdoberfläche und fallen gegen die beiden Pole hin immer steiler zu ihr ab. Schon früh «lernten» Lebewesen, diese Feldlinien als Wegweiser zu verwenden. Vor dreissig Jahren entdeckte ein amerikanischer Biologe, dass manche Sumpfbakterien stets an den Nordrand eines Wassertropfens wanderten, jedoch die umgekehrte Richtung wählten, wenn er das Magnetfeld um den Wassertropfen künstlich umpolte. Diese «Magnetbakterien» besitzen lange Ketten aus membranumhüllten Kristallen des magnetischen Eisenoxids Magnetit, die als Kompassnadel wirken und dem Antriebsmotor der Bakterien die Bewegungsrichtung vorgeben (Abbildung 2).

Magnetospirillum gryphiswaldenseAbbildung 2. Magnetospirillum gryphiswaldense. Diese im Wasser lebenden Bakterienzellen enthalten Ketten von Magnetitkristallen (unteres Bild), mit deren Hilfe sie sich zum Meeresboden orientieren. (Bild: Wikimedia Commons).

Ihr Magnetsinn zeigt den Bakterien die Richtung zum Meeresboden und hilft ihnen so, Wasserschichten zu finden, die weder zu viel noch zu wenig Sauerstoff enthalten. Auch höhere Lebewesen, die im Verlauf ihres Lebens spektakuläre Fernreisen unternehmen, orientieren sich am Magnetfeld der Erde. Dies gilt vor allem für Meeresbewohner, die im Halbdunkel der Meere über Tausende von Kilometern ihre Wege ziehen. Wenn eine Unechte Karettschildkröte an den Oststränden Floridas aus dem Ei schlüpft, eilt sie sofort nach Osten ins schützende Nass, schwimmt mit dem Golfstrom zur Kreiselströmung der atlantischen Sargassosee und kehrt erst einige Jahre später nach Florida zurück. Wenn sie auf ihrer Heimreise die Kreiselströmung am falschen Ort verlässt und in kühle nördliche Gewässer abirrt, bedeutet dies ihr Ende; und auch ein Abdriften in den Süden verhindert meist die lebenswichtige Rückkehr zur heimatlichen Küste. Das ausschlüpfende Junge eicht seinen Magnetsinn zunächst nach dem vom östlichen Meeresstrand her einfallenden Licht und misst dann im freien Meer wahrscheinlich den Winkel zwischen den magnetischen Feldlinien und dem Meeresboden. Da dieser Winkel gegen die Pole hin steiler wird, zeigt er der schwimmenden Schildkröte die geographische Breite; wie das Tier die geographische Länge ortet, ist noch rätselhaft.

Auch Mollusken, Hummer und viele Fische orientieren sich auf diese Weise. In all diesen Lebewesen, wie auch in Insekten und Säugetieren, finden sich winzige Magnetitkristalle, die denen von Magnetbakterien sehr ähnlich sind. In der Regenbogenforelle sind diese geordneten Kristallketten in besonderen Nervenzellen der Nasenregion angeordnet und über feine Proteinfäden mit der Innenseite der Zellmembran verbunden. So könnten sie die Kraft einer magnetischen Ablenkung auf die Membran übertragen, diese verformen und in ihr mechanisch empfindliche Schleusen für elektrisch geladene Metallatome öffnen. Dies ergäbe schliesslich ein elektrisches Signal, das an das Gehirn geleitet und von diesem als Positionsinformation entschlüsselt wird.

Zugvögel - und der Mensch?

Seine höchste Vervollkommnung findet der Magnetsinn in Zugvögeln, die sich auf ihren weltweiten Reisen je nach Umweltbedingungen an der Sonne, den Sternen und dem Magnetfeld der Erde orientieren. Langstrecken-Routen von ZugvögelnAbbildung 3. Langstrecken-Routen von Zugvögeln (Bild: L. Shyamal, Wikimedia Commons)

Sie verwenden dazu wahrscheinlich mindestens zwei verschiedene Magnetsensoren. Der erste besteht wie bei Bakterien und Fischen aus Magnetitkristallen, befindet sich im Schnabel und misst die Stärke des Magnetfelds. Der zweite Sensor sitzt in den Augen und dürfte vor allem die Richtung der magnetischen Feldlinien erkennen. Er ist wahrscheinlich ein Farbstoff, dessen Moleküle in der Netzhaut geometrisch präzise angeordnet sind. Licht könnte in diesen Molekülen eine chemische Reaktion bewirken, die vom Magnetfeld der Erde beeinflusst wird. Wie erlebt eine Brieftaube das Magnetfeld der Erde? Sieht sie es? Und wenn ja, sieht sie es als Farbe oder Muster? Sie könnte das Magnetfeld auch fühlen, schmecken oder riechen - je nachdem, wie ihr Gehirn die vom Auge gelieferte Information interpretiert.

Könnte es sein, dass das Magnetfeld der Erde auch mich beeinflusst? Mein Gehirn besitzt zwar Magnetitkristalle, doch nichts deutet darauf hin, dass sie mir einen sechsten Sinn verleihen. Hinweise, dass Änderungen des Magnetfelds den Gleichgewichtssinn, die Sehempfindlichkeit und sogar auch den Orientierungssinn von Testpersonen beeinträchtigen, stehen noch auf wackligen Beinen. Auch die Wirksamkeit von Wünschelruten ist noch unbewiesen. Dennoch würde ich es nicht ausschliessen, dass manche Menschen einen überentwickelten Magnetsinn besitzen und deshalb Verzerrungen des irdischen Magnetfelds durch Wasseradern oder Erzlager fühlen können.

Ich weiss so wenig von der Welt, die mich umgibt, und jede Frage zeigt mir aufs Neue die Grenzen meiner angeborenen Sinne. Um diese Grenzen zu erweitern, schaffen wir uns unablässig neue Sinne: magnetische Augen, um in das Innere unseres Körpers zu blicken; elektronische Finger, um einzelne Atome abzutasten; und gigantische Ohren, um nach Radiosignalen aus den Tiefen des Universums zu lauschen. Diese neuen Sinne schenken uns faszinierende Einblicke in das Wirken unseres Körpers, die Natur der Materie und die Geschichte des Universums, doch da sie Maschinen sind, sprechen ihre Signale nicht zu uns, sondern zu anderen Maschinen. Unsere neuen Sinne sind von uns geschaffen, aber nicht Teil von uns - und weil sie unser Herz vergessen, können sie uns nie ganz befriedigen. Die biologischen Signale unserer Sinneswelt - der Schrei einer Möwe, das Leuchten eines Glühwürmchens oder der Duft einer Rose - sprechen dagegen direkt zu unserem Herzen und lassen uns ahnen, dass wir Teil eines grösseren Ganzen sind. Selbst wenn wir das Magnetfeld der Erde nicht wahrnehmen können.


Weiterführende Links

Magnetsinn und Heimkehrvermögen der Tiere. Video 5:53 min. SWR Fernsehen (1.9.2012)

Magnetsinn der Vögel — Am Schnabel scheiden sich die Geister (Bericht FAZ, 19.4.2012)

Pioniere der Orientierungsforschung


 

inge Fri, 30.08.2013 - 05:56

Hydrologie: Über die Mathematik des Wassers im Boden

Hydrologie: Über die Mathematik des Wassers im Boden

Fr, 16.08.2013 - 08:08 — Gerhard Markart

Icon GeowissenschaftenGerhard Markart

Welche Faktoren spielen zusammen, wenn Wasser über die Ufer tritt? Was versteht man unter der Versiegelung des Bodens und welche Auswirkungen hat sie auf den Wasserkreislauf?

Starkregen – die Bedeutung des Waldes und funktionierender Böden

Waldbestände halten große Niederschlagsmengen im Kronenraum zurück. Diese Interzeptionsverdunstung liegt je nach Baumart und Dichte des Bestandes bei vier bis sechs Millimeter pro Niederschlagsereignis, bei Nadelbäumen ist der Kronenrückhalt größer als bei Laubbäumen. Der Kronendurchlass (Wasser, das auf den Waldboden trifft) kann im Wald in der Regel leichter versickern als im umgebenden Freiland. Deshalb sind Wälder so wichtige Regulative im hydrologischen Haushalt.

Die Reaktion des Bodens ist stark von der Intensität und der Dauer des Niederschlagsereignisses abhängig. Besonders bei kurzzeitigen Starkregen (Gewitterregen) ist auf feinteilreichen Böden mit geringer Deckung und auf versiegelten Standorten mit einem sehr hohen Abfluss zu rechnen.

Beim Aufprall auf vegetationslosen Flächen bzw. solchen mit geringer Vegetationsdeckung verdichten die Tropfen die oberste Bodenschicht und zerplatzen. Diese kleineren Tropfen werden nach allen Seiten weggeschleudert und können dabei bis zu 100 Prozent ihrer eigenen Masse an Feststofffracht bewegen, ein Vorgang, der auch als Splash-Erosion – Effekt bezeichnet wird. Die erodierten Partikel werden an anderer Stelle eingeschlämmt, versiegeln die Oberfläche und vermindern dadurch sukzessive die Infiltrationsleistung des Bodens, das heißt die Fähigkeit des Bodens Niederschläge aufzunehmen, ist deutlich reduziert.

Zusätzlich ist das Retentionsvermögen – die Aufnahmefähigkeit – des Bodens auch vom Grad der Vorbefeuchtung und Porenausstattung abhängig. Bei Gewitterregen unter extrem trockenen Bedingungen dauert es vor allem bei humusreichen und feinteilreichen Böden länger, die durch die Austrocknung entstandenen Benetzungswiderstände zu überwinden (vergleichbar einem trockenen Schwamm, den man auch einige Zeit benetzen bzw. sogar „durchkneten“ muss, damit er wieder Wasser aufnimmt). Hohe Vorfeuchte reduziert das Aufnahmevermögen, weil das Wasser durch das schon im Boden enthaltene Wasser und Luftpolster, die nicht entweichen können, an der Infiltration gehindert wird.

Auf Grünland mit hohen Anteilen an abgestorbenen Pflanzenteilen gelangt ein hoher Anteil des Niederschlages oft gar nicht in den Boden. Dachziegelartige Anordnung der toten Blattteile, dichter Wurzelfilz und eine benetzungshemmende Wirkung des toten Materials bewirken einen Strohdacheffekt, dadurch fließt ein großer Teil des Wassers direkt an der Oberfläche ab.

Abflussgeschwindigkeit und Abflussdämpfung

Wenn man über das Abflussverhalten von Wasser spricht, dann ist neben der Rauigkeit der Oberfläche (z.B. Höhe, Dichte und Struktur der Vegetation) die Beschaffenheit des Bodens von zentraler Bedeutung: Die Retentionsfähigkeit des Bodens, also die Fähigkeit des Bodens, Wasser in seinen Poren zu speichern und in den tieferen Untergrund weiterzuleiten, trägt maßgeblich zur Dämpfung von Hochwässern bei. Technische Maßnahmen wie Rückhaltebecken, Dämme oder Deiche beeinflussen zwar den Prozess der Abflusskonzentration, nicht aber die Menge selbst. Deshalb gewinnt der dezentrale Hochwasserschutz zunehmend an Bedeutung. Dieser setzt bei der Entstehung des Abflusses an: Möglichst viel Wasser soll zumindest temporär nahe am Ort des Niederschlages gebunden werden. Der Niederschlag soll in den Boden infiltrieren, durch Pflanzen (z.B. Bäume, Büsche, Zwergsträucher) über direkten Rückhalt in der Blattmasse (Interzeption) und Transpiration an die Atmosphäre zurück gegeben bzw. über den Zwischenabfluss (Interflow) im Boden im unterliegenden geologischen Substrat oder im Grundwasserstrom zeitverzögert dem Vorfluter zugeführt werden (siehe Abb. 1).

Kenngrößen des Wasserhaushaltes – Wege des WassersAbbildung 1. Kenngrößen des Wasserhaushaltes – Wege des Wassers

Auf unbefestigten vegetationsfreien Oberflächen und dichten Böden entsteht rasch Oberflächenabfluss, dieser konzentriert auch auf Flächen, die für das menschliche Auge relativ gleichförmig erscheinen, oft schon nach wenigen Metern in den vorhandenen Tiefenlinien im Gelände (linearer Abfluss, siehe Abb.2): Die Fließgeschwindigkeit steigt vom flächigen Sheet – Flow (Zentimeter pro Sekunde) nach wenigen Metern um den Faktor zehn auf Dezimeter pro Sekunde, in Wildbächen und Flüssen werden besonders bei Starkregen Geschwindigkeiten von mehreren Metern pro Sekunde erreicht.

Starkregensimulation auf einer planierten SchipisteAbbildung 2. Starkregensimulation auf einer planierten Schipiste mit = 100 mm Niederschlag pro Stunde (Boden: Braunlehm). Trotz der okular relativ gleichförmigen Oberfläche ist nach einer Fließstrecke von zehn bis zwölf Metern bereits eine deutliche Konzentration des Oberflächenabflusses zu erkennen. Als Farbtracer wurde Lebensmittelfarbe (brilliant-blue), diese ist biologisch abbaubar, verwendet.

Auswirkungen von Landnutzung und Bodenversiegelung

Eine hohe Rauigkeit der Oberfläche ist wichtig für die Verzögerung des Abflusses. So bremst z.B. eine gut gestufte Vegetationsdecke (Wald mit Unterwuchs, hoher Humusauflage und / oder hohem Totholzanteil, Zwergstrauchheide, Wiese vor der Mahd, bewegtes Kleinrelief…) die Geschwindigkeit des Oberflächenabflusses und erleichtert damit die Infiltration in den Boden.

Katastrophenereignisse und Bodenversiegelung

Das aktuelle großflächige Hochwasserereignis in Österreich und zahlreiche Katastrophenereignisse der letzten Jahre, unter anderem jene im August 2005 in Westösterreich, haben gezeigt, dass die Mehrwassermengen von Oberflächenabflüssen aus versiegelten Flächen einen wesentlichen und nicht zu unterschätzenden Faktor im Abflussverhalten von Wildbächen und ihren Vorflutern darstellen können. Während aus unbebautem Gelände in der Regel ein geringerer Teil der Niederschlagsmenge oberflächlich abfließt und im Vorfluter abflusswirksam wird, tritt der Abfluss aus versiegelten Flächen verstärkt und beschleunigt auf. Dies bedeutet neben der ungünstigen Beeinflussung des Gesamtwasserhaushaltes häufig auch eine Verschärfung der Hochwassersituation.

Durch die Ausdehnung der Siedlungsgebiete und Verkehrswege und der damit verbundenen Versiegelung von Flächen kann Niederschlagswasser immer weniger natürlich in den Untergrund versickern. Über die Kanalisation abgeführtes Niederschlagswasser konzentriert die Abflüsse, verringert die Grundwasserneubildung, belastet Oberflächengewässer und reduziert die Reinigungsleistung der Abwasserreinigungsanlagen. Niederschlagswasser sollte deshalb nach Möglichkeit versickern und dem Grundwasserkörper zugeführt werden.

Versickern – retendieren – schadlos ableiten

Zur Beherrschung des Wasseranfalls aus Versiegelungsflächen gibt es eigentlich nur drei Möglichkeiten:

  1. Die kontrollierte Versickerung (möglichst dezentral, erforderlichenfalls im Kombination mit Rückhaltemaßnahmen zur Kappung anfallender Abflussspitzen). Sie funktioniert nur auf Böden mit ausreichender Durchlässigkeit, mögliche negative Auswirkung en auf die Hangstabilität (Gefahr von Rutschungen) und die Gefahr eines schnell austretenden Zwischenabflusses (Returnflow oder Reflow) müssen ausgeschlossen werden können. Es macht keinen Sinn, Wasser zu versickern, wenn es nach kurzer Strecke wieder konzentriert an die Oberfläche kommt.
  2. Die Retention, also der Rückhalt in Retentionsbecken, Stauraumkanälen, etc. mit dosierter Abgabe, um den Wassermehranfall für den Vorfluter (das Gewässer, in die ein anderes Gewässer mündet bzw. Wässer eingeleitet werden sollen) möglichst gering zu halten.
  3. Die direkte Ableitung über Oberflächenwasserkanäle in die Vorfluter.

 

Die zuletzt angeführte Variante ist die gefährlichste. Durch die massiv zunehmende Besiedelung, Bebauung, Bewirtschaftung von landwirtschaftlichen Flächen mit schwerem Gerät u.a. stoßen gerade die Gewässer im Bereich der Siedlungsgebiete bei Starkregenereignissen immer rascher an die Grenze ihrer Aufnahmefähigkeit.


Anmerkung der Redaktion

Bei diesem Artikel handelt es sich um eine Presseaussendung des Insituts für Naturgefahren (BFW), er erschien auch vor 2 Monaten im bioskop, der Zeitschrift der Austrian biologist Association (ABA).

Weiterführende Links

Interview mit dem Autor (2011): Wälder statt Sturzbäche.Bodenmanagement mindert Klimawandel-Folgen Video (5:46 min, abgerufen am 14. August 2013)

Die sehr schön und informativ gestaltete Website http://www.waldwissen.net enthält einige Artikel des Autors, welche das Thema des Blogbeitrags im Detail und in leicht verständlicher Form behandeln, u.a.:

Markart, G.; Kohl, B. (2009): Wie viel Wasser speichert der Waldboden? Abflussverhalten und Erosion. BFW-Praxisinformation 19, 25 – 26.

K.Klebinder et al., (2008): Auswirkungen der Versiegelung einfach berechnen.

G. Markart et al., (2005): Vom Hubschrauber aus Hinweise auf mögliche Naturgefahren erhalten.

G. Markart et al., (2007) Wald und Massenbewegungen.

Empfehlenswerte weitere Artikel zur “Mathematik des Wassers im Boden“

G. Markart et al. (2005) Geländeanleitung zur Abschätzung des Oberflächenabflussesbeiwertes bei Starkregen – Grundzüge und erste Erfahrungen (PDF-download)

Kohl et al. (2008) Analyse und Modellierung der Waldwirkung auf das Hochwasserereignis im Paznauntal vom August 2005. (PDF DOwnload)

Zum Thema Hochwasser

Hochwasser 2005 Paznauntal 4:03 min Website, welche die Hochwasser-gefährdeten Gebiete in Österreich sehr detailliert ausweist: https://hora.gv.at/ Im ScienceBlog: Günter Blöschl; 17.01.2013: Kommt die nächste Sintflut?


 

inge Fri, 16.08.2013 - 20:08

Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien

Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien

Fr, 09.08.2013 - 05:44 — Georg Wick

Icon MedizinGeorg WickAtherosklerose, eine bereits in jungen Jahren beginnende, langsam fortschreitende chronische Erkrankung, wird zumeist erst im Alter manifest; ihre Folgen, wie Herzinfarkt und Schlaganfall, stehen an der Spitze der Todesursachen. Eine Schlüsselrolle bei der Entstehung der Krankheit spielt das körpereigene Hitzeschockprotein 60 (HSP60), welches vom Immunsystem auf Grund seiner sehr großen Ähnlichkeit mit dem HSP60 von Infektionserregern angegriffen wird. HSP60 stellt ein Zielmolekül dar für die Entwicklung innovativer therapeutischer Strategien, die eine Impfung gegen Atherosklerose in Reichweite rücken.

Unter Atherosklerose (Arteriosklerose) – im Volksmund auch als Gefäßverkalkung bezeichnet – versteht man eine Verhärtung (= Sklerose) und Verengung von Arterien, die - wie in Abbildung 1 vereinfacht dargestellt - zu einer verminderten Durchblutung von Organen führen kann. Die damit einhergehende reduzierte Sauerstoffversorgung ist Auslöser von Herz-Kreislauferkrankungen, welche heute mit rund 30 % aller globalen Todesfälle und mit 40 % der Todesfälle in der westlichen Welt an der Spitze der Todesursachen stehen; von diesen sind etwa 80 % auf koronare Herzkrankheiten (KHK) und Schlaganfall zurückführen [1].Atherosklerose

Abbildung 1. Atherosklerose: An der Arterieninnenwand entstehen sogenannte Plaques, die zur Verhärtung uns Verengung des Gefäßes führen. (Bild modifiziert nach: United States Department of Health and Human Services, Public Domain)

Die Verhärtung und Verengung der Arterien resultiert aus der Entstehung sogenannter Plaques an der Innenwand der Arterien, bindegewebsartiger (fibrotischer) Veränderungen, die eine komplexe Mischung unterschiedlicher Zellen des Immunsystems und einwandernder Muskelzellen und Bindegewebszellen (Fibroblasten) enthalten (zu Fibrosen siehe [2,3]). Eine Chronologie der Veränderungen von normaler Arterieninnenwand über gelblich-weiße kissenähnliche Fettstreifen - “fatty streaks” – bis hin zu Plaques mit fettstoffreichen, nekrotischen Zentren, Verkalkungen und Blutungen ist in Abbildung 2 dargestellt.

Atherosklerose - eine Folge des modernen Lebensstils?

Atherosklerose ist eine bereits in jungen Jahren beginnende, langsam fortschreitende chronische Erkrankung, die zumeist erst im Alter manifest wird. Ihre Entstehung kann einerseits durch eine – allerdings eher seltene - genetische Veranlagung bedingt sein, andererseits können viele Risikofaktoren beitragen, wie beispielsweise hoher Blutdruck, Übergewicht, Diabetes, Rauchen, Infektionen, Störungen im Fettstoffwechsel („hohes Cholesterin“), Bewegungsmangel, etc.

Atherosklerose in der Aorta des MenschenAbbildung 2. Atherosklerose in der Aorta des Menschen. Unteres Bild: Fortschreitende Plaquebildung bis zu Ruptur des Plaques (Bild von Servier Medical Art). Beschreibung: siehe Text.

Die Vielzahl und Vielfalt an offensichtlichen Risikofaktoren macht es verständlich, daß die Menschheit bereits von altersher an Atherosklerose leidet, ungeachtet der unterschiedlichen Lebensstile, Umweltseinflüsse und Ernährungsgewohnheiten, ebenso wie auch der Art und des Ausmaßes körperlicher Aktivitäten: Untersuchungen an ägyptischen Mumien zeigen ebensolche krankhafte Veränderungen der Aorta, der Herzkranzgefäße und der peripheren Arterien, wie sie heute im modernen Menschen festgestellt werden. Die Häufigkeit mit der diese Läsionen beobachtet werden, läßt darauf schließen, daß die Erkrankung auch in der Antike bereits weit verbreitet war [4], die Menschheit seit Jahrtausenden begleitet.

Wenn also verschiedenartigste Einflüsse zum selben Ergebnis, der manifesten Atherosklerose führen, gibt es einen primären Auslösemechanismus, der allen Risikofaktoren gemeinsam ist?

Viele Risikofaktoren – ein gemeinsamer Auslösemechanismus?

Die Suche nach den Mechanismen, welche die früheste Phase der Krankheit auslösen, ist schwierig und am Menschen praktisch kaum durchzuführen. In diesem Stadium machen sich ja noch keine klinischen Symptome bemerkbar, der „zukünftige Patient“ hat noch keinen Arzt aufgesucht. Detaillierte Untersuchungen an geeigneten Tiermodellen erlauben es die Entstehung der Erkrankung chronologisch zu verfolgen vom morphologisch und klinisch unauffälligen Stadium bis hin zum voll entwickelten, häufig letal endendem Krankheitsbild. Basierend auf den tierexperimentellen Daten und in weiterer Folge auf indirekten Untersuchungen bei Menschen konnte ein neues Konzept für die Entstehung der Atherosklerose entwickelt werden:

Entgegen dem weit-verbreiteten Dogma, daß Atherosklerose mit einer passiven Ablagerung von Blutfetten („fatty streaks“) oder Verkalkung beginnt, wurde festgestellt, daß die frühesten Stadien der Atherosklerose durch einen Entzündungsprozeß charakterisiert sind, welcher Zellen des Immunsystems zur Einwanderung in die Innenwand der Arterie (Intima) anlockt. Die Frage, womit diese Immunzellen in der Arterienwand reagieren, ließ sich durch direkte Evidenz aus Tierexperimenten und indirekte Schlüsse aus Studien an menschlichen Patienten beantworten: Immunzellen (T-Lymphozyten) reagieren mit einem Stressprotein HSP60, welches an der Oberfläche der Zellen der Gefäßwand (= Endothelzellen) angelagert ist. HSP60 ist ein Mitglied der sogenannten Hitzeschockprotein-Familien, welche in den Zellen primär dafür verantwortlich sind, daß Proteine in korrekter Weise zu den ihnen entsprechenden, funktionsfähigen Strukturen gefaltet werden.

Hitzeschockproteine wurden erstmals in Zellen der Taufliege (Drosophila) identifiziert, als diese einem Temperaturschock - subletal hohen Temperaturen – ausgesetzt wurden. Der Name Hitzeschockproteine wurde beibehalten auch als es sich später herausstellte, daß Zellen auf unterschiedlichste Stressfaktoren ganz generell mit einer erhöhten Produktion dieser Proteine antworten - als Schutz vor den Auswirkungen strukturell veränderter Proteine.

Im Falle der Zellen der Gefäßwand (Endothelzellen) konnte nachgewiesen werden, daß diese eben durch die klassischen Risikofaktoren der Atherosklerose zur vermehrten Synthese von HSP60 stimuliert werden (Abbildung 3). In einer Reihung der Risikofaktoren nach ihrer Fähigkeit HSP60 in vitro in Endothelzellen des Menschen zu induzieren, nimmt bakterielle Infektion mit Chlamydien die Spitzenposition (mehr als 10-fache Erhöhung über den Kontrollwert) ein, gefolgt von Rauchen, mechanischem Stress (= hoher Blutdruck), generellen Infektionen, reaktivem Sauerstoff, oxydiertem Lipoprotein (oxLDL) und schließlich bestimmten Arzneimitteln (2 – 3-fache Erhöhung über den Kontrollwert) [5].

Vermehrt gebildetes HSP60 wird (zum Teil) auch an die Zelloberfläche transportiert und wirkt dann als Signal „Gefahr“ für die Immunzellen (T-Lymphozyten). Angelockt durch dieses Signal heften sich die T-Lymphozyten an der Gefäßwand an und lösen eine Immunantwort - den Entzündungsprozeß – aus (siehe nächster Abschnitt). Das Anheften erfolgt dabei mittels sogenannter Adhäsionsmoleküle, die gleichzeitig mit HSP60 auftauchen.

Warum aber richtet sich das körpereigene Abwehrsystem – das Immunsystem – gegen körpereigenes Protein und Gewebe?

Stressfaktoren stimulieren die Synthese des  Hitzeschockproteins 60  in EndothelzellenAbbildung 3. Stressfaktoren stimulieren die Synthese des Hitzeschockproteins 60 in Endothelzellen, welches - an die Zelloberfläche transportiert – vom Immunsystem als Gefahrensignal wahrgenommen wird.

Die Autoimmun-Hypothese der Atherogenese

Das Hitzeschockprotein 60 ist stammesgeschichtlich ein sehr altes Molekül, das von allen lebenden Zellen produziert wird und in allen Lebensformen - angefangen von den Bakterien bis herauf zu den Säugetieren, inklusive des Menschen – eine sehr ähnlich chemische Struktur aufweist (d.h. die Abfolge der Aminosäuren zeigt bei allen Spezies einen hohen Grad an Übereinstimmung).

HSP60 ist ein wichtiger Bestandteil aller Infektionserreger (Bakterien, Parasiten), gegen den praktisch alle Menschen eine angeborene und während ihres Lebens erworbene schützende Immunreaktion besitzen. Wenn die Arterien-auskleidenden Endothelzellen durch klassische Atherosklerose-Risikofaktoren gestresst körpereigenes HSP60 an ihre Zelloberfläche transportieren, dann ist auf Grund der sehr großen Ähnlichkeit mit dem mikrobiellen HSP60 die Gefahr einer immunologischen "Verwechslungsreaktion" gegeben: das Immunsystem sieht das Erscheinen von HSP60 auf arteriellen Endothelzellen als Gefahrensignal „Infektion“ und reagiert mit einem Selbstangriff, einer Autoimmunreaktion, gegen die Wand der Arterien. Die Endothelzellen werden zerstört, Zellen des Immunsystems dringen in die innerste Schichte der Arterie ein und bilden dort Entzündungsherde. Diese erste, noch reversible Phase in der Entstehung der Atherosklerose ist klinisch unauffällig und tritt bereits in der Jugend auf. Wenn die Stressbedingungen andauern, schreitet der Entzündungsprozeß fort; es kommt zur irreversiblen Plaquebildung bis hin zu den fatalen Folgen Herzinfarkt, Schlaganfall, Gefäßverschluß.

Die normale, gegen mikrobielles HSP 60 schützende Immunreaktion verkehrt sich unter unphysiologisch schlechten Stressbedingungen in eine Autoimmunreaktion - Atherosklerose im Alter ist der Preis, den wir für den Vorteil zahlen in jüngeren Jahren mikrobielle Infektionen abwehren zu können (Abbildung 4).

Die Autoimmunitätshypothese der AtheroskleroseAbbildung 4. Die Autoimmunitätshypothese der Atherosklerose. Menschen entwickeln schützende Immunität gegenüber dem HSP60 der Mikroorganismen und ebenso gegenüber körpereigenen, verändertem HSP60, das aus defekten/zerstörten Zellen austritt. Werden Endothelzellen durch Risikofaktoren in der Blutbahn gestresst, so transportieren sie HSP60 an ihre Zelloberfläche, welches von der bereits existierenden Immunabwehr (Immunzellen, Antikörper) als „Gefahrensignal“ gesehen wird und einen Entzündungsprozeß auslöst. Fortgesetzte Anwesenheit von Risikofaktoren führt zur Atherosklerose. (Modifiziert nach [5]; Bilder stammen zum Teil von Servier Medical Art.)

Neue Strategieansätze

Die Identifizierung der Schlüsselrolle, die HSP60 im Auslöse-Mechanismus der Atherosklerose spielt, ist nicht nur für das Verstehen der Krankheit von primärer Bedeutung, sie bietet auch neue Ansatzpunkte für die Entwicklung sensitiver Diagnostika und innovativer therapeutischer Strategien.

HSP60-Diagnostika

Antikörper gegen HSP60, aber auch lösliches HSP60 finden sich zwar im Blutkreislauf jedes gesunden Menschen, sie sind aber bei Atherosklerose signifikant erhöht und korrelieren mit deren Schweregrad. Als robuste Diagnostika können anti-HSP60 Antikörper und lösliches HSP60 zur Feststellung und Verfolgung der Morbidität und Prognose der Mortalität herangezogen werden.

Auf dem Weg zu einer Impfung gegen Atherosklerose

Ein völlig neuer Therapieansatz besteht darin die fehlgeleitete Immunreaktion gegen HSP60 zu normalisieren und den Körper für sein eigenes Hitzeschockprotein wieder tolerant zu machen, ohne aber die überaus wichtige Immunantwort auf Infektionen auszuschalten. Dies soll durch eine Impfung bewerkstelligt werden, die sich gezielt gegen diejenigen Abschnitte (Epitope) des HSP60-Moleküls richtet, welche die Immunzellen bei der Arteriosklerose-Entstehung anlocken:

Im Rahmen des im September 2012 abgeschlossenen EU-Projekts TOLERAGE (Titel: „Normalisation of immune reactivity in old age – from basic mechanisms to clinical application“ [6]) konnten entsprechende Epitope - kleine Bruchstücke aus der Sequenz von 570 Aminosäuren des menschlichen HSP60 und auch des Tiermodells Maus - identifiziert werden. Die Impfung der Maus mit einem derartigen „atherogenen Peptid“ zeigte sich erfolgreich: es konnte sowohl die Entstehung von Atherosklerose blockiert als auch ein therapeutischer Erfolg - Reduktion der Läsionen bei bestehender Krankheit – erreicht werden.

Das, was bereits bei Mäusen gelungen ist, soll nun auch in einer klinischen Studie beim Menschen erprobt werden: eine Impfung gegen Atherosklerose erscheint in Reichweite.


[1] WHO: Cardiovascular diseases (CVDs); Fact sheet N°317, Updated March 2013

[2] G Wick et al. (2013) The Immunology of Fibrosis. Annu. Rev. Immunol. 31:107–35

[3] G Wick, (ScienceBlog 2012): Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

[4] AH Allam et al., (2011) Atherosclerosis in Ancient Egyptian Mummies. JACC: Cardiovascular Imaging 4 (4): 315-27

[5] C Grundtman and G Wick, (2011) The autoimmune concept of atherosclerosis. Curr Opin Lipidol 22(5): 327–334.

[6] TOLERAGE: Internationales Projekt im 7. Forschungsrahmenprogramm der EU, zu dem sich 10 Forschergruppen unter der Leitung von Georg Wick zusammengeschlossen haben (Laufzeit April 2008 - September 2012) um in präklinischen und klinischen Ansätzen die Immunreaktivität bei älteren Menschen zu analysieren und zu verbessern. Der Fokus lag dabei auf den beiden, als Autoimmunkrankheiten erkannten Erkrankungen: Atherosklerose und Rheumatoide Arthritis. http://ec.europa.eu/research/health/medical-research/human-development-and-ageing/projects/tolerage_en.html. Ein Endreport vom 29.4. 2013 liegt vor: Final Report Summary - TOLERAGE (Normalisation of immune reactivity in old age - from basic mechanisms to clinical application)

Weiters ist auf der Basis von TOLERAGE kürzlich ein Sammelband „Inflammation and Atherosclerosis“ (G Wick, C Grundtmann eds, Springer Verlag, 652 p.)erschienen, in welchem Top-Experten die diagnostische, präventive sowie therapeutische Relevanz der Entzündung in der Entwicklung der Atherosklerose diskutieren.


Weiterführende Links

Laboratory of Autoimmunity (G Wick, C Grundtmann): works on two major research projects, viz. THE IMMUNOLOGY OF ATHEROSCLEROSIS and THE IMMUNOLOGY OF FIBROSIS (“Our lab strives at elucidating the earliest, clinically not yet manifested stages of autoimmune diseases.

To this end we study appropriate animal models and then translate our findings to the human situation. We are especially interested in looking at autoimmune diseases from a Darwinian-evolutionary viewpoint, i.e. considering them as a price for the possession of genes the effect of which are beneficial during the reproductive period of life, but may become detrimental at older age when selective pressure is not effective any more”.)

http://www.autoimmunity.at

G Wick et al. (2012) A Darwinian-Evolutionary Concept for Atherogenesis: The Role of Immunity to HSP60 in Inflammation and Atherosclerosis (G. Wick and C. Grundtman (eds.), DOI 10.1007/978-3-7091-0338-8_9, Springer-Verlag/Wien)

Mummy Scans Reveal Clogged Arteries


 

inge Fri, 09.08.2013 - 05:44

Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte

Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte

Fr, 06.08.2013 - 05:46 — Gottfried Schatz

Icon GeowissenschaftenGottfried SchatzReich und wundersam sind die Früchte vom Baum der Wissenschaft, doch sie nützen nur dem, der ihnen Zeit zur Reife gönnt. Wer sie unreif pflückt, erntet meist Verwirrung. Wissenschaft gedeiht deshalb am besten fernab von Zwang und Macht. Auch Demokratien fordern von uns Wissenschaftern Wissen und Konsens – wir aber beschäftigen uns meist mit Unwissen und Widerspruch. Zum Konsens haben wir ein gespaltenes Verhältnis: Wir suchen ihn – und misstrauen ihm dann. Wir sind uns bewusst, dass die wissenschaftliche Wahrheit von heute schnell der Irrtum von gestern sein kann. Und von Karl Popper wissen wir, dass es nicht die Bestätigung, sondern die Widerlegung einer Hypothese ist, die uns neue Erkenntnis beschert. Der Journalist Walter Lippmann sagte es einfacher: «Wo alle gleich denken, denkt keiner besonders viel.»

Dieser Artikel erschien bereits am 23.Februar 2012 im ScienceBlog. Im Zuge der Aufarbeitung des Archivs präsentieren wir ihn in augenzwinkernder Verbeugung vor der aktuellen Hitzewelle erneut:

Vier Behauptungen – und eine fünfte

Wie also sollen wir Wissenschafter antworten, wenn man uns nach der Ursache der Klimaerwärmung fragt? Dürfen wir antworten «Wir sind uns ihrer noch nicht sicher» – wie wir es sollten? Oder müssen wir trotz unseren Zweifeln eine Ursache nennen – wie man es von uns erwartet? Viele von uns wählen den zweiten Weg und übertönen mit ihren apokalyptischen Prophezeiungen manchmal die Stimme der Vernunft. Ihre Argumente klingen betörend: Auf unserem Planeten wird es wärmer; Kohlendioxid reichert sich in der Lufthülle an; dieses Gas verhindert die Abstrahlung von Erdwärme in den Weltraum; die Verbrennung von fossilen Brennstoffen erzeugt jährlich 30 Milliarden Tonnen dieses Gases; also ist die Klimaerwärmung ein Werk von Menschenhand.

Die vier ersten Behauptungen sind unbestritten. Die fünfte ist es nicht, denn sie stützt sich nur auf Korrelationen. Eine Korrelation, mag sie auch noch so augenfällig sein, beweist jedoch nie ursächliche Zusammenhänge. Die Korrelation zwischen Jahreszeit und Umwelttemperatur ist uns seit Jahrtausenden bekannt, doch wir verstehen sie erst, seit wir wissen, wie die Erde um die Sonne kreist. Ähnliches gilt für das Erdklima. Treibt der Anstieg des Kohlendioxids die Erwärmung – oder diese den Anstieg des Kohlendioxids? Eine klare Antwort könnten Experimente liefern, die nur eine Komponente des Klimasystems verändern. Doch Experimente mit dem Erdklima sind entweder unmöglich oder viel zu riskant, so dass wir Wissenschafter auf unsere wirksamste Waffe verzichten müssen.

In unserer Not greifen wir zu Simulationen: Wir stellen eine Vermutung auf und errechnen deren Auswirkungen mit leistungsstarken Computern. Wie stark erwärmt sich das Klima, wenn der Kohlendioxidgehalt der Atmosphäre um 30 Prozent steigt? Solche Berechnungen erfordern den Einbezug immens vieler Daten, die wir oft nur grob schätzen können oder gar nicht kennen. Stimmt das Resultat der Simulation mit den gemessenen Klimadaten überein, werten wir es als Hinweis, dass unsere Vermutung richtig war. Ein Hinweis ist jedoch kein Beweis. Die meisten der so errechneten Klimavoraussagen sind daher nicht viel mehr als das, was sie vor der Simulation waren – Vermutungen.

Das Klimasystem unseres Planeten ist so komplex, dass wir noch nicht einmal alle Faktoren kennen, die es beeinflussen. Neben den vieldiskutierten «Treibhausgasen» Kohlendioxid, Methan und Wasserdampf sind es unter anderem Schwankungen der Sonnen- und der Weltraumstrahlung, Positionsänderungen der Erdachse, Verschiebungen der Kontinente und der Meeresströmungen, wechselnde Durchsichtigkeit der Lufthülle, Änderungen der Pflanzendecke sowie die Evolution neuer Pflanzenformen. Solange wir das Wetter der nächsten Woche nicht mit Sicherheit vorhersagen können, ist es mehr als kühn, das der kommenden Jahrzehnte zu prophezeien.

Das Spektrum der Isotope

Und doch versuchen wir, diesem Ziel näherzukommen. Da uns Experimente verwehrt sind, schärfen wir die stumpfen Waffen Korrelation und Simulation, so gut wir können. Wir erforschen die Vorgänge, die das Klima unseres Planeten beeinflussen könnten, um zwischen ihnen und dem Klima Korrelationen aufzudecken und deren Bedeutung mit rechnerischen Simulationen zu prüfen. Es ist ein langer und steiniger Weg, von dem wir nicht wissen, ob er uns zum Ziel führen wird. Er hat uns jedoch vor vier Jahrhunderten die Ursache der Jahreszeiten aufgedeckt und eröffnet uns heute atemberaubende Einblicke in das Erdklima vor Tausenden, Millionen und sogar 500 Millionen Jahren.

Unsere Fernrohre für diesen Blick in die Vergangenheit sind die unterschiedlich schweren Varianten chemischer Elemente – die sogenannten «Isotope». Die verschiedenen Isotope eines Elements sind chemisch fast identisch, reagieren jedoch nicht gleich schnell und verleihen den Verbindungen, in denen sie vorkommen, leicht unterschiedliche Eigenschaften. Wasser, das aus «schweren» Isotopen von Wasserstoff und Sauerstoff besteht, verdunstet bei niedriger Temperatur langsamer und schlägt sich im Regen schneller nieder als Wasser aus den «leichten» Isotopen. In kühlen Klimaperioden steigt deshalb in den Ozeanen der Anteil der schweren im Verhältnis zu den leichten Wasserstoff- und Sauerstoffisotopen. Diese subtile Verzerrung des Isotopenspektrums spiegelt sich in den Kalkhüllen der Meerestiere wider; und da die Hüllen schliesslich zu Kalkgestein werden, ist dessen Isotopenspektrum ein Hinweis auf die Wassertemperatur, bei der die Tiere lebten.

Das Spektrum der verschiedenen Kohlenstoffisotope im Kalkgestein erlaubt zudem Rückschlüsse auf den Kohlendioxidgehalt urzeitlicher Atmosphären. Ähnliches gilt für Gasbläschen in uralten Eisproben, die Klimaforscher den arktischen Gletschern mit kilometertiefen Bohrungen entreissen und dann auf ihr Isotopenspektrum untersuchen. In den hochempfindlichen Messgeräten der Klimaforscher beginnen Gestein und Eis zu uns zu sprechen.

Was sie berichten, ist überwältigend – und verwirrend. Während der letzten 500 Millionen Jahre war unsere Lufthülle mehrmals bis zu zehnmal reicher an Kohlendioxid als heute, ohne dass sich das Klima dramatisch aufgeheizt hätte. Obwohl die Konzentration an Kohlendioxid heute um 27 Prozent höher ist als in den letzten 650 000 Jahren, ist sie immer noch fast viermal tiefer als vor 175 Millionen Jahren. Einige Messungen finden deutliche Korrelationen zwischen Kohlendioxidgehalt und Erdtemperatur, andere dagegen nicht. Und obwohl sich die Hinweise häufen, dass wir Menschen an der Klimaerwärmung nicht ganz unschuldig sind, besteht kein Zweifel, dass das Erdklima über lange Perioden beträchtlich und ohne erkennbare Ursache schwankte. Gestein und Eis erzählen das Epos eines eigenwilligen und rastlosen Planeten, der zwar schon in seiner Lebensmitte steht, aber immer noch voller Überraschungen ist. Wer dem Epos aufmerksam lauscht, wird sich bewusst, dass wir das Erdklima derzeit weder verstehen noch voraussagen können. Man erwartet von der heutigen Wissenschaft, dass sie den fiebernden Planeten heilt, doch wie ein Arzt vergangener Zeiten kann sie nur seinen Puls fühlen.

Wahnwitzige Vergeudung

Viele von uns zögern, unseren Wissensnotstand öffentlich zu bekennen, weil ihn die Mächtigen dieser Welt als Vorwand nehmen könnten, um die Ressourcen unseres Planeten unbekümmert weiter zu vergeuden. Braucht es aber wirklich Kassandrarufe von überfluteten Küstenstädten und biblischen Insektenplagen, um den Wahnwitz dieser Vergeudung einzusehen und ihm Einhalt zu gebieten? Um uns einen Liter Erdöl zu schenken, musste die Sonne einen Quadratmeter der Erdoberfläche viele Jahre lang bescheinen. Und wir verbrennen dieses kostbare Erbe verflüssigter Sonnenenergie – das noch dazu ein exquisiter Rohstoff für unzählige chemische Produkte ist –, als gäbe es kein Morgen. Wenn auch unsere Rolle bei der jetzigen Klimaveränderung unbewiesen ist, sollte schon der blosse Verdacht uns Grund genug sein, für eine verantwortungsvolle Energiepolitik zu kämpfen.

«Im Allgemeinen freilich haben die Weisen aller Zeiten immer dasselbe gesagt, und die Thoren, d. h. die unermessliche Majorität aller Zeiten, haben immer das Selbe, nämlich das Gegenteil, gethan: und so wird es denn auch ferner bleiben.» Ich hoffe, Schopenhauer war nur Pessimist – und nicht Prophet.


Anmerkungen der Redaktion

Weiterführende Links

Das Klimaportal der österreichischen Zentralanstalt für Meteorologie und Geodynamik gibt einen umfassenden Überblick über den Stand des Wissens, mit sehr verständlich, aber keineswegs banal geschriebenen Erläuterungen. Die dort angebotenen Punkte Klimaforschung, -system, -vergangenheit, -zukunft oder -folgen sind alle lesenswert, und wären nur anhand des eigenen Interesses überhaupt irgendwie zu reihen. Motivation und Kompetenz werden folgendermaßen beschrieben:

»Gleich zu Beginn definiert die Abteilung für Klimaforschung der ZAMG ihre Position in der öffentlichen Klimawandeldiskussion, um den Leserinnen und Lesern eine eigenständige Beurteilung der angebotenen Inhalte zu ermöglichen: Unsicherheit wissenschaftlicher Ergebnisse verstehen wir nicht als Anlass zum Abwiegeln oder Zaudern sondern als Herausforderung für die Forschung. Vielmehr ist ein rationaler Umgang mit Unsicherheit in der öffentlichen und politischen Diskussion notwendig.«


 

 

inge Tue, 06.08.2013 - 05:46

Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“

Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“

Fr, 02.08.2013 - 06:51 — Günther Kreil

ÖAWGünther KreilThemenschwerpunkt Synthetische BiologieWährend gentechnische Methoden zur Produktion von Proteinen für die Humanmedizin (z.B. Insulin, Erythropoietin) bei uns weitestgehend akzeptiert sind, stößt Gentechnik in der Nahrungsmittelproduktion auf massive Ablehnung, ohne dass dafür seriöse, wissenschaftlich fundierte Argumente vorgebracht werden können.

Vor einigen Monaten habe ich im Supermarkt einen Liter Milch gekauft. Auf der Packung wurde darauf hingewiesen, diese Milch sei „Ohne Gentechnik hergestellt“. Nun könnte man meinen, es sei doch nett von der Molkerei, den Kunden zu informieren, dass die österreichischen Kühe, die diese Milch produzieren, nicht gentechnisch verändert (gv) sind. Dies wäre jedoch eine ziemlich überflüssige Feststellung, da es weltweit nur vereinzelt gv-Rinder gibt, deren Milch Proteine verschiedener Herkunft enthält.

Was verbirgt sich unter „ohne Gentechnik hergestellte Milch“?

Ich vermute jedoch, diese Bezeichnung für heimische Milch soll darauf hinweisen, dass die Kühe kein gv-Futter gefressen haben. Dem Futter dieser Tiere werden häufig Produkte aus Sojabohnen beigemengt, um den Gehalt an Protein zu erhöhen. Nun sind weltweit mehr als 80 Prozent der Sojabohnen gentechnisch so verändert, dass sie resistent gegen ein Herbizid sind. Es werden jedoch auch noch herkömmliche Sojabohnen in geringer Menge produziert.

Der genannte Hinweis auf der Milchpackung mag manche Kunden, die sich vor der Gentechnik fürchten, beruhigen, auf das Produkt Milch hat das aber keinen Einfluss. Im Magen der Kühe werden die einzelnen Bestandteile des Futters verdaut, d.h. sie werden in ihre Bestandteile gespalten. Bei Proteinen sind dies Aminosäuren, die dann im Blut der Tiere zirkulieren, zum Teil von den Milchdrüsen aufgenommen und dort für die Produktion der Milchproteine verwendet werden. Ein Nachweis, ob diese Aminosäuren aus normalen oder gv Sojabohnen stammen, ist nicht möglich. Nur durch eine Überprüfung der Lieferungen an die Bauern ließe sich feststellen, welche Sojabohnen gekauft wurden. Einen Hinweis, was denn so speziell an dieser Milch „ohne Gentechnik“ sei, konnte ich nicht finden.

Gentechnikfreier Käse, Fleisch, Eier

Inzwischen habe ich in einem Supermarkt auch gentechnikfreien Käse gefunden. Ob der aus gentechnikfreier Milch hergestellt wird, weiss ich nicht. Zur Produktion von Käse muss die Milch zunächst gerinnen, wozu vor allem Labferment (Chymosin) aus den Mägen von nur mit Milch gefütterten Kälbern verwendet wurde. Inzwischen gibt es aber auch Chymosin, das mit gentechnischen Methoden in Mikroorganismen hergestellt wird. Diese Methode der Produktion ist einfacher, verbraucht weniger Energie, und das Endprodukt hat einen höheren Reinheitsgrad. Das eingesetzte Chymosin findet sich zum Großteil in der Molke und ist im Käse nur noch in Spuren vorhanden. Ob sich der so genannte gentechnikfreie Käse, der mit Chymosin aus Kälbermägen produziert wird, von den übrigen Käsesorten unterscheidet, wird nicht verraten. Und übrigens: in England wird Käse für Vegetarier angeboten mit dem Hinweis, dass für dessen Produktion kein tierisches Protein, also kein Chymosin aus Kälbermägen verwendet wurde.

Kürzlich war zu lesen, dass bald auch Fleisch und Eier von „gentechnikfreien“ Hühnern angeboten werden. Auch hier gilt das für Milch Gesagte. Die Proteine in Körnern von Pflanzen mit oder ohne gentechnische Veränderung, die das Huhn frisst, werden abgebaut und die resultierenden Aminosäuren dann im Fleisch oder in den Eiern für den Aufbau neuer Proteine verwendet. Auch dies sind Produkte, die identisch mit den herkömmlichen sind, die aber gläubige Gegner der Gentechnik wohl beruhigen.

Gentechnik in der Medizin - eine Erfolgsgeschichte

Die Methoden der Gentechnik sind schon rund 40 Jahre alt. Die neue Möglichkeit des Austauschs von Genen zwischen Organismen wurde anfangs sehr skeptisch gesehen und es wurden Richtlinien über Vorsichtsmaßnahmen festgelegt, die bei verschiedenen Typen von Experimenten eingehalten werden mussten. Es zeigte sich jedoch bald, dass diese theoretischen Risken stark überschätzt wurden und die restriktiven Verordnungen wurden schrittweise gelockert und schließlich großteils aufgehoben. Aber der in der Öffentlichkeit entstandene Eindruck, es handle sich da um gefährliche Experimente mit eventuell unvorhersehbaren Konsequenzen, blieb bestehen. Es gab unzählige Diskussionen zu diesem Thema, unter anderem in einer Enquete-Kommission des österreichischen Parlaments. Bei den Gegnern der Gentechnik waren reisende Profis aktiv, die gekonnt, wenn auch repetitiv, ihre Argumente vorbrachten. Vor rund 20 Jahren ging es bei uns vor allem um das Thema „ humanes Insulin“. Darf das in Mikroorganismen hergestellte Produkt in der Medizin verwendet werden, oder muss man bei dem aus der Bauchspeicheldrüse vor allem von Schweinen isolierten Insulin bleiben? Diese Kontroverse war jedoch vom Tisch, nachdem es gelang, mit gentechnischen Methoden menschliche Proteine zu produzieren, die bisher nicht zugänglich waren. Der Prototyp dieser Entwicklung war das Erythropoietin (Epo), ein Hormon, das in der Niere produziert wird und für die Bildung von Erythrozyten essenziell ist. Seither werden in der Humanmedizin immer mehr mittels gentechnischen Methoden produzierte Proteine verwendet und die Erfolge dieser „roten“ Gentechnik sind beeindruckend.

Ablehnung der grünen Gentechnik

Ganz anders ist jedoch die Situation bei gv Nutzpflanzen. Diese werden weltweit seit 20 Jahren in steigendem Maße angebaut, inzwischen auf mehr als 1 Million km². In den USA sind etwa Mais, Zuckerrüben, Sojabohnen, Raps und Baumwolle zu mehr als 80% genetisch modifiziert. Europa ist da jedoch eine Ausnahme, gv Nutzpflanzen werden meist skeptisch beurteilt und es gibt sehr aufwändige Bewilligungsverfahren für deren Anbau. In gewissen Abständen erscheinen Publikationen mit Horrormeldungen über die Nachteile solcher Pflanzen. Diese sind insbesondere bei Gentechnikgegnern sehr populär, ehe sich dann bei genauerer wissenschaftlicher Prüfung zeigt, dass sie nicht stimmen.

Bei dieser Ablehnung der „grünen“ Gentechnik ist Österreich führend, die gemeinsamen Aktivitäten von Boulevardmedien, NGOs und den Grünen führten dazu, dass dieses Thema faktisch tabuisiert wurde – und das ohne ein Experiment, einen einzigen kontrollierten Freisetzungsversuch mit einer gv Nutzpflanze. Bei uns wird halt einfach „aus dem Bauch“ entschieden.

Und nun also, wie die eingangs erwähnten Beispiele zeigen, noch eine Steigerung bei der Ablehnung der Gentechnik. Ein eifernder Grüner hat zudem schon verlangt, dass das Gütezeichen für Fleisch nur vergeben werden darf, wenn die Tiere nicht mit gv Pflanzen gefüttert wurden. Der gute Mann geht nicht weit genug – es muss doch wohl Futter aus biologischem Anbau sein. Der Milch solcher Kühe und den Eiern solcher Hühner könnte man dann schon das Prädikat „Bio zum Quadrat“ verleihen. Allerdings ist die Verquickung von biologischem Landbau und Gentechnik völlig unlogisch, aber das ist ein anderes Thema. Zum Unterschied von einer steigenden Zahl von Ländern gilt bei uns das mit viel Emotion vertretene Prinzip: „Keine Gentechnik auf dem Teller“.

(Dieser Artikel erschien in leicht unterschiedlicher Form im Februar 2013 in der Zeitung "Die Presse".)


Weiterführende Links

Österreichische Agentur für Gesundheit und Ernährungssicherheit zu GVO (Gentechnisch veränderte Organismen): http://www.ages.at/ages/ernaehrungssicherheit/gvo/

GMO Compass: Datenbank zu Gentechnisch modifizierten Mikroorganismen (“Genetically modified microorganisms are now not only used to produce pharmaceuticals, vaccines, specialty chemicals, and feed additives, they also produce vitamins, additives, and processing agents for the food industry.”) http://www.gmo-compass.org/eng/database/enzymes/


 

inge Fri, 02.08.2013 - 06:51

Sag, wie ist die Synthetische Biologie? Die Macht von Vergleichen für das Image einer Technologie

Sag, wie ist die Synthetische Biologie? Die Macht von Vergleichen für das Image einer Technologie

Fr, 26.07.2013 - 08:59 — Helge Torgersen & Markus Schmidt

ÖAW

Helge TorgersenMarkus Schmidt

Themenschwerpunkt Synthetische Biologie

Synthetische Biologie ist in der Öffentlichkeit wenig bekannt, ihr Image noch unbestimmt. Je nachdem wie man Synthetische Biologie durch Vergleich mit anderen Disziplinen zu veranschaulichen versucht, kann sie als konfliktträchtige Fortsetzung der Gentechnik oder als „coole“ Informationstechnologie erscheinen. Sind also Kontroversen vorprogrammiert? Der Artikel basiert auf einem Vortrag von Helge Torgersen anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde.

Synthetische Biologie – ein schillernder Begriff

Am 9. Juli 2013 standen einige ernst dreinblickende Leute im Eingang zum Londoner Imperial College und drückten den hereinströmenden Kongressteilnehmern anonyme Flugblätter in die Hand. Darin hieß es, dass Lebewesen keine Computer seien und Synthetische Biologie daher nicht funktioniere, sondern technokratisch, überheblich und gefährlich sei. Drinnen begann gerade die SB6, die größte Jahreskonferenz zu Synthetischer Biologie. Viele begeisterte junge Leute feierten die neuesten genetischen Konstruktionen. Wenige scherten sich um die Flugblätter.

Hier zeigte sich, dass es offenbar unterschiedliche Auffassungen über Synthetische Biologie gibt. Dabei ist die am häufigsten verwendete Definition recht eindeutig: Synthetische Biologie beschäftigt sich mit dem Design und der Konstruktion von neuen biologischen Teilen, Baugruppen und Systemen und mit dem Umbau von bestehenden, natürlichen biologischen Systemen zu nützlichen Zwecken (http://syntheticbiology.org).

Auf den zweiten Blick wird man als interessierter Laie aber stutzig: Design, Konstruktion, Teile, Baugruppen, nützliche Anwendungen – das klingt nach Maschinen, nach Ingenieurshandwerk. Wie passt der Hinweis auf bestehende biologische Systeme damit zusammen? Wie kann etwas synthetisch sein, wenn es gleichzeitig biologisch ist, also etwas aus der Natur? Die Definition weckt recht widersprüchliche Assoziationen.

Sind Konflikte unvermeidlich?

Diese Assoziationen werden zu Misstrauen in der Öffentlichkeit führen, fürchten Wissenschafter, die sich an die endlosen Debatten um die Gentechnik erinnern. Sie erwarten, dass es um die Synthetische Biologie zu ähnlichen Konflikten kommt. Und tatsächlich: die technikkritische ETC-Group (Action Group on Erosion, Technology and Concentration) hat bereits früh gegen Synthetische Biologie mobil gemacht und sie als „Extrem-Gentechnik“ gebrandmarkt (Abbildung 1). Ein Argument war, dass WissenschafterInnen Gott spielen wollen. Craig Venter, ein bekannt provokanter Biochemiker, meinte in Anspielung darauf in einem Interview: „Wir spielen nicht.“

Bild am Titelblatt von Extreme Genetic EngineeringAbbildung 1. Bild am Titelblatt von: Extreme Genetic Engineering: ETC Group Releases Report on Synthetic Biology (2007).

Ist also Konflikt vorprogrammiert? EASAC, die Vereinigung europäischer Wissenschaftsakademien rechnet fest damit: „Mit zunehmendem Fortschritt der Forschung auf dem Gebiet der Synthetischen Biologie sind Kontroversen zu erwarten.“ (EASAC 2011)

Aus der Gentechnikdebatte lernen?

Ist das zwangsläufig so? Häufig ist die Forderung zu hören, aus vergangenen Fehlern in der Gentechnikdebatte solle man doch lernen. Diese Forderung gab es auch bei der Nanotechnologie: in einem Interview für die Times (Times Higher Education Supplement, 27 June 2003) meinte die Direktorin der US-amerikanischen National Science Foundation, Rita Colwell:

“We can’t risk making the same mistakes that were made with the introduction of biotechnology.”

Viele meinten damals, dass eine umfassende öffentliche Debatte ein wirksames Mittel sei, den Ruf einer Technologie zu verbessern. Dabei sollten alle Fakten klar auf den Tisch gelegt werden, um keine Ängste aufkommen zu lassen. Das wird heute auch für die Synthetische Biologie empfohlen. Umfragen haben nämlich ergaben, dass Synthetische Biologie öffentlich kaum bekannt ist, weder in Europa noch in den USA. Ein heuer erschienener Artikel zur Situation in den USA (E. Pauwels: Public Understanding of Synthetic Biology) berichtet, daß zwischen 2008 und 2013 der Anteil der Bevölkerung der nichts oder nur ein wenig von Synthetischer Biologie gehört hat, von rund 90 % auf rund 75 % gesunken ist, der Anteil , der davon viel gehört hat bei 5 – 6% stagniert. Unwissen im Großteil der Bevölkerung, so das Argument, schürt Misstrauen.

Nur – wenn man eine öffentliche Debatte will, muss man den Gegenstand zuerst erklären.

Wie lässt sich aber Synthetische Biologie am besten veranschaulichen?

Hier bieten sich Vergleiche mit bekannteren Technologien an. Insbesondere die Analogie zur Mechanik wird gerne verwendet: genormte Schrauben und Muttern haben die rationelle Konstruktion von Maschinen für die Industrie erst ermöglicht. Genauso werden genormte genetische Bauteile die gezielte Konstruktion von Organismen für die industrielle Produktion ermöglichen. Dass es sich bei der Mechanik um eine weit entfernte, sehr alte Technik handelt, ist dabei zweitrangig. Näher liegt freilich die Analogie zu den genormten elektronischen Bauteilen der Computer- und Informationstechnologie. Aber auch der Bezug zur Nanotechnologie bietet sich an – die gilt als Musterbeispiel für eine gerade entstehende Technologie. Außerdem gibt es klarerweise einen Bezug zur Gentechnik.

Ist der Vergleich mit diesen Technologien nur ein rhetorischer Trick? Oder ist tatsächlich etwas daran?

Inhaltliche Bezüge zu anderen Technologien

Offenbar schon: auch aus wissenschaftlicher Sicht gibt es stichhaltige Argumente, um Gentechnik, Nanotechnologie und Informationstechnologie mit Synthetischer Biologie in Beziehung zu setzen. So leitete Huib de Vriend die Herkunft der Synthetischen Biologie aus einer Konvergenz dieser drei Technologien ab (de Vriend 2006).

Synthetische Biologie als Ergebnis von Informationstechnologie, Gentechnologie und NanotechnologieAbbildung 2. Synthetische Biologie als Ergebnis von Informationstechnologie, Gentechnologie und Nanotechnologie

Viele Wissenschafter haben diese Analogien bewusst zur Veranschaulichung der Synthetischen Biologie eingesetzt. Victor de Lorenzo (2010) postulierte zum Beispiel einen fließenden Übergang von der Gentechnik zur Synthetischen Biologie: ausgehend von noch relativ „natürlichen“ Organismen werden die Konstruktionen immer „künstlicher“, bis die Synthetische Biologie irgendwann vollkommen künstliche Organismen herstellen wird.

Mit der Nanotechnologie hat die Synthetische Biologie die Größenordnung des Gegenstands gemein. Die Bearbeitung von DNA, dem „Molekül des Lebens“, spielt sich ja im Nanometerbereich ab. Die EASAC (2011) bezweifelte sogar, dass man die Nanowissenschaften von Synthetischer Biologie abgrenzen kann:

“Such is the overlap between nanoscience and synthetic biology that attempts to define their respective boundaries are as difficult as they are futile.”

Die Informationstechnologie schließlich lieferte als Ingenieurswissenschaft die wichtigsten Anstöße für die Entwicklung der Synthetischen Biologie. Die Idee genormter genetischer Bausteine entstand ja mit Blick auf elektronische Bauteile. Wenn DNA vor allem als Informationsträger angesehen wird, ergeben sich leicht Analogien zwischen IT- und lebenden Systemen (Abbildung 3).

Analogie von Informationstechnologie und Synthetischer BiologieAbbildung 3. Analogie von Informationstechnologie und Synthetischer Biologie (Quelle: Andrianantoandro et al. 2006)

Vergleichstechnologien und ihr gesellschaftlicher Kontext

Die Analogie zwischen Synthetischer Biologie und Gentechnik, Nanotechnologie oder Informationstechnologie hebt zunächst die wissenschaftlichen oder inhaltlichen Ähnlichkeiten hervor. Aber auch das Ansehen einer Technologie in der Öffentlichkeit schwingt mit, wenn sie als Vergleich herangezogen wird. In dieser Hinsicht ergaben Eurobarometer-Umfragen (Abbildung 4) über viele Jahre deutliche Unterschiede zwischen Informationstechnologie, Nanotechnologie und Gentechnik (Gaskell et al. 2010). Die Befragten trauten Informationstechnologie und Computern durchwegs zu, „das Leben zu verbessern“. Bei der Gentechnik waren sie viel skeptischer, Nanotechnologie lag dazwischen.

Eurobarometer-Umfragen 1991-2010Abbildung 4. Technologie „Wird das Leben verbessern“: Eurobarometer-Umfragen 1991-2010 (Quelle: Gaskell et al. 2010)

Hinweise auf die eine oder andere Technologie rufen also unterschiedliche Reaktionen und Assoziationen hervor. Mit einer Analogie werden solche Assoziationen aufgerufen, ein emotionaler Gehalt vermittelt.

Der Gentechnik-Bezug knüpft unmittelbar an vergangene Debatten an: In einer jüngsten Umfrage assoziierten US-Bürger spontan Synthetische Biologie mit Gentechnik, Künstlichkeit und Klonen (Pauwels 2013). In Österreich führten Kronberger et al. (2012) Fokussgruppen durch, in denen die Teilnehmer sich mit Begriff und Inhalt der Synthetischen Biologie auseinander setzten. Die Autoren fanden, dass die nähere Beschäftigung die Teilnehmer veranlasste, von der Synthetischen Biologie jeweils ähnlich positiv oder negativ zu denken wie bisher von der Gentechnik. Aus dieser Sicht ist die Furcht vor Konflikten über Synthetische Biologie also naheliegend.

Bei der Nanotechnologie sind vorhergesagte Kontroversen allerdings ausgeblieben. Technikkritische Gruppen scheiterten meist mit Versuchen, Nanotechnologie zu skandalisieren. Nur in Einzelfällen kam es zu lokalen Protesten gegen Forschungsbetriebe, etwa in Frankreich. Unklar ist, ob das mit der Regulierung im Rahmen der REACH-Verordnung zusammenhängt oder mit den zahlreichen Vermittlungsbemühungen, Veranstaltungen, Ausstellungen und Beteiligungsverfahren zum Thema.

Informationstechnologie als „role model“

Ein völlig anderes Bild ergibt der Bezug zur Informationstechnologie. Kaum eine andere technische Entwicklung hat das Leben derart beeinflusst wie der Siegeszug der Computer. Das geschah ohne nennenswerte soziale Konflikte, obwohl solche Konflikte schon vor Jahrzehnten prophezeit worden waren.

Ein Grund dafür ist der persönliche enge Kontakt mit neuen Medien und immer schnelleren, kleineren und leistungsfähigeren Rechnern. Dazu kommt der „Coolness-Faktor“: das neueste Gadget wird zum Statussymbol. Informationstechnologie wurde schnell selbstverständlich – Computer, Smartphone, Internet sind Berufsgrundlage, Lebensinhalt und Zeitvertreib. Das führt zu Spiel, Aneignung und Emanzipation (Stichwort open source) aber auch zur Sucht. Ohne Infotech ist das Leben heute jedenfalls nicht mehr vorstellbar.

Viele Wissenschafter der ersten Stunde in der Synthetischen Biologie kamen aus der Informationstechnologie. Allein dadurch übt dieser Sektor einen starken kulturellen Einfluss aus. Das macht sich auch in der Art bemerkbar, wie ein junges Publikum angesprochen wird (Abbildung 5).

Material für Schüler zum Thema Synthetische Biologie Abbildung 5. Material für Schüler zum Thema Synthetische Biologie (http://www.biobuilder.org/)

Der Coolness-Faktor der Informationstechnologie wird auf die Biotechnologie übertragen: vor allem Junge fühlen sich dem Prinzip der open source, der Freiheit geistigen Eigentums verpflichtet. Studentenwettbewerbe wie iGEM wurden nach dem Muster des Robocop-Wettbewerbs und ähnlichen Bewerben gestaltet und haben exponentiell steigende Teilnehmerzahlen. Eine Hacker-Subkultur ist entstanden, in der engagierte Laien in der sprichwörtlichen Garage oder im Keller genetische Experimente durchführen. Immer mehr KünstlerInnen interessieren sich für Themen und Techniken in Zusammenhang mit Synthetischer Biologie.

Ein Beispiel war die Ausstellung ‘synth-ethic’ von Mai bis Juni 2011 im Naturhistorischen Museum in Wien. Die Organisatoren schrieben (Hauser, Schmidt 2011):

„Während Künstler zunehmend Biotechnologien anwenden und lebendige Systeme manipulieren, macht sich mit der neuen Disziplin der Synthetischen Biologie eine Ingenieurswissenschaft breit, die „Leben“ nicht nur verändern sondern von Grund auf neu designen will. International renommierte Künstler in der Ausstellung synth-ethic fragen nach der neuen Dimension dieser Technologie und nach unserer ethischen Verantwortung, wenn Leben synthetisch wird…“

Ähnlich wie in der Informationstechnologie spielen aber auch überzogene Erwartungen eine große Rolle. Oft werden sie ebenfalls von Analogien befeuert: das Moore’sche Gesetz in der Informationtechnologie besagt bekanntlich, dass die Möglichkeiten der elektronischen Datenspeicherung exponentiell wachsen und die Kosten dafür ebenso sinken. In gleicher Weise erhöht sich demnach die Geschwindigkeit der DNA-Sequenzierung und sinkt der Preis für die DNA-Synthese. Die in der Analogie verborgene Botschaft: Synthetische Biologie wird bald ebenso wichtig, umfassend und lukrativ wie die Informationstechnologie heute – eine gewagte Vorhersage.

Wie stellt sich nun Synthetische Biologie in der Presse dar? Lassen sich die Bezüge zu den anderen anderen Technologien auch dort feststellen? Und wenn ja – als was erscheint Synthetische Biologie, als konfliktträchtige Fortsetzung der Gentechnik oder als „coole“ Informationstechnologie?

Presseberichterstattung: keine Panik

Die EASAC warnte in ihrem Bericht vor den „in Sensationsberichterstattungen geäußerten Befürchtungen“ und knüpfte damit unmittelbar an den Gentechnik-Bezug an. Dass die Presse negativ und tendenziös berichtet, hört man oft, aber ist das korrekt? Presseauswertungen zeigen aber, dass das so nicht stimmt: Wenn überhaupt, wird Synthetische Biologie vorwiegend positiv dargestellt, Bezüge zu „Monstern“ oder „Aliens“ sind selten. Die berüchtigte Metapher vom Gott Spielen kommt vor, ist aber nicht prominent. Stattdessen prägen Analogien zu Konstruktionsbegriffen aus den Ingenieurwissenschaften das mediale Bild (Abbildung 6. Cserer/Seiringer 2009).

Deutschsprachige Presseberichterstattung zur Synthetischen BiologieAbbildung 6. Deutschsprachige Presseberichterstattung zur Synthetischen Biologie: Konstruktionsmetaphern überwiegen (A.Cserer et A.Seiringer, 2009)

Synthetische Biologie erscheint also weniger als direkte Gentechnik-Fortsetzung, sondern eher als etwas Neues, das sich an Ingenieursbegriffen orientiert und damit Vorstellungen aus der Informationstechnologie übernimmt. Offenbar sind die Medien auch nicht so stark auf Skandalisierung aus wie viele WissenschafterInnen vermuten. Ein ähnliches Bild ergibt übrigens die Analyse der deutschsprachigen Presseberichterstattung zur Nanotechnologie: Die prophezeite Kontroverse ist dort ausgeblieben, wie in einem ITA-nanotrust-Dossier zu lesen ist:

„…scientists and political decision-makers have been ...concerned that nanotechnology could trigger similar media controversies as … genetic engineering. The results of the present study show that these concerns are groundless, at least in the German speaking countries.“ (Haslinger et al. 2012)

Der Gentechnikkonflikt sollte also nicht zwangsläufig als Vergleich dienen, wenn es um die Einführung einer neuen Technologie geht. Nicht einmal dann, wenn sie so nahe an der Gentechnik angesiedelt ist wie die Synthetische Biologie.

Fazit

  • Synthetische Biologie ist in der Öffentlichkeit wenig bekannt.
  • Das Image von Synthetischer Biologie ist noch unbestimmt.
  • Medien berichten meist positiv oder ambivalent.
  • Zur Erklärung bieten sich Bezüge zu Gentechnik, Nanotechnologie und Informationstechnologie an.
  • Je nach Bezug erscheint Synthetische Biologie in einem anderen Licht.
  • Der Gentechnik-Bezug legt zwar Kontroversen nahe, aber andere Bezüge wirken dagegen.
  • Derzeit gibt es nur wenige Indizien für zukünftige Konflikte.

Nachbemerkung

Es zeigt sich wieder, dass der Gentechnik-Konflikt ein Sonderfall ist, keine allgemeine Blaupause für das Schicksal neuer Technologien in der Öffentlichkeit. Der Eindruck, dass die Öffentlichkeit grundsätzlich technikfeindlich sei und jede neue Technologie erst einmal ablehnt, beruht vor allem auf subjektiver Einschätzung, weniger auf objektivierbaren Befunden.

Allerdings kann diese Einschätzung zur selbsterfüllenden Prophezeiung werden und dazu beitragen, dass sich die öffentliche Meinung in Richtung Ablehnung entwickelt. Das dient aber weder einer kritischen öffentlichen Debatte über neue Technologien noch der angestrebten wissenbasierten Ökonomie.


Literatur

Andrianantoandro E. et al. (2006), Molecular Systems Biology 2, 0028, http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1681505/

Cserer A, Seiringer A (2009), Pictures of synthetic biology. A reflective discussion of the representation of Synthetic Biology (SB) in the German-language media and by SB experts, DOI 10.1007/s11693-009-9038-3

De Lorenzo V. (2010), Bioessays 32, 926–931, DOI: 10.1002/bies.201000099

De Vriend H. (2006), Constructing Life, WD9, Rathenau Instituut, http://www.rathenau.nl/publicaties/publicatie/constructing-life.html

EASAC (2011), Synthetic Biology: An Introduction, http://www.easac.eu/home/reports-and-statements/detail-view/article/synt...

ETC Group (2007), Extreme Genetic Engineering, Ottawa, http://www.etcgroup.org/content/extreme-genetic-engineering-introduction...

Gaskell G, et al. (2010), Report to DG Research on Eurobarometer 73.1, LSE, ec.europa.eu/public_opinion/archives/ebs/ebs_341_winds_en.pdf‎

Haslinger J. et al. (2012), NanoTrust Dossier 037en, ITA/OEAW, http://www.oeaw.ac.at/ita/publikationen/ita-serien/nanotrust-dossiers

Hauser J, Schmidt M (2011), Gallery Guide for the SYNTH-ETHIC exhibition in the Museum of Natural History in Vienna, May 14  - June 28, 2011, (http://www.biofaction.com/synth-ethic).

Kronberger N. et al. (2012), Public Understanding of Science 21(29), 174-187, http://academia.edu/1552497/Consequences_of_media_information_uptake_and...

Pauwels E. (2013), BioScience 63, 2, 79-89, http://www.jstor.org/discover/10.1525/bio.2013.63.2.4?uid=3737528&uid=21...

Torgersen H., Schmidt M. (2012), 113-154 in: Weitze et al. (eds) „Biotechnologie-
Kommunikation“, acatech/Springer, http://www.acatech_DISKUSSION_Bio_Kom_WEB.pdf

Torgersen H., Schmidt M. (2013a), cpt. 6 in: van Est et al. “Making Perfect Life“,Report to the European Parliament, STOA, www.europarl.europa.eu/.../IPOL-JOIN_ET(2012)471574_EN.pdf‎

Torgersen H., Schmidt M. (2013b), Futures 48 (2013) pp. 44–54, DOI 10.1016/j.futures.2013.02.002


 

 

 

inge Fri, 26.07.2013 - 04:20

Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen

Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen

Fr, 19.07.2013 -10:93 — Peter Schuster

ÖAWPeter SchusterThemenschwerpunkt Synthetische Biologie

Können wir mit der Synthetischen Biologie etwas Besseres bewirken, als das, was Natur und Evolution im Laufe der Jahrmilliarden hervorgebracht haben? Der zweite Teil des Artikels handelt von der Schaffung neuartiger Strukturen, einerseits mit Methoden des Rationalen Design, andererseits mit Methoden, die nach den Prinzipien der biologischen Evolution – Variation und Selektion -arbeiten. Der Artikel basiert auf einem Vortrag des Autors anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde und erscheint auf Grund seiner Länge in zwei aufeinander folgenden Teilen.

Zwei grundsätzlich unterschiedliche Strategien zur Erzeugung von Molekülen und Organismen mit vorbestimmten Eigenschaften stehen einander gegenüber:

  • das rationale Design, welches auf unserem gesamten biologischen Wissen über Strukturen und Funktionen von Biomolekülen aufbaut, und
  • das evolutionäre Design, das die Prinzipien der biologischen Evolution zur Selektion von Objekten mit gewünschten Eigenschaften anwendet.

Die Literatur zum Thema Design von Biomolekülen ist enorm umfangreich [1]. Wir müssen uns hier auf wenige Beispiele beschränken, welche die unterschiedliche Anwendbarkeit beider Strategien sowie ihre Stärken und Schwächen aufzeigen.

Rationales Design

Das rationale Design baut auf dem Paradigma der konventionellen theoretischen Strukturbiologie auf: Paradigma der StrukturbiologieBei bekannter Sequenz (= Primärstruktur, d.h. bekannter Abfolge von Aminosäuren in einem Protein, von Nukleotiden in einer Nukleinsäure) sollte die 3-dimensionale Struktur (= Tertiärstruktur) eines Moleküls vorhergesagt werden können, soferne die detaillierten Bedingungen bekannt sind, unter denen die Faltung erfolgt. Die aufgeklärte Struktur eines Moleküls erlaubt – so die Annahme der Strukturbiologie – Rückschlüsse auf die Funktion. Der Zusammenhang zwischen Primär-, Sekundär- und Tertiärstruktur eines Proteins ist in Abbildung 1 aufgezeigt.

Hierarchischer Aufbau eines ProteinsAbbildung 1. Hierarchischer Aufbau eines Proteins. Primärstruktur = Sequenz (Abfolge) der Aminosäuren in der Polypeptidkette, Sekundärstruktur: räumliche Anordnung von Abschnitten der Polypeptidkette (hier pink und blau); alpha-helix und beta-Faltblatt sind häufig auftretende Motive. Tertiärstruktur: übergeordnete 3D-Struktur aus den Sekundärstrukturelementen (modifiziert nach Wikimedia Commons).

Rationales Design bietet den Vorteil einer direkten oder gezielten Suchstrategie und ist daher sowohl rasch als auch Material sparend. Sein Nachteil resultiert allerdings aus den zurzeit noch immer gegebenen Defiziten im Wissen um die Beziehung zwischen Strukturen und Funktionen von Biomolekülen: diese können nicht von „first principles“ aus berechnet werden, sondern benötigen möglichst viel empirischen Input, um einigermaßen verlässliche Vorhersagen zu ermöglichen.

In der Folge wird hier zuerst das Design von Enzymmolekülen erörtert, welches auch unter dem Namen „protein engineering“ bekannt ist, dann das Design von Ribonukleinsäuren (RNA-Molekülen).

Rationales Protein-Design

Voraussetzung für das rationale Protein-Design war die Entwicklung und Etablierung von Techniken, die es erlauben gezielt an jeder Position der Aminosäuresequenz (siehe Abbildung 1) jeden der zwanzig Aminosäurereste durch einen anderen zu ersetzen („site-directed“ Mutagenese). Anfänglich war das Protein-Design hauptsächlich mit der Analyse von Sequenz-Struktur Beziehungen befasst mit dem Ziel die Prinzipien der Proteinfaltung besser zu verstehen und stabile Strukturen möglichst verlässlich vorhersagen zu können. In den letzten Jahren des vorigen Jahrhunderts wurde eine neue, nun bereits gängige Vorgehensweise zu Vorhersage und Design von Proteinstrukturen eröffnet, der Computerrechnungen mit empirischen Daten verknüpft. Auf dieser Basis ist es gelungen, Enzyme durch gezielte Mutationen thermodynamisch stabiler zu machen, ohne deren enzymatische Aktivität zu verringern.

Ein prominentes Beispiel der technischen Verwertung von natürlichen und artifiziellen – designten – Enzymen findet sich in der Waschmittelindustrie. Der Gedanke Enzyme in Waschmitteln zu verwenden ist relativ alt. Bereits 1913 stellte der deutsche Pharmazeut, Chemiker und Unternehmer Otto Röhm einen Extrakt aus tierischen Bauspeicheldrüsen her, der Protein-spaltende Enzyme (Proteasen) enthielt, verwendete diesen für die Vorwäsche und erhielt auch ein Patent dafür. Wegen mangelnder Reinheit des Produktes und zu hohen Herstellungskosten war dem neuen Waschmittel allerdings kein Erfolg beschieden. Erst im Jahre 1959 wurde in der Schweiz das erste Waschmittel mit einer bakteriellen Protease eingeführt. Zehn Jahre später wurde die Verwendung von Enzymen allmählich populär und heute sind gentechnisch in Bakterien der Arten Bacillus licheniformis und Bacillus amyloliquefacies hergestellte Enzyme aus der Waschmittelindustrie nicht mehr wegzudenken. Etwa zwei Drittel der gesamten, für technische Verwendung produzierten Enzyme findet seinen Einsatz in Waschmitteln. Ein modernes Waschmittel für die Waschmaschine oder ein Geschirrspülmittel enthält Biomaterialien abbauende Enzyme aus vier Klassen: (i) Proteasen zur Spaltung von Proteinen, (ii) Amylasen für den Stärkeabbau, (iii) Lipasen für die Spaltung von Fettstoffen und (iv) Cellulasen für den oberflächlichen Abbau von Baumwollfasern, um die Gewebe weich zu erhalten. Protein-Design dient in erster Linie dazu, um die Enzyme stabiler zu machen und ihre Aktivität bei höheren (Wasch-)Temperaturen und alkalischen pH-Werten (Waschlauge) zu erhalten.

Rationales Design von Ribonukleinsäuren

Ribonukleinsäuren (RNA-Moleküle) gehören zu den versatilsten Molekülen der Biosphäre und kommen in einer Vielzahl unterschiedlicher Arten und Strukturen vor. Sie üben nicht nur Schlüsselfunktionen in der Regulation und Übertragung der in der DNA gespeicherten genetischen Information und der Synthese der Genprodukte – der Proteine – aus, sie können – in Form sogenannter Ribozyme – auch chemische Reaktionen katalysieren, sind dann also als Enzyme zu betrachten. Die Vielfalt an kürzlich entdeckten regulatorischen Funktionen läßt RNA-Moleküle als attraktive Zielmoleküle (Targets) für Therapeutika erscheinen, ebenso können sie aber auch selbst als hochspezifische Therapeutika und als Diagnostika Verwendung finden. Abbildung 2 zeigt Beispiele von Sequenz und Sekundärstruktur von RNA-Molekülen.

Sequenz und Sekundärstruktur von RNA-MolekülenAbbildung 2. Sequenz und Sekundärstruktur von RNA-Molekülen. RNAs sind Polynukleotidketten, zusammengesetzt aus den Nukleotiden der Basen Guanin (G), Cytosin (C), Adenin (A) und Uracil (U). Durch Paarung der Basen C-G, G-U und A-U (durch Wasserstoffbrücken) entstehen „Stamm-Schleifen“-Strukturen („stem-loop“), d.i. doppelhelikale, gepaarte Teile („stem“) und Haarnadel-Schleifen (ungepaarte Nukleotide). Oben: ein aus 33 Nukleotiden bestehendes Molekül in seiner stabilen Sekundästruktur (rot) und eine seiner zahlreichen suboptimalen Strukturen (blau). Unten: Sequenz und stabilste Struktur eines Transfer-RNA-Moleküls (Phenylalanyl-tRNA)

RNA-Moleküle eignen sich hervorragend für das rationale Design, da ihre Sekundärstrukturen einer rigorosen mathematischen Analyse zugänglich sind. In der Realität gibt es für RNA-Moleküle nicht nur eine einzige stabile Konformation - jeder Sequenz entspricht ein ganzes Spektrum von metastabilen suboptimalen Strukturen, welche sich hinsichtlich ihrer Lebensdauer unterscheiden. Die Zeit, die benötigt wird um von einer Konformation zur anderen zu gelangen, hängt von der Energiebarriere ab, die beim Übergang überwunden werden muß. Bei sehr hohen Energiebarrieren (Aufbrechen vieler Basenpaarungen) können aus einer Sequenz langlebige bistabile, multistabile Konformationen resultieren. Ein einfaches Beispiel zweier langlebiger RNA-Strukturen ist in Abbildung 2 (oben) gezeigt.

Für RNA-Moleküle ist es möglich Algorithmen zu entwickeln, die auch bistabile und multistabile RNA-Moleküle designen können. Alternative stabile Konformationen desselben RNA-Moleküls sind experimentell an vielen Beispielen nachgewiesen worden. Auch in der Natur sind RNA-Moleküle bekannt, die zwei Konformationen ausbilden, welche völlig unterschiedliche Funktionen besitzen können. Sie werden „Riboswitches“ genannt und regulieren (vor allem in Bakterien) u.a. die Synthese von Enzymen, die im Stoffwechsel eine Rolle spielen.

Evolutionäres Design

Das Darwinsche Prinzip der natürlichen Auslese baut auf drei Voraussetzungen auf: (i) Vermehrung durch Reproduktion, (ii) Variation und (iii) Selektion durch begrenzte Ressourcen. Keine dieser drei Voraussetzungen ist an zelluläres Leben gebunden und es ist daher zu erwarten, dass Darwinsche Evolution auch in zellfreien Systemen auftreten kann. Dies hat Sol Spiegelman schon in den Neunzehnhundertsechzigerjahren erkannt und die ersten erfolgreichen Versuche unternommen, Moleküle im Laborexperiment zu evolvieren.

Das Spiegelmansche Serial-Transfer Experiment

In diesem bahnbrechenden Experiment wurde RNA durch Replikation mit einer RNA-Polymerase kopiert und damit vermehrt. Variation kam durch fehlerhaftes Kopieren zustande, Selektion durch die Versuchsführung mittels „Serial-Transfer“: eine Lösung mit den Bausteinen (G, C, A, U) für die RNA-Synthese und der Polymerase im Reagenzglas A wurde mit einer kleinen Probe der zu kopierenden RNA versetzt, wobei sofort Replikation einsetzte. Nach einer bestimmten Zeitspanne (und dem Verbrauch der Bausteine in A) wurde eine kleine Probe in Reagenzglas B (ebenfalls in eine Lösung von Bausteinen und Polymerase) überimpft, wo erneut RNA-Replikation einsetzt, und dieser Vorgang etwa einhundert Mal wiederholt. Spiegelman beobachtete, dass im Laufe des Experiments die RNA-Synthesegeschwindigkeit zunahm und dass sich die RNA-Moleküle veränderten: durch Kopierfehler entstandene, rascher replizierende Moleküle verdrängten die ursprünglichen langsamer replizierenden Moleküle solange bis die Geschwindigkeit der Replikation einen maximalen Wert erreicht hatte. Derartige Experimente mit Molekülen unter Laborbedingungen stellen Evolution im Zeitraffer dar, da ein solches „Serial-Transfer“ Experiment in einem Tag ausgeführt werden kann.

Evolutionäre „Züchtung“ von Biomolekülen

Die Tatsache, dass Moleküle im Reagenzglasversuch im Darwinschen Sinne evolviert werden können, war der Anlass für die Entwicklung eines neuen Zweiges der Biotechnologie: das evolutionäre Design von Biomolekülen mit vorgegebenen Eigenschaften. Zum Unterschied vom rationalen Design ist es weder notwendig die molekularen Strukturen zu kennen noch muss man über die Beziehung zwischen Strukturen und Funktionen Bescheid wissen. Man benötigt lediglich ein Testsystem für die gewünschte Moleküleigenschaft und eine Selektionsmethode mit der man Moleküle, welche die Wunschvorstellungen am besten erfüllen, aus einer Mischung von Molekülen mit anderen Eigenschaften herausholen kann.

Am Anfang steht die Erzeugung einer Population von Molekülen mit hinreichend großer genetischer Vielfalt (beispielsweise mit Syntheseautomaten hergestellte Moleküle mit Zufallssequenzen). Mit Hilfe eines geeigneten Selektionsverfahrens wählt man die am besten geeigneten Moleküle aus und erzeugt durch Amplifikation und fehlerhafte Reproduktion eine neue Population, die nun wieder einer neuen Selektion unterworfen werden. Im Allgemeinen genügen zwanzig bis dreißig Selektionszyklen, um für den Verwendungszweck optimale Moleküle zu erhalten. Evolutionäre Methoden wurden für viele verschiedene Zwecke eingesetzt – wir erwähnen hier zwei davon: (i) die Züchtung von optimal bindenden RNA-Molekülen, sogenannten Aptameren und die gezielte Evolution von Proteinen.

Die SELEX-Methode

RNA-Moleküle sind für die Anwendung evolutionärer Methoden besonders gut geeignet, da sie unmittelbar repliziert und mutiert werden können. Ein typisches Beispiel ist die in Abbildung 3 dargestellte SELEX-Methode (Systematic Evolution of Ligands by EXponential Enrichment), welche heute routinemäßig eingesetzt wird, um Moleküle zu evolvieren, die an vorgegebene Zielstrukturen (targets) möglichst fest binden. Die Vorgangsweise lässt sich einfach beschreiben: Es wird zuerst ein „Pool“ an RNA-Sequenzen mit zufälliger Nukleotidabfolge angelegt und in eine geeignete Lösung transferiert und es wird eine Säule für die Affinitätschromatographie präpariert, welche die Zielmoleküle irreversibel an das Säulenmaterial gebunden enthält. Die Lösung wird über die Säule laufen gelassen und die am besten an die stationäre Phase bindenden Moleküle werden aus der Lösung entfernt. Mit einem anderen Lösungsmittel werden dann die an der Säule gebundenen Moleküle ausgewaschen und einem Selektionszyklus – Amplifikation, Diversifizierung und Selektion – unterworfen. Das Lösungsmittel wird von Zyklus zu Zyklus geändert, so dass es immer schwerer wird an die Zielmoleküle zu binden. Nach hinreichend vielen Zyklen erhält man optimal und äußerst fest an die Targets bindende Moleküle.

SELEX-Methode zur Erzeugung optimal an Zielstrukturen bindender RNA-MoleküleAbbildung 3. Die SELEX-Methode zur Erzeugung optimal an Zielstrukturen bindender RNA-Moleküle (Aptamere). Beispielsweise soll zur Blockierung eines therapeutischen Zielmoleküls (Target) ein möglichst spezifisches, festbindendes RNA-Molekül gezüchtet werden. Dazu wird eine Lösung mit einer Vielfalt an RNA-Molekülen (A) auf eine Trennsäule aufgebracht, welche das an das Trennmaterial fixierte Target-Molekül (rot) enthält (B). RNAs, die nicht an das Target-Molekül binden, werden nicht in der Säule festgehalten (C) und ausgewaschen. Festbindende RNAs (gelb) werden mit „schärferen“ Lösungsmitteln eluiert (E), mit klassischen Methoden in DNA umgeschrieben, diese mittels Polymerase-Kettenreaktion (PCR) amplifiziert und wieder in RNA umgeschrieben (F). Die so entstandene Lösung enthält ein konzentriertes Gemisch aus festbindenden RNAs, die nun wieder Selektionsprozessen unter immer verschärfteren Elutionsbedingungen unterworfen werden

Gezielte Evolution von Proteinen

Diese verfolgt von Beginn an zwei verschiedene Ziele: i. ein besseres Verstehen der Stabilitäten und der Funktionen von Proteinen, welche in der natürlichen Evolution von vielen anderen und oft komplexen Bedingungen überlagert sind, und

ii. die Erzeugung von nichtnatürlichen Proteinen, welche ein Licht auf die physikalisch-chemischen Eigenschaften der Moleküle werfen, welche nicht von den Evolutionsbedingungen überschattet sind.

Insbesondere ist es bei in vitro Evolution möglich alle Zwischenstufen eines evolutionären Prozesses zu isolieren und zu studieren und damit einen sonst nicht erzielbaren Einblick zu gewinnen, auf welchen Wegen Populationen von Molekülen evolutionär optimiert werden.

Synthetische Biologie „quo vadis“?

Der Name „synthetische Biologie“ taucht erstmals im Jahre 1913 in einem Letter to Nature mit dem Titel: „Synthetic biology and the mechanism of life“ auf und bezieht sich auf ein „La biologie synthétique“ übertiteltes Buch von Stéphane Leduc. Der Autor, ein französischer Biologe, versuchte darin Lebensvorgänge auf die physikalische Chemie der Diffusion in flüssigen Lösungen zurückzuführen.

Meilensteine in der Entstehung der Synthetischen Biologie

Im vergangenen Jahrhundert hat die synthetische Biologie Gestalt angenommen – keine einheitliche aber eine, die auf dem Boden der molekularen Biologie und insbesondere der molekularen Genetik gewachsen ist. Als Meilensteine kann man nennen:

i. das Watson-Crick’sche Strukturmodell der DNA (Nature 1953, Nobelpreis für Physiologie 1962),

ii. die Entdeckung der Restriktionsnukleasen durch Werner Arber, Daniel Nathans und Hamilton Othanel Smith (Nobelpreis für Physiologie, 1978) und

iii. ihre Anwendung in der Molekulargenetik in Form der rekombinanten Klonierungstechnik durch Paul Berg (Nobelpreis für Chemie 1980),

iv. die Entwicklung neuer DNA-Sequenzierungmethoden, welche erstmals die Sequenzierung ganzer Genome ermöglichten, durch Walter Gilbert and Frederick Sanger (Nobelpreis für Chemie 1980),

v. die Herstellung eines künstlichen Oszillators, Repressilator genannt, in vivo durch Einschleusen drei Repressor-Genen in Escherichia coli oder der Einbau eines reversiblen genetischen Schalters in dasselbe Bakterium,

vi. die chemische Totalsynthese und der Einbau eines Genoms in eine Bakterienzelle.

Neue Anwendungen

In den letzten Jahren hat sich ein neuer obgleich naheliegender Anwendungsbereich für synthetische DNA aufgetan: die Verwendung als Speicher von digitaler Information. George Church und Mitarbeiter haben eine DNA synthetisiert, die ein ganzes Buch mit 53 426 Worten, 11 jpeg-Bildern und einem Java-Script auf einer kodierenden Länge von 5.27 MegaBit enthält. Damit hält diese Speicherung zurzeit den Rekord hinsichtlich der Informationsdichte von fast 1016 Bits pro mm3, und übertrifft damit alle physikalischen Speicher einschließlich der Quantenholographie.

Der Schlüssel zu einer neuen DNA-basierten Technologie ist die Synthese von DNA in ausreichend großen Mengen zu hinreichend niedrigen Kosten. In der Tat scheinen neue als „next-generation technology“ apostrophierten Methoden diese Möglichkeiten zu eröffnen. Die Wissenschaftler und Techniker der Firma Gen9 in Cambridge (MA) erklären, dass sie in einzigem Labor ebenso viel DNA synthetisieren können wie der Rest der Welt.

Die „American Chemical Society (ACS)“ hat vor drei Monaten ein Exposé mit dem Titel „Engineering for the 21st Century: Synthetic Biology“ mit den Worten geschlossen:

For years, scientists have hoped that biology would find its engineering counterpart – a series of principles that could be used as reliably as chemical engineering is for chemistry. Thanks to major advances in synthetic biology, those hopes may soon be realized”.

Als eine solche Core-Technologie wird die Herstellung von DNA-Konstrukten angesehen und ihre Verwendung für mannigfache Anwendungen von DNA-Nanotechnologie, über gezielte ribosomale Proteinsynthese mit natürlichen und künstlichen Aminosäuren bis hin zur genetischen Veränderung von ganzen Organismen. Ebenso wie die chemische Technologie eine ungeheure Fülle von verschiedensten Prozessen um die Kernbereiche herum gruppiert und integriert, könnte die neue Biotechnologie die große Vielfalt der heute als Sammelsurium empfundenen Teilbereiche der synthetischen Biologie miteinander vereinigen.


[1] Auf Grund der sehr umfangreichen Literatur zu Teil 1 und 2 des Essays wird an dieser Stelle auf eine Zitierung verzichtet. Diese sind in einem ausführlichen Übersichtsartikel des Autors zu zahlreichen im Essay besprochenen Aspekten zu finden („Modeling in biological chemistry. From biochemical kinetics to systems biology” PDF; Monatsh Chem 139, 427–446 (2008)).

Auf Anfrage können zitierte Artikel vom Autor erhalten werden (http://www.tbi.univie.ac.at/~pks). Ein leicht verständlicher Artikel des Autors, der ebenfalls mehrere Aspekte des vorliegenden Essays anschneidet, findet sich unter: Ursprung des Lebens aus der Sicht der Chemie (PDF).


Die komplette Sammlung aller Artikel zum Themenschwerpunkt Synthetische Biologie finden Sie hier.


 

inge Fri, 19.07.2013 - 10:30

Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie

Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie

Fr, 12.07.2013 - 04:20 — Peter Schuster

ÖAWPeter SchusterThemenschwerpunkt Synthetische Biologie

Können wir mit der Synthetischen Biologie etwas Besseres bewirken, als das, was Natur und Evolution im Laufe der Jahrmilliarden hervorgebracht haben? Hier erheben sich sofort Fragen wie: „Besser für wen?“, „Besser wofür? oder „Wie kommen Optimierungen überhaupt zustande?“ Der Artikel basiert auf einem Vortrag des Autors anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde; er erscheint auf Grund seiner Länge in zwei aufeinander folgenden Teilen.

Vor weniger als einem Jahr veranstaltete das Jena Life Science Forum eine Tagung unter dem Titel „Designing living matter – Can we do better than evolution?“. Nachdem wir uns nach längerer Diskussion auf diesen Namen geeinigt hatten, waren wir fürs erste zufrieden, aber dann doch über die eigene Frechheit erschrocken: Glaubten wir denn wirklich, dass wir Menschen die Evolution übertreffen können? Nach kurzem Nachdenken trat wieder Beruhigung ein. Solange man nicht präzise sagt, was „better“ oder „übertreffen“ bedeuten soll, ist alles offen. Fast immer kann man die Natur übertreffen, wenn man sich ein einziges Merkmal herausgreift und dann dieses durch menschlichen Eingriff nach Belieben verändert.

Der vorliegende erste Teil dieses Essays schneidet Probleme der Bewertung nach mehreren Kriterien an und geht auf die Frage ein, inwieweit Optimalität in der Natur vorherrscht.

Optimalität und Pareto-Gleichgewicht

Optimalität im täglichen Leben ist leicht definiert: Wir möchten ein genau definiertes Produkt kaufen, sehen bei „Geizhals“ oder einem anderen Kaufinformationsprovider online nach, wo das Produkt am billigsten ist, gehen dort einkaufen und haben unseren Einkauf optimiert. Leider ist eine solche eindeutige Sachlage die Ausnahme! Normalerweise haben wir mehrere Kriterien zu beachten, und dann wird der Vergleich schwierig.

Nehmen wir wieder ein alltägliches Beispiel: Jemand möchte ein ökonomisch günstiges Auto kaufen – d.i. niedriger Anschaffungspreis, geringer Benzinverbrauch und Unterhaltskosten –, das gleichzeitig mit möglichst hoher Spitzengeschwindigkeit fahren können soll. Diese beiden Wunschvorstellungen sind nicht miteinander vereinbar und anstelle eines Optimums gibt es eine ganze Reihe von günstigsten Kompromissen, die nach dem Italiener Vilfredo Frederico Pareto als Pareto-Gleichgewicht oder Pareto-Front bezeichnet wird: Eine besseres Ergebnis für das eine Kriterium lässt sich nur durch eine Verschlechterung beim zweiten Kriterium erzielen. In unserem Beispiel: ein rascheres Auto kostet mehr Geld. Die Pareto-Front trennt die ineffizienten und daher verbesserbaren Lösungen von den unmöglichen, die nicht realisiert werden können (Abbildung 1).

Vilfredo Pareto war in erster Linie Volkswirt und seine Überlegungen zur Optimierung nach mehreren Kriterien fanden daher auch vorwiegend Anwendungen in der Ökonomie. Unter einigen idealisierenden Annahmen kann gezeigt werden, dass sich ein System „freier Märkte“ zu einer Pareto effizienten Volkswirtschaft entwickelt. Die Optimierungsprobleme in anderen Disziplinen sind aber im Wesentlichen die gleichen und natürliche biologische Systeme machen dabei keine Ausnahme.

Optimalität in der Natur

Wie steht es nun mit Optimierung in der Natur?

Seit der Jungsteinzeit gestaltet der Mensch die Natur durch Manipulation von Organismen für seine Zwecke um. Dabei wird durchaus auch ständig in die Genetik der Arten eingegriffen – sonst wären weder Feldfrüchte noch Obstsorten noch Haustiere gezüchtet worden. Die gesamte Geschichte der Menschheitsentwicklung ist auch eine Geschichte solcher Verbesserungen. Diese Eingriffe in die Natur erfolgten bis ins zwanzigste Jahrhundert hinein ohne Wissen um die Mechanismen, die der Veränderung von Organismen und Arten zugrunde liegen. Die explosionsartige, höchst spektakuläre Entwicklung der molekularen Biologie eröffnet völlig neue Zugänge zur Modifikation biologischer Einheiten von Biomolekülen bis zu Gesamtorganismen.

Es fällt im Allgemeinen nicht schwer Einzeleigenschaften von Biomolekülen oder ganzen Organismen zu „verbessern“ im Sinne von „schneller, mehr, größer, kleiner, spezifischer, stabiler“ und so weiter. Proteine wurden nicht nur in diesem Sinne "verbessert", sondern auch an nicht natürliche Bedingungen wie beispielsweise nichtwässrige Lösungsmittel angepasst (siehe den Abschnitt über rationales Design im Teil 2).

Pareto-GleichgewichtAbbildung 1. Pareto Gleichgewicht: Das Optimieren nach mehreren Kriterien (hier Kosten und Geschwindigkeit eines Autos) führt nicht zu einem Optimum sondern zu einer Reihe von Kompromissen.

Die Natur in Form der biologischen Evolution kann es sich nur in Ausnahmefällen leisten Einzelmerkmale zu optimieren – selektiert werden die Gesamtorganismen und das auch nur in Hinblick auf die Zahl ihrer fortpflanzungsfähigen Nachkommen. Dabei muss die Evolution auf Vorhandenem aufbauen und kann nicht wie ein Ingenieur de novo designen, sie arbeitet nach dem Bastelprinzip – „evolutionary tinkering“ oder „bricolage“ genannt [1], denn das einzige, worauf Erfolg in der Natur aufbaut ist Funktionstüchtigkeit.

Suboptimale anatomische Lösungen

Bei den höheren Organismen fehlt es nicht an Beispielen von suboptimalen Lösungen des evolutionären Bastelns. Zwei seien hier stellvertretend für viele andere genannt: (i) beim Wirbeltierauge verlassen die Nervenfasern die Retina auf der Seite, die dem Sehnerv gegenüberliegt und dies bedeutet, dass sie die Retina durchdringen müssen bevor sie gebündelt ins Gehirn weiterlaufen können und dadurch entsteht der bei anderer Faserführung vermeidbare „blinde“ Fleck, und (ii) beim Kehlkopf der Wirbeltiere kreuzen Luft- und Speiseröhre, was vom harmlosen „Verschlucken“ bis zu den tödlichen Verletzungen beim Eindringen von Speisen in die zur Lunge führenden Luftröhre führen kann (Abbildung 2).

KehlkopfAbbildung 2. Kehlkopf: eine suboptimale Lösung. Der bewegliche Kehlkopfdeckel bewegt sich beim Schlucken reflexartig nach unten und dichtet die Luftröhre ab. Gelegentlich – z.B. bei gleichzeitigem Lachen, Sprechen und Schlucken, tritt der Reflex verzögert ein und man „verschluckt“ sich. (Bild: modifiziert nach US Library of Medicine; public domain)

Optimalität von Stoffwechselvorgängen?

Wie steht es nun mit dem Stoffwechsel – Metabolismus - von Zellen? Ist dieser optimal oder nur gerade funktionsfähig? Arbeitet der Stoffwechsel von Organismen unter optimalen Bedingungen und wenn ja, nach welchen Kriterien wurde er optimiert?

Biochemiker bemühen sich seit mehr als einhundert Jahren erfolgreich um die Aufklärung des Zell-Stoffwechsels und alle wichtigen Reaktionspfade der berühmten Stoffwechselkarte von Boehringer-Mannheim sind hinsichtlich der Zahl und Art der beteiligten Komponenten aufgeklärt (interaktive Darstellung der hochkomplexen Biochemical Pathways: Metabolic Pathways Map). Dennoch tappt man bei einigen grundlegenden Fragen noch weitestgehend im Dunkeln, nämlich nach der Natur der dominierenden Komponenten des metabolischen Flusses (metabolic flux) – d.i. des Durchsatzes von Molekülen durch einen Stoffwechselweg - und ihrer Optimalität.

Seit etwa zwanzig Jahren steht in Form der „Flux-Balance-Analyse“ (FBA) des Stoffwechsels eine rechnerische, am Computer implementierte Methode zur Verfügung, die eine vereinfachende Untersuchung komplexer metabolischer Netzwerke erlaubt [2]. Einschränkungen der zugänglichen Flusskombinationen entstehen durch die den einzelnen Reaktionsschritten zugrunde liegende Chemie und Thermodynamik: Massenerhalt und Mengenverhältnisse von reagierenden Spezies und Produkten (Stöchiometrie), Energiebilanz und andere Nebenbedingungen beschränken den Raum der Flüsse. Eine Kombination von „Flux-Balance“ und Energiebilanzanalyse (EBA) schafft gleichzeitig eine Basis für die Definition von multikriteriellen Zielfunktionen (= zu optimierende Größen) und erlaubt damit die Berechnung Pareto optimaler Kurven und Flächen (siehe Abbildung 3). Trotz der in sich konsistenten Theorie der metabolischen Flüsse können aber ohne experimentelle Zusatzinformation nur qualitative Aussagen über die Verteilung der Flüsse in den Netzwerken gemacht werden.

Optimalität des Stoffwechsel am Beispiel von Bakterien

Eine Vorstellung von der Komplexität des Stoffwechsels selbst bei Bakterien erhält man an Hand einiger Zahlen zum Bakterium Escherichia coli [3]: Dessen rund 4000 Gene kodieren für etwa 5000 verschiedene Transkripte, von denen sich 6000 bis 10000 Proteine herleiten. Den Proteinen stehen etwa 2000 größtenteils niedrigmolekulare Stoffwechselprodukte (Metabolite) gegenüber. Für das ganze Genom und seine Produkte umfassende Analysen ist es daher unumgänglich die Dimension zu reduzieren und sich auf den Kern des Stoffwechsels zu beschränken. Nichtsdestoweniger ist im vergangenen Jahr eine experimentell gestützte Analyse des Stoffwechsels des Bakteriums Escherichia coli im Wissenschaftsmagazin Science erschienen [4]:

In dieser Untersuchung wurde Glucose - Nahrungsquelle beziehungsweise Ausgangsprodukt des bakteriellen Stoffwechsels –– mit dem stabilen Kohlenstoff-Isotop 13C markiert. Die Analyse der Zeit abhängigen Verteilung dieses Isotops in den Stoffwechselprodukten erlaubte es die metabolischen Flüsse innerhalb der Zellen experimentell zu ermitteln. Die so erhaltene Verteilung der Flüsse wurde dann mit einer berechneten Verteilung verglichen, wobei ein Reaktionsmodell des zentralen Stoffwechsels von Escherichia coli zugrunde gelegt wurde, welches aus 79 einzelnen Reaktionsschritten und einer Escherichia coli spezifischen Bruttobilanzgleichung für die Biomasseproduktion bestand. Fünf Zielfunktionen erwiesen sich als konsistent mit den in vivo Flüssen: (i) maximale Energieproduktion in Form von Adenosintriphosphat (ATP), (ii) Biomasseproduktion, (iii) Ausbeute an Azetat, (iv) Kohlendioxydproduktion und (v) die minimale Summe der absoluten Flüsse im Sinne einer möglichst effizienten Nutzung der Ressourcen. Keine einzige der fünf Zielfunktionen war allein in der Lage, alle gemessenen Flüsse adäquat zu beschreiben und ebenso gab es keine zufriedenstellende Wiedergabe der Daten durch Paare von Zielfunktionen. Von allen Dreierkombinationen erwies sich das Tripel (i) ATP-Produktion, (ii) Biomasseproduktion und (v) optimale Aufteilung der Ressourcen in Form der Minimalisierung des Gesamtflusses, als am besten geeignet, das metabolische Geschehen in der Escherichia coli Zelle hinsichtlich einer Analyse der Optimalität zu beschreiben. Dies kommt auch dadurch zum Ausdruck, dass alle (insgesamt 44 berechneten) Flüsse nahe der Pareto-Fläche zu liegen kommen.

Pareto-FlächeAbbildung 3. Pareto-Fläche (rot) der drei dominierenden Flüsse im Stoffwechsel von Escherichia coli. Die auf der roten Fläche eingezeichneten Punkte und Zonen wurden aus den 13C Bestimmungen der metabolischen Daten von Escherichia coli unter verschiedenen Wachstumsbedingungen ermittelt. Aerobe Kulturen: blau mit Überschuss an Glucose, grün unter Mangel an Glucose, schwarz unter Stickstoffmangel und zum Vergleich eine anaerobe Kultur: weiß. Die in diesem Diagramm aufgetragenen Flüsse sind normalisiert, und daher bedeutet „1“ die unter gegebenen Bedingungen bestmögliche Erfüllung des Kriteriums der Optimalität – Minimum der Summe der Flüsse, Maximum der Biomasse und ATP-Produktion (Quelle: Referenz [3], Bild gezeichnet nach Fig.1A in dieser Arbeit)

Abbildung 3 zeigt die Pareto-Fläche im Raum der drei ausgewählten Zielfunktionen i, ii und v: Alle Wachstumsansätze von Bakterienkulturen lagen nahe bei der Pareto-Fläche. Die verschiedenen Bakterienkulturen die aerob (= in Gegenwart von Sauerstoff) bei Glucoseüberschuss gewachsen sind kamen alle im blau markierten Bereich zu liegen, Kulturen unter verschiedenen Graden an Glucosemangel lagen in der grün markierten Zone, eine Kultur unter Stickstoffmangel ergab den schwarzen Punkt und eine unter anaeroben (= in Abwesernheit von Sauerstoff) Bedingungen den weißen Punkt.

Drei Ergebnisse aus der Gruppe von Uwe Sauer [3] an der ETH Zürich und neueste Arbeiten aus demselben Institut sind von allgemeiner Bedeutung: (i) die Punkte für die metabolische Flüsse anderen Bakterienarten – untersucht wurden Bacillus subtilis (mehrere Stämme), Zymomonas mobilis, Pseudomonas flurescens, Rhodobacter sphaeroides, Pseudomonas putida, Agrobacterium tumefaciens, Sinorhizobium meliloti und Paracoccus versutus – liegen ganz in der Nähe der Pareto-Fläche für Escherichia coli, (ii) Bakterien können metabolische Flüsse messen und regulieren und dies wurde am Beispiel des glycolytischen Flusses und der daraus resultierenden Verwendung des Signals für die Regulierung des Stoffwechsels in Escherichia coli gezeigt [5] und (iii) bei genauer Betrachtung liegen alle gemessenen Flüsse etwas unterhalb der Pareto-Fläche, wobei die Differenz zu den Pareto-Werten signifikant ist. Eine Berechnung der Stoffwechselflüsse für verschiedene Nahrungsquellen liefert die Erklärung:

Flusskombinationen am Pareto-Optimum für eine Nahrungsquelle sind relativ weit entfernt von den Pareto optimalen Kombinationen für eine andere Nahrungsquelle. Es dauert dementsprechend relativ lange, um von der optimalen Lösung für eine Nahrungsquelle zur optimalen Lösung für eine andere Nahrungsquelle zu kommen. In einigem Abstand von der Pareto-Fläche finden sich Zustände, bei denen die Flüsse mit nur geringem Aufwand und daher rasch von einer Nahrungsquelle zu einer anderen umschalten können. Die Evolution optimiert daher nicht nur auf Effizienz des Stoffwechsels unter den gegebenen Bedingungen, sondern stellt auch die in variablen Umwelten notwendige Flexibilität in Rechnung. Die eben gegebene Erklärung der natürlichen Flusskombinationen durch Variabilität auf Kosten von Effizienz charakterisiert als minimale Flussjustierung [4] bietet eine plausible Alternative zu der früher gegebenen Interpretation als Anpassung der Mikroorganismen an eine historisch bestimmte Reihenfolge in den Änderungen der Nahrungsquellen [5]. ----------------------------------------------------------------------------------------- [1] siehe dazu im ScienceBlog: Peter Schuster. Gibt es Rezepte für die Bewältigung von Komplexität? Die biologische Evolution schafft komplexe Gebilde und kann damit umgehen. Unzähmbare Neugier, Innovation, Entdeckung und Bastelei - Sind wir dazu verdammt auf dem Weg einer immerzu steigenden Komplexität unserer Welt fortzuschreiten?

[2] Armit Varma, B. Ø. Palsson. Metabolic flux balancing: Basic concepts, scientific and practical use. (Nature) BioTechnology 12:994-998, 1994. [

3] Uwe Sauer. Metabolic networks in motion: 13C-based flux analysis. Molecular Systems Biology 2:e62, 2006 [4] Robert Schuetz, Nicola Zamboni, Mattia Zampieri, Matthias Heinemann, Uwe Sauer. Multidimensional optimality of microbial metabolism. Science 366:601-604, 2012. [5] Amir Mitchell, Gal H. Romano, Bella Groisman, Avihu Yona, Erez Dekel, Martin Kupiec, Orna Dahan, Yitzhak Pilpel. Adaptive prediction of environmental changes by microorganisms. Nature 460:220-224, 2009.


 

inge Fri, 12.07.2013 - 08:06

Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften

Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften

Fr, 10.07.2013 - 09:10 — Sigrid Jalkotzy-Deger

Icon MINTSigrid Jalkotzy-Deger Rekonstruktionen des Lebens vergangener Zeiten und deren Interpretationen erfolgen heute in enger interdisziplinärer Zusammenarbeit von Geisteswissenschaftern und Naturwissenschaftern.

Dieser Artikel erschien bereits am 14. Juni 2012. Im Zuge der Aufarbeitung des Archivs präsentieren wir ihn hier erneut:


Unter Kulturgut versteht man üblicherweise als erhaltenswert betrachtete Bauten und andere physische Zeugnisse der Kultur, wie sie in Archiven, Museen und Bibliotheken gesammelt und aufbewahrt werden, also Kulturdenkmäler. In der Öffentlichkeit werden derartige Denkmäler heute weitestgehend unter dem Aspekt der Ökonomie gesehen. Wenn finanzieller Aufwand und Fachexpertise in die Erhaltung und Restaurierung von Kulturgütern gesteckt werden, so muß sich das rechnen. Dies trifft auf archäologische Fundstätten zu, die zu touristischen Anziehungspunkten geworden sind, auf Kunstwerke die - in Ausstellungen zu Themenschwerpunkten zusammengefaßt - Besucherströme anziehen.

Vom Kulturgut zum kulturellem Erbe

Die museale Ansammlung und physische Erhaltung von Kulturgütern ist aber nicht gleichzusetzen mit dem, was wir unter kulturellem Erbe verstehen. Dazu bedarf es einer Aufarbeitung der Kulturgüter, einer Erforschung ihres geistigen Hintergrunds, und dem geistigen Vermächtnis, also dem, was tradiert wurde. Fragen nach dem Ursprung und der Entwicklung unseres kulturellen Erbes und der Umgang mit diesem, tragen wesentlich zur Identitätsstiftung bei, verhindern, daß diese von Subjektivität und Emotionalität geprägt und für partikuläre Interessen instrumentalisiert werden kann.

Im Bereich der Geistes- und Kulturwissenschaften gibt es hier spektakuläre Neufunde und Entdeckungen, die eine differenzierende Sicht auf die Vergangenheit und neue Aspekte für die Zukunft eröffnen.

Archäometrie – interdisziplinäre Aufarbeitung von Kulturgut

Rekonstruktionen des Lebens vergangener Zeiten und deren Interpretationen erfolgen heute in enger interdisziplinärer Zusammenarbeit von Geisteswissenschaftern und Naturwissenschaftern. Ein neues fächerübergreifendes Gebiet – die sogenannte Archäometrie – beschäftigt sich mit der Entwicklung und dem Einsatz quantitativer naturwissenschaftlicher Methoden in der Archäologie, welche von geowissenschaft-lichen Techniken, physikalisch-chemischen Materialanalysen bis hin zu biologischen Untersuchungen – hier vor allem DNA Analysen – reichen.

Zuverlässige Altersbestimmungen – mittels der Kohlenstoff-14 Methode an Material organischen Ursprungs, mittels Thermoluminiszenz an anorganischen Materialien, (z.B. Keramiken) – präzisieren die Datierung von Funden und verhindern damit Fehlschlüsse hinsichtlich des Verlaufs der kulturellen Entwicklung. Für die Analyse der chemischen Zusammensetzung von Funden steht ein sehr breites Spektrum an physikalisch-chemischen Methoden - inklusive Spurenelements-und-Isotopenanalyse - zur Verfügung. Diese Methoden können einerseits ein konkretes Bild von der Herkunft der Funde ergeben und damit auch von Wanderungsbewegungenund Handelsbeziehungen früherer Zeiten, andererseits aber auch Einblicke in damalige Verfahren zur Herstellung von Materialien und, wie sich diese im Laufe der Zeit entwickelten. Ein gutes Beispiel sind hier werkstoffkundliche Untersuchungen an metallischen Gegenständen und an zeitgleichen Schlacken – von der frühen Kupfermetallurgie bis zu den Verfahren der Eisenzeit. Diese geben ein profundes Bild über Lagerstätten, Bergbau und Verhüttung von Erzen (unter Feuerungstemperaturen, die durch die Verbrennung von Holzkohle erzielbar waren) und ebenso auch über den überregionalen Handel mit den Erzen und den Transfer des Know-Hows zu ihrer Bearbeitung.

Untersuchungen an Material organischen Ursprungs, beispielsweise an menschlichen Knochen und Zähnen, verwenden u.a. metrische und morphologische Methoden, bildgebende Verfahren, chemische Analytik und vor allem molekularbiologische Analysen alter DNA. Die letztere, auch als molekulare Archäometrie bezeichnete Fachrichtung, kann Auskunft geben über das biologische Geschlecht, Erbkrankheiten, Verwandtschaftsverhältnisse, populationsgenetische Zusammenhänge, Wanderungs-bewegungen und dgl.

Der beschriebene interdisziplinäre Zugang über die Grenzen von Einzelfächern kulturwissenschaftlicher und naturwissenschaftlicher Gebiete hinaus, ebenso aber auch Kooperationen wissenschaftlicher Institutionen untereinander wirken sich auf derartige Forschungsarbeiten äußerst fruchtbar aus.Dies soll an Hand zweier Beispiele aus den Untersuchungen der philosophisch-historischen Klasse der Österreichischen Akademie der Wissenschaften (ÖAW) aufgezeigt werden. Beide Untersuchungen sind 2011 in Buchform erschienen (siehe unten).

Corpus Vasorum Antiquorum

Keramiken, die häufigsten Funde bei Ausgrabungen, überstehen Bodenlagerungen und geben Auskunft über praktisch alle Aspekte früheren menschlichen Lebens: des täglichen Lebens, der Politik, des Handels bis hin zur Kultur und Religion.

1919 gründete die Union Académique Internationale das Projekt Corpus Vasorum Antiquorummit dem Ziel, alle an Museen befindlichen antiken griechischen Vasen weltweit zu erfassen als Basis für weitreichende Forschungsarbeiten. Dem Projekt gehören heute 26 Länder an, die Sektion Österreich wird von der Österreichischen Akademie der Wissenschaften betreut und hat bis jetzt fünf Bände CVA Österreich herausgebracht. Der letzte, 2011 erschienene Band (1) enthält 130 attisch rotfigurige Vasen des 5. und 4. Jh. v. Chr. – hauptsächlich Ölbehälter und Weinkannen - aus der Antikensammlung des Kunsthistorischen Museums in Wien. Diese Dokumentation resultiert aus einer Kooperation von ÖAW und dem Institut für Mustererkennung und Bildverarbeitung der Technischen Universität Wien und gilt als wegweisend durch den erstmaligen Einsatz moderner technischer Methoden wie 3D-Laserscanner zur Aufnahme von Gefäßfomen und Erstellung digitaler 3D-Modelle,Röntgenaufnahmen zur berührungsfreien Berechnung des Fassungsvolumensund Multispektralanalyse zur Bestimmung von Farbpigmenten. Abbildung 1.

Diese zerstörungsfreien Methoden offenbarten bisher unbekannte technische Details der Herstellung und Geheimnisse der Bemalung antiker Vasen, die das bloße Auge nicht sehen kann.

Dokumentation griechischer VasenAbbildung 1: Dokumentation griechischer Vasen. Zerstörungsfreie Untersuchungen zu Form, Materialien und Techniken der Herstellung. Oben links: berührungsfreie Aufnahme der Gefäßformen mittels eines 3D-Laser- Scanner; oben rechts: Röntgenaufnahme (Computertomographie) zur Bestimmung des Fassungsvermögens ; unten: Multispektral-Analyse der Farbpigmente.

Byzantinische Tinten-, Tusche- und Farbrezepte

Dass das Schriftwesen von Byzanz herausragend war, ist allgemein bekannt. Aber die Frage, wie die byzantinischen Schreiber ihre Schwarztinten, Farbtinten und die Grundierungen für die Miniaturenmalerei zubereiteten, wurde kaum je erforscht.

Der Byzantinist Peter Schreiner und die Kunstwissenschafterin Doris Oltrogge haben jetzt 80 Rezepte ausgewertet, die aus 24 Handschriften in 11 Bibliotheken stammen (2). Diese Rezepte wurden fächerübergreifend philologisch, chemisch und technologisch analysiert und, um die Korrektheit der Rezepte zu überprüfen, rekonstruiert. Die Schreiber verwendeten eine Vielzahl damals gebräuchlicher und im Mittelmeerraum verbreiteter Zutaten, die zum Teil auch aus alchemistischer, naturphilosophischer Sicht zugefügt wurden. U.a. wurden auch zwei Rezepte für Geheimtinten entdeckt.

Dokumentation griechischer VasenAbbildung 2.Byzantinische Tinten-, Tusche- und Farbrezepte. Handschriften der Anna Amalia-Bibliothek in Weimar und Buchdeckel.

Fazit

Kultur-und-Geisteswissenschafter gelangen heute mit Hilfe naturwissenschaftlicher Techniken der Materialanalyse – der Archäometrie - zu einem neuen Bild menschlicher Kulturentwicklung.

(1) Trinkl, Elisabeth, Corpus Vasorum Antiquorum. Österreich. Wien, Kunsthistorisches Museum. Band 5. Attisch rotfigurige Gefäße, weißgrundige Lekythen. Verlag der ÖAW, Wien 2011.

(2) Schreiner, Peter – Oltrogge, Doris, Byzantinische Tinten-, Tuschen- und Farbrezepte. Verlag der ÖAW, Wien 2011


Weiterführende Links

Ernst Pernicka (Univ. Tübingen, führender Archäometriker und Leiter des Großprojekts Troja): Troja - der Schauplatz der Ilias - archäologisch und kulturhistorisch (1:23:32): Ancient Greek Pottery http://www.youtube.com/watch?v=QGR767DojYc&feature=topics (31:49)


 

inge Wed, 10.07.2013 - 09:10

Eisendämmerung — Wie unsere Werkstoffe komplexer und intelligenter werden

Eisendämmerung — Wie unsere Werkstoffe komplexer und intelligenter werden

Fr, 05.07.2013 - 08:03 — Gottfried Schatz

Icon MINTGottfried Schatz

Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

Die Verwendung von in der Natur vorkommenden Materialien wird abgelöst durch den Einsatz von Werkstoffen, welche biologische Strukturen und Funktionen nachahmen und optimieren. Insbesondere verspricht der Nachbau lebender Zellen ein ungeheures Potential an Anwendungsmöglichkeiten. Im Laboratorium massgeschneiderte Lebewesen könnten viel effizienter als natürliche das Sonnenlicht einfangen, Äcker biologisch düngen, Umweltgifte zerstören oder Erze an unzugänglichen Orten schürfen.

Zwei wissenschaftliche Revolutionen haben mein Leben geprägt: molekulare Biologie und digitale Elektronik. Jetzt erlebe ich eine dritte: die Revolution der intelligenten Werkstoffe. Seit Jahrtausenden waren unsere Werkstoffe die vorgegebenen Produkte der Natur. Heute ersinnen wir sie im Laboratorium, fertigen sie aus chemisch reinen Ausgangsstoffen und versehen sie mit Information zur Erfüllung bestimmter Aufgaben. Diese Revolution macht selbst unsere edelsten Stähle zu altem Eisen. Eisen ist immer noch unser Werkstoff par excellence, wenn auch Aluminium, Magnesium, Titan, Glas und Keramik ihm immer häufiger den Boden streitig machen. Sie alle sind jedoch, ebenso wie Eisen selbst, nur verfeinerte, umgeformte oder miteinander vermischte Naturstoffe. Doch als 1909 der Belgier Leo H. Baekeland aus zwei reinen Chemikalien das vollsynthetische Plastic-Harz Bakelit schuf, begann ein neuer Abschnitt unserer Zivilisation – und das Ende der Eisenzeit.

Zwei Jahrzehnte später erfand der Deutsche Walter Bock den künstlichen Kautschuk Buna und der Amerikaner Wallace Carothers die künstliche Faser Nylon. Beide Werkstoffe waren lange Ketten aus chemisch reinen Bausteinen, die sich aus Kohle, Wasser und Luft gewinnen liessen. Nylon wurde zur Ikone der Nachkriegszeit: die Flagge, die Neil Armstrong im Namen der Menschheit auf dem Mond hisste, war aus Nylon. Dem Nylon folgte eine Vielzahl vollsynthetischer Stoffe mit erstaunlichen Eigenschaften. Wir konnten diese Eigenschaften nach Wunsch verändern, da wir wussten, wie sie von der Struktur abhingen.

So grossartig diese Werkstoffe auch waren – verglichen mit denen lebender Zellen waren sie geradezu vorsintflutlich. Je mehr wir über die Chemie des Lebens lernten, desto deutlicher erkannten wir die fast unvorstellbare Komplexität lebender Zellen. Die immense Information zum Bau einer menschlichen Zelle ist in unserem Erbgut gespeichert – fadenförmigen Riesenmolekülen aus DNA, welche die Baupläne für mindestens 25 000, vielleicht sogar 100 000 verschiedene Eiweisstypen tragen. Eiweisse haben eine viel komplexere Struktur als eine Nylonfaser und können deshalb vielfältigere und anspruchsvollere Aufgaben erfüllen.

Bioaktive Implantate

Chemiker inspirieren sich an diesem Beispiel und bauen heute hochkomplexe Werkstoffe, die Information für bestimmte Aufgaben tragen. Eindrückliches Beispiel dafür ist eine neue Generation bioaktiver, signaltragender Implantate. Viele dieser Signale sind Eiweisse, die einer Zelle befehlen «Höre auf zu wachsen, denn jetzt bin ich hier»; oder «Wachse möglichst schnell in meine Richtung, damit wir gemeinsam ein festes Gewebe bilden können». Jedes Gewebe unseres Körpers – selbst ein Knochen – ähnelt einem summenden Bienenschwarm, in dem unaufhörlich Informationen in Form von Eiweissen und anderen Botenstoffen hin und her schwirren. Bioaktive Implantate beherrschen einige Worte dieser Zellsprache und können sich so in die Gespräche zwischen Zellen einschalten. Die Oberfläche von Knochenimplantaten trägt manchmal auch winzige, sorgfältig geplante Dellen oder Rillen, da Zellen nicht nur auf chemische Signale, sondern auch auf die Feinstruktur einer Oberfläche ansprechen. Diese neuen Implantate sind also wesentlich informationsreicher und damit intelligenter als ihre Vorläufer. Sie werden Gewebe zunächst ersetzen, dann seine Heilung anregen und sich schliesslich auflösen.

Nachbau lebender Zellen

Wissenschaft lebt jedoch nicht nur von Erkenntnissen, sondern auch – und vielleicht vor allem – von Träumen. Einer dieser Träume ist es, die informationsreichste aller Materieformen nachzubauen: eine lebende Zelle. Dies hätte nicht nur philosophische Brisanz, sondern auch praktische Auswirkungen. Im Laboratorium massgeschneiderte Lebewesen könnten viel effizienter als natürliche das Sonnenlicht einfangen, Äcker biologisch düngen, Umweltgifte zerstören oder Erze an unzugänglichen Orten schürfen.

Wie einfach kann eine lebende Zelle sein? Biologen entdeckten vor kurzem ein Bakterium, das lediglich 182 Eiweisstypen besitzt [1]. Es ist das einfachste Lebewesen, das wir kennen. Wegen seiner kümmerlichen Eiweiss-Aussteuer kann es viele seiner eigenen Bausteine nicht mehr herstellen und muss deshalb als Parasit im Inneren von Insektenzellen hausen. Wahrscheinlich dürfte ein frei lebendes Bakterium aber nur wenig mehr Eiweisstypen benötigen – vielleicht nur zwei- bis vierhundert –, um frei leben zu können.

Das entsprechende Erbgut können wir schon jetzt im Laboratorium bauen. Vor einigen Jahren synthetisierte der amerikanische Molekularbiologe Craig Venter mit chemischen Robotern das vollständige Erbgut eines Virus und konnte damit lebende Zellen infizieren und töten. Vor drei Jahren gelang es dann der Gruppe um Craig Venter das wesentlich größere Erbgut eines freilebenden Bakteriums (Mycoplasma mycoides) im Labor zu synthetisieren, mit diesem das Erbgut in einer anderen Bakterienart (Mycoplasma capricolum) zu ersetzen und damit zum ersten Mal von Menschenhand ein halbsynthetisches Lebewesen zu erschaffen [2].

Die vielseitigste Materie

Die nächsten Schritte werden wahrscheinlich davon bestimmt, wofür wir das neue Lebewesen einsetzen wollen. Wenn es ein Umweltgift zerstören soll, könnten wir zunächst ein möglichst einfaches Bakterium auswählen, das dieses Gift abbauen kann. Wir könnten die für Fortpflanzung und Giftabbau notwendigen Teile des Bakterien-Erbguts mit chemischen Methoden auf höchste Leistung steigern und dann ein Erbgut herstellen, das nur noch diese optimierten Teile enthält. Mit diesem massgeschneiderten Erbgut könnten wir schliesslich das ursprüngliche Erbgut des Bakteriums ersetzen.

Ethiker sehen dabei keine Probleme, doch die Vision von «künstlichem Leben» weckt unweigerlich Ängste. Wie schon in der Frühzeit der Biotechnologie wird es strenge Regeln brauchen, um unvorhersehbare Unfälle mit diesen halbsynthetischen Lebensformen (oder sind es Werkstoffe?) zu verhindern. Sehr viel später werden wir es wahrscheinlich wagen, vollsynthetische einzellige Lebewesen zu schaffen und ihnen Eigenschaften zu geben, die uns heute unvorstellbar sind.

Lebende Zellen sind die vielseitigste und informationsreichste Materie, die wir kennen. Sie ist das Ergebnis von fast vier Milliarden Jahren Entwicklung und zeigt uns den Weg zu den Werkstoffen kommender Generationen. Ist es Hybris, sie nachzubauen und dann für unsere Ziele umzuformen? Dürfen wir Welten betreten, die wir bisher als göttlich scheuten? Und werden lebensähnliche Werkstoffe die Spitzentechnologie unserer Enkelkinder prägen? Die Revolution der intelligenten Werkstoffe hat kaum begonnen – und dennoch bauen wir bereits an künstlicher Materie, die um viele Grössenordnungen informationsreicher ist als alles, was wir bisher geschaffen haben. Warum sind wir Menschen nie zufrieden? Könnte es sein, dass informationsreiche Materie stets nach mehr Information hungert? Und wäre dies nicht wunderbar?


[1] Nakabachi, A., Yamashita, A., Toh, H., Ishikawa, H., Dunbar, H., Moran, N. & Hattori, M. The 160-kilobase genome of the bacterial endosymbiont Carsonella. Science 314, 267 (2006). http://www.sciencemag.org/content/314/5797/267.full.pdf
[2] Gibson D.G. et al., Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome. Science 329, 52-56 (2010). http://www.sciencemag.org/content/329/5987/52.full.pdf


Anmerkungen der Redaktion

Zum Themenschwerpunkt Synthetische Biologie sind bis jetzt erschienen: Redaktion: Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

Uwe Sleytr: Synthetische Biologie – Wissenschaft und Kunst

Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Teil 2. Aufbau und Funktion physiologischer Geruchssensoren Teil 3: Konstruktion einer biomimetischen Nase

Michael Graetzel: Der Natur abgeschaut: Die Farbstoffsolarzelle

Gerhard Wegner: Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1, Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

Karin Saage & Eva Katrin Sinner: Was ist und was bedeutet für uns die Nano-Biotechnologie?

Weiterführende Links

 Craig Venter unveils "synthetic life" Video 18.18 min (2010, in Englisch, deutsche Untertitel) http://www.ted.com/talks/craig_venter_unveils_synthetic_life.html (from TEDTalks: a daily video podcast from the TED Conference, where the world's leading thinkers and doers give the talk of their lives in 18 minutes.)

Synthetische Biologie - Leben schaffen im Labor Video 7:02 min (2010, in Deutsch) http://www.youtube.com/watch?v=HHayuBHYjvk

Synthetische Biologie erklärt Video 6:38 min (2012, in Deutsch) Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)


 

inge Fri, 05.07.2013 - 08:30

Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

Fr, 27.06.2013 - 20:43 — Gerhard Wegner

Themenschwerpunkt Synthetische Biologie


ÖAWGerhard Wegner

Im 2.Teil seines, anläßlich des ÖAW-Symposiums „Synthetische Biologie“ gehaltenen Votrags diskutiert Gerhard Wegner die Konstruktion kleinster lebensfähiger Einheiten – u.a. als „Chassis“ für die Montage verschiedenster Funktionseinheiten – und die Versprechungen der erwarteten und erwartbaren Nützlichkeit dieser Forschungen. (Ungekürzte Fassung des Vortragsmanuskripts; der 1. Teil erschien am 21.6.2013.)

Gebiete der Synthetischen Biologie

Wenn wir zusammenfassend und in grober Vereinfachung akzeptieren wollen, dass es der Synthetischen Biologie im Wesentlichen darum geht, Konstrukte zu definieren und experimentell zu verifizieren, die Phänomene des Lebens auf der Ebene von „Minimalzellen“ aufweisen und im gewünschten Grenzfall „leben“, dann muss man fragen, wie wir „Leben“ als biologisch-physikalisch-chemisches Phänomen denn definieren wollen.

Wie können wir Leben definieren?

Es gibt – so glaube ich – einen Minimalkonsens darüber, wann wir ein Objekt als „lebend“ bezeichnen können. Das lässt sich mit 3 Stichworten zusammenfassen in Form von Eigenschaften, die das Objekt aufweisen muss:

  • Metabolismus (Stoffwechsel, d.h. Kommunikation mit der Umgebung des Objekts in Form von Stoff- und Informationsaustausch
  • Replikation (ein Programm, das alle Informationen über Synthese und Relation zwischen den Bauelementen des Konstrukts enthält und sich selbst replizieren kann.
  • Kompartimentierung (eine Umhüllung der Elemente des Konstrukts, die ihr „Identität“ verleiht und durch die das „Innenleben“ von der Außenwelt abgegrenzt wird.)

Es geht also um den Entwurf einer Chemischen Maschine, für die früher bereits der Name „Chemoton“ erfunden worden ist. Die Definitionen sind unabhängig von der konkreten Realisierung und abstrahieren die Phänomene, die wir aus den Befunden des „Lebens-wie-wir-es-kennen“ hergeleitet sind. Dieses „Leben-wie-wir-es-kennen“ ist an Bedingungen geknüpft, die auf dem Planeten Erde irgendwann herrschten und heute noch herrschen. Leben könnte unter anderen Umständen, d.h. irgendwo anders im Sonnensystem oder im Weltall auch ganz anders konstruiert sein, jedenfalls gibt es keinen Grund anzunehmen, dass „Leben“, wo immer es entstanden sein mag, stets aus den identischen Strukturelementen besteht.

Ich verweise in diesem Zusammenhang auf einen sehr lesenswerten, kürzlich erschienenen Artikel von Stephen Mann (University Bristol, UK) [1]

In diesem Artikel schlägt der Autor den Bogen von den Zielen und dem Stand der Synthetischen Biologie zur Präbiotischen Chemie und den zurzeit sehr populären Missionen der NASA und anderer Agenturen, die das Ziel haben, Spuren von „Leben-wie-wir-es-kennen“ auf dem Planeten Mars oder sonstwo zu finden. Der Autor legt u.a. dar, dass es sehr viel sinnvoller wäre, Forschungsmittel in ähnlichem Umfang wie sie für eine Mars-Mission ausgegeben wurden, nämlich ca 1.5 – 2.0 Milliarden US $, in die Forschung zur Synthetischen Biologie zu stecken, wenn man dem „Geheimnis der Funktion und der Entstehung von Leben“ tatsächlich näher kommen wollte.

Folgen wir offiziellen Stellungnahmen zur Beschreibung des Arbeits- und Wissensgebietes der Synthetischen Biologie – ich wähle hier zugegeben etwas willkürlich, weil in deutscher Sprache – die gemeinsame Stellungnahme von DFG, Acatech und Leopoldina [2] aus dem Jahr 2009 – so zählen zu den wichtigsten Zielen:

  1. „Die Konstruktion von Minimalzellen mit dem Ziel, eine kleinste lebensfähige Einheit zu gewinnen; derartige Zellen sind unter definierten Laborbedingungen lebensfähig, haben jedoch eingeschränkte Fähigkeiten, sich an natürlichen Standorten zu vermehren.“ Wir konstatieren, dass es um die Konstruktion von „Leben“ geht, wobei im zweiten Satz sogleich eine tiefe Verbeugung vor einem bestimmten Teil der Öffentlichkeit, also dem Publikum, gemacht wird, das diese Arbeiten kritisch und mit Befürchtungen aller Art betrachten könnte. Es handelt sich um die einschränkende Versicherung, dass es sich bei der Konstruktion der „Minimalzelle“ lediglich und nur um ein Laborartefakt handele, etc. etc. Woher diese Einschränkung kommt, und welchen irrationalen Hintergrund sie hat, wird uns im Weiteren noch beschäftigen.
  2. „Die Synthese von Protozellen mit Merkmalen lebender Zellen“. Es ist beabsichtigt, sie langfristig „als Chassis für die Herstellung von Substanzen einzusetzen“. Hier werden zwei Begriffe verwendet, nämlich „Minimalzelle“ und „Protozelle“. Dies dient der Unterscheidung von „Bottom-up“ und „Top-down“ Zugängen zum Phänomen „lebendes Konstrukt“. Man kann aus der als Modell dienenden natürlichen Zelle Bauelemente entfernen bzw. „ausschalten“ bis man einen Zustand erreicht hat, bei dem das weitere Ausschalten von Funktionselementen zum Verlust der Funktionsfähigkeit, heißt zum Tod der Zelle führt. Dieser letzte Zustand definiert die Minimalzelle. Man kann aber auch versuchen, aus vollsynthetischen oder aus Zellen gewonnenen Funktionselementen ein Konstrukt aufzubauen, das Phänomene des „Lebens“ zeigen wird, sobald eine gewisse Komplexität erreicht worden ist: „ der Motor beginnt zu laufen“. Dies bezeichnet den Zustand der Protozelle, nämlich ein Konstrukt aus nicht-biogenen Komponenten.

Die beiden Statements, die hier zitiert worden sind, beschäftigen sich mit „Leben“ als Phänomen und dies ist in der Tat eher ein philosophisches Konzept, das im Wandel der Zeit zudem einem Bedeutungswandel unterliegt. Als Beleg sollen vier Zitate dienen, die helfen, die Epistemologie des Begriffs „Leben“ offenzulegen (Abbildung 1).

Louis Pasteur: Die apodiktische Feststellung von, „Lebendiges entsteht nur aus dem Lebendigen“ bezieht sich auf die von ihm streng festgelegten Bedingungen von Experimenten. Sie schließt eine kontinuierliche „Urzeugung“ neuen Lebens aus toter Materie im Sinne spontaner Organisation aus. Sie besagt jedoch nicht, dass rationales Konstruieren einer „chemischen Maschine“ möglich ist.

Manfred Eigen (und seine Schüler): halten es 50 Jahre später für möglich, dass Selbstorganisation unter bestimmten äußeren Bedingungen über verschiedene Stufen zu Lebensformen führen kann, sobald ein bestimmter Grad der Komplexität erreicht ist.

Sidney Bremer: kommt unter dem Eindruck der Ergebnisse der molekularen Zellbiologie zu der Aussage: „Es ist alles ein molekulares Konstrukt“.

Christian de Duve: gibt der Hoffnung Raum, dass die Einsichten der Wissenschaften andere und neue Wege zur Machbarkeit von Leben eröffnen.

Was ist Leben – aus der Sicht von (Natur)wissenschaftern.Abbildung 1. Was ist Leben – aus der Sicht von (Natur)wissenschaftern.

Exkurs zum Thema „Lebenskraft“ und „Beseelung“

Warum verursacht die Synthetische Biologie mit ihren Konzepten heftige Reaktionen in der Presse und Schlagzeilen wie z.B. „Konkurrenz für Gott“ (Der Spiegel) oder „Leben aus dem Baukasten: Hat denn die Ära der Evolution 2.0 schon begonnen?“ (FAZ), und warum haben Gruppen von besorgten Bürgern in den USA bereits ein Moratorium für die Forschung gefordert, da diese Forschung nicht nur gefährlich, sondern von Anfang an unmoralisch sei ?

Ich vermute, das hängt mit dem kulturellen Gedächtnis und wenig reflektierten religiös-philosophischen Vorstellungen vieler Zeitgenossen zusammen, wobei überzogene Voraussagen und Projektionen einiger Wissenschaftler, verbunden mit sprachlich und philosophisch unsauberer Argumentation ihren Beitrag leisten.

Ich kann die Problematik nur kurz zu schildern versuchen und verwende dazu einige Bilder und Stichworte, die zum kulturellen Erbgut unserer Gesellschaft gehören.

Die „Beseelung“ des Adam (Michelangelo, um 1511; Sixtinische Kapelle) Abbildung 2. Die „Beseelung“ des Adam (Michelangelo, um 1511; Sixtinische Kapelle)

„Leben“ ist für viele von uns verbunden mit dem Begriff „Lebenskraft“ oder für die eher religiös verankerten Menschen unseres Kulturkreises mit „Beseelung“. Niemand hat die dahinter liegenden Vorstellungen besser illustriert als Michelangelo mit seinem Fresko „Beseelung des Adam“ in der Sixtinischen Kapelle. Die dahinterliegende Vorstellung ist, dass die tote Materie wohl in der Lage ist, sich selbst so zu organisieren, dass Form und Funktionen eines Organismus (hier Adam) entstehen, aber eigentliches Leben entsteht erst, wenn eine übernatürliche Kraft (Gott-Vater) den bereits vorgeformten Körper „beseelt“, ihn also mit „Seele“ bzw. „Lebenskraft“ versieht. Ob diese Lebenskraft etwas Immaterielles und Übernatürliches ist, ob es eine noch unbekannte Energieform oder im Sinne einer Autopoiese „nur“ die Konsequenz des Komplexitätsgrades der molekularen Maschine höherer Lebewesen und des Menschen ist, hat zahlreiche Philosophen, Naturforscher, Denker und Dichter beschäftigt. Es ist ein ungelöstes Rätsel, zu dem – da bin ich ganz sicher – die Synthetische Biologie einen kleinen aber wesentlichen Beitrag leisten kann.

Wie suggestiv und gleichzeitig prägend Michelangelos Bild ist, wird erst in seiner Persiflage deutlich, von denen es zahlreiche gibt. Viele dieser Persiflagen bringen prägnant zum Ausdruck, wie falsch und voreingenommen das Gottesbild (Gott Vater) in der Darstellung Michelangelos ist.

Man sollte bedenken, dass das Wesen, das in dieser Darstellung als „Gott“ bezeichnet wird, im Prinzip unvorstellbar ist und daher auch der Prozess der „Beseelung“ im keinem noch so einleuchtenden Bild dargestellt werden kann.

Daher ist auch die Aussage, dass die Adepten der Synthetischen Biologie „Gott spielen wollen“ in jeder Hinsicht falsch und ganz unzutreffend.

Es ist aber so, dass es in der Geschichte der Naturwissenschaft und Medizin immer wieder Forscher und durch sie ausgelöste Strömungen gegeben hat und gibt, die behaupteten, die „Lebenskraft“ entdeckt zu haben und ihr Wirken kontrollieren zu können.

Eine der bedeutendsten und kulturhistorisch interessantesten ist die Entwicklung des Galvanismus um die Wende des 18. zum 19. Jahrhunderts. Die Nachwirkungen dieser Bewegung sind noch heute zu spüren.

Ausgelöst durch die Entdeckung des Arztes und Naturforschers Luigi Galvani im Jahr 1780, dass nämlich Froschschenkel bei Kontakt mit einer Volta’schen Säule spontan Kontraktionen durchführen, also Elektrizität Muskelkontraktion auslöst, entwickelte sich rasch eine Bewegung, die ganz Europa erfasste. Man glaubte in der (damals noch wenig verstandenen Elektrizität) die Lebenskraft gefunden zu haben, mit der auch Tote wieder zum Leben erweckt werden könnten. Es lag nahe, entsprechende Versuche an Leichen durchzuführen, die ja durch die Erfindung der Guillotine und den Verlauf der französischen Revolution reichlich zur Verfügung standen (Abbildung 3).

Entstehung der „Lebenskraft“ durch Galvanismus. Cartoon um 1836 (Bild: Wikimedia)Abbildung 3. Entstehung der „Lebenskraft“ durch Galvanismus. Cartoon um 1836 (Bild: Wikimedia)

Natürlich (wie wir heute sagen) blieben Erfolge aus, was die Medizin bis in die heutigen Tage nicht daran hindert, Patienten elektrischen Strömen auszusetzen. Immerhin wurde bereits im Jahr 1803 in Preußen ein Verbot erlassen, solche Versuche mit den Körpern von Hingerichteten durchzuführen. Dennoch blieb die Faszination des Galvanismus erhalten und kumulierte in dem Roman „Frankenstein oder der moderne Prometheus“, den die englische Schriftstellerin Mary Shelley im Jahr 1818 veröffentlichte. In unzähligen Auflagen wird er noch heute gelesen und bildet die Vorlage für viele Horrorfilme. In ihm wird dargestellt, wie wahnsinnige Wissenschaftler aus Teilen von Leichen neue Körper zusammensetzen, die sie dann mittels elektrischer Kräfte zum Leben erwecken. Die entstandenen Ungeheuer wenden sich alsbald gegen ihre Schöpfer und bringen diese in grausamer Weise ums Leben.

Frankenstein und die verrückten Wissenschaftler in ihren finsteren Laboratorien bilden die Versatzstücke, die bis heute wirken, wenn über die Anwendung gentechnischer Methoden in der Tier- und Pflanzenzüchtung, über Transplantationsmedizin und schließlich auch über Synthetische Biologie unkritisch und unbedarft berichtet und diskutiert wird.

Weitere Aussagen zur Synthetischen Biologie

Kehren wir wieder zurück zu der Aussage des Standpunkte-Papiers von DFG, Acatech und Leopoldina [2]. Die Aussage, dass Synthetische Biologie ein „Chassis“ für die Montage verschiedenster Funktionseinheiten bereitstellen könne, bedarf näherer Betrachtung und Kritik. Dazu gehört die Aussage über die Ziele eines solchen Vorgehens:

Die Produktion neuer (?) Biomoleküle (?) durch baukastenartiges Zusammenfügen einzelner Stoffwechselfunktionen. Diese können aus verschiedensten genetischen Spenderorganismen stammen“.

Die Fragezeichen habe ich eingefügt, um anzudeuten, dass man über die Formulierung trefflich streiten kann: Sind die aus synthetischen Organismen stammenden Moleküle noch als Biomoleküle zu bezeichnen? Vor allem dann, wenn sie „neu“ sind, also in biologischen (d.h. natürlichen) Organismen gar nicht vorkommen?

Aber viel grundsätzlicher, und erläutert an einem Beispiel aus gängiger Technik:

Nehmen wir ein modernes Automobil als komplexes System aus sehr vielen Funktionseinheiten, die alle zum Gesamtzweck des Autos zusammengefügt werden und operativ funktionieren müssen und betrachten wir – pars-pro-toto - nur den Motorraum, so erscheint das Objekt dem laienhaften Betrachter zunächst als „komplex“. Wir wissen aber, dass im Motorraum verschiedenste Funktionseinheiten zu einem Konstrukt zusammengefügt sind. Nehmen wir an, es handele sich um ein Auto der Firma Toyota; dann können wir selbstverständlich versuchen, den Vergaser des Originals durch einen Vergaser aus dem Motorraum eines Wagens der Firma VW zu ersetzen, die Zündkerzen könnten wir durch solche aus einem BMW, die Nockenwelle von Mercedes nehmen usw. Am Ende würde der Motor vielleicht noch laufen (oder auch nicht), aber: was hätten wir gelernt und wäre das Unternehmen sinnvoll?

Ein weiteres Beispiel aus heutiger Technik soll helfen, die Ziele des Top-down-Prozesses, nämlich Erzeugung einer Minimalzelle durch Dekonstruktion lebender Zellen zu hinterfragen.

Betrachten wir eines der modernsten Flugzeuge, den „Dreamliner“ der Fa. Boing. Können wir aus diesem Objekt der Technik – sicher ein „komplexes Konstrukt“ - die Evolution der Flugzeuge ableiten und durch „Ausschalten“ von Bauelementen auf ein „Minimalflugzeug“ zurückschließen? Das wäre schwierig, ist aber auch unnötig, denn im Fall des Flugzeugs kennen wir die Geschichte der Evolution in allen Details. Wir wissen, wie die ersten Flugmaschinen ausgesehen haben und wer ihre Erfinder waren. Diese Flugmaschinen haben außer bestimmten Prinzipien der Aerodynamik herzlich wenig mit einem modernen Verkehrsflugzeug gemein und dennoch stehen die Wright’schen Flugzeuge am Beginn der Evolution der Avionik.

Im Fall der Ziele der Synthetischen Biologie kennen wir den Pfad der Evolution nicht.

Es scheint mir zweifelhaft, dass man durch Ausschalten bzw. Herausnahme von Funktionselementen aus Zellen, die „leben“ auf eine Minimalzelle“ schließen kann, wie sie zu Beginn der Evolution vorgelegen haben mag: wir kennen den Weg der Evolution nicht, der zur ersten „lebenden“ Zelle geführt hat und solange wir nicht entschlüsselt haben, wann „Leben“ aus der komplex und hierarchisch akkumulierten Materie entsteht, werden wir auch nicht weiterkommen. Deshalb halte ich den Weg des Top-down in der Synthetischen Biologie für wenig zielführend.

Was bleibt ist die Forderung nach den elementaren Funktionen als Konsequenz einer Autopoiesis der Konstrukte. Für die Diskussion mag es interessant sein, andere Gebiete als die Biologie zu betrachten, die sich historisch parallel entwickelt haben und zu fragen, ob es dort ähnliche Bewegungen gibt, wie sie die Synthetische Biologie für die Biologie bedeutet. Ich wähle die Psychologie als Beispiel. Sie hat sich ähnlich wie die Biologie an der Wende des 18. zum 19. Jahrhunderts als eigenes Feld der Wissenschaft herausgebildet. Im Zentrum dieser Wissenschaft steht das Leib-Seele (Geist)-Problem hinter den verschiedenen Teildisziplinen dieses Feldes.

Man darf fragen: Gib es eine Synthetische Psychologie? Die Antwort lautet: Ja, nur wird diese Nomenklatur nicht verwendet. Historisch haben Biologie und Psychologie parallele Entwicklungsschritte durchlaufen. Auch in der Psychologie spielt der bereits genannte Galvanismus eine merkwürdige Rolle.

In moderner Zeit haben Fragen der „künstlichen Intelligenz“ und der Methodik der „neuronalen Netze“ Fragen aufgeworfen, die von ähnlicher Brisanz für das Weltbild der menschlichen Gemeinschaft sind, wie bei der Synthetischen Biologie. Die IT-Technologie stellt Fragen, wie z.B. ab welchem Grad von Komplexität der Hard- und Software von Rechenanlagen so etwas wie „Selbstbewusstsein“ der Anlage auftreten könnte; und diese Frage dient als Vorlage für Horrorgeschichten und Hollywood-Filme.

Es besteht aber kaum ein Zweifel, dass man hier von einer Parallele zur Synthetischen Biologie sprechen darf.

Versprechungen und Aussagen zur Nützlichkeit

Kehren wir noch ein letztes Mal zu den Kernsätzen des Standpunkte-Papiers von Acatech, DFG und Leopoldina [2] zurück. Dort – wie auch in vielen anderen ähnlichen Papieren – finden sich Aussagen zu dem erwarteten und erwartbaren Nutzen dieser Forschung, Zitat: „(Die Synthetische Biologie“) wird die Konstruktion regulatorischer Schaltkreise (erlauben). Diese erlauben es, komplexe biologische oder synthetische Prozesse zu steuern. (Ferner) die Konzeption sogenannter orthogonaler Systeme. Dabei werden modifizierte Zellmaschinerien eingesetzt, um beispielsweise neuartige Biopolymere zu erzeugen“. Und weiter liest man:

„Die ökonomische Bedeutung lässt sich derzeit noch nicht präzise abschätzen, es sind jedoch bereits marktnahe Produkte erkennbar. Der Katalog umfasst Medikamente, Nukleinsäurevakzine, neuartige Verfahren zur Gentherapie, umwelt- und resourcen-schonende Fein- und Industriechemikalien, Biobrennstoffe sowie neue Werkstoffe, wie polymere Verbindungen.

Solche Aussagen, die man – wie gesagt – in fast allen Statements zu Stand und Zukunft der Synthetischen Biologie findet – sind nicht nur ohne Substanz, sondern enthalten grobe Irreführung des Publikums. Beispiel: Was unterscheidet einen „Biobrennstoff“ von einem „Brennstoff“? Sind nicht Erdöl und Erdgas ebenfalls „Biobrennstoffe“, weil biogenen Ursprungs? Warum soll die Gewinnung von z.B. Fettsäuren als „Biobrennstoff“ aus (noch gar nicht verfügbaren) Methoden der Synthetischen Biologie „resourcenschonender“ sein als z.B. die Verwendung von Holz oder Stroh zur Energiegewinnung? Die Aufzählung von „neuen Werkstoffen“ und „polymeren Verbindungen“ im Katalog der Nützlichkeiten erzeugt bei mir als Materialwissenschaftler nur Kopfschütteln, wenn nicht Lachen.

Wäre es nicht ehrlicher, sich ein Beispiel an dem englischen Physiker und Naturforscher Michael Faraday (1791 – 1867) zu nehmen. Als ihn die noch junge Königin Victoria kurz nach ihrer Krönung in der Royal Institution besuchte, um sich seine Experimente zum Elektromagnetismus vorführen zu lassen, fragte sie ihn: „Wozu ist denn elektrischer Strom gut?“ Michael Faraday antwortete „Your Majesty –ich weiß es nicht, aber ich bin ganz sicher, dass Ihre Regierung in wenigen Jahren eine Steuer darauf legen wird“.

Mit anderen Worten: der wissenschaftliche Gewinn, der durch Forschung entsteht, bedarf nicht der Rechtfertigung durch den unmittelbaren Nutzen.

Genauso wenig wie sich der Aufwand für die Weltraumforschung daraus rechtfertigen lässt; dass dabei bessere Materialien für Bratpfannen entwickelt wurden, kann ein noch nicht einmal existenter Produktionsweg für Chemikalien den Aufwand der Forschung rechtfertigen. Insbesondere sollte man sich nicht in Argumentationen in „Neusprech“ bewegen, indem man glaubt, dass die gewollte und gewünschte Forschung „neue“ und „resourcenschonende „Bio“-materialien erzeugen kann.

Die Größe der Aufgabe, nämlich wie und wann Komplexität zu einer Autopoiese führt, d.h. eine sich selbst reproduzierende chemische Maschine entsteht, ist Rechtfertigung genug.

Alles andere heißt nur, den Gaukler in Hieronymus Bosch’s Bild nachzuahmen, bzw. den Arzt, der den Dummen kuriert, indem er ihm Biomaterial (nämlich Bachblüte) aus dem Hirn extrahiert, wobei die „Wissenschaft“ mit der Literatur auf dem Kopf assistiert.

Kritische Zeitgenossen gibt es ja genügend, die sich mit den Ergebnissen der Forschung und den Forschern auseinandersetzen werden. Bis dahin wollen wir hoffen, dass die Leitmotive der großen Symphonie namens Synthetische Biologie hier zum Durchbruch kommen und sich dabei auch der große Dirigent oder Dirigentin zu erkennen gibt, von der ich eingangs gesprochen habe.


[1] Stephen Mann (2013) The Origin of Life; Old Problems, New Chemistry, Angewandte Chemie, Int. Ed. 52:155-62.

[2] Synthetische Biologie – Standpunkte (2009). Wiley-VCH Verlag; Hsg. Deutsche Forschungsgemeinschaft (www.dfg.de), acatech – Deutsche Akademie der Technikwissenschaften (www.acatech.de) und Deutsche Akademie der Naturforscher Leopoldina – Nationale Akademie der Wissenschaften (www.leopoldina-halle.de) http://www.dfg.de/download/pdf/dfg_im_profil/reden_stellungnahmen/2009/s... (96 Seiten, abgerufen am 27.6.2013; free download)


 

Weiterführende Links

 

Musei Vaticani: Interaktive 3D-Animation der Sixtinischen Kapelle ("Gott beseelt Adam" befindet sich senkecht über dem Beobachter)


 

inge Thu, 27.06.2013 - 02:42

Der Natur abgeschaut: Die Farbstoffsolarzelle

Der Natur abgeschaut: Die Farbstoffsolarzelle

Do, 28.10.2012- 04:20 — Michael Grätzel

Icon Chemie Michael Grätzel

Pflanzen fangen mit Hilfe von Farbstoffen das Sonnenlicht ein und verwandeln dieses in Energie, welche sie zur Synthese organischer Baustoffe aus Kohlendioxyd und Wasser – der Photosynthese – befähigt. Die neuentwickelte Farbstoffsolarzelle (nach ihrem Erfinder „Graetzel-Zelle“ benannt) ahmt diesen Prozeß nach, indem sie mittels eines organischen Farbstoffes Sonnenlicht absorbiert und in elektrischen Strom umwandelt.

Es ist eine der größten gegenwärtigen Herausforderungen der Menschheit, fossile, zur Neige gehende Brennstoffe durch erneuerbare Energieformen zu ersetzen und dabei gleichzeitig Schritt zu halten mit einem weltweit steigenden Verbrauch an Energie, bedingt durch das rasche Wachstum der Bevölkerung und den zunehmenden Bedarf – vor allem der Entwicklungsländer. Eine akzeptable Lösung dieser Problemstellung darf zudem nur niedrige Kosten verursachen, und die dazu verwendeten Rohstoffe müssen in reichlichem Ausmaß vorhanden sein.

Die Sonne als Energiequelle - Photovoltaik

Die Sonne spendet ein Übermaß an reiner und kostenloser Energie. Von den hundertzwanzigtausend Terawatt (Terawatt = 1 Milliarde kW) Sonnenenergie, mit denen sie unsere Erde bestrahlt, verbraucht die Menschheit bloß einen winzigen Bruchteil: rund 15 Terawatt. Bereits seit mehr als 3,5 Milliarden Jahren macht sich die Natur die Energie der Sonne mittels Photosynthese zunutze, um in Pflanzen, Algen und Bakterien aus anorganischen Stoffen organische Verbindungen zu synthetisieren und damit alles Leben der Erde zu ermöglichen und zu ernähren. Die immense und unerschöpfliche Sonnenenergie mit Hilfe photovoltaischer Technologien in Elektrizität zu wandeln erscheint damit als logische Schlußfolgerung, um das Problem unserer Energieversorgung langfristig und nachhaltig zu lösen. In der Realisierung der Nutzung von Sonnenenergie spielen natürlich Kosten und Wirkungsgrad der Solarzellen eine prioritäre Rolle. #

Das noch relativ junge Gebiet der Photovoltaik basiert auf dem photoelektrischen Effekt bei der Wechselwirkung von Licht und Materie: die Absorption von Lichtquanten (Photonen) bewirkt die Anregung und Abgabe von Ladungsträgern (Elektronen), d.h. die Umwandlung von Strahlungsenergie in elektrische Energie. Der Photovoltaik-Markt wird heute von Halbleitertechnologien auf der Basis von anorganischen Ausgangsmaterialien dominiert, das sind hauptsächlich auf kristallinem oder amorphem Silizium, Cadmiumtellurid (CdTe) und Kupfer-Indium-Gallium-Diselenid (CIGS) beruhende Systeme. Die Produktion einiger dieser Materialien – beispielsweise auf Grund der Notwendigkeit, Silizium in Reinstform anzuwenden – ist aufwändig, teuer und erfordert einen sehr hohen Energieeinsatz. Einige der Materialien, wie z.B. Cadmiumtellurid (für die CdTe-Module) sind toxisch und/oder kommen in der Natur selten vor (z.B.Gallium, Indium, Tellur, Selen).

Die industrielle Standard-Solarzelle besteht aus Silizium und stellt eine bereits ausgereifte Technologie dar, mit einem maximalen Wirkungsgrad von bis knapp unter 30 %. Jedoch ist die Herstellung der Zellen sehr energieintensiv, und es dauert - je nach Standort - mehrere Jahre bis sich die Herstellungskosten amortisiert haben (3,7 Jahre in Südeuropa, 7 Jahre in Süddeutschland) [1].

Photovoltaik, die auf (synthetischen) organischen Substanzen beruht, kann zweifellos Probleme wie mangelnde Verfügbarkeit der Ausgangsmaterialien, hohe Herstellungskosten und Toxizität vermeiden. Zudem können diese Zellen auch auf dünne Folien gedruckt werden und verbinden damit Flexibilität mit einem wesentlich geringeren Gewicht als die Silizium-basierten Module. Allerdings liegen die Wirkungsgrade organischer Solarzellen (unter 10 %) zur Zeit noch weit unter denen, die von rein anorganisch basierten Solarzellen erreicht werden.

Sonnenenergie einfangen, wie dies die Pflanzen machen

Die durch Farbstoff sensibilisierte Solarzelle (dye-sensitized solar cell: DSSC) funktioniert nach einem anderen Prinzip als die konventionellen Silizium-basierten Halbleiterzellen. In den Letzteren erfolgen Absorption von Licht (Photonen) und Transport der generierten Ladungsträger in derselben Phase im Halbleitermaterial, wobei während der Diffusion ein Teil der Ladungsträger wieder rekombiniert und die Energie in Form von Wärme abgibt. Um Energieverluste durch Rekombination möglichst gering zu halten, darf der Halbleiter daher nur sehr wenige Fehlstellen aufweisen – seine erforderliche extrem hohe Reinheit schlägt sich in sehr hohen Herstellungskosten nieder.

Die Farbstoffsolarzelle ist inspiriert von dem Mechanismus der natürlichen Photosynthese, welche in den Chloroplasten der Pflanzenzellen abläuft. In diesen Zellorganellen besteht die photosynthetische Einheit aus dem Licht-einfangenden Farbstoff Chlorophyll (und Carotinoiden) und den Photosystemen PS II und PS I, welche die generierten Elektronen schneller weiterleiten als deren Rekombination mit dem Farbstoff erfolgen kann. In analoger Weise laufen in der Farbstoffsolarzelle Lichtabsorption und Generierung der Ladungsträger an der Grenzfläche Farbstoff/Halbleiter separiert vom Transport der Ladungsträger in Halbleiter und Elektrolyt ab und minimieren damit die Möglichkeit der Rekombination. Damit sinken auch die Erfordernisse an die chemische Reinheit der Materialien und damit die Produktionskosten. Zudem ist eine voneinander unabhängige Optimierung der optischen Eigenschaften der Zellen durch die Auswahl von Farbstoffen und der Transporteigenschaften von Halbleiter und Elektrolyt möglich.

Abbildung 1 zeigt stark vereinfacht das Funktionsprinzip einer Farbstoffsolarzelle:

Aufbau einer Grätzel-Zelle schematischAbbildung 1. Aufbau einer Farbstoffsolarzelle (vereinfachtes Beispiel). Beschreibung: siehe Text. TCO: transparente leitende Oxydschicht. Elektronen: schwarze Kreise.

 

Die Zelle besteht aus zwei mit einer transparenten leitfähigen Oxidschicht (TCO) beschichteten Glasplatten, welche die Elektroden tragen und einen Abstand von 20-40 μm voneinander haben. Die dem Licht ausgesetzte Elektrode ist mit einem ca. 10 µm dicken Film eines Halbleiters (üblicherweise Titandioxyd) belegt, der zur Vergrößerung seiner Oberfläche aus Nanopartikeln* besteht, auf welchen, in hauchdünner Schicht, ein Farbstoff („Sensibilisator“) aufgebracht ist. Einfallendes Licht wird von diesem Farbstoff absorbiert wodurch Elektronen angeregt werden, welche auf den Halbleiter übertragen („injiziert“) und danach durch die Nanopartikelschicht zum elektrisch leitenden transparentem Oxid (TCO) transportiert werden, welches als Stromkollektor wirkt. Das zurückbleibende, nun positiv geladene Farbstoffmolekül gleicht sein Ladungsdefizit aus den umgebenden Elektrolyten (Redoxelektrolyt, zumeist Lösungen aus Iodsalzen, zuletzt aber auch feste Elektrolyte) aus.

Was kann die Farbstoffsolarzelle?

Seit der ersten Demonstration einer funktionierenden Farbstoffsolarzelle vor einundzwanzig Jahren [2] unterliegt dieser Zelltyp einem kontinuierlichen Entwicklungsprozeß. Neue Farbstoffe, basierend auf Porphyrin-Metallkomplexen (nach dem Vorbild der natürlichen Farbstoffe im Chlorophyll und Haemoglobin) haben zu einer gesteigerten Absorption des Sonnenlichts und effizienteren Anregung von Elektronen und damit zu einem Wirkungsgrad von über 12 % geführt. Durch Zugabe eines weiteren Farbstoffes konnte die Sensibilität der Zellen über große Bereiche des sichtbaren Spektrums des Lichts ausgeweitet werden.

Stabilität. Der Effizienzverlust dieser Zellen ist erwies sich auch in Langzeitversuchen unter extremen Bedingungen als sehr gering (5%) [4].

Herstellung. Der im Vergleich zu konventionellen Solarzellen (derzeit noch) geringere Wirkungsgrad wird aufgewogen durch die preisgünstigen Materialien, aus denen die Zellen gefertigt werden und die technisch einfachen Produktionsverfahren, beispielsweise durch Rollendruck. (Die Einfachheit, mit welcher funktionsfähige Farbstoffzellen hergestellt werden können, läßt sich daran ablesen, daß diese als Unterrichtsbeispiel von Schülern in 2 - 3 Stunden – je nach Aufwand bei den Messungen – zusammengebaut werden [3].) Dank der geringen Kosten amortisieren sich die Herstellungskosten in weniger als einem Jahr.

Diffuses Licht. Eine Besonderheit der Farbstoffzellen ist ihre Sensibilität für diffuses Licht. Im Gegensatz zu anderen Solarzellen nimmt der Wirkungsgrad bei Bewölkung, Nebel, stark sandhaltiger Luft oder auch im Hausinnern nicht ab und übertrifft unter diesen Bedingungen den Wirkungsgrad anderer Zellen. Diese Eigenschaft läßt Farbstoffzellen besonders attraktiv für eine Verwendung in gemäßigten und nördlicheren Breiten erscheinen. Da der Wirkungsgrad viel weniger vom Einfallswinkel des Lichts abhängig ist als bei Siliziumzellen, können Farbstoffzellen auch in vertikale Flächen – beispielsweise Hauswände – eingebaut werden.

Temperatur. Im Außenbetrieb erhitzen sich Solarzellen in der Sonne. Dies führt zu einer Reduktion des Wirkungsgrades der Siliziumzellen, während Farbstoffzellen bis 65 °C nahezu unabhängig von der Temperatur arbeiten.

Transparenz und Flexibilität. Farbstoffsolarzellen können in beliebigen Farben, vollständig transparent produziert werden und flexibel auf Kunsstoffolien aufgedruckt werden. Damit eröffnet sich ein enormes Potential an Anwendungen: von der Anbringung auf Kleidungsstücken und Taschen, um Akkus unterwegs aufzuladen, bis zur Erzeugung Strom-liefernder Glasfenster und ganzer Fassaden.

Kommerzialisierung

In Anbetracht des vielversprechenden, riesigen Potentials an Anwendungen sind zahlreiche akademische Institutionen und Firmen in die Forschung und Entwicklung von Farbstoffsolarzellen eingestiegen, und ihre Zahl nimmt - nach dem Auslaufen einer Reihe grundlegender Patente im Jahr 2008 - weiter zu. Beispielsweise:

  • produziert und vertreibt die in Cardiff angesiedelte G24 Innovations eine Reihe von Indoor- (wireless keyboard, sade and blind system: “harvest energy in all light conditions from 200lux (extremely low light levels) to 100,000lux (bright midday sun) ) und outdoor-Anwendungen (Rucksäcke, Taschen: “to enhance the quality of life, education and productivity in these communities by providing electricity in regions that traditionally have limited access to power”).
  • stellt Sony dekorative Fenster und Lampen für den indoor-Gebrauch her. Aufbau einer Grätzel-Zelle schematischAbbildung 2: Anwendungen der Farbstoffsolarzelle

 

  • hat in Deutschland das Fraunhofer-Institut für Solare Energiesysteme (ISE) bereits Dreifach-Isolierglaseinheiten mit integrierten Farbstoffsolarmodulen entwickelt und vor mehr als einem Jahr eine 6000 cm² große funktionsfähige Modulfläche präsentiert, mit dem Ziel, diese in Fassaden zu integrieren [5].
  • arbeitet das auf Farbstoffsolarzellen spezialisierte, börsennotierte australische Unternehmen Dyesol mit internationalen Partnern intensiv an der Integrierung der Farbstoffsolarzellen-Technologie in der Baubranche und hat kürzlich das Human Resource Development Centre der Stadt Seoul (Südkorea) mit Farbstoffsolarzellenfenstern ausgestattet.
  • geht auch das steirische "Forschungszentrum für integrales Bauwesen AG" (FIBAG) an die Umsetzung der Integration der Farbstoffsolarzellen in Gebäudehüllen.

* Partikel mit einem Durchmesser von 10 - 100 Millionstel Millimeter

[1] Wikipedia: Energetische Amortisationszeit; abgerufen 25.6.2013

[2] B. O’Regan and M. Graetzel, Nature, 353, 737-740 (1991).

[3] http://www.lehrer-online.de/graetzel-zelle.php

[4] Harikisun, R;Desilvestro, H: Long-term stability of dye solar cells. In: Solar Energy. Nr. 85, 2011, S. 1179–1188. doi:10.1016/j.solener.2010.10.016. [

5] Auf dem Weg in die Fassade - Fraunhofer ISE präsentiert weltweit größtes Farbstoffsolarmodul in Siebdruck (PDF-download)


Weiterführende Links

Michael Grätzel und die Farbstoffzelle auf youtube

Solarzelle nach Vorbild der Natur | Projekt Zukunft 3,27 min:

Solar energy / Dye-Sensitized Solar Cells - Michael Grätzel / epflpress.com 5:12 min:

Millenium Prize. Laureate 2010: Michael Grätzel 3:45 min

Distinguished Lecture Series - Dr. Michael Grätzel (2010) 1:00:12

 

 


 

 

inge Thu, 18.10.2012 - 05:20

Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1

Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1

Fr, 21.06.2013 - 10:13 — Gerhard Wegner

ÖAWGerhard WegnerPassend zum Themenschwerpunkt Synthetische Biologie schreibt Gerhard Wegner, Physikochemiker und Gründungsdirektor des Max-Planck Instituts für Polymerforschung über die Synthetische Biologie als Produkt der Evolution der Naturwissenschaften. Im Rahmen des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums über Synthetische Biologie im Mai d.J. hat er dazu einen Vortrag gehalten und dankenswerterweise dem ScienceBlog das Manuskript überlassen. Die ungekürzte Fassung erscheint auf Grund ihrer Länge in zwei Teilen.

Eine notwendige Vorbemerkung

Um es gleich zu sagen und um der Gefahr vorzubeugen, dass meine durchweg laienhaften, jedoch kritischen Anmerkungen zum Thema „Synthetische Biologie“ falsch verstanden werden:

Man darf einige der Fragestellungen, die von dieser als „neu“ bezeichneten Forschungsrichtung in den Fokus genommen werden, ohne Vorbehalt zu den wesentlichen Fragen derzeitiger Naturwissenschaft zählen. Sie sind Herausforderung und Ansporn zugleich. Sie fordern das ganze Arsenal der Fähigkeiten und Methoden grundverschiedener Disziplinen heraus, um der Lösung näher zu kommen.

Und dies macht die Problematik noch schwieriger, denn je nach Disziplin stellt sich die gleiche Frage in einer verschiedenen „Sprache“, wobei verschiedene und jeder Disziplin eigene Formalismen genutzt werden. Deshalb muss es auch „Übersetzer“ geben, wobei die Korrektheit der „Übersetzung“ in jedem Fall penibel zu prüfen ist; andernfalls sind der Verwirrung von Begriffen und Befunden keine Grenzen gesetzt. Dies gilt besonders für das Gespräch von Wissenschaft mit der interessierten Öffentlichkeit, insbesondere der Publizistik.

Zur Begriffsbildung der Synthetischen Biologie

Die Synthetische Biologie ist ein Produkt der Evolution – nämlich der Evolution der Naturwissenschaften. Um dies zu erläutern, nehmen wir den Studienprofessor „Schnauz“ aus Heinrich Spoerl’s Feuerzangenbowle (verfilmt 1944 mit Heinz Rühmann in der Hauptrolle) zum Vorbild und sagen: „ Da stellen wir uns mal ganz dumm“, wenn wir in vielen Papieren zur „Synthetischen Biologie“ lesen dürfen, diese neueste Entwicklung der Wissenschaft habe die gleiche Bedeutung für die Biologie wie die „organische“ (gemeint ist jedoch „synthetische“) Chemie für die Chemie vor 200 Jahren!

Richtig daran ist: die Chemie war und ist es z.T. immer noch, - und hier gleicht sie der Biologie – eine beschreibende und analysierende Wissenschaft. Sie war zu Beginn des 19. Jahrhunderts in der Lage, einzelne Stoffe, die auf der Ebene der Molekülstruktur eindeutig definiert waren, in reiner Form aus lebender Materie zu isolieren und nach den Regeln der Chemie zu beschreiben.

Der Nachweis, dass die behauptete Molekülstruktur richtig war, konnte im 19. Jh. jedoch nur durch die Synthese eines identischen Stoffes über einen Syntheseweg erbracht werden, der in allen Einzelheiten bekannt war und von dem man mit Sicherheit wusste, welche Atome zu welchem Molekülgerüst verknüpft werden würden.

Die Synthese auf nicht-biologischem Weg war also der eigentliche Strukturbeweis für den zuvor in reiner Form isolierten Naturstoff.

Die Komplexität der isolierbaren Naturstoffe machte es nötig, immer komplexere nicht-biologische Syntheseverfahren zu entwickeln, mit denen solche Stoffe synthetisiert werden konnten. Erst die Entwicklung moderner physikalischer Methoden der Strukturanalyse im 20. Jh. haben diesen mühevollen Weg des Strukturbeweises obsolet gemacht.

Andererseits hat die Notwendigkeit zur Entwicklung einer Methodik der Synthese den Zugang zu einer ungeheuer großen Anzahl von jeweils neuen Molekülen eröffnet, für die es in der Natur kein Vorbild gab oder gibt. In der Konsequenz eröffnete diese den Zugang zur Entwicklung von Farbstoffen, Medikamenten, Pestiziden, Polymeren – also dem gesamten Spektrum heutiger Chemischer Industrie.

Dürfen wir eine ähnliche Entwicklung für die „Synthetische Biologie“ erwarten, an deren Ende dann eine „Biologische Industrie“ stehen wird?

Ich glaube das nicht. Hier wird nämlich ein grundfalscher Vergleich gezogen: denn – erstens – gibt es bereits eine umfangreiche „biologische Industrie“. Nur nennen wir sie nicht so, weil wir die Namen „Agrarwissenschaft“, „Forstwirtschaft“ etc. eingeführt haben und – zweitens – geht es in der Biologie nicht um die Analyse und Herstellung von Stoffen, die molekular definiert sind, sondern um „Lebensformen“ mit komplexer innerer Struktur und komplexen Verhaltensmustern (Letzteres bezeichnet die Summe aller Wechselwirkungen einer Lebensform mit ihresgleichen und ihrer Umwelt).

Das ist qualitativ etwas ganz anderes als die Molekülstruktur eines Naturstoffes.

Lassen Sie uns versuchen, noch mehr über den Ursprung der „Synthetischen Biologie“ aus der Historie der Chemie und verwandter Gebiete zu erfahren:

Wie verhält es sich mit der Biochemie? Während die „organische“ Chemie zunächst nur nach der Struktur der Moleküle fragte, die aus lebender Materie isoliert werden konnte, trat alsbald die Frage auf:

Wie entstehen diese Moleküle und Stoffe innerhalb der jeweiligen Organismen? Und welche Rolle spielen sie in und für das Leben der Organismen?

Die Biochemie stellt(e) auch die Frage nach der Dynamik, d.h. der zeitlichen Variabilität der Entstehung und des Verbrauchs dieser Moleküle in den lebenden Organismen, d.h. nach den molekularen Bestandteilen des Stoffwechsels. Ein berühmtes Beispiel ist etwa die Aufklärung des Zitronensäure-Zyklus durch H. Krebs in der ersten Hälfte des 20.Jh.

Demgegenüber sind Gebiete wie „Naturstoffchemie“, die sich der Aufklärung und evtl. Synthese sehr komplexer Moleküle widmet, die sich aus lebenden Organismen isolieren lassen, oder auch die „Bioanorganische Chemie“, die nach der Rolle und den Bindungszuständen („Koordinationssphären) anorganischer Elemente in den zellulären Funktionseinheiten fragt, von weniger grundsätzlicher Bedeutung für die hier geführte Diskussion. Für letztere sind z.B. die Funktion von Eisen oder auch Mangan gebunden in Hämoglobin der Atmungskette oder Magnesium, gebunden in Chlorophyll des „Light-Harvesting-Systems“ der Pflanzen eingängige Beispiele.

Überhaupt nichts hat allerdings der moderne und eigentlich populärwissenschaftliche Begriff der „Green Chemistry“ mit der Biologie zu tun. Er meint in einer äußerst diffusen und nicht quantifizierbaren Weise, dass chemische Reaktionen unter Vermeidung umweltschädlicher Ausgangs- und Zwischenprodukte zu erwünschten Produkten und Stoffgruppen geführt werden (können). Der Begriff „milde Bedingungen“ spielt hier eine Rolle, wobei unklar bleibt, was „mild“ eigentlich bedeutet.

Genau so wenig Bedeutung für unsere Diskussion hat der Begriff „Organic Food“ bzw. „Organische Landwirtschaft“. Nichts könnte in größerem Widerspruch zur „Organischen Chemie“ stehen, denn die genannten Bewegungen für „Organic Food“ und „Organic Farming“ wollen ja ganz bewusst auf den Einsatz synthetischer Chemie – etwa in Form von Konservierungsmitteln, Pestiziden, Düngemitteln etc. verzichten und nur die „reinen“ pflanzlichen oder tierischen Materialien für die menschliche Ernährung nutzen.

Als Anekdote ist anzumerken, dass der Begründer der „Organic Food“-Bewegung, der amerikanische Journalist und Sachbuchautor Jerome Irving Rodale im Laufe einer Fernseh-Talk-Show, nachdem er gerade erklärt hatte, dass er - aufgrund der organischen Ernährung in bester Gesundheit 72 Jahre alt geworden - beschlossen habe, 100 Jahre alt zu werden und er sich nie so wohl gefühlt habe, wie gerade jetzt – tot vom Stuhle fiel: er erlitt einen Herzschlag! Jenseits anektodenhafter Bezüge soll hier nur auf die Verwirrung der Begriffe hier „organic“ („organisch“) hingewiesen werden, für die es noch viele Beispiele mehr gibt; aber dazu später, wenn wir über den Begriff „Leben“ zu sprechen haben.

Anders verhält es sich mit der „Präbiotischen Chemie“, die auch vielfach „chemische Evolution“ genannt wird. Es geht um die Frage, wie sich auf einer noch unbelebten Erde unter Bedingungen einer „Welturatmosphäre“ und unter Beteiligung von energiereicher Strahlung und /oder elektrischen Entladungen an der Grenzfläche von Wasser und mineralischen Stoffen organische Moleküle gebildet haben können.

Das Augenmerk richtet sich auf einfache Aminosäuren als Bausteine von Proteinen, auf Nukleobasen, wie z.B. Adenin, Guanin etc. und zuckerähnliche Moleküle (Kohlehydrate) als Bausteine von DNA und RNA sowie auf Fettsäuren. Die Hypothese ist seit den ersten Arbeiten von Urey und Miller (1953), dass primitive Organismen (d.h. Leben) spontan entstehen können, wenn die „Bausteine des Lebens“ auf abiotische Weise erzeugt, nur in genügend hoher Konzentration in der „Ursuppe“ vorliegen. Aus dieser Hypothese heraus hat sich ein ganzer Zweig der Chemie entwickelt, der als Vorläufer der synthetischen Biologie gelten kann. Freilich gehen die Forscher dieses Gebiet von zahlreichen und in wichtigen Teilen ungesicherten Hypothesen aus – wie z.B. Zusammensetzung und energetische Situation einer „Uratmosphäre“ – die hier nicht näher zu betrachten sind.

Die „Biophysikalische Chemie“ liefert die Methoden (z.B spektroskopische, optische und elektrische Methoden), um chemische Phänomene in (lebenden) Organismen, in Organellen und in geeigneten Modellsystemen zu untersuchen. Sie bildet die quantitative Vermessung des raum-zeitlichen Verlaufs der Phänomene (Beispiel: Öffnen und Schließen von Ionenkanälen in Zellen) auf allgemein gültige Gesetzmäßigkeiten der Physikalischen Chemie und Physik ab.

Die Biophysikalische Chemie liefert Daten und Fakten, die für die Aufstellung von Modellen für die Bestandteile der Lebensprozesse notwendig und unabdingbar sind. Sie ist daher eine Grundlage der Synthetischen Biologie. Ähnliches gilt für die Biophysik, wobei die Fragestellungen der Biophysik und der Biophysikalischen Chemie fließend ineinander übergehen und häufig eher eine Frage des Standpunktes des Bearbeiters bezeichnen als das bearbeitete Phänomen selbst.

Das Wechselspiel zwischen Chemie und Biologie setzt sich seitens der Biologie mit dem Gebiet der „Molekularen Biologie“ fort und kumuliert gewissermaßen im Gebiet der Molekularen Zellbiologie.

Es geht um die Aufklärung des Ablaufs chemischer Reaktionen, der Entstehung und des Verbrauchs chemisch definierter Stoffe in den Organismen und ihrer Bestandteile, wie z.B. den Organellen, innerhalb von Zellen. Dabei spielen auch die räumliche Verteilung der Reaktionsorte sowie alle Transportprozesse eine Rolle. Hier wird also das komplette Geschehen innerhalb lebender Organismen in den Fokus genommen. Es handelt sich sozusagen um die Antwort der Biologie auf die Vorlagen der Chemie, d.h. die Einordnung der chemischen Befunde in die Abläufe der Prozesse, die das „Leben“ der Organismen ausmachen. Die Komplexität der einzelnen Prozesse und ihr komplexes Zusammenwirken wird beschrieben und liefert damit den Katalog der Forderungen, die an eine „Synthetische Biologie“ gestellt werden dürfen, insoweit es darum geht, Konstrukte zu erzeugen, die es erlauben, Lebensprozesse experimentell nachzustellen, ohne Beteiligung biogener Funktionseinheiten. (Das bezieht sich auf eine sehr radikale und gewissermaßen puristischen Definition der Synthetischen Biologie).

Haben wir bisher von Chemikern und Biologen gesprochen, so kommen jetzt die „Ingenieure“ ins Spiel. „Bioengineering“ (deutsch: Biotechnologie“) bezeichnet die Anwendung und Nutzung von Organismen, wie z.B. Bakterien, Hefezellen, Algen etc. für die Produktion von Chemikalien.

Für diese Zwecke sind bestimmte Verfahrenstechniken und Anlagen notwendig: das ureigenste Gebiet der Chemischen Verfahrenstechnik. Je nachdem, ob im Verfahren pflanzliche Zellen, tierische Zellen oder nur aus Zellkulturen isolierte Enzymkomplexe eingesetzt werden, spricht man von „grüner“, „roter“, oder „weißer“ Biotechnik: Unterscheidungen, die mit Wissenschaft und Technik wenig zu tun haben und wohl eher der „Political Correctness“ geschuldet sind.

Das gilt besonders für das Gebiet der „Gentechnik“ (engl. Genetic Engineering), das äußerst erfolgreich betrieben wird, jedoch aus ideologischen Gründen in der Öffentlichkeit mit Misstrauen betrachtet wird. Hier geht es um das Einschleusen von modifizierter DNA in Organismen, um deren Stoffwechsel gezielt umzuprogrammieren. Das erlaubt die Nutzung dieser umprogrammierten Organismen zur Produktion bestimmter Chemikalien mittels Biotechnik, aber auch die beschleunigte Züchtung von z.B. Krankheits-resistenten Pflanzen oder Tieren.

Hier ist nicht der Ort, um über Gentechnik zu referieren oder zu diskutieren. Es geht lediglich darum, möglichst viele Quellen und Arbeitsebenen aufzuzeigen, die mit der Synthetischen Biologie einen Zusammenhang aufweisen.

Unter vielen weiteren Gebieten sind vor allem noch drei weitere zu nennen:

Erstens die „Biomimetik“. In diesem Arbeitsgebiet werden Funktionen, die man aus lebenden Organismen kennt, durch synthetische Modelle nachgestellt. Ein bekanntes Beispiel ist der Transport von Molekülen bzw. Ionen durch synthetisch erzeugte Membranen mit dem Ziel, das biologische Vorbild – die Zellmembran – bezüglich Selektivität und Dynamik weitestgehend nachzubilden. Man möchte die Transportprozesse besser verstehen und quantifizieren. In der Regel versucht die Biomimetik, einzelne herausgegriffene Prozesse modellhaft dem Experiment zugänglich zu machen. Dabei tritt auch die Frage zu Tage, inwieweit das komplexe Verhalten eines Organismus durch ein einzelnes Phänomen sozusagen „pars-pro-toto“ dargestellt werden kann.

Es ist aber richtig, dass experimentelle Erfahrungen aus der Biomimetik ein Gerüst bilden, aus dem heraus „Synthetische Biologie“ sich entwickeln kann.

Häufig wird bei der Beschreibung der Ziele der Synthetischen Biologie auch die Erzeugung neuartiger oder zumindest „optimierter“ Materialien genannt: „Biomaterialien“ (manchmal auch als „intelligente“ oder „smarte“ Materialien bezeichnet).

Mir scheint das von sehr untergeordneter Bedeutung und eher dem Gebiet der Biotechnik als der Synthetischen Biologie zugehörig. Auch darüber lässt sich lange und kontrovers diskutieren, wozu hier nicht der Platz ist.

Schließlich nenne ich noch die „Bionik“, ein weiteres Gebiet, auf dem sich Biologen und Ingenieure treffen, das aber wenig oder keinen Bezug zu unserem Thema hat. Es geht nämlich um die Bewertung von makroskopischen Verhaltensweisen und Fähigkeiten von Lebensformen unter Gesichtspunkten der Physik und der Ingenieurswissenschaften also z.B. um die Flugfähigkeit von Insekten oder Vögeln, die Zusammenhänge von morphologischer Gestalt und Schwimmfähigkeit von Fischen, die Analyse des Sehverhaltens von Tieren usw. Also auch eine Sicht des Ingenieurs auf die Biologie, allerdings bezogen auf spezielle Fähigkeiten spezieller Lebensformen, aus der sich Hinweise auf die Gestaltung technischer Produkte ableiten.

Systembiologie und Synthetische Biologie

Die Vielzahl der Begriffe, Wissens- und Arbeitsgebiete verwirrt den Betrachter. Man hat den Eindruck, den der Besucher eines Symphoniekonzerts hat, wenn sich vor Beginn des Konzerts die Musiker im Orchestergraben versammelt haben und beginnen, ihre Instrumente zu stimmen. Disharmonien beleidigen das Ohr, aber gelegentlich hört man ein einzelnes Instrument heraus, das zaghaft eine Melodie antönt, mit der es zur kommenden großen Symphonie beitragen wird. Die Spannung steigert sich, wenn eine zunehmende Zahl von Instrumenten den Kammerton übernimmt bis der große Meister, der Dirigent, erscheint und alle Instrumente in die große Komposition einstimmt. Doch was ist das große Leitthema, was ist sein Rhythmus und wer gibt den Takt vor? Wenn man in die Vielfalt der Themen heutiger Aktivität hineinhört, gewinnt man den Eindruck, dass das große Thema „Systembiologie“ heißt, zunächst wenigstens.

Das Ziel ist es, Organismen ganzheitlich zu verstehen, d.h. ihre Komplexität in all ihren Komponenten und deren Wechselwirkungen in einem einheitlichen Bild zusammenfassen zu können. Die Beschreibung soll vollständig sein, d.h. alle Aspekte des Lebensprozesses zumindest einfacher Lebensformen umfassen. Sie soll von Genom über das Proteom, Bau und Funktion der Organellen bis hin zur Wechselwirkung des Organismus mit seinesgleichen und seiner Umwelt (= Verhalten) umfassen. Wichtiges Element dieser Beschreibung ist es, dass die Komplexität der Strukturen und ihrer Dynamik durch mathematische Modelle erfassbar gemacht werden, die es erlauben, Simulation des Verhaltens in Form von Antwortverhalten auf äußere oder innere Störungen des Systems vorzunehmen. Das Ziel dieses Vorhabens ist es sodann, die Grundlagen für eine echte Synthetische Biologie zu schaffen: Systembiologie als Grundlage und Ausgangspunkt einer Synthetischen Biologie.

Für die Synthetische Biologie ergeben sich daraus verschiedene Möglichkeiten der Definition:

a) Die Sicht des Ingenieurs auf die Biologie.

Mit „Ingenieur“ ist hierbei der „Homo-Faber“ gemeint, der in der Lage ist, Konstrukte hoher Komplexität und Funktionalität aus diversen Komponenten zusammenzufügen, wobei das Konstrukt Eigenschaften und Funktionen besitzt, die aus der Summe der Beiträge aller Komponenten in einer nicht-linearen Weise erwachsen. Mit anderen Worten, das Verhalten des Konstrukts lässt sich aus den Eigenschaften der einzelnen Komponenten nicht vorhersagen, wenn man nicht den Bauplan (oder Schaltplan) des Konstruktes kennt.

b) Die (Re)Konstruktion funktionsfähiger Minimalorganismen (Zellen) aus biogenen Komponenten

Es geht um den Versuch der Dekonstruktion lebender Organismen in Untereinheiten, gefolgt von der Absicht, aus diesen Untereinheiten, die eventuell von verschiedenen Organismen stammen, einen neuen Organismus zu konstruieren.

c) Die Definition eines Minimalsystems

Mit Hilfe der Erkenntnisse über die Komplexität lebender Organismen, d.h. aus der Systembiologie, sollen neue Minimalsysteme aus völlig synthetischen Bauelementen entstehen. Man hat den Namen „Xenobiologie“ dafür gefunden.

Welche ungeheure Aufgabe und titanische Herausforderung hinter dieser schlichten Beschreibung steckt, wird sofort klar, wenn man sich die Realität des Baus der einfachsten Elemente lebender Organismen vor Augen führt. Eine Zelle, für die sich schematische Abbildungen in jedem Lehrbuch der Molekularen Zellbiologie finden, besteht aus einer großen Zahl von Komponenten, d.h. Organellen und Funktionseinheiten, die topologisch und funktional aufeinander bezogen sind; die Untereinheiten kommunizieren also miteinander.

Sie sind von der Außenwelt durch eine Zellmembran getrennt, über die die gesamte Kommunikation mit der Umwelt einschließlich des Stoffaustauschs verläuft.

Das Ganze spielt sich auf einer Längenskala von Molekülgröße im Bereich von einigen 10 Nanometern der Membrandicke bis einige 10 Mikrometer der Gesamtgröße der Zelle ab.

Im Querschnitt erschließen sich die Ordnungszustände im Inneren der Zelle noch besser. Die Bedeutung der Zellmembran wurde schon erwähnt. Alleine ihre Konstruktion mit eingelagerten membranständigen Enzym- und Transportproteinen in der notwendigen räumlichen Korrelation unter Erhalt der Dynamik der Membran ist eine gewaltige Herausforderung.

Innerhalb der Zelle, die sich als chemische Fabrik verstehen lässt, läuft eine sehr große Zahl metabolischer Prozesse ab, an denen hunderte von Zwischenprodukten beteiligt sind. Für die Komplexität der chemischen Prozesse steht beispielhaft der Brenztraubensäure-Zyklus, der hier nicht erläutert werden soll, sondern nur darauf hingewiesen wird, dass die einzelnen chemisch definierten Stoffe dieses Zyklus an räumlich verschiedenen, jedoch topologisch verbundenen Stellen der Zelle entstehen und verbraucht werden, d.h. also Transportmechanismen involviert sind, die den Prozess nicht dem Zufall überlassen.

In vollem Bewusstsein der Schwierigkeit der Aufgabe, sagen deshalb die Adepten der Synthetischen Biologie, dass es ihnen darum geht, eine sogenannte „Minimalzelle“ zu konstruieren. Diese Minimalzelle muss die essentiellen Bauelemente einer lebenden Zelle bzw. ihre synthetische Analoga enthalten bzw. umfassen:

  • Eine Zellmembran
  • Die Software mit der Anweisung zur Synthese der Hardware in Form von Proteinen und Enzymen innerhalb der Zelle: d.h. DNA oder Analoga
  • Enzyme (Katalysatoren) zur Aktivierung des Übersetzungsprozesses der Software in Hardware Ribosomen oder Analoga, d.h. die Maschinerie für den Bau von Proteinen (oder ihrer Analoga)
  • die Rohstoffe für die Reproduktion der Komponenten
  • usw.
  • MinimalzelleAbbildung 1. Einfachste Form einer Minimalzelle (Protocell, J. Szostak Lab.). Creative Commons License, for non-commercial uses http://exploringorigins.org/resources.html. 
  • Das Ganze muss in einer synthetischen Zelle so eingefangen werden, dass der Apparat bei Zuführung chemischer oder physikalischer Energie (z.B. Licht) zu arbeiten beginnt

Das ist, wie bereits gesagt, nur möglich, wenn die Komponenten entsprechend eines wohl-definierten Schaltplans angeordnet sind. Dafür gibt es Vorschläge, die sich aber bisher einer experimentellen Prüfung entzogen haben.

Es ist klar, dass die Maschinerie des Lebens eine Vielzahl von Komponenten umfasst, von denen jede einzelne selbst einen komplexen Aufbau in Form von Struktur und Dynamik besitzt. Daraus ergibt sich die prinzipielle Schwierigkeit des Projektes, also ein Dilemma. Je komplexer der Versuchsaufbau und je größer die Zahl der Komponenten im Versuch, desto anfälliger wird das Ganze für Fehler. Die bisherigen Experimente unter der Fahne der Synthetischen Biologie leiden unter mangelnder bzw. eingeschränkter Reproduzierbarkeit.


Details zum Autor und seinen Publikationen: Homepage desMax-Planck Instituts für Polymerforschung http://www.mpip-mainz.mpg.de/

Anmerkungen der Redaktion

Zum Themenschwerpunkt Synthetische Biologie sind bis jetzt erschienen:

Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

Uwe Sleytr: Synthetische Biologie – Wissenschaft und Kunst

Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Teil 2. Aufbau und Funktion physiologischer Geruchssensoren Teil 3: Konstruktion einer biomimetischen Nase

Michael Graetzel: „Der Natur abgeschaut:Die Farbstoffsolarzelle“ wird in Kürze in den ScienceBlog gestellt werden


Weiterführende Links

Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)


 

inge Fri, 21.06.2013 - 09:13

Synthetische Biologie — Wissenschaft und Kunst

Synthetische Biologie — Wissenschaft und Kunst

Fr, 14.06.2013 - 04:20 — Uwe Sleytr

Icon BiologieUwe SleytrDie rasanten Fortschritte in der Molekularbiologie, Genetik und Biotechnologie haben die Biologie zu einer Leitwissenschaft des ausgehenden zwanzigsten Jahrhunderts gemacht. Auf dieser aufbauend ist in den letzten Jahren die Synthetische Biologie entstanden, welche als Anwendung der Prinzipien von Ingenieurswissenschaften auf die Biologie zu verstehen ist. Dieses interdisziplinäre Fachgebiet birgt ein beispielloses Potential an Einsatzmöglichkeiten, nicht nur zur Erfüllung dringender Bedürfnisse unserer Gesellschaften, sondern auch zur Enträtselung fundamentaler Fragen in der Beschreibung der Biosphäre. Vergleichbar mit den an Künstler gestellten Anforderungen, verlangt die Synthetische Biologie von ihren Forschern vor allem Kreativität und Gestaltungskraft.

Was versteht man unter Synthetischer Biologie?

Synthetische Biologie ist vor allem ein interdisziplinäres Fachgebiet, das eine enge Zusammenarbeit von Biologen, Chemikern, Physikern, Materialwissenschaftern, Ingenieuren und Informationstechnikern voraussetzt. Unterschiedliche weitere Definitionen hängen von dem jeweiligen Fachgebiet ab, aus dem die Antwort kommt. Auf eine kurze Formel gebracht, beschäftigt sich die Synthetische Biologie

  • Mit dem Nachbau und der Manipulation von natürlichen biologischen Systeme (Biomimetik) in Hinblick auf nutzbringende Anwendungen
  • Mit dem Design von Strukturen, Systemen und Prozessen, die in der Natur nicht vorkommen
  • Mit dem Ziel „Leben“ zu erzeugen um vor allem die biologischen Voraussetzungen für lebende Materie zu verstehen, aber auch um hocheffiziente zelluläre Fabriken zu konstruieren

Das Design komplexer Systeme erfolgt dabei auf der Basis modularer biologischer Bausteine (Biobricks), welche – vergleichbar mit LEGO-Bausteinen - zusammengesetzt werden können. Derartige Biobricks können beispielsweise natürlich vorkommende Stoffwechselwege und Signalkaskaden sein, aber auch künstlich hergestellte Module mit erwünschten neuen Funktionen.

Anwendungen der Synthetischen Biologie

Baukästen mit standardisierten Biobricks, die unterschiedlich kombinierbar sind (mix and match), versprechen ein gigantisches Spektrum an Anwendungsmöglichkeiten. Zelluläre Fabriken, welche imstande sind dringende Bedürfnisse unserer Gesellschaften abzudecken, können eine neue industrielle Revolution auslösen.

Abbildung 1 gibt einen groben Überblick über wesentliche z.T. bereits erfolgreich erprobte Anwendungsgebiete der Synthetischen Biologie zur Herstellung von Biomaterialien, Biokraftstoffen, Biosensoren, Arzneimitteln und Produkten der Nanobiotechnologie.

Beispielsweise

  • Lassen sich Biokraftstoffe der 2.ten Generation durch geeignete Mikrobenkulturen kostengünstig aus Abfall-Biomasse erzeugen, kann Photosynthese aus rein chemischen Ausgangsstoffen nachgebaut werden
  • Können (toxische) Stoffe in der Umwelt mittels hochempfindlicher und selektiver Biosensoren detektiert werden (z.B. Arsen mittels des Arsenic Biosensor, iGEM 2006, Edinburgh Team)
  • Können Arzneimittel mit Hilfe von zellulären Fabriken hergestellt werden: z.B. Artemisinin – ein hochwirksames Arzneimittel gegen Malaria. Artemisinin, das in zu kleinen Ausbeuten aus einem Beifuß-Gewächs isoliert wird, wird bereits effizient und kostengünstiger in einen Bakterien (Escherichia coli) Stamm produziert, in den der komplette Stoffwechselweg der Artemisinin Synthese eingeschleust wurde.

Anwendungsgebiete der Synthetischen Biologie

Abbildung 1. Anwendungsgebiete der Synthetischen Biologie. Synthetische Biologie umfaßt die Anwendungen: Protein Engineering = Design und Manipulation von Proteinen, Gentechnik = gezielte Eingriffe in das Erbgut, Gewebe Engineering = künstliche Herstellung von Gewebe durch Zellkultivierung, Metabolic Engineering: Optimieren von zellulären Prozessabläufen

Synthetische Biologie – künstliches Leben

Ein Großteil der Erfolge in der Synthetischen Biologie ist bis jetzt im „top-down“ Verfahren erhalten worden, das heißt man ging von einem bereits existierenden lebenden System aus, welches dann für die gewünschte Anwendung entsprechend manipuliert wurde. Als „top-down“ Prozedur ist beispielsweise auch die 2007 von der Gruppe um Craig Venter publizierte und als „Erzeugung künstlichen Lebens“ gefeierte, sensationelle Transplantation eines kompletten Genoms eines Bakteriums in ein anderes Bakterium zu sehen, welches die Umwandlung der ursprünglichen Spezies zur Folge hatte (Science 2007, 317:632-8).

Gegenwärtig laufen in vielen Labors Versuche mittels Synthetischer Biologie organisches Leben aus unbelebten Bausteinen in „bottom-up“ Ansätzen zu designen. Die dazu angewandten Strategien gehen von einem Minimalorganismus aus, d.h. die Komplexität einer Zelle hinsichtlich ihrer Gene, Stoffwechselwege und Signalketten ist auf ein Mindestmaß beschränkt. Derartige sogenannte „Protozellen“ werden unter Verwendung von aus natürlichen Biomolekülen bestehenden Biobricks konstruiert. (Zum Thema der Protocells siehe auch: http://www.science-blog.at/2012/02/zum-ursprung-des-lebensbr-konzepte-und-diskussionen/) Ebenso gibt es auch „xenobiologische“ Ansätze, in welchen veränderte biochemische Strukturen (z.B. der DNA) eingesetzt werden, die zu einer „parallel-biologischen Welt“ führen sollen. Es ist klar, daß „top-down“ und „bottom-up“ Strategien sich in der Folge mehr und mehr mischen werden um die Komplexität der Systeme adäquat behandeln zu können.

Synthetische Biologie und ihr Eingriff in den Evolutionsprozeß

Die Synthetische Biologie eröffnet den „Ingenieuren der Biologie“ die Möglichkeit bereits in absehbarer Zeit neue Arten von Lebewesen zu konstruieren. Natürlich liegt die Kreation von neuen Tierarten noch in ferner Zukunft und als ultimativer Schritt die Schaffung eines „Geschöpfs“, das als nächste Evolutionsstufe des Menschen gesehen werden könnte. Also, gleichsam eine Extrapolation unserer Existenzform in die Zukunft.

Die Utopie, daß der Mensch in einem bisher nicht erahnbaren Ausmaß in die Evolution eingreifen kann, ist damit zur plausiblen Wahrscheinlichkeit geworden. Das Design neuer Spezies führt ja über deren (zumindest in natürlichen Organismen zwangsläufig immer fehlerhafter) Reproduktion zu deren Evolution Während allerdings über Fossilienfunde eine immer genauere Rekonstruktion der Wege der Evolution zu den heute existierenden Lebensformen, einschließlich des Menschen in seiner gegenwärtigen Ausprägung möglich wird, ist eine seriöse Vorhersage der weiteren Entwicklung des Lebens nicht einmal ansatzweise möglich.

Wir Menschen von heute betrachten die Primaten mit einer Distanz, mit der die von uns ableitbaren späteren Evolutionsstufen uns betrachten werden. Ich kann einen Primaten bezüglich seines Abstraktionsvermögens nicht über eine gewisse „Grenze der Erkenntnis“ bringen oder fördern. Einem Schimpansen ist beispielsweise die Quantenphysik und die moderne Kosmologie nicht zu vermitteln. Ähnlich sollte es einem Menschen ergehen, der in eine Zeit verschoben wird, in der die nächste (höhere?) Stufe der Evolution – mit oder ohne Synthetische Biologie - stattgefunden hat. „Instinkt“, „abstraktes Denken“ – was kommt als nächstes? Wir können dafür so wenig einen Begriff bilden, wie der Schimpanse eben keinen Zugang zu Mathematik, Physik und Kosmologie hat und benötigt – wie sie möglicherweise auch der Neandertaler nur in eingeschränktem Maße hatte..

Auf dem Weg in das von Menschen geschaffene Neuland ist natürlich eine kritische Abwägung gesellschaftlicher und ethischer Fragen und Risiken unabdingbar, welche mit einem derartigen Eingriff ins „Naturgeschehen“ angedacht werden können. Hier ist aber auch die Phantasie des Wissenschafters gefordert, der mit Hilfe einer Visualisierung des Wandels die Gesellschaft auf zu erwartende Veränderungen vorbereitet und dafür zu sensibilisieren versucht. Mit dem Versuch Anschaulichkeit zu gestalten dringt der Wissenschafter in einen Bereich vor, der zumeist nur Künstlern vorbehalten bleibt.

Synthetische Biologie und Evolution - Versuch einer Visualisierung

In dem Bestreben, das durch die Synthetische Biologie geschaffene Paradigma künstlerisch aufzuarbeiten, entstanden morphologisch vielfältige Skulpturen. Symbolisch für die uns nicht vorhersehbare Weiterentwicklung des Menschen, habe ich in den Skulpturen die Sinnesorgane - beispielsweise die Augen, Nasen - vervielfacht sowie Skelettkomponenten und Schädeldimensionen verändert. Dies auch vor dem Hintergrund, daß sich die ästhetische Beurteilung von Morphologien, die eine natürliche aber auch eine vom Menschen beeinflußte Evolution hervorbringen kann, völlig von den heutigen Auffassungen und Beurteilungen abkoppeln wird. Ein Beispiel einer derartigen Skulptur ist in Abbildung 2 wiedergegeben Uwe Sleytr: „Erweiterung des Wissens“ Abbildung 2. Uwe Sleytr: „Erweiterung des Wissens“ aus dem Zyklus Evolution. Schütttechnik: Franz Sima; Foto mittels hochauflösender Digitalkamera. Beschreibung: siehe Text. (Vergoldete Skulptur aus gebranntem Ton. Künstlerische Gestaltung des Gebäudes Muthgasse III / VIBT – Vienna Institute of BioTechnology) Die unvorhersehbare morphologische Vielfalt und die Möglichkeiten, die aus der Synthetischen Biologie erwachsen, habe ich versucht durch die Wechselwirkung der statischen Skulpturen mit dem Medium Wasser zu reflektieren. Weiters sollen diese Darstellungen die mit der Synthetischen Biologie assoziierte explosionsartige Zunahme, Verfügbarkeit und Verbreitung des Wissens symbolisieren. Abbildungen 2, 3.

Uwe Sleytr: „Erweiterung des Wissens“Abbildung 3. Uwe Sleytr: „Erweiterung des Wissens“ aus dem Zyklus Evolution Schütttechnik: Franz Sima Foto: mittels hochauflösender Digitalkamera Beschreibung: siehe Text. (Vergoldete Skulptur aus gebranntem Ton; künstlerische Gestaltung des Gebäudes Muthgasse III / VIBT – Vienna Institute of BioTechnology)

Die Statik und morphologische Differenzierung der Skulpturen entsprechen dabei nur Momentaufnahmen von Entwicklungsstufen in einer hypothetischen durch die Synthetische Biologie geschaffenen Lebenswelt. Ab einem bestimmten Entwicklungsstadium bleibt uns diese auf Grund unserer intellektuellen Limitierung für immer unvorstellbar und somit auch unzugänglich.

Wenn auch auf inadequate Weise kann nur mit den Mitteln der Kunst versucht werden, die Sprachlosigkeit zu überwinden, die uns beim Denken über das Unvorstellbare befällt.


Weiterführende links

„Synthetische Biologie, Ein neuer Weg der Evolution“ Uwe Sleytr, Video(3,25 min.)
Diese site enthält auch viele andere Videos vom „Synthetic Biology Science, Art and Film Festival“ Wien, 13-14.Mai 2011
http://biofiction.com/videos/

“Konkurrenz für Gott” J.Grolle. Der Spiegel 1:110-19, 2010
http://www.spiegel.de/spiegel/print/d-68525307.html

„Synthetische Biologie. Leben – Kunst“ Internationale Tagung der Berlin-Brandenburgischen Akademie der Wissenschaften 8 – 9.12.2011: Mediathek, mehrere Vorträge.
http://jahresthema.bbaw.de/2011_2012/mediathek/synthetische-biologie.-le...

V. Rouilly (Imperial Coll. London, Bioengineering Dept): “Introduction to Synthetic Biology“ (53 slides)
http://openwetware.org/images/5/5b/Vincent_Rouilly_SynBio_Course_Topic_1...

inge Fri, 14.06.2013 - 10:54

Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

Fr, 14.06.2013 - 10:21 — Redaktion

Icon MINTSo wie die enormen Fortschritte der Molekularbiologie, Genetik und Biotechnologie die Biologie zu einer Leitwissenschaft des ausgehenden zwanzigsten Jahrhunderts gemacht haben, so kann man die Synthetische Biologie als Wissenschaftsdisziplin bezeichnen, welche das Bild der Lebenswissenschaften (zumindest am Beginn) des 21. Jahrhunderts bestimmt. Auf der Biologie aufbauend ist die in den letzten Jahren entstandene Synthetische Biologie als Anwendung der Prinzipien von Ingenieurswissenschaften auf die Biologie zu verstehen. Dieses neue, rasant wachsende, interdisziplinäre Fachgebiet birgt ein beispielloses Potential an Einsatzmöglichkeiten: Für Grundlagenforscher bietet es leicht manipulierbare Systeme zur Erforschung der Funktion lebender Systeme. Das Nachahmen und Optimieren biologischer Strukturen und Funktionen und das Design maßgeschneiderter Systeme führt zu Produkten, welche breiteste Anwendung in Technik, Industrie und Medizin finden.

Der breiten Öffentlichkeit ist der Begriff „Synthetische Biologie“ noch kaum geläufig, diese wird – wenn überhaupt und dann je nach persönlichem Gesichtspunkt – als Ableger von Gentechnik oder Biotechnologie oder Informationstechnologie gesehen. Dementsprechend ist „Synthetische Biologie“ mit Empfindungen assoziiert, die von Desinteresse über gelegentliche Akzeptanz bis hin zu Argwohn, Besorgnis und krasser Ablehnung reichen. Sensationsberichterstattungen (etwa über „Frankenstein-Experimente“) in den Medien verstärken die Befürchtungen. Von der Seite der Wissenschaft erscheint es daher unabdingbar in einen Dialog mit der Bevölkerung zu treten, diese über die neue Technologie zu informieren und auf realistischer Basis zu diskutieren.

In diesem Sinne hat die Österreichische Akademie der Wissenschaften (ÖAW) vor einem Monat – anläßlich der Feierlichen Sitzung - ein Symposium über Synthetische Biologie veranstaltet. Im Rahmen dieser Veranstaltung wurden wesentliche Schwerpunktthemen der Synthetischen Biologie, einschließlich ihrer Rezeption in der Öffentlichkeit angesprochen sowie Fragen der Biosicherheit von kompetenten Wissenschaftlern aus dem In- und Ausland unter starkem Einbezug des Publikums diskutiert. Mehrere Vortragende haben ihre Manuskripte dem ScienceBlog zur Verfügung gestellt. Diese Artikel werden in den nächsten Wochen in lockerer Abfolge erscheinen.

Der Organisator des ÖAW-Symposiums, Uwe Sleytr, hat die Tagung eingeleitet und tags darauf den Festvortrag: „Synthetische Biologie - Eine Technologie auf der Basis der Bausteine des Lebens“ gehalten. Wesentliche Aspekte dieser Vorträge sind in seinem Artikel: „Synthetische Biologie – Wissenschaft und Kunst“ enthalten, der im vergangenen Jahr in unserem Blog (damals noch Science-Blog) erschienen ist. Dieser Artikel soll nun in das Schwerpunktsthema „Synthetische Biologie“ einführen. Zu den spezifischen Anwendungen der Synthetischen Biologie ist bereits eine Artikelserie von Wolfgang Knoll erschienen: Die biomimetische künstliche Nase – wie weit sind wir?

Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne
Teil 2: Aufbau und Funktion physiologischer Geruchssensoren
Teil 3: Konstruktion einer biomimetischen Nase

Der Natur abgeschaut: Die Farbstoffsolarzelle“


Weiterführende Links

Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)

inge Fri, 14.06.2013 - 10:21

Comments

Aus der Sicht von Ludwig Boltzmann — eine Werkstätte wissenschaftlicher Arbeit im Jahre 1905

Aus der Sicht von Ludwig Boltzmann — eine Werkstätte wissenschaftlicher Arbeit im Jahre 1905

Fr, 07.06.2013 - 04:07 — Redaktion

Icon Physik

Der Physiker Ludwig Boltzmann [1] (1844 – 1906), einer der bahnbrechendsten Wissenschafter, die Österreich hervorgebracht hat, bricht im Juni 1905 zu einem längerem Gastaufenthalt an die Universität Berkeley/San Francisco auf. Auf dem Weg dorthin macht er vorerst in Leipzig halt um an der Sitzung des Kartells der Akademien der Wissenschaften teilzunehmen, welche ein Monumentalwerk, eine Enzyklopädie der mathematischen Wissenschaften aus Beiträgen der weltweit bedeutendsten Experten herausgeben will. Daß eine Beschreibung des damaligen wissenschaftlichen Lebens humorvoll aber nichtsdestoweniger durchaus kritisch ausfallen kann, macht der nachfolgende Text von Boltzmann offenbar – auch, daß geäußerte Kritikpunkte nach wie vor aktuell sind.

 

Ausschnitt aus Ludwig Boltzmann: „Reise eines deutschen Professors ins Eldorado”[2].

( Zwischentitel, Illustrationen und einige Anmerkungen sind von der Redaktion eingefügt.)

Zeitgenössische Karikatur Boltzmanns Ludwig Boltzmann
Abbildung – Ludwig Boltzmann: wie ihn sein Schüler der Physiker Przibram gesehen hat (links) und ein seriöses Foto aus dem Jahre 1902 (rechts) Quelle: Online Ausstellung der Österreichischen Zentralbibliothek für Physik, 2006; http://www.zbp.univie.ac.at/webausstellung/boltzmann/flash/boltzmann.htm.

„Der erste Teil meiner Reise stand unter dem Zeichen der Eile und in Eile soll er auch erzählt sein. Noch am 8. Juni wohnte ich der Donnerstagssitzung der Wiener Akademie der Wissenschaften in gewohnter Weise bei. Beim Fortgehen bemerkte ein Kollege, daß ich nicht wie sonst nach der Bäckerstraße, sondern nach dem Stubenring mich wandte und fragte, wohin ich gehe. Nach San Franzisko antwortete ich lakonisch.

Im Restaurant des Nordwestbahnhofes verzehrte ich noch in aller Gemütlichkeit Jungschweinsbraten mit Kraut und Erdäpfeln und trank einige Gläser Bier dazu. Mein Zahlengedächtnis, sonst erträglich fix, behält die Zahl der Biergläser stets schlecht. Als ich mit der Mahlzeit fertig war, kamen meine Frau und meine Kinder mit dem schon vorgerichteten Reisegepäck. Adieu noch und fort ging es, zunächst zu den Akademie-Kartellsitzungen nach Leipzig, welche am nächsten Tag 10 Uhr vormittags begannen. Ich machte mich im Zug noch möglichst rein, setzte mich nach Ankunft des Zuges in Leipzig sofort in eine Droschke und kam pünktlich zur Sitzung. (Anmerkung der Redaktion: Das Kartell bestand damals aus den Akademien der Wissenschaften in Wien, Göttingen, Leipzig und München; Berlin war – wie Boltzmann weiter unten kritisch bemerkt – noch nicht beigetreten.)

Ich ging zu diesen Kartellsitzungen nicht ohne Angst; denn es sollte ein Gegenstand zur Sprache kommen, der für mich sehr bitter werden konnte. Wird es den Leser langweilen, wenn ich ihn kurze Zeit in einer Werkstätte wissenschaftlicher Arbeit herumführe, um ihm die äußere Einrichtung zu zeigen und den Mechanismus etwas zu erklären; ich hoffe nicht. Heutzutage gibt es doch kaum einen Gebildeten, der nicht irgend eine größere, im Baedeker angeführte Eisenwaren- oder Leder- oder Glasfabrik gesehen hätte und ich finde die Befriedigung der Neugierde, wie die Gegenstände unseres täglichen Gebrauches in ihre uns so geläufige Form gebracht werden, ebenso unterhaltend als lehrreich. Warum sollte ich nicht auch einige Neugierde nach dem Mechanismus einer Fabrik voraussetzen, die, ich darf es wohl sagen, für die menschliche Kultur wichtiger ist, als die größte Lederfabrik, hoffentlich nicht lederner.

Vom Ziel des Akademie-Kartells eine Enzyklopädie der mathematischen Wissenschaften [3] herauszugeben

Mehrere deutsche Akademien und gelehrte Gesellschaften haben sich zusammengetan, um jährlich gemeinsame Sitzungen zu halten und dort Gegenstände von allgemeiner Wichtigkeit zu besprechen (siehe weiter oben; Anmerkung der Redaktion). Dies ist das Akademie-Kartell. Dasselbe beschloß vor Jahren die materielle Unterstützung eines großen Buchwerkes, der Enzyklopädie der mathematischen Wissenschaften.

Die Mathematik hat nämlich im vorigen Jahrhundert enorm an Umfang zugenommen; dabei hat jeder Autor seine besonderen Bezeichnungen und schreibt oft so schwer verständlich, daß nur die nächsten Fachgenossen mit größter Anstrengung folgen können. Doch ist in dieser schwer verständlichen, oft fast unauffindbaren, in der ganzen Welt zerstreuten mathematischen Literatur ungemein viel des Brauchbaren, auch für den Praktiker Nützlichen, ja fast Unentbehrlichen, vergraben.

Die wohlgeordnete Sammlung und möglichst leicht verständliche Darstellung alles dieses Materials ist nun die Aufgabe der besprochenen Enzyklopädie. Sie soll alles in der Mathematik geleistete für den Mathematiker leicht auffindbar machen und zugleich die Brücke zur Praxis bauen, also dem Praktiker die Mathematik, dem Mathematiker die Praxis näherrücken. Das Bedürfnis nach einer solchen enzyklopädischen Zusammenfassung der mathematischen Literatur springt so in die Augen, daß Professor Klein [4] in Göttingen sie als mathematische Bedürfnisanstalt bezeichnet hat. Ein solches Unternehmen wäre nicht so enorm schwierig, wenn es sich nur darum handelte, die hervorstechendsten Leistungen ohne allzu genaue Kritik anzuführen und das Allerwichtigste, natürlich aber auch Allerbekannteste, zu registrieren. Wenn man aber auf allen Gebieten alles wirklich Nützliche aus dem Verborgenen hervorziehen, alles Unwesentliche ausscheiden, möglichste Vollständigkeit in der Literaturangabe erzielen und dabei alles in übersichtlicher, für den Gebrauch des Lesers bequemer Form darstellen will, so erscheinen die Schwierigkeiten für jeden, der nur einigermaßen in die mathematische Literatur hineingeguckt hat, fast erschreckend. Den schon genannten Professor Klein lockte dies an, die Akademien geben Geld für die Druckkosten, die Autorenhonorare und Reisediäten, Klein und sein wissenschaftlicher Stab besorgen die Arbeit.

Von den Mühen Professor Kleins weltweit renommierteste Wissenschafter als Autoren zu rekrutieren

Da gilt es für jedes Spezialgebiet unter allen Nationen des Erdballes denjenigen herauszufinden, der es am besten beherrscht. In der Tat arbeiten Deutsche und Franzosen, Russen und Japaner in Eintracht mit. Der Ausgewählte ist nun oft ein großer Herr, der genug Geld und wenig Zeit, vielleicht auch nicht allzuviel Arbeitslust, aber desto mehr Eigensinn hat. Er muß erstens bewogen werden, daß er einen Beitrag verspricht; dann belehrt und mit allen Mitteln der Überredungskunst dazu vermocht werden, daß er den Beitrag so abfaßt, wie er in den Rahmen des Ganzen paßt und last not least, daß er sein Versprechen auch rechtzeitig hält.

Die Beratungen, ob man einen Artikel, der sich besser später einreihen würde, schon jetzt bringen soll, weil man ihn eben schon hat und die, welche man vorausgehen lassen wollte, noch fehlen, nehmen Stunden in Anspruch. Reisen Kleins selbst und seiner Apostel nach allen Ländern der Welt werden nicht gespart, um den Artikelschuldigen mit der Wucht der persönlichen Rücksprache nicht zu verschonen. Eine Lücke blieb lange offen, weil der dafür Erkorene, ein mathematisch gebildeter russischer Offizier in Port Arthur eingeschlossen war. Ich habe solche Enzyklopädiesitzungen schon oft mitgemacht, von ihrer dramatischen Bewegtheit könnten die deutschen Bühnendichter profitieren.

Nun zu mir zurück. Schon als mir Klein einen Enzyklopädieartikel auftrug, weigerte ich mich lange. Endlich schrieb er mir: „Wenn Sie ihn nicht machen, übergebe ich ihn dem Zermelo [5]“. Dieser vertritt gerade die der meinen diametral entgegengesetzte Ansicht. Die sollte doch nicht in der Enzyklopädie die tonangebende werden, daher antwortete ich umgehend: „Ehe der Pestalutz es macht, mache ichs.“ (Sämtliche Zitate, meist aus Schiller zur Nachfeier des Schillerjahres, sind mit Anführungszeichen versehen; man weise sie nach!)

Jetzt aber ist die Zeit, wo mein Artikel fällig wird. Ich hätte gern mich im September von den Reisestrapazen auf dem Lande erholt, aber ich habe mein Wort gegeben, muß also im September in der Literatur wühlen und mit einer kleinen Kohorte Wiener Physiker zusammen, den Artikel fertigstellen. ”Ewigkeit geschworenen Eiden.“

Ähnlich scheint es auch Professor Wirtinger [6] ergangen zu sein; denn als Emblem der Enzyklopädie zeichnete er eine Mausefalle; der Speck lockt und der Professor ist gefangen.

Vom Idealismus der Autoren

Was aber reizt zu dem ganzen Werke so unwiderstehlich? Besonderer Ruhm ist dabei nicht zu holen, mit Ausnahme dessen, etwas Nützliches geleistet zu haben; vom Gelde rede ich gar nicht. Was veranlaßt Klein mit einer psychologischen Kenntnis, um die ihn die Philosophen beneiden könnten, bei jedem, den er auf dem Korn hat, gerade den wunden Punkt zu treffen, wo er überredungsfähig ist? Doch nur der Idealismus, und tun wir die Augen auf, Idealismus finden wir überall bis an das stille Meer. Dort (auf dem Gipfel des Mount Hamilton, nahe der Stadt San Jose, Kalifornien; Anmerkung der Redaktion) grüßen uns zwei weiße dicke Türme, die Licksternwarte, das Werk eines Idealisten und hundertfachen Millionärs…. Ich habe lange überlegt, was merkwürdiger ist, daß in Amerika Millionäre Idealisten, oder daß Idealisten Millionäre sind. Glücklich das Land, wo Millionäre ideal denken und Idealisten Millionäre werden!…

Der Idealismus Kleins und seiner Mitarbeiter trug gute Früchte. Schon nach dem Erscheinen der ersten Hefte mußte die Auflage vermehrt werden; eine französische Übersetzung ist angefangen, eine englische wird bald folgen. Die Akademien haben einen guten Griff und der Buchhändler hat ein gutes Geschäft gemacht.

Kritisches zur Berliner Akademie der Wissenschaften

Die Berliner Akademie der Wissenschaften gehört leider dem Kartell nicht an und beteiligt sich gar nicht an der Sache. Sie war auch auf dem Meteorologenkongreß zu Southport und auf dem Sonnenforschungskongresse in St.Louis gar nicht vertreten. Ich fürchte, durch dieses Prinzip, an allem, was sie nicht selbst angefangen hat, sich nicht zu beteiligen, wird sie mehr noch als die Wissenschaft, sich selbst und Deutschland schädigen. Mich ärgerte es, als in Southport und St. Louis unter den foreigners (Nichtengländern) überall die Franzosen den ersten Platz erhielten. Wir Deutsche hätten es wahrlich nicht nötig, ihnen nachzustehen! Aber was vermochte ich als Österreicher? Wenn bei den Meteorologen noch Hann [7] da gewesen wäre, den alle so vermißten! Aber der ist wieder nicht zum Reisen zu bewegen!

Wenn ich schon ins Plaudern komme, dann lasse ich meiner Zunge völlig freien Lauf. So verschweige ich auch nicht, daß ein amerikanischer Kollege überhaupt von einem Rückgang Berlins sprach. In der Tat gingen unter Weierstraß, Kronecker, Kummer, Helmholtz, Kirchhoff die amerikanischen Mathematiker und Physiker meist nach Berlin studieren, jetzt bevorzugen sie Cambridge und Paris. Dadurch, daß es weniger mehr von den Deutschen lernt, geht wieder Amerika und mit ihm die Welt zurück. Jener Kollege behauptete auch, es wäre manches besser geworden, wenn ich den Ruf nach Berlin nicht abgelehnt hätte. Gewiß am wenigsten durch meine Vorträge; aber ein einziger kann, wenn er mit Kleins Idealismus und Kleins Unverfrorenheit wirkt, bei Berufungsfragen und bei Neuschöpfungen ganz bedeutend ins Gewicht fallen.

Mancher, der nicht zu haben war, wäre doch zu haben gewesen, wenn man ihn richtig gewollt hätte. Ein kleines Rädchen, das an der richtigen Stelle immer richtig arbeitet, kann viel leisten.“


[1] Ludwig E. Boltzmann ] (1844 – 1906) war Professor für Physik und Mathematik an den Universitäten Graz, Leipzig, München und Wien. Seine Arbeiten waren bahnbrechend für die weitere Entwicklung von Physik und physikalischer Chemie. Zu einer Zeit als die Existenz von Atomen noch nicht bewiesen war, hat er Wärmegesetze aus der statistischen Bewegung von Molekülen hergeleitet (kinetische Gastheorie) und, daß Systeme aus einem Zustand höherer Ordnung in einen ungeordneteren übergehen; als ein Maß für die Unordnung hat Boltzmann den Begriff „Entropie“ definiert (Zweiter Hauptsatz der Thermodynamik). Eine von der Österreichischen Zentralbibliothek für Physik initiierte Ausstellung anläßlich des 100. Todestages von Ludwig Boltzmann ist online abrufbar und bietet eine umfassende, illustrierte, Darstellung seines Lebens und Wirkens (http://www.zbp.univie.ac.at/webausstellung/boltzmann/flash/boltzmann.htm)

[2] „Reise eines deutschen Professors ins Eldorado”: Dieser und andere Essays aus den 1905 veröffentlichten „Populären Schriften“ von Ludwig Boltzmann sind sehr lesenswert. Die “Populären Schriften” wurden kürzlich digitalisiert („by Google from the library of Harvard University and uploaded to the Internet Archive”): http://archive.org/details/populreschrifte00boltgoog (free download)

[3] „Enzyklopädie der mathematischen Wissenschaften mit Einschluß ihrer Anwendungen“ Monumentalwerk das von 1904 bis 1935 erschien (B.G. Teubner Verlag, Leipzig). Unter der Koordination von Felix Klein lieferten international führende Mathematiker und Physiker Übersichtsartikel und auch eigene Forschungsbeiträge, die Klassiker einzelner Fachrichtungen darstellen. Die einzelnen Bände wurden vom Göttinger Digitalisierungszentrum digitalisiert und sind abrufbar unter: http://gdz.sub.uni-goettingen.de/dms/load/toc/?PPN=PPN360504019 (free download)

[4] Felix Christian Klein (1849 – 1925) berühmter deutscher Mathematiker (Gruppen-Theorie, Nicht-Euklidische Geometrie) und Wissenschaftsorganisator. Er machte Göttingen zu einem der weltweit wichtigsten Zentren für (angewandte) Mathematik und Naturwissenschaften. Für die „Enzyklopädie der mathematischen Wissenschaften mit Einschluß ihrer Anwendungen“ (s.o.) gelang es Klein die renommiertesten Autoren zu rekrutieren.

[5] Ernst Friedrich Ferdinand Zermelo (1871 – 1953) berühmter deutscher Mathematiker (Mengenlehre), Schüler von Max Planck. Kontrahent von Ludwig Boltzmann, da er in dessen „zweitem Hauptsatz der Thermodynamik“ einen Widerspruch zum „Poincare’schen Wiederkehrsatz“ sah.

[6] Wilhelm Wirtinger (1865 – 1945), prominenter österreichischer Mathematiker aus der schule von Felix Klein und Professor in Innsbruck und Wien. Zu Wirtingers Schülern gehören u.a.: Kurt Gödel, Johann Radon und Leopold Vietoris.

[7] Julius von Hann (1839 – 1921), Begründer der modernen Meteorologie, Professor in Wien und Graz, Direktor der ZAMG (Wien). Er veranlaßte den Bau des Sonnblick-Observatoriums und der Hann-Warte auf dem Hochobir.

Bring vor, was wahr ist;

schreib so, dass es klar ist.

Wahlspruch Ludwig Boltzmanns


 

inge Fri, 07.06.2013 - 04:07

Letale Mutagenese — Strategie im Kampf gegen Viren

Letale Mutagenese — Strategie im Kampf gegen Viren

Fr, 24.05.2013 - 11:13 — Peter Schuster

Icon BiologiePeter SchusterDie Vermehrung von Viren ist durch eine sehr hohe Mutationsrate geprägt. Dabei entstehen genetisch uneinheitliche Populationen , sogenannte Quasispezies, die sich in einem dynamischen Gleichgewicht von Mutation und Selektion befinde und damit einem Evolutionsprozeß unterliegen, der u.a. erhöhte Infektiosität und Pathogenität mit sich bringt. Eine weitere Erhöhung der Mutationsrate durch geeignete mutagene Verbindungen kann jedoch zur Auslöschung der Quasispezies-Populationen führen. Letale Mutagenese erscheint daher erfolgversprechend als eine neue Strategie im Kampf gegen virale Infektionen und deren Ausbreitung.

Basierend auf fulminanten Erfolgen in der Bekämpfung von Infektionskrankheiten ging man in der Mitte des vorigen Jahrhunderts davon aus, daß die Erreger dieser Krankheiten wohl bald ausgerottet sein würden. Zwar wurden vereinzelt Veränderungen der Erregerstämme detektiert, diesen aber kaum Beachtung geschenkt. Erst der systematische Einsatz molekularbiologischer Methoden, vor allem die genetische Analyse der Mikroorganismen, zeigte wie schnell und in welchem Ausmaß Veränderungen eintreten, die vormals effektive antibakterielle und antivirale Strategien unwirksam werden lassen.

Wie Viren sich vermehren

Viroide (s.u.) und Viren können als non-plus-ultra Parasiten angesehen werden, welche – allein nicht lebensfähig - den Wirt ausnützen indem sie in seine Zellen eindringen und deren Stoffwechsel für ihre eigene Vermehrung umfunktionieren. Grundlegend für diese Vermehrung ist die erfolgreiche Kopierung (Replikation) des viralen Genoms, welches aus Ribonukleinsäure (RNA)- oder Desoxyribonuleinsäure (DNA)-Molekülen besteht (Abbildung 1). Erfolgreich bedeutet dabei, daß die viralen Nachkommen ebenfalls fähig sind sich zu vermehren.

Anheften der Makrophage Genominjektion
Abbildung 1. Bakteriophage heftet sich an die Zellwand eines Bakteriums an (links, elektronenmikroskopisches Bild) und injiziert sein Genom in die Wirtszelle (rechts). (Bilder modifiziert nach Wikimedia Commons)

Die Vermehrung von Viren ist ein komplexer Vorgang, da bereits das Kopieren der Nukleinsäuren ein aus vielen Einzelschritten bestehender Prozeß ist, wobei der Stoffwechsel der Wirtszelle mehr oder weniger in Anspruch genommen wird (Abbildung 2). Viroide – Pflanzenpathogene -, die überhaupt nur aus dem „nackten“ RNA-Molekül bestehen, sind für ihre Replikation vollständig auf die biochemische Ausstattung und die Reaktionsmechanismen des Wirts angewiesen. Replikationszyklus eines Virus Abbildung 2. Replikationszyklus eines Virus. 1: Anheften an die Wirtszelle, 2: Aufnahme in die Zelle und 3: Abstreifen der Umhüllung (uncoating). 4: Transkription des Genoms und Umsetzung der mRNA zu viralen Proteinen (Translation), 5: Vervielfältiung (Replikation) des viralen Erbmaterials (RNA oder DNA), 6: Aggregation von Hüllproteinen – Bildung neuer Partikel, 7: Freisetzung (stark vereinfachte Darstellung, modifiziert nach commons, wikimedia).

Das Genom von RNA-Viren ist besonders klein, es enthält bloß zwischen 3000 und 33000 Nukleotide. Derart einfache Genome kodieren nur für einige wenige Proteine: üblicherweise sind das i) ein Enzym, das spezifisch die virale RNA repliziert (RNA-Replicase), ii) ein zweites Protein, welches eine Hülle um die virale RNA bildet und iii) ein weiteres Protein, welches die Auflösung - Lyse - der Wirtszelle und damit die Freisetzung des Virus einleitet. Bei Bakteriophagen, das sind Viren, die sich in Bakterienzellen vermehren, weist die genomische RNA Ähnlichkeit mit den Messenger-RNAs der Wirtszellen auf. Sie wird deshalb von der Proteinsynthese-Maschinerie der Wirtszelle - den Ribosomen - erkannt und unmittelbar nach Eintritt in die Wirtszelle zu Virusproteinen umgesetzt (translatiert).

Bestimmend für den Vermehrungszyklus von Viren: Mutation und Selektion

Das System Bakteriophage – Bakterienzelle stellt ein einfaches Modell dar, mit welchem die Mechanismen der Viren-Vermehrung untersucht werden können. An diesem Modell (Qβ-Phage – Escherichia coli Bakterie) hat Charles Weissmann bereits in den 1970er-Jahren gezeigt, daß der Vermehrungszyklus bestimmt wird durch die Struktur der Virus-RNA und die Dynamik, mit der sich diese faltet und entfaltet.

Generell erfolgt der Kopiervorgang eines Genoms nicht fehlerfrei. Unter allen Spezies zeigen Viroide und Viren die höchsten Mutationsraten (Abbildung 3). Diese beträgt etwas weniger als eine Mutation pro Genom und Replikation.

Mutationsrate in Abhängigkeit der GenomgrößeAbbildung 3. Die Genauigkeit mit der ein Genom kopiert wird (Mutationsrate), hängt von der Größe des Genoms (Anzahl der Nukleotide) ab. Mutationsrate: Anzahl der Veränderungen/Nukleotid. ssDNA-Viren: Einfachstrang-DNA-Viren , dsDNA -Viren: Doppelstrang-DNA-Viren , Bakterien: E.coli, niedrige Eukaryonten: Hefen, höhere Eukaryonten: Caenorhabditis elegans, Drosophila melanogaster, Maus, und Mensch. Ein Viroid kann aus nur 250 Nukleotiden bestehen, das humane Genom ist 3,3 Milliarden Nukleotidpaare lang, (Quelle: S. Gago et al. Science, 2009, 323 (5919) 1308; powerpoint slide for teaching)

Die Genauigkeit, mit welcher die virale RNA-Replicase die Nukleinsäure kopiert, ist ausschlaggebend dafür, ob brauchbare Information erzeugt wird, die zur Reproduktion von Nachkommenschaft befähigt. Der reproduktive Erfolg einer Variante – die sogenannte Fitness - wird üblicherweise an Hand ihrer Nachkommen in der nächsten Generation bestimmt. Eine Mutation in einem Gen führt zu einer Änderung in der Sequenz der Nukleotide und daraus kann sich eine Änderung in der Aminosäuresequenz des kodierten Proteins ergeben. Derartige Änderungen können die Struktur und damit die Funktion des Proteins in einer Weise beeinflussen, welche den reproduktiven Erfolg i) kaum beeinträchtigt (neutrale Mutation), ii) schmälert oder unmöglich macht, oder iii) in vorteilhafter Weise erhöht. Die im letzteren Fall entstehende Variante hat mehr direkte Nachkommen, als die um die Ressourcen desselben Systems konkurrierenden neutralen Varianten und das vererbte günstige Merkmal führt zu mehr und mehr Nachkommen in den folgenden Generationen während ungünstige Mutationen zu einem raschen Absinken der Häufigkeit führen mit der betroffene Varianten in der Gesamtpopulation angetroffen werden. Diese natürliche Selektion steuert den Evolutionsprozeß des Virus.

Quasispezies - Ein Schwarm von Varianten

Frühe, sehr arbeitsaufwändige analytische Untersuchungen an Viruspopulationen, die sich aus einer definierten Q-Phagen-RNA auf dem Bakterienrasen (E. coli) entwickelt hatten, zeigten: die Population RNA-Moleküle ist nicht einheitlich, sondern es existiert eine große Anzahl unterschiedlicher Sequenzen, die sich um 1 – 2 Mutationen von der ursprünglichen Sequenz unterscheiden. Dieses Ergebnis war überraschend, hatte doch bis dahin jede einschlägig arbeitende Gruppe die Sequenz „ihres“ Virus als fix angesehen. Der offensichtliche Schwarm an Varianten, der nun gleichzeitig in einer Virenpopulation nachgewiesen wurde, entsprach dem Konzept der sogenannten Quasispezies, deren Existenz Manfred Eigen in seiner molekularen Theorie der Evolution etwa gleichzeitig mit der Entdeckung der Heterogenität der Viruspopulationen postuliert hatte.

Basierend auf den Prinzipien der Darwin’schen Theorie von Mutation und natürlicher Selektion berücksichtigt das Eigen’sche Konzept auch die dynamischen Eigenschaften der Replikationsprozesse und die Wechselwirkungen zwischen den Molekülen und ist direkt auf die Replikation viraler RNA anwendbar:

Bei hinreichend genauer Kopierung der RNA und genügend lange nach der Infektion stellt sich eine stationäre Quasispezies –Mutanten Verteilung in der Viruspopulation ein: die Virusvariante mit der größten Fitness – die Mastersequenz - liegt in höchster Konzentration vor, daneben existiert ein Schwarm an Varianten. Wie hoch die Anteile von Mastersequenz und Varianten in der Quasispezies sind, hängt von der Mutationsrate und den Fitnessunterschieden ab (Abbildung 4):

Exaktes Kopieren der Mastersequenz produziert eine homogene Population, welche ausschließlich aus der Mastersequenz besteht. Mit steigender Mutationsrate nimmt der Anteil der Varianten stetig zu bis ein kritischer Wert erreicht wird. An der Fehlerschwelle breiten sich die Kopierfehler in der Population so rasch aus, dass sich keine stationäre Mutantenverteilung mehr einstellen kann. Die Konsequenz beim Überschreiten der Fehlerschwelle ist ein sich Auflösen der Populationsstruktur, da alle Mutanten gleich wahrscheinlich sind und die Population zur Gleichverteilung strebt, die in der Realität niemals eintreten kann.

Letale MutageneseAbbildung 4. Letale Mutagenese: Ausgehend von einem exakten (in der Realität unmöglichen) Kopieren der RNA führt eine steigende Mutationsrate (Kopierfehler während der Replikation) zu einem stetigen Absinken des Anteils an Mastersequenz und einem reziproken Anwachsen des Anteils bis eine Fehlerschwelle erreicht wird, ab der alle Mutanten gleichverteilt sind und die Populationsstruktur sich auflöst („driftet“). (Die Mutationsrate ist angegeben in: Veränderungen pro Replikation je Nukleotid).

Die Alternative zum Überschreiten der Fehlerschwelle ist ein Aussterben der Population durch Akkumulation letaler, das bedeutet nicht vermehrungsfähiger Varianten. Auch diese Situation kann durch Erhöhen der Mutationsrate erreicht werden. In Abbildung 5 sind die beiden Wege zur Auslöschung der Virenpopulation einander gegenübergestellt. Je höher die Zahl der letalen Positionen in der Sequenz der viralen Nukleinsäure ist, umso eher tritt Aussterben durch akkumulierte Letalität ein.

Letale Mutagenese

Abbildung 5. Letale Mutagenese: bei steigender Mutationsrate (Kopierfehler während der Replikation) nimmt i) der Anteil an Varianten zu, bis eine Fehlerschwelle erreicht wird, ab der alle Mutanten gleichverteilt sind und die Populationsstruktur sich auflöst (blau strichlierter Pfeil; siehe Abbildung 4) und ii) die Zahl letaler Veränderungen im Genom sich erhöht und damit die Entstehung nicht vermehrungsfähiger Varianten (rot strichlierter Pfeil). In beiden Fällen resultiert das Aussterben der Viruspoulationen. (Mutationsrate: Veränderungen pro Replikation je Nukleotid)

RNA-Viren replizieren mit geringer Genauigkeit, welche wie in Abbildung 3 gezeigt in der Nähe von einem Fehler pro Replikation des gesamten Genoms (zwischen 3000 und 33 000 Nukleotide) liegt. Eine einfache Abschätzung zeigt, dass dieser hohe Werte der Mutationsrate nur wenig unterhalb der Fehlerschwelle zu liegen kommt. Evolutionsmäßig betrachtet erscheint dieser Befund überzeugend, da Viren durch die Abwehrsysteme ihrer Wirtsorganismen – Restriktionsnukleasen, Immunabwehr, etc. – einem sehr hohen Selektionsdruck ausgesetzt sind und daher auf eine möglichst große Variationsbreite der Sequenzen in der Quasispezies angewiesen sind. In der Tat bereitet die hohe Variabilität einiger humanpathogener Viren besondere Probleme bei der Therapie, Beispiele sind das Influenza A Virus, das HIV I oder das Hepatitis C Virus.

Letale Mutagenese als eine neue antivirale Strategie Krankheiten, welche durch RNA-Viren mit hoch variablen Sequenzen hervorgerufen werden, stellen wegen der raschen Ausbildung von Resistenzen gegen vorhandene Medikamente oder Vakzinen als Folge der Quasispeziesstruktur der Populationen ein enormes medizinisches Problem dar. Um den Selektionsprozeß möglichst zu verzögern, werden heute häufig Kombinationstherapien angewandt, etwa im Fall der antiretroviralen Therapie (HAART) bei HIV-infizierten Patienten. Auch hier entstehen schlußendlich aber Viren-Formen, die gegen alle Medikamente der Kombinationstherapie resistent sind und damit zumTherapieversagen. Einen Paradigmenwechsel in der antiviralen Strategie stellt die auf der Basis der oben beschriebenen Phänomene – Überschreiten der Fehlerschwelle oder Akkumulation letaler Varianten – basierende letale Mutagenese dar. Substanzen, welche die Mutationsrate des Virus erhöhen – unter ihnen die zurzeit wirksamsten antiviralen Medikamente – führen mit oder ohne Vergrößerung der Breite der Mutantenverteilung zu einer Auslöschung der Viruspopulationen und bestätigen damit die Gültigkeit des neuen Ansatzes. Derart mutagene Substanzen führten in relevanten Infektionsmodellen und auch in klinischen Studien u.a. zur Eliminierung des Polio-Virus, des mit dem Tollwut-Virus verwandten Vesicular stomatitis Virus, des Lymphozytären Choriomeningitis Virus, des Maul-und Klauenseuche Virus und des HIV-Virus. Wie Sequenzanalysen viraler RNA zeigen, dürfte die Wirksamkeit des klinisch gegen Hepatitis C angewandten Medikaments Ribavirin zumindest zum Teil auf seine mutagene Wirkung zurückzuführen sein. Einige neue Viren-mutagene Verbindungen befinden sich zur Zeit in der klinischen Entwicklung .


Literatur

Domingo, E. (1978). Nucleotide sequence heterogeneity of an RNA phage population Cell, 13 (4), 735-744

Domingo E. et al. (2012) Viral Quasispecies Evolution Microbiol. Mol. Biol. Rev. 2012, 76(2):159 - 216

Eigen M. (1971). Self-organization of matter and the evolution of biological macromolecules. Naturwissenschaften 58:465–523.

Eigen M., Schuster P. (1977). The hypercycle—a principle of natural self-organization. A. Emergence of the hypercycle. Naturwissenschaften 64:541–565.

Weissmann C. (1974). The making of a phage. FEBS Lett. 40(Suppl.):S10–S18.856.

Weissmann C. et al., 1973. Structure and function of phage RNA. Annu. Rev. Biochem. 42:303–328.


Anmerkung der Redaktion

Dieser Essay setzt eine Serie zum Thema virale Infektionen aus der Sicht der Theoretischen Biologie fort. Bisher sind erschienen:

Aus der Sicht des Biochemikers Gottfried Schatz: Spurensuche – wie der Kampf-gegen-Viren-unser-Erbgut-formte

Aus der Sicht des Virologen Peter Palese: Influenza Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

Weiterführende links

Siehe auch links zu den beiden oben genannten Essays

Zwei hervorragende, leicht verständliche (allerdings englische) Videos:

Introduction to Viruses and Viral Replication (Craig Savage)
http://www.youtube.com/watch?v=PEWjyx2TkM8&feature=endscreen 14:01min

Virology 2013 Lecture #22 – Evolution (Vincent Racaniello)
http://www.youtube.com/watch?v=2k3ZmuLlR9U 1:12:19

Vincent Racaniello ist ein sehr prominenter Virologe, Professor an der Columbia Universität, NY, der auch einen exzellenten blog betreibt, welcher zu den aktuellsten Problemen der Virologie Stellung nimmt: Virology blog http://www.virology.ws/

inge Fri, 24.05.2013 - 11:23

Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden

Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden

Fr, 30.05.2013 - 04:20 — Gottfried Schatz

Icon BiologieGottfried SchatzBakterien und Viren passen ihr Erbgut viel schneller an die Umwelt an als wir Menschen und finden deshalb immer wieder Wege, um die Abwehr unseres Körpers und unsere Medikamente zu überlisten. In diesem ungleichen Kampf ist unser Wissen die schärfste Waffe.

Als mir am 22. September 1994 der Tontechniker am Internationalen Biochemie-Kongress in Delhi das Mikrofon anheftete, flüsterte er mir eine Botschaft zu, die mir das Blut in den Adern gerinnen liess: Am Tag zuvor sei in Surat, einer Stadt südwestlich von Delhi, die Pest ausgebrochen – und ein Patient bereits gestorben. Später erfuhr ich, dass es in Surat zu einer Massenpanik gekommen war, bei der dreihunderttausend Menschen in nur zwei Tagen die Stadt verließen. Wenn auch die Gesundheitsbehörden die Zahl der Todesopfer auf sechsundfünfzig begrenzen konnten, so zeigte doch die weltweite Bestürzung, wie sehr die Angst vor Pest das Gedächtnis der Menschheit belastet.

Drei grosse Wellen der Pest

Diese Angst ist wohlbegründet, denn das Pestbakterium hat im Verlauf der letzten eineinhalb Jahrtausende in drei gewaltigen Seuchenzügen ungezählte Menschen dahingerafft, weite Regionen ins Elend gestürzt und damit die menschliche Geschichte entscheidend mitgeprägt. Genetische Untersuchungen an Zähnen und Knochen aus historischen «Pestgruben» haben uns ein erstaunlich genaues Bild von den zwei ersten Pandemien gezeichnet. Beide kamen wahrscheinlich aus China und drangen über die Seidenstrasse und über Schiffe nach Westen. Die erste Welle erreichte Konstantinopel unter Kaiser Justinian im Jahre 542 n. Chr., tötete etwa die Hälfte der Bevölkerung Europas und dürfte so den muslimischen Eroberern den Weg geebnet haben. Die zweite Welle erfasste um die Mitte des 14. Jahrhunderts Sizilien und Italien und überrollte ab 1345 von dort aus über Marseille und Norwegen grosse Teile Europas. Der schwarze Tod wütete mit örtlichen Unterbrechungen bis ins 18. Jahrhundert, entvölkerte ganze Landstriche, untergrub die gesellschaftliche Ordnung und führte zu Hungersnot, Judenpogromen und religiöser Hysterie. Auch die dritte grosse Welle hatte ihren Ursprung in China: Sie erfasste 1894 die Provinz Yunnan und erreichte über Hongkong und die Schifffahrtsrouten schnell die ganze Welt.

Doch nun konnte diese der gefürchteten Krankheit endlich die Stirn bieten. Der aus Aubonne stammende Schweizer Bakteriologe Alexandre Yersin entlarvte den Krankheitserreger mithilfe seines japanischen Mitarbeiters Kitasato Shibasaburō als ein Bakterium, das heute ihm zur Ehre den Namen Yersinia pestis trägt. Bald darauf zeigte es sich, dass das Bakterium bevorzugt wilde Nagetiere und andere Säuger befällt. Infizierte Ratten sind für uns besonders gefährlich, da sie unsere unerwünschten Mitbewohner sind und das Bakterium über Flöhe auf uns übertragen. Was hätte der französische König Philipp VI. wohl für dieses Wissen gegeben, als er im Oktober des Jahres 1348 die medizinische Fakultät der Universität Paris nach der Ursache der Seuche befragte! Er bekam zur Antwort, dass eine Konjunktion der Planeten Saturn, Mars und Jupiter am 20. März 1345 um 13 Uhr eine Korruption der Atmosphäre und damit die Krankheit ausgelöst habe.

Verbreitung der Pest 1998Abbildung 1. Verbreitung der Pest im Jahre 1998. (Quelle: Centers for Disease Control (CDC), USA)

Bis heute gibt es keinen wirksamen Impfstoff gegen die Pest, so dass wir darauf angewiesen sind, sie durch Rattenbekämpfung, vorsichtigen Umgang mit Hunden und Katzen sowie strikte Hygiene im Zaum zu halten – und notfalls durch schnelle Diagnose und Antibiotika in die Knie zu zwingen. Dennoch ist Yersinia pestis bei weitem nicht besiegt. Wenn es Flöhe infiziert, blockiert es deren Verdauungstrakt, so dass die Flöhe trotz ausreichender Nahrung Dauerhunger verspüren, unablässig warmblütige Opfer anfallen und dabei einen Teil des in ihnen angestauten infizierten Blutes übertragen. Und wenn Yersinia pestis von den Abwehrzellen unseres Körpers angegriffen wird, spritzt es ihnen ein Gift ein und setzt sie so außer Gefecht. Es ist wohl nur eine Frage der Zeit, bis das Pestbakterium, so wie die meisten Bakterien, allen unseren heutigen Antibiotika trotzt. Bereits 1995 entdeckten Ärzte in einem sechzehnjährigen pestkranken Knaben aus Madagaskar die ersten Pestbakterien, gegen die alle Antibiotika wirkungslos waren. Dieser neue Bakterienstamm hatte sich offenbar DNS (Desoxyriboncleinsäure; DNA)-Stücke einverleibt, die ein Arsenal verschiedener Resistenzgene tragen und in der Natur unablässig zwischen verschiedenen Bakterienarten hin und her springen. Diese wandernden Resistenzgene sind der Grund, weshalb Resistenz gegen ein Antibiotikum sich so rasend schnell verbreiten kann. Sollte es uns nicht gelingen, diese «multiresistenten» Pestbakterien mit einem neuartigen Antibiotikum zu beherrschen, könnten sie zu einer globalen Bedrohung werden. (Zur Verbreitung der Pest im Jahre 1998: siehe Abbildung 1)

Genetisches Katz-und-Maus-Spiel

Infektionskrankheiten verursachen immer noch etwa ein Drittel aller menschlichen Todesfälle; allein das Aids-Virus hat in den letzten drei Jahrzehnten mehr als fünfundzwanzig Millionen Todesopfer gefordert*. Und manche Leiden, denen wir bisher andere Ursachen zuschrieben – wie Magengeschwüre, chronische Müdigkeit sowie manche Formen von Krebs und chronischem Asthma – entpuppen sich als Folgen von Infektionen durch Bakterien oder Viren. Zudem haben viele Krankheitserreger gelernt, sich nicht nur in unserem Körper, sondern auch im Inneren unserer Zellen zu vermehren und dafür deren Strukturen und Stoffwechselwege zu missbrauchen. Aber auch unser Körper hat gelernt, sich gegen Krankheitserreger zu wehren. Seine «Polizeizellen» spähen unablässig nach Eindringlingen und versuchen sie zu verspeisen oder mit aggressiven Chemikalien zu zersetzen. Dabei kommen diese Polizisten oft selber ums Leben und enden als grüngelber Eiter.

Viren und Bakterien verändern unablässig ihr Erbmaterial und schaffen damit neuartige Formen, gegen die unsere Verteidigung versagt. Dabei scheuen sie nicht davor zurück, sich Stücke unseres Erbmaterials einzuverleiben. Auch wir verändern unsere Gene, um uns besser zu verteidigen: Eine erbliche Blutkrankheit ist in Afrika weit verbreitet, weil sie Widerstandskraft gegen Malaria verleiht. Dennoch ziehen wir in diesem genetischen Katz-und-Maus-Spiel unweigerlich den Kürzeren: Unser Erbmaterial hat sich in den letzten sechs bis acht Millionen Jahren um etwa zwei Prozent verändert, doch das Poliovirus schafft dies in nur fünf Tagen. Auch die schnelle Vermehrung und immense Zahl von Bakterien und Viren erklärt, weshalb wir den genetischen Wettlauf mit mikrobiellen Krankheitserregern nie endgültig gewinnen können. – Dennoch ist unser Kampf nicht aussichtslos, denn wir führen ihn nicht nur mit der DNS unserer Gene, sondern auch mit unserem Wissen. Auch dieses ist «genetische Information», die wir vererben und schnell an veränderte Bedingungen anpassen können. Dieses Wissen schenkte uns die moderne Medizin und mit ihr die Antibiotika, von denen wir uns einst das Ende aller Infektionskrankheiten erhofften. Wir vergassen jedoch, dass Antibiotika seit Hunderten von Jahrmillionen in der Biosphäre vorkommen und deshalb Resistenz gegen sie weit verbreitet ist. In der Tat sind die meisten der bisher untersuchten Bodenbakterien gegen sieben oder acht der heutigen Antibiotika unempfindlich. Sie bilden ein schier unermessliches Reservoir an Resistenzgenen, aus dem Bakterien jederzeit schöpfen können.

Keine «terre des hommes»

Unsere Erwartung, Infektionskrankheiten mit Antibiotika ein für alle Mal zu besiegen, war die Hybris einer selbsternannten Herrenrasse, die mit Waffengewalt eine biologische Übermacht unterdrücken will. Doch die Natur duldet keine Apartheid. Unsere Heimat ist keine «terre des hommes», sondern ein Planet der Mikroben. Diese haben die Erde Jahrmilliarden vor uns besiedelt und für uns urbar gemacht. Wir haben uns sehr spät in das Netz des Lebens gedrängt und vergessen, dass wir darin nur eine winzige Masche sind. Könnten wir die DNS aller Menschen zu einem einzigen Faden verbinden, wäre dieser zwanzigmal länger als die Entfernung zwischen Erde und Mond. Die DNS aller Mikroben ergäbe jedoch einen Faden, der wahrscheinlich das gesamte Universum durchspannen würde. Gegen dieses in zahllosen mikrobiellen DNS-Fäden brodelnde, sich unablässig wandelnde biologische Wissen müssen wir uns behaupten. Vertrauten wir dabei allein unseren Genen, wären wir bald wieder kulturlose Tiere – oder vom Erdboden verschwunden. Nur unser wundersames Gehirn ist flink und erfindungsreich genug, um unsere biologischen Feinde in Schach zu halten und unserer Spezies eine ihrer würdige Zukunft zu sichern.

*WHO Fact sheet No360, Nov. 2012. http://www.who.int/mediacentre/factsheets/fs360/en/index.html


Anmerkung der Redaktion

Zusammen mit anderen Artikeln ist dieser Essay dem Schwerpunktthema Infektionskrankheiten gewidmet. Es ist dabei offensichtlich, daß kontinuierliche Forschung auf höchstem Niveau unabdingbar ist um den Kampf gegen die allgegenwärtigen, sich dauernd verändernden Mikroben bestehen zu können. Einige Beiträge zum Thema virale Infektionen sind kürzlich erschienen - dargestellt von renommierten Experten aus der Sicht ihrer Fachrichtungen:

Aus der Sicht des Theoretischen Chemikers Peter Schuster: „Letale Mutagenese - Strategie im Kampf gegen Viren“.

Aus der Sicht des Biochemikers Gottfried Schatz: „Spurensuche – wie der Kampf-gegen-Viren-unser-Erbgut-formte".

„Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?“

Aus der Sicht des Virologen Peter Palese: „Influenza Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?“


Weiterführende links

World Health Organization (WHO):
http://www.who.int/topics/plague/en/

Plague Manual: Epidemiology, Distribution, Surveillance and Control (50 p) http://who.int/csr/resources/publications/plague/whocdscsredc992a.pdf

http://www.who.int/mediacentre/factsheets/fs360/en/index.html

http://thoughteconomics.blogspot.ch/2013/02/fighting-hiv-aids-globally.html

Zahlreiche YouTube-Videos sind empfehlenswert:

Generell zu Infektionskrankheiten:

Dokumentation - Die Rückkehr der Seuchen 43:52 min (Fehler: Rinderwahnsinn wird nicht durch Viren verursacht, sondern durch Prionen, d.s. infektiöse Proteine) http://www.youtube.com/watch?v=8jDcQ9SKDLQ


Zur Pest: Ursachen, Epidemien, Immunität

Der Schwarze Tod - Pest im Mittelalter DOKU (ZDF) Video 42:13 min http://www.youtube.com/watch?v=jP4Ou03-C04
Die Pest | Deutsch Doku Universum Dokumentation; 42:37 min http://www.youtube.com/watch?v=DN4aU5Ncwzo


 

inge Thu, 30.05.2013 - 08:09

Feierliche Sitzung der Österreichischen Akademie der Wissenschaften (ÖAW): Bilanz mit Licht und Schatten

Feierliche Sitzung der Österreichischen Akademie der Wissenschaften (ÖAW): Bilanz mit Licht und Schatten

Fr, 17.05.2013 - 04:20 — Helmut Denk

Icon Politik & GesellschaftHelmut Denk

Die österreichische Akademie der Wissenschaften (ÖAW) ist Gelehrtengesellschaft und größter außeruniversitärer Forschungsträger unseres Landes. Im Rahmen der traditionellen Feierlichen Sitzung der ÖAW am 15. Mai 2013 hat der scheidende Präsident der ÖAW, Helmut Denk, über die während seiner Amtsperiode erfolgte Neustrukturierung der ÖAW berichtet: hin zu einer von Administration entlasteten Gelehrtengesellschaft und zu einem modern organisierten, auf Spitzenforschung fokussierten Forschungsträger (Ansprache leicht gekürzt).

 

Hauptsitz der ÖAWHauptsitz der Österreichischen Akademie der Wissenschaften (erbaut 1755; ehem. Universitätsgebäude; 1010 Wien Dr. Ignaz Seipel-Platz 2)

Wenn ich auf die vergangenen vier arbeitsreichen Jahre zurückblicke, zeigt sich mir ein vielfältiges Bild mit viel Licht aber auch einigem Schatten. Wie sieht unsere Bilanz nach vierjähriger Amtsperiode aus?

Wo standen wir bei Amtsantritt im Juli 2009? Was wollten wir erreichen? Was haben wir erreicht? Was bleibt zu tun?

Die dunklen Wolken der Finanzkrise überschatteten den Beginn unserer Tätigkeit. Die Akademie steckte in den Anfängen eines noch recht zaghaften Reformprozesses. Sie betrieb 64 Forschungseinheiten unterschiedlicher Fachrichtungen und Größe und mit uneinheitlicher Organisation. Personalstand, Budgeterwartungen und Berufungszusagen entsprachen noch den vergangenen „fetteren“ Jahren und mussten nun der finanziellen „Dürreperiode“ angepasst werden. Zahlreiche Gremien, mit beratenden Funktionen und ohne weitere Rechte, zeigten das Bemühen um Steigerung von Expertise und Transparenz. Die Verzahnung der Gelehrtengesellschaft mit dem Forschungsträger in administrativer Hinsicht wurde als Hemmschuh für die zeitgemäße Führung eines großen Forschungsbetriebs empfunden und von Akademiemitgliedern, Mitarbeiterinnen und Mitarbeitern, von Experten aus dem In-und Ausland, dem Rechnungshof und vom Geldgeber als inadäquat und konfliktträchtig kritisiert.

Somit standen „Sparprogramm“, „Fokussierung“ und „administrative Professionalisierung“ als zu lösende Probleme im Vordergrund. Dies unter der Prämisse, die hervorragende Stellung der ÖAW in der nationalen und internationalen Wissenschaftslandschaft zu erhalten, ja möglichst noch zu verbessern.

Also Reform!

Reform ist noch kein Wert an sich, Reform muss richtungsweisend sein, ein Weg, der beherzte Schritte erfordert. Reform bedeutet, heiße Eisen anzufassen. „Never waste a crisis“ hat Ram Emanuel, ein Berater von Barack Obama, einmal gesagt. Krisen treiben Reformen, aber diese Reformen können auch selbst als Krise empfunden werden, bedürfen sie doch schmerzhafter Eingriffe und erzeugen Unsicherheit. Reform im Sinne ständiger Erneuerung ist wahrer Wissenschaft inhärent. Wissenschaft ist revolutionär, stellt Vertrautes in Frage, schafft aber neben Wissen kontinuierlich Unwissen. Die Akademie steht in ständigem Wettstreit. Um ihre Existenz zu rechtfertigen und zu sichern, müssen wir, ohne unsere Wurzeln zu vergessen, den Blick nach vorne richten und stets aufs Neue den geänderten Bedingungen entsprechend handeln.

Was wollten wir erreichen?

  • Eine von Administration entlastete aktive Gelehrtengesellschaft als beachtete Stimme der Wissenschaft.
  • Einen modern organisierten, auf Spitzenforschung konzentrierten Forschungsträger.
  • Eine Entflechtung von Gelehrtengesellschaft und Forschungsträger in administrativer Hinsicht bei gegenseitiger wissenschaftlicher Befruchtung.

Was haben wir erreicht?

  • Präzisierung des Kurses der Akademie auf Basis eines mehrjährigen Entwicklungsplans
  • Reorganisation und Fokussierung des Forschungsbereiches
  • Dreijährige Budget- und Planungssicherheit durch die mit dem Bundesministerium für Wissenschaft und Forschung geschlossene Leistungsvereinbarung
  • Budgetkonsolidierung bis Ende 2014
  • Exzellenzsicherung durch ein klar strukturiertes Evaluierungssystem
  • Leistungsgerechte Budgetierung der Institute im Rahmen von Zielvereinbarungen
  • Professionalisierung von Administration und Finanzverwaltung
  • Erweiterte Kompetenzen für Präsidium, Finanzdirektor und Institutsdirektoren
  • Einrichtung eines Akademierats mit Kontroll-, Anhörungs- und Zustimmungskompetenz.

Wo stehen wir heute?

Die fachlich breit zusammengesetzte Gelehrtengesellschaft ist legitimiert, autonom Zukunftsthemen zu formulieren, interdisziplinär zu diskutieren und gegenüber der Öffentlichkeit zu vertreten. Die ethischen Aspekte der Wissenschaft dürfen dabei nicht zu kurz kommen. Hohe Priorität gilt daher der Belebung des wissenschaftlichen Diskurses in der Gelehrtengesellschaft. Diesem Ziel dient die Einrichtung von disziplinären Sektionen und von interdisziplinären Kommissionen. In prominent besetzten Symposien und Vorträgen werden wichtige Fragen behandelt, die von personalisierter Medizin über Finanzkrise und Staatsbankrott, Ökosystemprobleme, Migration und Integration, gesellschaftlichen Wandel, Beschäftigungssicherheit, Nationalismus in Südosteuropa bis zur Auseinandersetzung mit unserer eigenen Vergangenheit reichen. Der Synthetischen Biologie ist unser diesjähriges Symposium gewidmet. Die Öffentlichkeit wird zum Dialog eingeladen. Durch die Vernetzung mit ausländischen Akademien und europäischen Akademieverbünden, wie Leopoldina, EASAC und ALLEA, reichen diese Aktivitäten über unsere Grenzen hinaus.

Innovation wird erst dann wirksam, wenn sie in die eigene Lebenswelt integriert wird. So kann auch Wissenschaftserziehung nicht früh genug einsetzen. Aus Hören, Sehen, Tasten, Erleben und Diskutieren soll Verstehen werden. Durch Vorträge in Schulen, über Internet, Einrichtung von Schülerlaboratorien, Einladung der Jugend zu unseren Vortragsveranstaltungen, aber auch durch Motivierung der Lehrer versuchen wir, diesem Ziel in Zusammenarbeit mit anderen Institutionen näher zu kommen.

Neustrukturierung des Forschungsträgers

Mit Dezember 2012 war die Neustrukturierung des Forschungsträgers weitgehend abgeschlossen. Statt 64 Instituten und wissenschaftlichen Kommissionen befinden sich jetzt nur mehr 28 Institute unter unserem Dach. Bestimmend für diese Reduktion war die Konzentration auf Gebiete, in denen eine nationale und internationale Spitzenstellung besteht. Wir konzentrieren uns auf die Biomedizin mit besonderer Berücksichtigung molekularbiologischer Aspekte und personalisierter Medizin, auf Evolutionsbiologie, Quanten-, Hochenergie-, Material- und Weltraumphysik mit technologischen Anwendungsaspekten, angewandte Mathematik, auf Sozialwissenschaften mit Betonung demographischer, juridischer und medienwissenschaftlicher Aspekte, auf Asienwissenschaften, Geschichtswissenschaften sowie auf Fächer, die sich der Interpretation und Wahrung unseres kulturellen Erbes verschrieben haben. Die Grenzen innerhalb der Naturwissenschaften, aber auch zwischen den Natur- und Geisteswissenschaften verschwimmen dabei zusehends.

Die Umstrukturierung des Forschungsträgers erfolgte

  • einerseits ÖAW- intern durch Bündelung fachnaher Bereiche, vor allem in den Geistes- und Kulturwissenschaften, zu größeren, international besser sichtbaren Instituten.
  • und andererseits durch Übertragungen an Universitäten. Nicht immer ist uns dieser fachlich aber auch budgetär motivierte Transfer leicht gefallen. Das Positive überwiegt: durch die Übertragungen werden Arbeitsplätze erhalten und Forschung und Lehre an den Universitäten gestärkt; die frei werdenden Budgetmittel kommen den verbliebenen ÖAW Instituten zugute. Ich möchte an dieser Stelle dem BMWF und den Universitätsleitungen für die konstruktive Zusammenarbeit danken.

Neben den naturwissenschaftlichen Schwerpunkten ist die ÖAW traditionell ein Hort der Geistes-, Sozial- und Kulturwissenschaften. Über die Geisteswissenschaften entwickelt die moderne Gesellschaft ein strukturiertes Wissen von sich selbst: Woher kommen wir? Wo stehen wir? Wohin könnten wir gehen? Geisteswissenschaften vertiefen das Verständnis für kulturelle Unterschiede, Verhaltensmuster und soziale und ökonomische Zusammenhänge. Sie tragen damit zum friedlichen Zusammenleben in einer modernen Gesellschaft bei.

Die Gewinnung der besten Köpfe als Voraussetzung für Spitzenforschung setzt Planungssicherheit voraus. Aus diesem Grund wird derzeit ein neues Karrieremodell erarbeitet. Die Besten ins Boot zu holen, ist nicht einfach; müssen wir doch mit Institutionen im In- und Ausland konkurrieren, die über mehr Finanzmittel und längerfristige Budgetsicherheit verfügen. Trotzdem sind in den letzten Jahren exzellente Berufungen gelungen.

Entflechtung der Gelehrtengesellschaft und des Forschungsträgers

Im Oktober 2012 fasste die Gesamtsitzung nach intensiven Vorarbeiten und Diskussionen den Grundsatzbeschluss zur administrativen Entflechtung der Gelehrtengesellschaft und des Forschungsträgers.

Warum Entflechtung? Die Akademie zieht damit die Konsequenz aus der Erfolgsgeschichte der letzten dreißig Jahre, in denen sie sich von einer Gelehrtengesellschaft mit nur wenigen und kleinen Forschungseinrichtungen in ein Unternehmen mit mehr als 1.300 Mitarbeiterinnen und Mitarbeitern entwickelt hat. Die Entflechtung erleichtert die zeitgemäße Führung des Forschungsträgers und minimiert Interessenskonflikte.

Warum nicht komplette Trennung? Warum ein gemeinsames Dach?

In dem gemeinsamen Dach sehe ich das besondere Potential unserer Akademie. Es sichert die Expertise der Gelehrtengesellschaft für den Forschungsträger. Natürlich beruht der wissenschaftliche Fortschritt primär auf der Tätigkeit der Spezialisten in den Instituten. Je höher aber der Grad der Spezialisierung, desto wichtiger ist das Zusammenwirken des spezialisierten Wissens. Innovative Ideen und Problemlösungen entstehen oft an den Schnittstellen traditioneller Fachgebiete. Der Dualismus von Gelehrtengesellschaft und Forschungsträger spielt hier eine wichtige Rolle.

Wissenschaftliche Exzellenz ist die Voraussetzung für die Errichtung und Weiterführung von Forschungseinheiten. Risikoreiche Grundlagenforschung ohne Erfolgsgarantie bedarf der Finanzierung durch die öffentliche Hand. Dieses Basisbudget wird nun auf Grund von Zielvereinbarungen leistungsgerecht an die Institute vergeben. Dafür wurde in den letzten zwei Jahren ein einheitliches Evaluierungssystem etabliert, das sich an internationalen Vorbildern orientiert. Zusätzlich sind Drittmittel kompetitiv einzuwerben. Dabei sind die meisten ÖAW Institutionen sehr erfolgreich. Mit 16 laufenden Grants des European Research Council mit einem Fördervolumen von >24 Mio. Euro belegt die ÖAW den zweiten Platz in Österreich nach der Universität Wien.

„I have a dream“: eines Tages wird die Bundesregierung diesen Erfolg durch Verdoppelung der eingeworbenen Drittmittel anerkennen. Damit können wir dem Ziel, aus der Gruppe der „Innovation Followers“ zu den „Innovation Leaders“ in Europa aufzusteigen, näher kommen.

Der Annäherung von Wissenschaft und Wirtschaft darf sich auch die Akademie nicht verschließen. Innovative, wirtschaftlich verwertbare Produkte setzen Grundlagenforschung voraus. „Anwendungsoffene“ Grundlagenforschung bezieht sich aber nicht nur auf die Zusammenarbeit zwischen Natur- und Ingenieurwissenschaften und Industrie, wie sie das kürzlich eröffnete Christian-Doppler-Laboratorium am Zentrum für Molekulare Medizin praktiziert, sondern schließt auch die Geistes-, Sozial- und Kulturwissenschaften ein. Innovation ist ja nicht nur im technologischen Sinn, sondern umfassender im Sinne intellektueller Kreativität als Basis jeglicher Kultur zu verstehen. Ist nicht auch die Tätigkeit der Gelehrtengesellschaft anwendungsoffen, wenn sie wissenschaftliche Erkenntnisse als Entscheidungshilfe der Gesellschaft vermittelt?

Ohne Nachwuchs keine Zukunft!

In der Nachwuchsförderung sieht die ÖAW eine ihrer wichtigsten Aufgaben. Dazu dienen die erfolgreichen Stipendienprogramme und das soeben angelaufene, von der Nationalstiftung finanzierte „New Frontiers Groups“ Impulsprogramm. Damit wird jungen Forschern aus dem In- und Ausland die Möglichkeit geboten, völlig frei ihren innovativen Ideen in einem ÖAW-Institut nachzugehen. Die ersten drei ausgewählten Kandidaten, nämlich eine Frau und zwei Männer, vertreten die Gebiete Mathematik, Molekularbiologie und Hochenergiephysik. Nachwuchsförderung wird auch in unseren Instituten hoch gehalten. Die Institute IMBA und CeMM können stolz sein: sie landeten im Vorjahr im internationalen Ranking in der Spitzengruppe jener Institutionen mit weltweit höchster Attraktivität für Nachwuchswissenschaftler.

Was bleibt zu tun?

Am Ende unserer Amtsperiode können wir mit Genugtuung feststellen, dass richtungsweisende Reformen umgesetzt und die Weichen für eine erfolgreiche Zukunft unserer Akademie gestellt sind. Zugegeben, wichtige weitere Vorhaben, die für die Neustrukturierung und Belebung der Gelehrtengesellschaft angedacht wurden, konnten noch nicht konkretisiert werden. Details zur Entflechtung von Gelehrtengesellschaft und Forschungsträger unter einem gemeinsamen Dach harren noch des Feinschliffs.

Wahre Wissenschaft sprengt Grenzen und dringt in Neuland, in das Unwissen vor. Wie die Wissenschaft selbst erfordert auch die Reform einer Wissenschaftsakademie Einsatzfreude, Kompromissbereitschaft, Frustrationstoleranz, und den Mut, Rückschläge und sogar Scheitern in Kauf zu nehmen. Die Reformschritte müssen dann den Test der Praxis bestehen, nach dem Motto von Gottfried Wilhelm Leibniz, „Theoria cum Praxi“. Ich danke meiner Kollegin und meinen Kollegen im Präsidium, Sigrid Jalkotzy-Deger, Arnold Suppan und Georg Stingl, die sich nicht gescheut haben, mit mir heiße Eisen anzufassen und dafür manche Kritik zu ernten. Zusammenarbeit und die große Unterstützung in schwieriger Zeit; „Viribus unitis“ war unser Leitspruch in den vergangenen Jahren. Meinem Nachfolger Anton Zeilinger danke ich für die Bereitschaft, neben der Würde die Bürde des Amtes auf sich zu nehmen, und wünsche ihm und seinem Team Standfestigkeit und Erfolg.

Auf Grund persönlicher Erfahrung zitiere ich in diesem Zusammenhang den scheidenden Erzbischof von Canterbury Rowan Williams bei der Amtsübergabe an seinen Nachfolger:

“You have to preach with the bible in one hand and a newspaper in the other. I would hope that my successor has the constitution of an ox and the skin of a rhinozeros.”


Information über die ÖAW

http://www.oeaw.ac.at/


 

inge Fri, 17.05.2013 - 06:15

Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

Fr, 10.05.2013 - 04:20 — Peter Palese

Icon Medizin

Peter PalesePeter Palese, weltweit einer der renommiertesten Virologen, hat entscheidend zur genetischen Analyse und Aufklärung der Funktion von Genen und Genprodukten der Influenzaviren beigetragen. Die Bausteine dieser Viren verändern sich laufend und führen rasch zur Resistenz gegen aktuell wirksame Grippeimpfungen und Medikamente. Um lebensbedrohende Epidemien durch neue, hochinfektiöse Virenstämme abwehren zu können, erscheint die Entwicklung universell gegen unterschiedliche Stämme einsetzbarer, langfristig – möglicherweise sogar lebenslang – wirksamer Impfstoffe vordringlich. Der folgende Essay ist eine aus Vorträgen und Publikationen Peter Paleses zusammengegestellte und von ihm autorisierte Fassung.

Virusgrippe – ein enormes Gesundheitsproblem

Jährlich erkranken Millionen Menschen an der Virusgrippe, der Influenza. Die Folgen können fatal sein, vor allem für Patienten, die dem Erreger keine ausreichende körperliche Abwehr entgegensetzen können. Weltweit sterben jährlich im Schnitt bis zu 500 000 Menschen an der Virusgrippe (nach den Daten von CDC WHO Am. Lung Assoc. sind allein in den US jährlich rund 37 000 Todesfälle und mehr als 200 000 Spitalsaufenthalte auf Virusgrippe zurückzuführen, bei geschätzten Kosten von 37,5 Milliarden $​)

Im Falle verheerender Epidemien – wie der „Spanischen Grippe“ im Jahre 1918 – können es auch hundert mal so viele sein (Abbildung 1).

Spansiche Grippe von 1918Abbildung 1. Die “Spanische Grippe” von 1918. An dieser Pandemie (= globalen Epidemie) erkrankten rund 30% der Weltbevölkerung, 50 bis 100 Millionen Menschen starben. (Abbildung: US National Museum of Health and Medicine; Wikimedia)

Durch Influenza-Viren verursachte Grippe Epidemien stellen nach wie vor ein enormes Gesundheitsproblem dar. Die Bausteine der Viren mutieren laufend: Viren werden gegen heute noch wirksame Medikamente schnell resistent, ebenso gegen momentan angewandte Impfstoffe. Die Impfstoffe müssen daher jährlich, entsprechend den Empfehlungen der WHO [1], speziell den aktuellen (prognostizierten) Erregertypen angepaßt, Grippe-Impfungen im jährlichen Abstand vorgenommen werden. Diese jährliche Prozedur erweist sich als kostspielig, die Einführung der Impfstoffe als aufwendig und zeitraubend. Aber auch die kontinuierlich erfolgende Anpassung kann einem plötzlich auftretenden, in unserer globalisierten Welt sich rasch verbreitenden, neuen Erregertyp nachhinken.

Das Verstehen der molekularen Grundlagen der Virus-Bausteine und ihrer Funktion, d.h. die Kenntnis darüber, wie sich Viren vermehren und Wirtszellen infizieren, erlaubt erstmals die Entwicklung universell, gegen unterschiedliche Stämme von Influenzaviren wirksamer Impfstoffe in Angriff zu nehmen.

Das molekulare Make-up der Influenza Viren

Influenza Viren sind RNA-Viren, d.h. ihre genetische Information liegt in der Ribonukleinsäure – RNA – gespeichert vor und zwar in acht RNA-Segmenten, die je nach Virus Stamm fuer 10-12 Genprodukte kodieren.

Zwei dieser Genprodukte, die Proteine Hemagglutinin und Neuraminidase bilden an der Oberfläche des Virus einen dichten Rasen von „Spikes“ – diese sind das, was bei einer Infektion unser Immunsystem zu sehen bekommt (Abbildung 2). Hemagglutinin bewirkt das Andocken des Virus an der Wirtszelle und seine Aufnahme ins Zellinnere, das Enzym Neuraminidase die Freisetzung der in der Wirtszelle vervielfältigten Viruspartikel und damit deren Verbreitung innerhalb und außerhalb des befallenen Organismus.

Elektronenmikroskopie von Influenzavirus-Partikeln Viruspartikel schematisch
Abbildung 2. Influenza Virus Partikel. Links: Elektronenmikroskopie. Deutlich erkennbar sind die pilzartigen Spikes auf der Zelloberfläche . Rechts: Schematische Abbildung. Im Inneren des Virus ist sein aus acht RNA-Segmenten bestehendes Minichromosom zu sehen, an der Oberfläche die charakteristischen Spikes : Hemagglutinin (HA, blau) und Neuraminidase (NA, rot) (Die Bilder stammen aus: Wikipedia)

Verglichen mit der infizierten Zelle (Durchmesser rund 10 – 20 Mikrometer) ist das Virus sehr klein (Durchmesser rund 100 Nanometer). Innerhalb von 8 Stunden kann es aber hunderttausende neue Partikel bilden, die „riesige“ Wirtszelle Zelle töten und neue Zellen infizieren.

Spurensuche – Influenzaviren im letzten Jahrhundert

Infektionen des Menschen mit Influenzaviren treten in der nördlichen Hemisphäre vorwiegend von November bis März auf und werden vor allem durch das Influenza Virus der Gattung A verursacht. Auch eine Vielzahl an Tierarten – Vögel, Schweine, Pferde, Hunde, Meerestiere, etc. – ist von Influenza A Infektionen betroffen. Influenza A Viren (oder auch einzelne ihrer Gene, z.B. bei „Schweinegrippe“, siehe unten) können dabei auch von einer Spezies auf andere übertragen werden. Infektionen mit Influenza B Virus sind auf den Menschen beschränkt, seltener als Influenza A Infektionen und haben meist einen milderen Verlauf.

Auf Grund einer hohen Fehlerrate während des Kopiervorgangs (Replikation) der Influenza-Gene entstehen in diesen laufend Punktmutationen, welche ihrerseits zur Mutation einzelner Aminosäuren in den von ihnen kodierten Proteinen führen. Im Falle der immunitätsbildenden Oberflächenproteine, insbesondere im Fall von Hemagglutinin, kann die veränderte Aminosäuresequenz dazu führen, daß es von vormals wirksamen Antikörpern nicht mehr erkannt wird, daß das Virus so der Immunabwehr des Wirtsorganismus entkommen kann. Ein sogenannter ›Antigendrift‹ hat stattgefunden. Die serologische Identifizierung von Influenza A erfolgt auf Grund der Oberflächen-Proteine Hemagglutinin (H ) und Neuraminidase (N). Bis jetzt wurden 17 H-Subtypen (H1 – H17) und 10 N-Subtypen (N1 – N9) klassifiziert, die zu unterschiedlichen Kombinationen führen können (H1N1, H2N2,…). Von besonderer Wichtigkeit erscheint die Frage, welche Veränderungen zu einer erhöhten Pathogenität, zu einer länder- und kontinentübergreifenden Ansteckungsgefahr – einer Pandemie – führen können, mit katastrophalen Folgen wie im Fall der „Spanischen Grippe“ im Jahre 1918.

Um die Frage beantworten zu können, was die Erreger der „Spanischen Grippe“ von anderen Epidemien-auslösenden Influenzaviren unterschied, wurde das heute nicht mehr vorhandene 1918-Virus rekonstruiert: Als Ausgangsmaterial dienten Proben aus den Lungen damals verstorbener Soldaten, aus denen mit molekularbiologischen Methoden die viralen Gene isoliert, sequenziert und daraus das damalige Influenzavirus rekonstruiert werden konnte. Mit dem wiederhergestellten Virus konnten nicht nur Fragen hinsichtlich der durch einzelne Gene vermittelten Pathogenität geklärt werden, das Virus dient seitdem auch als exzellenter Standard für das Design von Infektionsmodellen.

Das 1918-Virus gehörte zum H1 Subtyp, dieses Virus wurde 1957 abgelöst durch einen H2 Subtyp („Asiatische Grippe“). Es folgten 1968 ein neuer Subtyp H3 („Hongkong-Grippe“), welcher heute noch vorhanden ist und 1977 ein anderes H1-Virus („Russische Grippe“), welches dem Virus aus den 50er Jahren sehr ähnlich ist. Ein neues Virus des H1N1-Subtyps trat im März 2009 auf („Schweine“- oder „Mexiko“-Grippe), welches eine Pandemie auslöste (bis Juni 2009 bestätigten 105 Länder insgesamt 59814 Fälle und 263 Tote mit dem neuem H1N1-Virus).

Damit koexistieren drei unterschiedliche humanpathogene Virentypen: die H1- und H3-Subtypen und zusätzlich das Influenza B-Virus. Das erklärt warum aktuelle Grippeimpfstoffe dementsprechend drei unterschiedliche Komponenten aufweisen müssen. Da in jüngster Zeit nun zwei unterschiedliche B-Virusstämme zirkulieren, wird die Vakzine der 2013/2014 Saison aus 4 Komponenten bestehen und zusätzlich zum H1 und H3 Hemagglutinin 2 unterschiedliche B-Virus Hemagglutinine enthalten.

Ein „historischer“ Überblick über die Influenza A Subtypen in der humanen Bevölkerung ist in Abbildung 3 gegeben. Prävalenz von Influenza A Subtypen im vergangenen Jahrhundert
Abbildung 3. Prävalenz von Influenza A Subtypen im vergangenen Jahrhundert

Die 2009 Pandemie (Schweinegrippe)

Der zuletzt 2009 aufgetretene H1N1-Subtyp ist in mehrfacher Hinsicht ungewöhnlich. Abgesehen von einer verspäteten, sich über das Frühjahr ausbreitenden Pandemie, stammen die 8 Segmente des Minichromosoms aus verschiedenen Influenza-Subtypen: sie sind durch Neukombination – Reassortment – von 5 Gensegmenten der klassischen und Eurasischen Schweinegrippe, 2 Gensegmenten der Nordamerikanischen Vogelgrippe und einem Segment der Hongkong Grippe entstanden. (Ein derartiges Reassortment kann auftreten, wenn die Wirtszelle gleichzeitig mit unterschiedlichen Virustypen infiziert ist.) Abbildung 4A.

Reassortment der Gensegmente Genetische Distanz zur 1918-Grippe
Abbildung 4. Virus Influenza A 2009 Subtyp H1N1 (Schweinegrippe). A (links) – Reassortment der Gensegmente und B (rechts) – Genetische Distanz zur 1918-Grippe (rote Linien: prozentuelle Änderung der Aminosäuren-Zusammensetzung des Hemagglutinin)

Ungewöhnlich erschien auch, daß im Test (Mikroneutralierungs-Test) von Proben junger Menschen unter 24 Jahren die saisonale Grippeimpfung keine Wirkung auf den neuen H1N1-Typ zeigte, bei älteren Populationen über 60 Jahre aber bereits partielle Immunität vorhanden war. Der Grund für diese partielle Immunität konnte damit erklärt werden, daß das für die Immunantwort hauptsächlich verantwortliche Hemagglutinin eine relativ große Ähnlichkeit mit dem Hemagglutinin des 1918-Virus aufweist, das bis in die 1950-Jahre einen großen Teil der älteren Bevölkerung infiziert hatte; diese wiesen offensichtlich noch zirkulierende Antikörper gegen das Virus auf. Der ebenfalls vom 1918-Virus abgeleitete Brisbane H1N1-Subtyp, Grundlage der saisonalen Grippeimpfung 2009, zeigte dagegen eine weitaus größere Veränderung des Hemagglutinins („genetische Distanz“). Die von den Geimpften gegen dieses Hemagglutinin gebildeten Antikörper erkannten das Hemagglutinin der Schweinegrippe nicht und boten somit kaum Schutz vor einer Infektion.

Daß die 2009 Influenza nicht zu einer ähnlichen Katastrophe wie im Jahre 1918 geführt hat, war im wesentlichen darauf zurückzuführen, daß der neue Subtyp das Virulenz Gen (PB1-F2) des 1918-Virus verloren hatte und, daß bereits am Markt vorhandene Inhibitoren der Neuraminidase (Tamiflu, Relenza) hervorragende Wirksamkeit gegen das Virus zeigten. Es erscheint aber durchaus wahrscheinlich, daß zukünftige Pandemien auch unter wesentlich ungünstigeren Bedingungen ablaufen können, wenn ein neuer, hochvirulenter Erreger gegen vorhandene Medikamente resistent ist und wenn nach seiner Identifizierung es noch viele Wochen oder Monate dauert, bis ausreichend Impfstoff verfügbar wird.

Wie hoch beispielsweise das Potential des kürzlich in China aufgetretenen Vogelgrippe-Virus H7N9 (nach Angaben der WHO:131 Erkrankungen und 32 Todesfälle seit Ende März 2013) ist eine Pandemie auszulösen, ist schwer zu prognostizieren. Das Virus wird von Geflügel (in welchem es keine Krankheitssymptome hervorruft) auf den Menschen übertragen; für eine Mensch zu Mensch Übertragung gibt es derzeit keine Bestätigung, diese kann aber durch Mutation des Virus hervorgerufen werden und dann zur schnellen Verbreitung führen. Ebenso besitzt auch das seit mehr als zehn Jahren in einigen Geflügelpopulationen zirkulierende und auf den Menschen übertragbare H5N1-Virus (nach Angaben der WHO von 2003 - 2013: 628 Erkrankungen und 374 Todesfälle) pandemisches Potential. Beide Erregertypen sind sensitiv gegenüber den oben erwähnten Inhibitoren der Neuraminidase.

Um lebensbedrohende Epidemien durch neue, hochinfektiöse Virenstämme abwehren zu können, erscheint die Entwicklung universell gegen unterschiedliche Stämme einsetzbarer, langfristig – möglicherweise sogar lebenslang – wirksamer Impfstoffe vordringlich.

Neue Technologien und Ergebnisse aus der Grundlagenforschung zeigen die Möglichkeit Hemagglutinin-Antikörper zu generieren, die gegen ein sehr breites Spektrum an Influenza Viren immunisieren und damit vor allem auch dem Ausbruch neuer Pandemien entgegenwirken können.

Achillesferse des Hemagglutinins

Hemagglutinin ist derzeit das primäre Zielmolekül (Target) antiviraler Strategien. Gegen dieses, an der Virusoberfläche exprimierte Protein generiert unser Immunsystem die robustesten, neutralisierenden Antikörper als Antwort auf eine natürliche Infektion mit Influenza oder auch auf eine Impfung. Damit wird der primäre Schritt des Anheftens und Eintritts des Virus in die Zelle verhindert:

Das Hemagglutinin-Molekül ragt als pilzförmiger Spike aus der Virusoberfläche heraus. Die Rezeptor-Region, mit der es an die Oberfläche der Wirtszelle andockt, befindet sich in seinem Kopfteil. Rund um diese Region finden sich mehrere Stellen (Epitope), gegen welche Antiköper generiert werden und so aus sterischen Gründen das Anheften an den Wirt verhindern können (Abbildung 5). Derartige – konventionelle – Antikörper sind allerdings nur gegen den speziellen Erregerstamm hochwirksam, da die Epitope im Kopfteil rasch variieren und bereits geringfügige Änderungen in ihrer Aminosäuren-Zusammensetzung (Antigendrift; siehe oben) bewirken können, daß ein Antikörper nicht mehr „paßt“, d.h. unwirksam geworden ist.

Reassortment der Gensegmente
Reassortment der GensegmenteAbbildung 5. Andocken des Influenza A Virus an die Zellmembran einer Wirtszelle. Oben: Bindung des viralen Hemagglutinins (blau) an Kohlehydratreste (hellblau) der Zellmembran des Wirts (rosa). Dunkelrote Spikes an der Virusoberfläche: Neuraminidase. Rechts: „Pilzförmige“ Struktur des Hemagglutinins mit stark variablem Kopfteil (rot eingekreist), an welchem sich die Bindungsstelle für den Wirt befindet, und konservierter Stamm (lila) . (Bilder: http://www.cdc.gov/flu/freeresources/index.htm und Protein databank PDB ID 1RVX)

Erst vor kurzem wurden beim Menschen nun Antikörper entdeckt, die kreuzreaktiv, d.h. gegen verschiedene Erregertypen, aktiv waren. Untersuchungen ergaben, daß sich diese Antikörper gegen eine, in verschiedensten Virustypen weitgehend konservierte Region des Hemagglutinins richteten, die sich an seinem Stamm befindet (Abbildung 5). In Mäusemodellen konnte gezeigt werden, daß bereits der Stamm – ein synthetisch herstellbares, 60 Aminosäuren langes Peptid – wenn er allein injiziert wird, Immunreaktionen gegen unterschiedliche Erregertypen erzeugte und den andernfalls letalen Ausgang der Infektion verhinderte [2].

Antistamm-Antikörper könnten somit eine gleichermaßen verwundbare Stelle der (meisten) Influenza Viren darstellen. Die im Menschen beobachteten Antistamm-Antikörper bilden langanhaltende Titer, die offensichtlich durch Infektion (beispielsweise mit dem 2009-Virus) und Impfungen noch verstärkt werden. Die Entwicklung von breitest wirksamen Antistamm-Antikörpern und die Möglichkeit deren Effizienz durch Impfungen noch zu verstärken, könnte damit zu neuen Strategien führen, die nicht nur das Problem der saisonalen Virusgrippe, sondern auch das Risiko neuer gefährlicher Pandemien entscheidend reduzieren [3].


[1] WHO recommendations for 2012/2013 influenza season in the northern hemisphere. http://www.euro.who.int/en/what-we-do/health-topics/communicable-disease...

[2] J. Steel et al. (2010) Influenza Virus Vaccine Based on the Conserved Hemagglutinin Stalk Domain. mBio 1(1): doi:10.1128/mBio.00018-10

[3] M.S.Miller et al., (2013) 1976 and 2009 H1N1 Influenza Virus Vaccines Boost Anti-Hemagglutinin Stalk Antibodies in Humans. JID 207:98-105


Weiterführende Links

Zur Wirksamkeit von Grippeimpfungen: siehe https://www.cdc.gov/flu/about/qa/vaccineeffect.htm

European Centre for Disease Prevention and Control (ECDC): Annual epidemiological report 2012. (PDF – free download; 266 p., in English)

Influenza - Die Angriffstaktik des Virus 1:25 min Influenza: Get the (Antigenic) Drift 2:52 min WHO: Clinical evaluation of universal influenza vaccines and pipelines for new influenza vaccines. R.C. Huebner (2013) US Dept. Health & Human Services, ASPR (PDF-slide show, in English).

P.Palese

Pasteur Award 2012 video 1:4 min The Wiley Influenza Virus, Porcine and Otherwise (2009) video 13:49 min. Influenza Pandemics: Past and Future (2006) video 45:12 min The Pathogenicity of Pandemic Influenza Viruses (2008) video 50:58 min


 

inge Fri, 10.05.2013 - 04:29

Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

Fr, 03.05.2013 - 05:29 — Gottfried Schatz

Icon BiologieGottfried SchatzInfektionen mit Retroviren haben seit jeher Spuren im Erbgut höherer Organismen hinterlassen. Mit rund 8 % der Sequenzen im menschlichen Erbgut nehmen fossile Überreste von Retroviren wesentlich mehr Raum ein als unsere eigenen Protein kodierenden Gene. Der Kampf gegen diese Eindringlinge, aber auch die Koexistenz mit diesen, hat zur Evolution der Spezies beigetragen.

Woher kommen wir? Welche geheimnisvolle Kraft schuf die hoch geordnete Substanz, die mich Mensch sein lässt? Die Suche nach den Antworten gebar unsere Mythen, doch heute wissen wir, dass viele Antworten im Erbgut unserer Zellen schlummern.

Jede meiner Körperzellen besitzt etwa 25 000 Erbanlagen (Gene), die in einer chemischen Schrift auf den fadenförmigen Riesenmolekülen der DNS niedergeschrieben sind. Die Gesamtheit meiner DNS-Fäden ist mein «Erbgut». Könnte ich an meinen DNS-Fäden entlangwandern, träfe ich nicht nur auf meine eigenen Gene, sondern auch auf etwa drei Millionen wahllos verstreute und verstümmelte Gene von Viren, die zusammen fast ein Zehntel meines Erbguts ausmachen. Diese genetischen Fossilien zeugen von erbitterten Kämpfen, die unsere biologischen Vorfahren vor Jahrmillionen gegen eindringende Viren geführt haben. Diese Kämpfe haben das Erbgut unserer Vorfahren aufgewühlt und so vielleicht mitgeholfen, sie zu Menschen zu machen.

Viren sind keine Lebewesen, sondern wandernde Gene, die sich zu ihrem Schutz mit Proteinen und manchmal auch noch mit einer fetthaltigen Membran umhüllen. Da sie keinen eigenen Stoffwechsel besitzen, müssen sie in lebende Zellen eindringen, um sich zu vermehren. Einige von ihnen – die «Retroviren» – schmuggeln dabei sogar ihr eigenes Erbgut in das der Wirtszelle ein. Wenn diese Zelle sich dann teilt, gibt sie die fremden Gene zusammen mit den eigenen an alle Tochterzellen weiter. Sie kann die fremden Gene jedoch nicht an die nächste Generation des infizierten Tieres oder Menschen weitergeben – es sei denn, sie ist eine Ei- oder Samenzelle. In diesem Fall vererbt sie die eingebauten Virusgene getreulich an die kommenden Generationen, so dass die fremden Gene feste Bestandteile im Erbgut des Organismus werden.Zellinfektion durch Retrovirus, schematisch

Abbildung 1. Schema: Infektion einer Wirtszelle mit einem Retrovirus. Aufnahme eines Retrovirus in die Wirtszelle, reverse Transkription der viralen RNA in DNA, deren Integration ins Wirtsgenom und Trankription in mRNA, Expression der viralen Proteine ribosomale Proteinsynthese, Assemblierung neuer Viruspartikel und Freisetzung. (Bild modifiziert nach Wikipedia).

Unterwanderung

In einer Zelle schlummernde Retroviren sind tickende Zeitbomben. Sie können aus dem Erbgut des Wirts wieder herausspringen und freie Viren bilden, die dann aus der Wirtszelle ausbrechen, in andere Zellen eindringen und sich nun in deren Erbgut einnisten. So folgt ein Infektionszyklus dem anderen. Was bewegt schlummernde Retroviren, plötzlich wieder zu erwachen und zu neuen Eroberungen aufzubrechen? Darüber wissen wir fast nichts. Doch wir wissen einiges darüber, wie wir uns gegen eindringende Retroviren zur Wehr setzen.

Wie mittelalterliche Städte und Burgen setzen wir dafür mehrere Verteidigungsringe ein. In den äussersten Ringen versuchen wir, das Virus mit unserer immunologischen Abwehr zu überwältigen oder ein Anheften des Virus an unsere Zellen zu verhindern. Versagt diese Abwehr, versuchen wir die Freisetzung der Virusgene aus ihrer Verpackung oder das Einschleusen dieser Gene in unser Erbgut abzublocken. Wenn das Retrovirus auch diese Verteidigungsringe überwältigt hat, bleibt uns nur noch der zermürbende Grabenkrieg: Wir versuchen, die unerwünschten Virusgene Schritt für Schritt zu zerstören. Diese Taktik erfordert zwar Geduld, war aber für unsere Vorfahren und auch für unsere Spezies bisher meist erfolgreich: Nach einer Million Jahren sind von den eingedrungenen Virusgenen gewöhnlich nur noch Bruchstücke übrig, die als genetische Fossilien im breiten Strom unseres Erbguts von Generation zu Generation treiben.

Unser Erbgut ist also nicht nur Quelle des Lebens, sondern auch ein immenses genetisches Totenhaus. Wenn wir dieses Totenhaus mit den Werkzeugen der Molekularbiologie durchsuchen, lässt es uns tief in unsere Vorzeit blicken und erahnen, welche Kräfte das Erbgut unserer Vorfahren geformt haben. Der Kampf zwischen Zellen und Retroviren tobt seit mehreren hundert Millionen Jahren. Es ist also nicht erstaunlich, dass wir im Erbgut aller Säugetiere so viele fossile Virusreste finden. Der Kampf ist noch nicht entschieden, denn infektiöse Retroviren nisten immer noch im Erbgut fast aller Säugetiere, bis hinauf zu unserem engsten Verwandten, dem Schimpansen.

Und seit wir eine eigene Spezies sind, ist es mehr als hundert verschiedenen Stämmen von Retroviren geglückt, in unsere Ei- oder Samenzellen einzudringen und unser Erbgut zu unterwandern. Doch wir Menschen scheinen als erste Spezies den Kampf gegen vererbte Retroviren gewonnen zu haben: Alle Virusgene, die wir in unserem heutigen Erbgut ausmachen können, sind mit höchster Wahrscheinlichkeit zu verstümmelt, um wieder infektiöse Viren bilden zu können. Nur bei einem einzigen integrierten Retrovirus sind wir uns nicht ganz sicher, ob es nicht doch in einzelnen Menschen seine Infektionskraft bewahrt hat und Krankheiten verursachen könnte.

Aber selbst Virusfossilien, die nicht mehr infektiöse Viren bilden können, schlummern nicht immer friedlich. Einige von ihnen, die fast bis zur Unkenntlichkeit verstümmelt sind, springen in unserem Erbgut immer noch ziellos und ohne ersichtlichen Grund von einem Ort zum anderen und hinterlassen dabei bleibende Spuren. Diese Spuren sind – wie so viele andere Spätfolgen eines Krieges – meist schädlich und verursachen etwa 0,2 Prozent aller Mutationen, die unser Erbgut im Laufe unseres Lebens unweigerlich erleidet. In einigen Menschen schädigte eine solche Mutation ein für die Blutgerinnung notwendiges Protein und machte diese Menschen zu «Blutern», für die selbst kleine Wunden lebensbedrohlich sind.

Waren uns Retroviren nützlich?

Aber durch springende Virustrümmer verursachte Mutationen können, wie alle Mutationen, gelegentlich auch nützlich sein. Ein springendes Virusfossil landete vor langer Zeit in der Nähe eines Gens, das die Entwicklung menschlicher Eizellen fördert, und erhöhte damit zufällig die Fruchtbarkeit - und so die Chancen für das Überleben - unserer Spezies. Und wenn wir die Angriffe von Retroviren anhand der genetischen Fossilien zurückverfolgen, erkennen wir, dass die plötzliche Entwicklung der Säugetiere vor 170 Millionen Jahren mit einer gewaltigen Invasionswelle von Retroviren einherging. Eine weitere Welle ereignete sich vor 6 Millionen Jahren, kurz bevor wir Menschen uns vom Schimpansen verabschiedeten.

Diese biologischen Kriegswirren haben die Zellen unserer Vorfahren wahrscheinlich dazu gezwungen, ihr Erbgut auf vielfältige Weise zu verändern, um neuartige Waffen gegen die Eindringlinge zu schmieden. Handelt es sich hier nur um zeitliche Zufälle - oder haben diese Infektionswellen plötzliche Entwicklungssprünge ausgelöst? Könnte es sein, dass Retroviren die Entwicklung unserer menschlichen Spezies gefördert haben? Erfüllen einige dieser verstümmelten Virusgene Aufgaben, von denen wir heute noch nichts wissen? Und sind die Virustrümmer in meinem Erbgut nur überwältigte Eindringlinge – oder ein wichtiger Teil von mir?

 


Weiterführende links

Evolutionsbeweis durch endogene Retroviren. Video 8:25 min Dazu die Webseite Evolutionsbeweis durch endogene Retroviren Evolution: Genetic Evidence – Endogenous Retrovirus Video 5:75 min (Englisch) Endogenous Retroviruses: Life-Cycle and Ancestral Implications Video 9:43 min M. Emerman, H.S. Malik (2010) Paleovirology—Modern Consequences of Ancient Viruses. PLOS Biology 8 (2) (PDF – freier Download, Englisch)


 

inge Fri, 03.05.2013 - 05:29

Die Rolle des AIT–Austrian Institute of Technology in der österreichischen Innovationslandschaft

Die Rolle des AIT–Austrian Institute of Technology in der österreichischen Innovationslandschaft

Fr, 26.04.2013 - 04:20 — Wolfgang Knoll

Wolfgang KnollaitIm nationalen Kontext ist das AIT, das Austrian Institute of Technology, zwar die größte außeruniversitäre Forschungseinrichtung des Landes; international gesehen ist es mit insgesamt rd. 1.100 MitarbeiterInnen aber ein eher kleines Institut. Mit der Neupositionierung und der Neuorganisation des AIT aus den ARC und dem Forschungszentrum Seibersdorf vor etwas mehr als vier Jahren haben wir damals einen Weg eingeschlagen, der es uns aufgrund einer konsequenten Fokussierung auf wenige Themen ermöglichen soll, internationale Exzellenz und damit eine globale Konkurrenzfähigkeit zu erreichen.

Durch die Beschränkung auf nur wenige Themenfelder (Abbildung 1) ist der Aufbau einer kritischen Ressourcendichte innerhalb unserer fünf Departments - Energy, Mobility, Health & Environment, Safety & Security sowie Foresight & Policy Development - möglich geworden: im Mittel sind rund 60 Mitarbeiterinnen und Mitarbeiter an jeweils einem der 11 Forschungsthemen beteiligt. AIT – Forschungsschwerpunkte Abbildung 1. Fokussierung auf fünf Forschungsschwerpunkte

Wir glauben, dass es uns nur so gelingen kann, gemeinsam ein eigenständiges Profil, ein – auch über Österreichs Grenzen weit hinaus sichtbares - Alleinstellungsmerkmal für das AIT und seine Experten als „Ingenious Partners“ zu erarbeiten. Damit ist ein wichtiger Schritt hin zu einer nachhaltigen Wettbewerbs- und damit Zukunftsfähigkeit gelungen.

Ganzheitliche (systemische) Lösungen in der Wertschöpfungskette

Ein wichtiges Anliegen unserer Arbeit ist es, mit den Kunden aus der Industrie und der öffentlichen Hand maximal vernetzt zusammen zu arbeiten. Daneben wollen wir uns auf den gesamten Weg der Innovation – entlang der Wertschöpfungskette also von der (wissenschaftlichen) Idee bis zur Markteinführung eines daraus von uns entwickelten technologischen Konzeptes oder praktischen Verfahrens durch unsere Kunden - konzentrieren, also Innovation in allen Belangen von Anfang bis zu Ende denken und begleiten. Dabei steht der systemische Ansatz im Zentrum unserer Arbeit. Ein solch holistisches Konzept für die Erarbeitung von Lösungen für die drängenden Fragen unserer modernen Gesellschaft – den sog. Grand Challenges (Klimawandel, Ressourcenknappheit, Energieeffizienz, Datensicherheit, Alternde Gesellschaft) - wird zunehmend stärker nachgefragt und gewinnt immer mehr an Bedeutung. Dies gilt in gleicher Weise für jene zahlreichen österreichischen Unternehmen, die hochspezialisiert sind und Antworten auf komplexe Fragestellungen benötigen. Ein mittelständisches Unternehmen hat im Normalfall nicht so sehr das „Big Picture“ im Auge. Aber gerade aus unserer Systemkompetenz heraus werden wir hier ein ganz wichtiger Partner und können garantieren, dass sich alle Komponenten, die unsere Kunden - selbst aus dem KMU Bereich - auf den Markt bringen, im Gesamtsystem erfolgreich getestet wurden, verstanden sind und sich auch in der Praxis bewähren werden.

Beispiele ganzheitlicher Ansätze

Im Mobility Department z.B. setzen wir auf einen ganzheitlichen Ansatz einer systemischen Betrachtung von Verkehrsinfrastruktur, Transportsystemen und Fahrzeugen. Wir erleben ja täglich, wie vor allem in und um Ballungszentren herum Verkehrsströme an ihre Grenzen stoßen. Unsere Mission ist daher Konzepte zu entwickeln, wie Mobilität in ihrer Gesamtheit neu gedacht und organisiert werden kann. Dabei ist z.B. die E-Mobility ein zentrales Element, aber auch viele andere moderne Technologien, wie z.B. Mobilfunk-Daten-basierte dynamische Transport Modelle für die Flottenlogistik oder für effiziente Krankentransporte können helfen, Lösungen zu erarbeiten.

Die Informations- und Kommunikationstechnologie (IKT) ist der Innovationsmotor Nummer eins - die Digitalisierung wird im privaten wie im professionellen Leben rasant fortschreiten. In Bereichen wie z.B. dem Gesundheitswesen, dem eGovernment und dem Katastrophenmanagement setzt man zunehmend auf verteilte IKT Systeme. Im selben Ausmaß wie die Nutzung dieser Systeme ansteigt, nimmt auch die Abhängigkeit von der Verfügbarkeit und Sicherheit dieser Systeme und Netze zu. Immer stärkere und häufigere Hackerangriffe auf verteilte IKT Systeme erfordern daher neue Sicherheitskonzepte.

So ist es auch ein übergeordnete Ziel des Forschungsbereichs „Intelligent Vision Systems“ des Departments Safety and Security am AIT, die stetig steigende Menge z.B. visueller Rohdaten in wertvolle, interpretierbare Information für zukünftige sichere Umgebungen umzuwandeln. Forschung und Entwicklung umfassen dabei die gesamte Kette in der Bildverarbeitung, vom Sensor über die High-Performance Signalverarbeitung und Bildanalyse bis hin zur Benutzerinteraktion und Visualisierung von Ergebnissen.

Die Entwicklung innovativer Strategien und Konzepte für zukünftige Energiesysteme steht im Fokus eines Forschungsschwerpunkts des AIT Energy Departments. Energiekonzepte für Städte und/oder Regionen werden dabei auf Basis einer integrierten Betrachtung der entsprechenden Energiesysteme entwickelt und stellen ein wissenschaftliches Fundament für Entscheidungsträger dar. Dazu werden Simulationswerkzeuge und -verfahren entwickelt, die speziell auf die Beschreibung und Analyse komplexer Energiesysteme abzielt mit dem Ziel, diese effizienter und nachhaltiger zu betreiben.

Der Forschungsbereich “Biomedical and Biomolecular Health Solutions“ des Health and Environment Departments adressiert sowohl den steigenden (Preis-) Druck auf das Gesundheitssystem und den demographischen Wandel unserer (alternden) Gesellschaft als auch den Trend in Richtung Individualisierung von Gesundheits-leistungen. Dabei entwickeln wir Technologien und Lösungen, um insbesondere im Bereich der Prävention und Diagnostik einen Mehrwert für den Patienten, unsere Partner in der Industrie und die öffentliche Hand zu generieren. Sensor-, Omics- und Imaging Technologien, Modellierung und Simulation sowie Materialoptimierung sind unsere Kernkompetenzen, die dabei zum Einsatz kommen.

Einen ähnlich ganzheitlichen Ansatz verfolgen wir auch im Forschungsfeld „Ressource Exploitation and Management“, wo wir an den Systemen Wasser und Boden und an dem Zusammenspiel von Organismen im Boden, Wasser, Pflanzen und Nahrungsmitteln forschen. Dabei werden Technologien und Methoden entwickelt, um die Effizienz in der Nutzung dieser Ressourcen, um die Produktivität bei der Herstellung und die Zuverlässigkeit und Sicherheit für den Verzehr von Lebensmitteln zu steigern.

Die Akzeptanz und Durchdringung - und damit der Erfolg - zukünftiger Technologien werden maßgeblich durch ein optimales Design und die konsequente Umsetzung von User Interfaces und User Experiences entschieden. Dies gilt auch und im Besonderen für die Technologie-basierten Lösungen, die am AIT für die zentralen Probleme und Herausforderungen im Bereich der Infrastruktursysteme erarbeitet werden: auch in den in unseren (technologischen) Departments adressierten Technologiefeldern stellt diese User-orientierte Betrachtung von Technologiesystemen ein wesentliches Element für die zielgerichtete Realisierung innovativer Lösungen dar und ist deshalb in einem eigenen Geschäftsfeld, „Technology Experience“, im Department Foresight and Policy Development, zusammengefasst.

Von Grundlagenforschung zur Entwicklung – Kooperationen in der Grundlagenforschung

Unser Weg, den Innovationsprozess mit Lösungen von der Idee bis zu ihrer Markteinführungen zu begleiten, soll helfen, die Kluft zwischen erfolgreicher Forschung und der Markteinführung der Forschungsergebnisse zu überbrücken, eine Lücke, die im Wesentlichen in allen industrialisierten Ländern als besonders problematisch identifiziert ist: So hat es z.B. auch Hermann Hauser in seinem Beitrag „The Current and Future Role of Technology and Innovation Centres in the UK1“ für Großbritannien beschrieben [2]. Das AIT orientiert sich an diesen Ansätzen und stellt damit für Österreich ein Bindeglied dar, das aus dem wissenschaftlichen und technologischen Knowhow einen maximalen Nutzen für seine Kunden und die Gesellschaft generiert (Abbildung 2). Wir sind derzeit die einzige Einrichtung im österreichischen Innovationssystem, die diese Rolle übernimmt, gleichzeitig von der Regierung und der Industrie beauftragt wird und die Lücke zwischen der Grundlagenforschung und der kommerziellen Verwertung überbrücken hilft. Hauptakteure F&E in Ö Abbildung 2. Die Hauptakteure und ihre Rolle im Forschungs- und Entwicklungsprozeß in Österreich (adaptiert nach [2]). Während sich die Universitäten auf die Grundlagenforschung konzentrieren und die Comet-Kompetenzzentren eher auf die kurzfristige Verwertung gemeinsamer Forschungsergebnisse der Universitäten abzielen, deckt das AIT das gesamte Spektrum ab: vom Engagement in den Emerging Technologies, dem ersten Proof of Concept und der angewandten Forschung bis hin zur Realisierung dieser aufkommenden Technologien im Rahmen spezifischer Anwendungen und Demonstratoren sowie der Entwicklung von Prototypen.

Um diesem Anspruch gerecht werden zu können, kooperiert das AIT sehr eng mit einer ganzen Reihe von Universitäten im In- und Ausland. In Österreich bestehen z.B. sehr intensive Kontakte zu allen Technischen Universitäten (TU’s), der Universität für Bodenkultur (BOKU), der Universität Wien, der Wirtschafts-Universität Wien, den Medizinischen Universitäten in Wien, Graz und Innsbruck, der Paracelsus Medizinischen Universität (PMU) und Paris Lodron Universität (PLU) in Salzburg, etc. Universitäten stehen ihrem gesellschaftlichen Auftrag gemäß für (forschungsgeleitete) Lehre und sie sind Hauptträger der Grundlagenforschung. Damit nehmen sie – neben den Instituten der Österreichischen Akademie der Wissenschaften (ÖAW) und dem Institute of Science and Technology (IST) Austria - auch in Österreich einen einzigartigen Platz in der Forschungslandschaft ein.

Für das AIT ist es von essentieller Bedeutung neben dem Aufbau eigener Grundlagen-Forschungskompetenz in seinen ureigenen Themenfeldern langfristige strategische Allianzen mit starken Gruppen an den nationalen, aber auch internationalen Universitäten (ETH, Zürich; MIT, Cambridge; NTU, Singapur; Georgia Tech, Atlanta; etc.) und anderen Forschungseinrichtungen (KIST, Seoul; Beckman, Urbana-Champaign; etc) zu etablieren und eine aktive Zusammenarbeit zu pflegen. Diese vertrauensvolle Partnerschaft ist die Basis auch für die erfolgreiche Einwerbung von Drittmitteln durch entsprechend angelegte strategische Kooperationen. Nur so können wir unsere eigenen Forschungsressourcen optimal einsetzen, Kompetenzen bzw. Forschungserfahrungen austauschen und unserer Verpflichtung bei der Ausbildung höchstqualifizierten Nachwuchses gemeinsam nachkommen. Dabei kann das AIT seine besondere Erfahrung im Bereich industrienaher Forschung auch in die gemeinsame Ausbildung einbringen und damit die Studierenden besser auf ihre berufliche Zukunft in der Industrie vorbereiten.

Brückenschlag zwischen Forschung und technologischer Vermarktung – Kooperationen mit der Industrie

Am anderen Ende der Innovationswertschöpfungskette stehen für das AIT die besonders wichtigen strategischen Kooperationen mit den großen Industrie-Playern wie Siemens, IBM, Infineon, AVL, und Magna aber auch mit den großen Infrastrukturbetreibern wie Asfinag, Verbund, ÖBB, Wiener Linien, u.a.. Mit ihnen zusammen entwickeln wir die langfristigen Zukunftskonzepte und arbeiten an Lösungen für die Großen Herausforderungen (Grand Challenges), bereiten wir uns schon heute gemeinsam vor für die technologischen Herausforderungen von morgen („Tomorrow Today“), und helfen damit unseren Partnern, sich auch durch unsere Antworten und Lösungsansätze einen entscheidenden Wettbewerbsvorteil auf den Weltmärkten zu erarbeiten und zu erhalten. Die schon angesprochene Systemkompetenz können wir aber auch nutzen, um KMUs in die Lage zu versetzen, bessere Bauteile, Komponenten und Maschinen zu fertigen und damit erfolgreicher am Markt zu platzieren.

Dieser direkten, strategisch ausgerichteten und typischerweise langfristig angelegten Kooperation (Zeithorizont: 5 Jahre plus) mit der Industrie vorgeschaltet sind die anwendungsorientierten COMET Programme. In ihnen arbeiten Universitäten, Forschungseinrichtungen und Unternehmen in Kompetenzzentren zusammen, um durch die zeitlich begrenzte gemeinsame Forschungs- und Entwicklungsarbeit (auf der Zeitskala von 2-5 Jahren) an gemeinsam definierten Themen und Programmen ein international konkurrenzfähiges Niveau zu erreichen. Damit stellt diese Plattform auch für das AIT ein attraktives Instrument dar, um entwickelte Technologien und andere Forschungsergebnisse gemeinsam mit Unternehmen zu nutzen (Abbildung 3).

Positionierung der Akteure in Ö Abbildung 3. Akteure im Forschungs- und Entwicklungsprozeß (R&D-Prozeß) in Österreich

Seiner Mission entsprechend liegt das AIT mit seinem Finanzierungsmodell sehr ausgewogen zwischen einer Finanzierung durch die öffentliche Hand und einer durch Forschungsaufträge. Unser Auftrag ist es, eine 40:30:30 Finanzierung, also 40% Basisfinanzierung durch den Bund, 30% durch öffentlich geförderte kompetitiv eingeworbene Forschungsmittel, z.B. aus den EU- oder den nationalen Förderprogrammen, sowie 30% durch direkte F&E Aufträge, eingeworben aus Wirtschaft und Industrie, umzusetzen.

Ausblick

Das AIT hat sich in den wenigen Jahren seit seiner Neuausrichtung 2009 zu einem gefragten F&E-Partner im In- und Ausland entwickelt. Bei vielen unserer Forschungsthemen spüren wir die stark steigende Nachfrage nach unserer (systemischen) Lösungskompetenz. Dementsprechend haben wir von unseren Eigentümern (dem Bund mit 50.46% und dem Verein zur Förderung von Forschung und Innovation der Industriellenvereinigung mit 49.54%) für die nächsten Jahre einen Wachstumsauftrag erhalten, um spezielle Themenbereiche weiter ausbauen und stärken zu können. Damit soll die erreichte Position des AIT innerhalb der nationalen Innovationslandschaft gehalten und ausgebaut werden, aber auch die internationale Sichtbarkeit weiter gestärkt werden. Entsprechend dem aktuellen Stand der Planungen kann für den Strategie-Planungszeitraum 2014-2017 von einem realistisch darstellbaren Wachstum um 20% ausgegangen werden. Diese Größe stellt zwar eine ambitionierte Zielsetzung unter den sich abzeichnenden wirtschaftlichen Bedingungen dar, erscheint jedoch aus der heutigen Position des AIT erreichbar.

Neben der Erarbeitung der dafür notwendigen finanziellen und räumlichen Ressourcen (wir sind ein Vollkosten-Institut, d.h., unsere Kostenrechnung basiert auf Vollkosten!) müssen wir uns vor allem einer Herausforderung stellen - der Rekrutierung der dafür notwendigen höchstqualifizierten MitarbeiterInnen in einem weltweit gnadenlosen Wettbewerb um die besten Köpfe. Hier kann das AIT nicht alleine erfolgreich sein, dieses Rennen ist nur in engster Abstimmung und strategischer Partnerschaft mit den Universitäten und den anderen Einrichtungen der Grundlagenforschung zu gewinnen. Das AIT leistet dazu auch einen erheblichen Ausbildungsbeitrag: unsere MitarbeiterInnen halten jährlich etwa 100 Vorlesungen (im Rahmen ihrer Stiftungsprofessuren, als Dozenten nach ihrer Habilitation, oder im Zuge von Lehrbeauftragungen an Universitäten und FHs), geben Vorträge über ihre Arbeit, präsentieren das AIT in Schulen („AIT macht Schule“).

Neben einer Vielzahl von gemeinsam mit Kollegen an den Universitäten betreuten Einzel-Dissertationen haben wir ein sehr erfolgreiches Master- und Promotionsprogramm im Bereich „Innovation & Sustainability – Knowledge and Talent Development Program“ mit der TU Wien, der WU Wien und der TU Graz entwickelt und haben einen besonderen Akzent im Bereich der Internationalisierung unserer Ausbildungsinitiativen gesetzt durch die Etablierung einer binationalen Graduiertenschule „IGS BioNanoTechnology“ mit der Nanyang Technological University in Singapur (zusammen mit der BOKU und der Uni Wien und der MedUni Wien). Hier spielt das AIT eine Vorreiterrolle bei der Implementierung eines Paradigmenwechsels hin zu einer vernetzten, interdisziplinären und vor allem auch internationalen Ausbildung unseres wissenschaftlichen Nachwuchses als „Global Players“. Nur mit diesen wird das Match zu gewinnen sein – nicht nur für das AIT sondern auch für Österreich!

[1] http://www.ait.ac.at/ueber-uns/die-rolle-des-ait-bei-innovationen-in-oes... /

[2] H. Hauser: The Current and Future Role of Technology and Innovation Centres in the UK, Department for Business, Innovation and Skills, March 2010


Anmerkungen der Redaktion

Detaillierte Information zum AIT. U.a.:

Videos sowohl zu aktuellen Forschungsthemen als auch zur Entwicklung des Unternehmens.

Wissensbilanz Indikatoren 2012 (PDF) AIT-Magazin: TOMORROW TODAY


 

inge Fri, 26.04.2013 - 04:20

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 3)

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 3)

Fr, 19.04.2013 - 04:20 — Gerhard Glatzel

Icon Wald

Gerhard Glatzel

Anm.: »ScienceBlog reloaded« — erster neuer Artikel. Der erste hier im neuen Format erscheinende wissenschaftliche Artikel rundet das hochaktuelle Thema »Biotreibstoff aus dem Wald« ab. Autor ist wieder der renommierte Waldökologe Gerhard Glatzel, der auch den Vorläufer dieses Blogs unter unserer Redaktion ein- und (durch Zufall) vor kurzem auch ausleitete.

Kann Energie aus Biomasse einen wesentlichen, nachhaltigen Beitrag zur Energiewende leisten? Die Umwandlung von Wäldern in Energieholzplantagen erscheint höchst problematisch. An der Erstellung des richtungsweisenden EASAC policy reports: “The current status of biofuels in the European Union, their environmental impacts and future prospects” des European Academies Science Advisory Council war der Autor maßgeblich (als Experte für Biomasse aus dem Wald) beteiligt1.

Teil 3: Biotreibstoff aus dem Wald2

Zurück zur Energie aus Biomasse

MeilerbetriebMeilerbetrieb in einer Darstellung von 1762 (Quelle: Landesamt für Kultur und Denkmalspflege Mecklenburg-Vorpommern.)

Holz und die daraus hergestellte Biomasse waren in Österreich bis zur Mitte des 19. Jahrhunderts die einzigen Quellen thermischer Energie für den Bedarf von Gewerbe und Industrie. Wasserkraft, Menschen, Arbeitstiere und in bescheidenem Ausmaß auch Windmühlen leisteten die mechanische Arbeit. Nach einer Statistik des österreichischen Ökologie-Institutes betrug der Energieverbrauch des heutigen Österreich zur Mitte des 19. Jahrhunderts, also vor der Verwendung fossiler Energieträger, etwa 110 pJ (Billiarden Joule), die praktisch zur Gänze durch Biomasse aus dem Wald bereitgestellt wurden. Aktuell beträgt der Energieverbrauch etwas mehr als 1.200 pJ; er ist also um den Faktor 10 größer.

Neue Energieträger lösen Holz als Quelle thermischer Energie ab

Fossile Energieträger, zunächst Stein- und Braunkohle, dann Erdöl und Erdgas lösten Holz als Brennstoff rasch ab, und im 20. Jahrhundert ersetzten mit flüssigem Kraftstoff betriebene Motoren die Wasserräder und Dampfmaschinen in Industriebetrieben die menschliche Arbeitskraft und die Arbeitstiere. Die Wasserkraft blieb nur in der Elektrizitätswirtschaft konkurrenzfähig, weil die Energieverteilung in dünnen Drähten unüberbietbare Vorteile bietet. Da nahm man gerne in Kauf, daß sich elektrischer Strom viel schlechter speichern läßt als Holz, Kohle oder Flüssigkraftstoffe.

Ab der zweiten Hälfte des 20. Jahrhunderts lieferten Kernkraftwerke wachsende Beiträge zur Stromversorgung. In Ländern mit geringem Potential für Wasserkraftanlagen und großer Abhängigkeit von importierten fossilen Energieträgern nahm man die Risiken im Umgang mit radioaktiven Stoffen in Kauf. Erst im 21. Jahrhundert begannen Windkraft- und Solaranlagen nennenswerte Beiträge zum Energiebedarf von Industrieländern zu leisten.

Der unersättliche Energiehunger der entwickelten Welt und die Zielsetzungen der Energiewende haben auch das Interesse an Bioenergie, also Energie aus pflanzlicher Biomasse, wieder in den Vordergrund gerückt. Theoretisch ist diese Energiequelle CO2-neutral, weil das bei der Verbrennung freigesetzte CO2 beim Wachstum der Pflanzen wieder gebunden wird. Wegen des Energiebedarfs der agrarischen Produktion und der aus Düngemitteln und Prozeßabläufen freigesetzten Treibhausgase wird die CO2-Neutralität oft weit verfehlt.

Bioethanol als Treibstoff

Um die Nachfrage nach flüssigen und damit leicht zu lagernden sowie für Kraftfahrzeuge verwendbaren Treibstoffen zu bedienen, setzt man vermehrt auf Bioethanol. Biodiesel erreichte nie besonders hohe Marktanteile, weil er aus Pflanzenfetten gewonnen wird, für die auch sonst gute Nachfrage besteht. Angesichts der Tatsache, daß Bioethanol der ersten Generation (aus Getreide, Zuckerrohr oder Zuckerrüben gewonnener Äthylalkohol) in Europa nicht in ausreichenden mengen erzeugt wird - und angesichts der Konkurrenz zur Nahrungsmittel- und Futtermittelproduktion sowie des in Summe eher bescheidenen Beitrages zum Klimaschutz – wird Alkoholgewinnung aus Nahrungs- und Futtermitteln eher als Sackgasse gesehen. Kritische Stimmen aus der Entwicklungspolitik die vor der Verlagerung von Bioethanolproduktion in Entwicklungsländer warnen, haben die Skepsis gegenüber Bioethanol der ersten Generation noch verstärkt.

Biotreibstoff aus dem Wald – ein Ausweg oder Holzweg?

Wegen der Kritik von Bioethanol aus Nahrungs- und Futterpflanzen wird in Brüssel jetzt vehement für Bioethanol der zweiten Generation Lobbying betrieben. Das Bioethanol soll dabei aus der gesamten oberirdischen Biomasse von mehrjährigen Pflanzen gewonnen werden, die nicht als Nahrungs- und Futtermittel dienen.

Chinaschilf Rutenhirse
Chinaschilf (links): Wuchshöhe 80 – 200 cm; Rutenhirse (rechts). Wuchshöhe bis zu 250 cm. (Bild: Wikimedia Commons)

Neben mehrjährigen Gräsern, wie Chinaschilf (Miscanthus sp.) oder Rutenhirse (Panicum virgatum, ein nordamerikanisches Präriegras), sollen vor allem Energieholzplantagen, meist als Ausschlagkulturen von Weiden- und Pappelklonen, den nötigen Rohstoff liefern. Dafür sollen nach den Konzepten der Bioalkoholindustrie bisher als Weide- und Ackerland sowie als Wald genutzte Flächen in Energiepflanzenkulturen mehrjähriger Pflanzen umgewandelt werden. Nur, wenn die Mitgliedsstaaten der EU diesbezüglich regelkonform agieren, können die für E10 benötigten Ethanolmengen in Europa erzeugt werden.

Es wird gefordert, daß sowohl für die Landwirtschaft als auch für die Forstwirtschaft entsprechende Anreizsysteme geschaffen werden. Diese könnten aus wertgesicherten, langfristigen Absatzgarantien und Steuerbegünstigungen oder Subventionen für die Umwandlung bestehen. Außerdem könnten die Bioethanolwerke die hochmechanisierte Bewirtschaftung der Flächen leisten, sodaß der Grundbesitzer keine Geräte anschaffen müßte und keinen Aufwand für die Bewirtschaftung seines Landes hat. Arbeitsplätze in der Bioethanol-Wertschöpfungskette könnten ein zusätzlicher Anreiz sein.

Massive Änderungen in der Form der Landnutzung

Sowohl für Landwirte als auch für Waldbesitzer sind mehrjährige Energiepflanzen-Kulturen eine neuartige Form der Landnutzung. Für den Landwirt ist ein „Fruchtfolgewechsel“ zwischen mehrjährigen Energiepflanzenkulturen und einjährigen Nahrungs- oder Futterpflanzen wegen der unterschiedlichen Produktionszeiträume und der zur Bewirtschaftung benötigten unterschiedlichen Geräte kaum möglich. Mehrjährige Energiepflanzenkulturen bedeuten also de facto, daß Flächen, die bisher der Nahrungs- oder Futtermittelproduktion dienten, in Zukunft den unersättlichen Hunger der Automobile stillen sollen (eine mittlere Tankfüllung entspricht 100 kg Brot).

Aber auch für den Forstwirt, der traditionell mit langlebigen Holzgewächsen arbeitet, bringt der Umstieg auf Energieholzplantagen-Wirtschaft massive Änderungen. Dabei ist für Waldbesitzer die energetische Nutzung der Biomasse von Wäldern nichts Neues. Vor der Verwendung fossiler Energieträger und industriell hergestellter Chemikalien wurden 80 – 90 % der Biomasse der Wälder nicht als Sägeholz verwendet, sondern als Brennholz, Holzkohle oder als Rohstoff für Gewerbe und Industrie, allen voran als Pottasche für die Glaserzeugung. Daneben wurde Laubstreu vom Waldboden gesammelt und als Einstreu in Ställen verwendet. Stallmist war früher das wichtigste Düngemittel in der Landwirtschaft.

Als fossile Energieträger Brennholz und Holzkohle vom Markt verdrängten, wurden Forstbetriebe zu Veredelungsbetrieben, die versuchten, möglichst viel des Biomassezuwachses in hochwertige Holzsortimente – vor allem Rundholz für die Sägeindustrie – zu lenken. Heute beträgt der Anteil dieser Sortimente 70 – 80 %. Mit schwächerem Holz wird die Papier- und Zellstoffindustrie bedient, und auch dafür nicht geeignetes Holz wird meist in Form von Hackschnitzeln als Heizmaterial verwendet. Darüber hinaus noch Biomasse zu entnehmen, führt rasch zur Nährstoffverarmung und Bodenversauerung, weil gerade Reisig und Blattmasse die höchsten Gehalte an Pflanzennährstoffen aufweisen. Darüber wußte man bereits im 19. Jahrhundert gut Bescheid3. Auf Grund der geringen Mengen und geringen Lagerungsdichte sowie des Transportes über lange Wegstrecken, ist Restbiomasse aus konventioneller Holzbewirtschaftung keine Option für die Bioethanolindustrie. Auch aus ökologischen Gründen wäre der Entzug von Reisig und Blattmasse sehr bedenklich, weil damit dem Bodenleben die für die Aufrechterhaltung wichtiger Bodenfunktionen unerläßliche Nahrungs- und Energiequellen vorenthalten würden.

Umwandlung von Wald in Energieholzplantagen?

Bioethanol der zweiten Generation kann nach gegenwärtigem Wissensstand nicht in Kleinanlagen auf dem Bauernhof oder dezentral im Forstbetrieb hergestellt werden, sondern nur in Großanlagen, die in Plantagen innerhalb eines Umkreises von 20 – 30 km mit Biomasse bedient werden. Das bedeutet, daß Wald in erheblichem Ausmaß in Energieplantagen umgewandelt werden müßte. Wenn die gesetzlichen und finanziellen Rahmenbedingungen stimmen, werden Waldbesitzer vermutlich nicht zögern, von der aufwendigen Wertholzproduktion auf Biomasseplantagen umzusteigen, die sehr einfach maschinell zu bewirtschaften sind. Angesichts der langen Produktionszeiträume der traditionellen Forstwirtschaft von bis zu hundert Jahren werden vielleicht manche Waldbesitzer zögern, ihren Wald in Energieholzplantagen umzuwandeln, weil sie Zweifel haben, daß Energieholzerzeugung für den Bioethanolmarkt auf Dauer profitabler sein wird als Wertholzproduktion. In Wald rückgewandelte Energieholzplantagen liefern nämlich erst nach Jahrzehnten kostendeckende Erträge. Volkswirtschaftlich ist es höchst fragwürdig, von Holz als veredelter Waldbiomasse mit vielfältigem Gebrauchswert und Wertschöpfungspotential in der Verarbeitung auf rohe Biomasse für die Energiewirtschaft umzusteigen, insbesondere dann, wenn öffentliche Mittel eingesetzt werden müssen, um die geringe Wertschöpfung der Produktion zu kompensieren.

Bioethanolfabriken der zweiten Generation verwenden die gesamte oberirdische Biomasse von Pflanzen und sind damit prinzipiell effizienter als die Anlagen der ersten Generation, die in Mitteleuropa vor allem Getreide oder Zuckerrüben verarbeiten. Ein weiterer, immer betonter Vorteil mehrjähriger Biomassekulturen ist der im Vergleich zu Getreide und Rüben längere Erntezeitraum. Energieholzplantagen können theoretisch das ganze Jahr über genutzt werden. Allerdings ist während des Austriebs der Wassergehalt sehr hoch, und im Winter können Reif und Schnee die Ernte und den Transport erschweren. Der Nachteil von Grasbiomasse und Holzschnitzeln gegenüber Getreide ist, daß diese wegen ihrer geringen Schüttdichte ungleich schwieriger im Ethanolwerk auf Vorrat zu halten sind. Ohne energieaufwendige Trocknung kann sich geschüttetes Hackgut im Freien bis zur Selbstentzündung erhitzen und dabei natürlich erhebliche Mengen an CO2 und anderen Treibhausgasen freisetzen. Ein hinsichtlich des Klimaschutzes möglicher positiver Effekt mehrjähriger Pflanzenkulturen ist die potentiell größere Kohlenstoffspeicherung im Boden. Um die Kohlenstoffsequestrierung umfassend bewerten zu können, muß man allerdings auch die mögliche Ausgasung von Treibhausgasen aus dem Boden unter verschiedenen Boden- und Klimabedingungen erfassen und berücksichtigen.

Biomasseplantagen müssen wie alle Intensivkulturen gedüngt werden, um die Bodenfruchtbarkeit zu bewahren und hohe Produktivität zu sichern. Energieholzplantagen unterscheiden sich diesbezüglich grundlegend von Wäldern im traditionellen mitteleuropäischen Sinn, die aufgrund des extrem niedrigen Nährstoffgehaltes des Holzes und der langen Umtriebszeiten ohne Dünger auskommen. In Energieholzplantagen werden ungleich höhere Anteile an nährstoffreichen Pflanzengeweben, wie Rinden und Knospen, entzogen. Daher muß gedüngt werden und man kann bei Bioholzplantagen nicht von Wald im traditionellen mitteleuropäischen Sinn sprechen. Es ist also ökologisch sinnvoller und ressourcenschonender, nur die sonst nicht nutzbaren Holzanteile, die bei der Produktion anfallen, direkt thermisch zu nutzen.

Auswirkungen auf Umwelt und Biodiversität

Ausgedehnte Änderungen der Landnutzung von traditioneller Land- und Forstwirtschaft zu neuen mehrjährigen Biomassekulturen für die Biospritproduktion haben natürlich erhebliche Auswirkungen auf die Biodiversität. Mehrjährige Gräser (Miscanthus oder Panicum) und Ausschlagplantagen von Weiden oder Pappeln, sind völlig andere Habitate für Wildtiere als konventionelle landwirtschaftliche Felder mit Fruchtwechsel, Weideland oder Hochwald. In großflächigen Monokulturen können Schädlinge und Pflanzenkrankheiten unerwartet zum Problem werden. Mit erheblichen Auswirkungen auf Oberflächen- und Grundwasser ist zu rechnen. Da Pflanzung, Pflege und Ernte der Biomasse hoch mechanisiert sind, müssen sich auch die Menschen in ländlicher Umgebung an die geänderten Arbeitsmöglichkeiten anpassen. Der Transport des Ernteguts auf öffentlichen Straßen ist ein weiterer zu berücksichtigender Aspekt. Natürlich ist auch der Erholungswert der ländlichen Räume von den geforderten Umstellungen betroffen.

Schlußfolgerungen

Zusammenfassend meine ich, daß sich die Bioethanolproduktion aus mehrjährigen Biomasseplantagen auf umgewandelten land- und forstwirtschaftlichen als verhängnisvoller Holzweg erweisen wird.

Solange wir nicht gesamthaft über eine ressourcenschonende Zukunftsentwicklung nachdenken, werden Lobbyisten und Geschäftsleute, die mit dubiosem Klimaschutz und insbesondere mit Emissionshandel viel Geld verdienen, versuchen, die Politik für ihre Zwecke zu beeinflussen. E10 ist ein Beispiel dafür. Insgesamt muß es aber das vorrangige Ziel sein, künftig mit weniger Ressourceninanspruchnahme – von Energie über seltene Erden bis zu Wasser und Boden - auszukommen und knappe Ressourcen klüger zu nutzen. Klare Vorgaben und Grenzwerte würden meiner Meinung nach Innovationen mehr stimulieren als einseitige Fokussierung auf zweifelhaftes „Energiesparen“, auf CO2-Emissionen und auf Emissionshandel.

Solange wir genug Geld haben, werden wir Energie kaufen und ohne Hemmung für vielfältige Annehmlichkeiten und Nutzlosigkeiten verwenden. Es ist beschämend, daß mehr als eine Milliarde Menschen Hunger leiden, während die Energie- und Agrarpolitik nach Möglichkeiten sucht, die Böden vermehrt für die Erzeugung von Biotreibstoffen auszuquetschen. Und zwar nicht, weil unsere Fabriken zu wenig Energie für die Produktion haben oder, weil wir im Winter frieren, sondern, weil noch mehr Energie für überdimensionierte Autos oder abgehobene Freizeitaktivitäten bereitgestellt werden soll. Wir übersehen dabei geflissentlich, daß Böden eine knappe, nicht beliebig vermehrbare Ressource sind, und daß wir mit der Fokussierung auf Biotreibstoffe nicht nur zum Hunger in der Dritten Welt beitragen, sondern auch in unserer Luxuswelt Verluste an Wasserqualität, Biodiversität und Erholungswert hinnehmen müssen.

Besonders problematisch ist die Umwandlung von Wäldern. In ihnen wird derzeit – meist sehr umweltschonend – Holz produziert, ein Rohstoff, der für Bauholz, für Möbel, aber auch für Papier und Zellstoff vielfältig verwendbar ist. Wenn wir Waldboden künftig vermehrt für die Bioethanolproduktion nutzen, bedeutet dies letztendlich, daß wir das knapp werdende Holz durch industriell hergestellte Kunststoffe aus Erdöl oder Biomasse ersetzen müssen. Ob dann die Gesamtbilanz hinsichtlich Klimaschutz oder Energieeinsparung dann noch positiv sein wird, darf bezweifelt werden.

Derzeit versuchen Energiekonzerne sowie die Agrarindustrie und deren Lobbyisten die Politik für gewinnträchtige Bioenergieprojekte zu gewinnen. Ihre Argumente für Klimaschutz , Energiesparen und neue Einkommensmöglichkeiten in ländlichen Räumen sind aber allzu oft nur Feigenblätter, hinter denen sich letztendlich nackte Geschäftsinteressen verbergen.

Wenn wir unseren Kindern und Enkelkindern nur annähernd so viel hinterlassen wollen, wie wir von unseren Eltern erhielten, müssen wir zu allererst mit unseren Ressourcen sorgfältig und sparsam umgehen. Das gilt nicht nur für die Energie, sondern auch für Boden, Wasser, Luft und Biodiversität. Wir müssen der Politik klarmachen, daß wir ungebremsten Energiekonsum durch kluge Bewirtschaftung beschränken müssen, statt nach alternativen Energiequellen für ungebremst wachsenden Verbrauch Ausschau zu halten. Auch durch Beschränkung können Innovationen stimuliert werden. Ziel muß sein, ein angenehmes Leben mit geringerem Gesamtenergieaufwand zu ermöglichen, anstatt in Technologien für eine intensivere Ausnützung der Landschaft zur Steigerung der Energieerzeugung zu investieren.

Zu zeigen, daß man auch mit insgesamt geringerem Energiekonsum ein angenehmes Leben führen kann, wäre auch für Schwellen- und Entwicklungsländer ein wichtiges Signal und sicher ein wirkungs- und verantwortungsvollerer Beitrag zum Klimaschutz als Emissionshandel.


[1] European Academies Science Advisory Council (EASAC): The current status of biofuels in the European Union, their environmental impacts and future prospects. EASAC policy report 19, December 2012. http://www.easac.eu/fileadmin/PDF_s/reports_statements/Easac_12_Biofuels... (free download)

[2] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

[3] Hausegger S. Intensive Forsthwirtschaft und die Folgen. Österreichische Vierteljahresschrift Für Forstwesen, XI, 1861, S. 88-104 und 248-277.

 


Anmerkungen der Redaktion

Teil 1: Energiewende und Klimaschutz und

Teil 2: Energiesicherheit des Artikels Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? sind bereits erschienen

Bioethanol: Äthanol (chem. Formel: C2H5OH), das aus Biomasse oder biologisch abbaubaren Komponenten von Abfällen für die Verwendung als Treibstoff produziert wird. E10: dem Benzin sind 10 Volumsprozent Bioethanol beigefügt.

Weiterführende Links:

Zu Teil 2: Energiesicherheit

Univ.Bodenkultur, Wien: Beitrag des Instituts für Waldökologie zu den Life sciences http://www.wabo.boku.ac.at/fileadmin/_/H91/H912/div/beitrag_cluster.pdf
und Leistungsprofil http://www.wabo.boku.ac.at/fileadmin/_/H91/H912/div/leistungsprofil.pdf

D. Lingenhöhl, Noch eine Ohrfeige für die Politik, Spektrum.de 26.07.2012
http://www.spektrum.de/alias/energiewende/noch-eine-ohrfeige-fuer-die-po...

World Energy Council: 2010 Survey of Energy Resources (618 pages; 11,7 Mb) http://www.worldenergy.org/documents/ser_2010_report_1.pdf

2013 World Energy Issues Monitor (40 pages; 3 Mb)
http://www.worldenergy.org/documents/2013_world_energy_issues_monitor_re...

Doha Climate Change Conference November 2012 http://unfccc.int/meetings/doha_nov_2012/meeting/6815.php

Ökosystem Erde: http://www.oekosystem-erde.de/html/system-erde.html

Leben im Boden Video (Lehrfilm 14:46 min)


 

inge Fri, 19.04.2013 - 04:20

ScienceBlog in neuem Gewande — Kontinuität und Neubeginn

ScienceBlog in neuem Gewande — Kontinuität und Neubeginn

Fr, 12.04.2013 - 04:20 — Inge Schuster

Inge Schuster

Vor rund einundzwanzig Monaten wurde der ScienceBlog als erste österreichische Plattform für Naturwissenschaften ins Leben gerufen. Ab heute erscheint dieser Blog (vormals „www.science-blog.at“) auf einer neuen Website im neuen Design.

Der Anlaß, der zur Etablierung des ScienceBlogs geführt hat, besteht nach wie vor:

Der Zustand naturwissenschaftlicher Bildung ist in unserem Land äußerst unbefriedigend. Als logische Konsequenz ergibt sich unzureichendes Verständnis für naturwissenschaftliche Fakten und Problemstellungen, das überdies mit Desinteresse gepaart ist. In unserer modernen Welt bilden aber gerade Verständnis und Wissen über technisch/naturwissenschaftliche Vorgänge nicht nur die Grundvoraussetzung dafür, daß der Einzelne eine für ihn optimale Lebensqualität anstreben kann, sondern auch, daß verantwortungsbewußtes ökonomisches und gesellschaftspolitisches Handeln auf allen Ebenen – von der lokalen bis zur globalen – möglich wird.

Dementsprechend verfolgen wir unverändert unsere Ziele, nämlich „Laien über wichtige naturwissenschaftliche Grundlagen und Standpunkte zu informieren, deren Grenzen in kritischer Weise abzustecken, Vorurteilen fundiert entgegenzutreten und insgesamt – in Form eines zeitgemäßen Diskussionsforums – das zur Zeit sehr geringe, allgemeine Interesse an Naturwissenschaften zu steigern“.

Zur Verfolgung dieser Ziele wird der Blog kontinuierlich weitermachen: durch die Vielfalt der Themen, deren Breite und Tiefe und nicht zuletzt den Qualitätsanspruch an Autoren und Inhalte bleiben wir ein Kaleidoskop der Naturwissenschaft.

Abb.: Kaleidoskop; Artwork von Eric Taylor zum Debut-Album »Blue Siberia« des Rock-Trios »Star FK Radium«. (Lautstärkeregler für Maus im Video.)

Themen des ScienceBlogs – ein Kaleidoskop der Disziplinen

Seit dem Start des ScienceBlog sind im wöchentlichen Abstand mehr als neunzig Artikel erschienen, welche in bunter Reihenfolge Themen aus der Mathematik und den unterschiedlichen Naturwissenschaften zuzurechnenden beziehungsweise auf ihnen basierenden Gebieten behandelt haben. Dabei wurde ein weiter Bogen gespannt von Physik über Geowissenschaften, Weltraumforschung, Chemie, Biologie bis hin zur molekularen Pharmakologie und Medizin. Diese bunte Mischung – ein naturwissenschaftliches Kaleidoskop – werden wir beibehalten.Die Trennung in einzelne Disziplinen ist allerdings bereits weitgehend überholt, da viele Gebiete als multidisziplinär anzusehen sind, also ohne Grundlagen und Techniken anderer Disziplinen nicht mehr auskommen können. Beispielsweise ist die moderne Medizin u.a. geprägt von der Suche nach Krankheitsursachen auf der molekularen (d.h. chemisch/molekularbiologischen) Ebene, von der Verwendung physikalischer Techniken zur Sichtbarmachung, Analyse und Diagnose pathologischer Vorgänge und von dem Bedarf an Informatikern, welche die Speicherung und Auswertung der ungeheuren Datenflut erst ermöglichen. Dieser Multidisziplinarität, die sich auch in vielen der bisher erschienenen Artikel gezeigt hat, wird der neue ScienceBlog nun Rechnung tragen, indem zu jedem Artikel die relevantesten Stichworte (keywords) ausgewählt werden, auf deren Vorkommen dann blogweit alle anderen Artikel abgesucht werden können. Da die Umstellung auf diese neuen Möglichkeiten etwas Zeit erfordert, bitten wir um etwas Geduld, bis wir alle bis jetzt erschienenen Beiträge, versehen mit den entsprechenden Ergänzungen, online gestellt haben. Ein wichtiger Aspekt des ScienceBlogs werden auch weiterhin wissenschaftspolitische Themen sein. Nach Möglichkeit werden an der Spitze von Institutionen in Forschung und Lehre stehende Wissenschafter sich mit spezifisch österreichischen Problemen befassen, vor allem mit der Einstellung von Gesellschaft und Politik zu naturwissenschaftlicher Bildung, Forschung und deren Förderung.

Qualitätsanspruch und Autoren

Mit seiner die gesamten Naturwissenschaften umspannenden Breite unterscheidet sich unser ScienceBlog grundlegend von anderen (bis jetzt fast ausschließlich ausländischen) Blogs. Diese werden zumeist von einem einzelnen Blogger betreut, beschränken sich damit häufig auf ein einziges Fachgebiet (und weisen inhaltlich sehr variable Qualitäten auf).

Mit dem Anspruch „höchste Seriosität und erste Qualität“ bieten zu wollen, haben wir einen anderen Weg beschritten, indem wir bis jetzt rund 40 international ausgewiesene, renommierte (größtenteils) österreichische Wissenschafter als Autoren rekrutieren konnten. Deren Beiträge – in leicht verständlicher (deutscher) Sprache abgefaßt – entstammten ihren jeweiligen Kompetenzbereichen, stellen also „Wissenschaft aus erster Hand“ dar.

Auf diese Weise wird der ScienceBlog weiterhin wichtige Forschungsgebiete auf dem derzeitigen Stand darstellen und dazu weiterführende, seriöse Links anbieten, die ebenfalls leicht verständlich und frei zugänglich (oder von der Redaktion erhältlich) sein werden. Wenn auch von Zeit zu Zeit top-aktuelle Forschungsergebnisse gebracht werden, so kann der ScienceBlog allerdings kein Science-News-Portal sein: bei der Breite der Disziplinen und der enormen Flut an neuen Befunden würde ein kritisches Hinterfragen und Berichten sowohl den Rahmen des Blogs als auch die Möglichkeiten der Betreiber sprengen.

Resonanz auf den Blog

Der „ScienceBlog im neuen Gewand“ eröffnet zahlreiche neue Möglichkeiten. Heute möchten wir vor allem darauf hinweisen, daß wir die Beiträge nunmehr beschlagworten und so unterschiedliche Sichtweisen und Blickwinkel der diversen Fachgebiete und Autoren evident werden.

Die neue Möglichkeit einer gezielten Suche schließt darüber hinaus auch Ihre Kommentare mit ein und erlaubt es blogweit, nach beliebigen Stichworten zu fragen. Für diese Suche werden in Kürze auch alle älteren Beiträge zur Verfügung stehen, die ja praktisch nicht an Aktualität verlieren!

Die Reichweite des ScienceBlog lag zuletzt (auf der alten Adresse www.science-blog.at) bei mehreren Tausend Besuchern im Monat. Damit erreichten Beiträge eine Leserschaft, die das Fassungsvermögen auch großer Hörsäale überstieg. Der Blog erzielte ein sehr gutes Resultat im Google-Ranking und wurde auf der Webseite einer Reihe renommierter Institutionen gelistet.

Natürlich hoffen wir an diesen Erfolg anknüpfen zu können, und daß unsere bisherigen Leser auch weiterhin den ScienceBlog besuchen und die Information über den Blog an möglichst viele Interessierte weitergeben. Vor allem aber hoffen wir auch, daß zu den einzelnen Themen rege Diskussionen entstehen, daß Kritik, Fragen, Wünsche und Vorschläge an uns weitergeleitet werden, die zu einem kontinuierlichen Besserwerden des Blogs beitragen.


 

inge Fri, 12.04.2013 - 04:20

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)

Fr, 04.04.2013 - 04:20 — Gerhard Glatzel

Icon Wald

Gerhard GlatzelDer Waldökologe Gerhard Glatzel reflektiert über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen [1]. Im vorliegenden 2. Teil befasst er sich mit Energiesicherheit statt Klimaschutz und dem Dilemma des Energiesparens.

Teil 2 - Energiesicherheit

Paradigmenwechsel nach Fukushima: Energiesicherheit und Verfügbarkeit der Energieträger stehen im Vordergrund

Die am 11. März 2011 von einem gewaltigen Erdbeben mit nachfolgender Tsunamiflutwelle ausgelöste Nuklearkatastrophe von Fukushima rückte den Ausstieg aus der Atomkraft, als das ursprünglich wichtigste Argument für die Energiewende, wieder in den Vordergrund. Deutschland faßte am 30. Mai 2011, also weniger als drei Monate nach Fukushima, den Beschluß aus der Atomenergie auszusteigen und innerhalb eines Zeitraums von zehn Jahren seine Kernkraftwerke abzuschalten. Für die deutsche Energiepolitik bedeutete die Entscheidung, daß Energieträgerverfügbarkeit sowie Energiesicherheit als Hauptargumente für die Energiewende in den Vordergrund traten und daß das durch ständige Wiederholung abgenutzte Klimaschutzargument in der öffentlichen Diskussion in den Hintergrund geriet. Die Verringerung der Abhängigkeit von den oft aus politisch instabilen Gegenden bezogenen fossilen Energieträgern und den sich insgesamt erschöpfenden Erdöl- und Erdgasvorräten des Planeten gaben der Forderung nach einem Umstieg auf nicht-fossile Energie, insbesondere Solar- und Windenergie, Wasserkraft und Biomasse starken Auftrieb.

Der durch die Nuklearkatastrophe von Fukushima ausgelöste Schock bot die Gelegenheit, über die Energiefrage hinaus auch wieder über den Umgang mit endlichen und nicht erneuerbaren Ressourcen nachzudenken. Neue Technologien für die Erzeugung, Speicherung und Verteilung von Energie, insbesondere von elektrischem Strom, bauen auf der Verwendung von Metallen auf, die nicht unbegrenzt zur Verfügung stehen und bei verstärkter Nachfrage knapp und teuer werden. Die Lagerstätten dieser Rohstoffe sind meist ungleichmäßig auf unserem Planeten verteilt, so daß sich ähnliche Abhängigkeiten von einzelnen Lieferländern ergeben, wie bei Erdöl und Erdgas.

Landwirtschaftliche Produkte für die energetische Nutzung

Ein weiterer wichtiger Aspekt ist die landwirtschaftliche Produktion von Nahrungsmitteln, Viehfutter, pflanzlichen Rohstoffen und Biomasse für die energetische Nutzung.

Die praktisch unbegrenzte Verfügbarkeit fossiler Energieträger und deren niedrige Preise, die oft noch durch Subventionen aus öffentlichen Mitteln (Agrardiesel) gestützt wurden, haben es erlaubt, die Produktivität durch großzügigen Einsatz des Betriebsmittels Energie zu intensivieren. Zu Buche schlagen sich auch Düngemittel und Agrarchemikalien für den Pflanzenschutz, deren Herstellung oft mit erheblichem Einsatz fossiler Energie erfolgt. Bei uns ist die Energieeffizienz der landwirtschaftlichen Produktion an sich noch immer relativ gut; man muß aber in einer Gesamtbeurteilung auch den Energiebedarf der Vermarktung hinzurechnen. „Just in Time“ und die Bewerbung und Vermarktung von Obst, Gemüse, Milchprodukten und Fleisch für ganze Supermarktketten zu im Voraus fixierten Zeitpunkten bedingt sehr großen Aufwand für Transporte. Für die Endverbraucher ist in vielen Gegenden Nahversorgung eher die Ausnahme als die Regel. Selbst in ländlichen Regionen muß man mit dem Auto zu den Supermärkten fahren, weil in den kleineren Orten die Gemischtwarenhandlungen, die Bäcker und die Fleischer längst zugesperrt haben.

Kreislaufwirtschaft – Wälder als Vorbild

Biologischer Landbau, der versucht, Pflanzennährstoffe zu recyceln und auf Agrarchemikalien zu verzichten, ist ein erfolgreicher Ansatz für den schonenden Umgang mit Ressourcen. Vorbild für die Kreislaufwirtschaft sind Wälder, insbesondere tropische Regenwälder. Die aus dem Boden aufgenommenen und in die Baumkronen transportierten Nährstoffe gelangen mit dem Laubfall wieder auf den Waldboden. Dort zersetzen komplexe Lebensgemeinschaften von Insekten, Würmern, Bakterien und Pilzen, um nur einige beteiligte Organismengruppen zu nennen, und die Pflanzennährstoffe werden wieder für die Wurzeln verfügbar. Ein dichter Wurzelfilz sorgt im Verein mit symbiontischen Pilzen – der Mycorrhiza – dafür, daß möglichst wenige Pflanzennährstoffe ausgewaschen werden und dem System verloren gehen (Abbildung).

Stoffkreislauf

Abbildung: Stoffkreislauf im Waldökosystem (modifiziert nach Amsel, Sheri: “Ecosystem Studies Activities.” Energy Flow in an Ecosystem. https://www.exploringnature.org/)

Die Tatsache, daß sich in Waldbächen Fische ernähren können, zeigt, daß der Stoffkreislauf in Waldökosystemen nicht völlig geschlossen ist und Nährstoffe ausgetragen werden. Die geringen Verluste können aber selbst auf den alten und ausgelaugten Böden der Tropenwälder durch Nährstoffeinträge aus Niederschlägen und anderen Quellen ausgeglichen werden.

Verlagerung von Nährstoffen mit verwehtem Laub oder dem Transport durch Tiere sorgt dafür, daß nicht alle Wälder gleich fruchtbar sind. Daher sind auch Wälder an Unterhängen fruchtbarer als an Oberhängen. Die Wahrscheinlichkeit, daß Laub hangabwärts transportiert wird, ist einfach größer als die der Verlagerung hangaufwärts gegen die Schwerkraft. Wandelt man Tropenwälder in Ackerland um, kommt es ohne Düngung sehr rasch zum Verlust der Bodenfruchtbarkeit, weil ausgelaugte Tropenböden Nährstoffe schlecht speichern oder neu durch Verwitterung zur Verfügung stellen. Die Ernte der Agrarprodukte unterbricht das weitgehend geschlossene Kreislaufsystem der Wälder und schafft ein offenes System, das auf die Ergänzung der bei der Ernte entzogenen Nährstoffe angewiesen ist. Das wußten schon unsere Vorfahren, die Nährstoffverluste durch Düngung mit Stallmist, der oft unter Verwendung der Laubstreu aus Wäldern erzeugt wurde, ausglichen. Bodenversauerung wurde durch Ausbringung von Mergel kompensiert. Die Ausdrücke „Mistvieh“ (ein altes Tier, das nur mehr für die Misterzeugung taugte) und „ausgemergelt“ (mangels Mergelung durch Zufuhr von Mergel – einem kalkhältigen Tongestein – unfruchtbar gewordener Boden) haben sich bis heute, losgelöst von der ursprünglichen Bedeutung erhalten.

Es ist an dieser Stelle nochmals anzumerken, daß ein weitgehend geschlossener Stoffkreislauf innerhalb eines Ökosystems nicht einem „Nullwachstum“ gleichzusetzen ist. Innerhalb des Systems gibt es Wachstum, erbitterte Konkurrenz, Unterdrückung, Parasitismus und vieles mehr, was wir in der menschlichen Gesellschaft als „Garstigkeit“ ansehen würden, die mit den Menschenrechten nicht zu vereinbaren sind.

Energie- und Kohlenstoffhaushalt in Wäldern

Hinsichtlich des Energie- und Kohlenstoffhaushaltes sind aus dem Vergleich mit Wäldern allerdings andere Schlüsse zu ziehen. Kohlenstoff, und damit Energie, wird innerhalb des Waldes nicht im Kreislauf geführt. Kohlenstoff wird beim Abbau der organischen Substanz als CO2 freigesetzt und gelangt in die Atmosphäre, wo es sich verteilt und bis zur Fixierung durch Pflanzen oder in Sedimenten länger verweilt. Die Energie für ihr Wachstum beziehen Bäume von der Sonne. Für das Leben nutzbare Energie können sie nur in ihren lebenden Geweben speichern und nicht aus toter Pflanzenmasse gewinnen.

Die in der abgestorbenen Biomasse gespeicherte Energie wird von den Bodenorganismen genutzt und ist für diese unersetzbar. Wenn die Lebensbedingungen für die Zersetzer ungünstig sind, sammelt sich tote Biomasse in Wäldern an:

Ist die Ursache des gehemmten Abbaus Trockenheit, sammelt sich brennbares Material an und der darin gebundene Kohlenstoff wird bei Waldbränden in Form von CO2 in die Atmosphäre freigesetzt.

Ist Vernässung des Bodens die Ursache, entsteht Torf. Die Kohlelagerstätten – der „unterirdische Wald [2]“ – sind Resultat dieses Prozesses.

Bei Sauerstoffmangel entsteht beim Abbau der Biomasse auch Methan, ein weiteres sehr wirksames Treibhausgas. Wälder unterscheiden sich von anderen Ökosystemen der Erde auch darin, daß sie besonders große Mengen an Biomasse ansammeln können, also wichtige Kohlenstoff- und Energiespeicher sind. Der Hauptspeicher dabei ist Holz, ein Stoff, der in mehreren hundert Millionen Jahren dauernder Evolution auf hohe Festigkeit, Dauerhaftigkeit und minimale Bindung von Pflanzennährstoffen optimiert wurde. Daher waren Wälder für die meiste Zeit der Menschheitsgeschichte die wichtigsten Energie- und Rohstoffquellen.

Spare in der Zeit, so hast du in der Not

Energiesparen ist eine wesentliche Voraussetzung für die Energiewende. Energiesparen dient dem Klimaschutz, und die Abhängigkeit von fossilen Energieträgern wird verringert. Obwohl Energiesparen seit vielen Jahren gefordert und beworben wird, ist der Verbrauch an fossilen Energieträgern im selben Zeitraum nicht wesentlich zurückgegangen, in vielen Ländern sogar gestiegen. Dafür gibt es mehrere Ursachen.

Zunächst ist der Begriff „Sparen“ schwammig und läßt sich durchaus unterschiedlich interpretieren. Unsere Eltern, die Lehrer in der Schule und auch die Sparkassen haben uns „Spare in der Zeit, so hast du in der Not“ vorgesagt und das fleißige Eichhörnchen als Beispiel gezeigt. Diese Art des Sparens ist auf das Anlegen von Vorräten für schlechtere Zeiten gerichtet. Es ist im Tierreich weit verbreitet, und auch die Menschen konnten den Winter oder Dürreperioden nur überstehen, wenn sie einen Teil der Nahrungsmittel nicht gleich konsumierten, sondern einlagerten. Auch das Geld, das wir auf’s Sparbuch einzahlen, wollen wir später einmal – mit Zinsen – genießen. Diese Art des Sparens ist also nicht Konsumverzicht, den wir in Hinblick auf den Klimaschutz und die Verringerung der Abhängigkeit von fossilen Energieträgern eigentlich erreichen wollen.

Energiesparen – Auswirkungen auf den Gesamtenergieverbrauch

Am Beispiel des Energiesparens durch bessere Wärmedämmung von Häusern läßt sich das Dilemma veranschaulichen. Wenn wir unsere Wohnung besser isolieren, sparen wir an der für die Heizung benötigten Energie. Da wir die Energie kaufen müssen, ersparen wir auch Geld. Das ersparte Geld vernichten wir aber nicht, sondern denken über andere Verwendungen nach. Vielleicht könnten wir uns ein größeres Auto leisten oder eine Fernreise oder den Swimmingpool beheizen? Wenn wir das ersparte Geld für den Ankauf eines Ölbildes verwenden, käme das in erster Annäherung tatsächlich einer Verringerung unseres Energiekonsums gleich. Aber was macht der Verkäufer des Ölbildes? Vielleicht kauft er sich ein größeres Auto oder macht eine Fernreise. Solange wir uns durch Energiesparen auch Geld ersparen, wird der Gesamtenergieverbrauch nicht sinken. Das bedeutet natürlich nicht, daß bessere Isolierung von Häusern sinnlos ist. Allein die höhere Sicherheit in Krisenzeiten rechtfertigt den Aufwand. Als Maßnahme zur Senkung des Energieverbrauchs in Österreich taugt bessere Wärmedämmung allerdings kaum. Wenig Energie verbrauchen nur Arme. Das wird besonders deutlich, wenn man den Energieverbrauch in verschiedenen Ländern den Familieneinkommen gegenüberstellt.

Beim Klimaschutz schlug man einen neuen Weg ein. Im Vergleich zu früheren Maßnahmen des Verhinderung oder Verminderung schädlicher Stoffe in der Atmosphäre, die sich an verbindlichen Grenzwerten orientierten, welche wieder auf Grundlage wissenschaftlicher Erkenntnisse und technischer Machbarkeit definiert und gegebenenfalls nachjustiert wurden, schlug man bei CO2 und anderen Treibhausgasen den Weg des Emissionshandels ein. Damit wurden Grenzwertüberschreitungen nicht grundsätzlich verboten, sondern verursachen nun Kosten, weil Emissionsberechtigungen, die von der EU in einem komplexen Regelwerk definiert werden, gekauft werden müssen. Die erlöse sollen Klimaschutzaktivitäten zufließen. Die Möglichkeit, im Emissionshandel Geld zu verdienen, wurde von Geschäftsleuten rasch erkannt und führte zu einem breiten Angebot an Investitionsmöglichkeiten, für die Lobbyisten und sektorale Interessensvertretungen in Brüssel und in den nationalen Regierungen werben. Besonders erfolgreiche (oder von Lobbyisten erfolgreich vermarktete) Konzepte schaffen die Aufnahme in Empfehlungen oder Richtlinien der EU. Ein bekanntes Beispiel ist E10, ein für Automotoren vorgesehener Kraftstoff, der einen Anteil von 10 % Bioethanol enthält und damit zu den Ethanol-Kraftstoffen zählt. Er wurde 2011 in Deutschland in Zusammenhang mit den Erfordernissen der EU-Biokraftstoffrichtlinie eingeführt, um den fossilen Rohstoffverbrauch und CO2–Emissionen zu reduzieren.Grundsätzliches Problem aller Maßnahmen ist, daß sie als Einzelmaßnahme Senkungen der treibhauswirksamen CO2–Emissionen bewirken, aber im Gesamtkontext der Ressourcen-politik oft nicht evaluiert wurden. E10 erlaubt weiterhin, mit übergroßen Autos zu fahren, weil es keine Grenzwerte für den maximal zulässigen Treibstoffverbrauch pro Personenkilometer gibt. Bekanntermaßen werden die Automotoren zwar effizienter, die Autos selbst aber größer. Bei Biotreibstoffen wurden auch die Auswirkungen auf die Nahrungsproduktion und die Bodennutzung in Entwicklungsländern viel zu wenig berücksichtigt.

Persönlich sehe ich den Wechsel von Grenzwertregelungen zum Emissionshandelskonzept als bisher schwerste Sünde der Ressourcen-, Umwelt- und Klimaschutzpolitik


[1] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

[2] Sieferle P. (1989) Der unterirdische Wald. Energiekrise und industrielle Revolution. München.


Anmerkungen der Redaktion

Zu Teil 1: Energiewende und Klimaschutz

Zu Teil 3: Zurück zur Energie aus Biomasse

Weiterführende Links

Artikel zu verwandten Themen im Science-Blog:

inge Thu, 04.04.2013 - 04:20

Wie Computermethoden die Forschung in den Naturwissenschaften verändern

Wie Computermethoden die Forschung in den Naturwissenschaften verändern

Fr, 28.03.2013 - 04:20 — Peter Schuster

Peter SchusterIcon MINTImmanuel Kant (1786) Metaphysische Anfangsgründe der Naturwissenschaft: „…Ich behaupte nur, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könnte, als darin Mathematik anzutreffen ist. …“

Bahnbrechende Entwicklungen im 20. Jahrhundert

Basierend auf außerordentlichen technischen Innovationen im zwanzigsten Jahrhundert haben sich die Methoden in den Naturwissenschaften grundlegend geändert. Neue Techniken haben, aufeinander aufbauend, zu einer Flut an weiteren Entwicklungen und diversesten Anwendungen geführt. Einige der bedeutsamsten neuen Methoden sollen hier in chronologischer Reihenfolge aufgezählt werden:

  1. die Entwicklung hochauflösender spektroskopischer Methoden (beispielsweise Röntgen-, Fluroreszenz-, Kernresonanz-, Elektronenresonanzpektrometrie u.a.) die gleichermaßen ihre Anwendung in der Physik, Chemie und Medizin finden,
  2. die Entwicklung von Mikromethoden zur Bearbeitung und Analyse von (kleinsten) Proben in Physik, Chemie, Biologie und Medizin,
  3. die Revolution in der numerischen Mathematik durch elektronische Rechner (Computer),
  4. die molekulare Revolution in der Biologie, welche vor allem durch neue Techniken zur Sequenzierung von Nukleinsäuren ausgelöst wurde und u.a. zur Sequenzierung des humanen Genoms geführt hat, ebenso wie durch die Kristallisierung von Proteinen, die deren Strukturanalyse und Rückschlüsse auf deren Funktion erlaubte und schließlich durch „lab-on-chip“ Methoden, welche alle Funktionen eines makroskopischen Test-und Analysesystems auf einem nur plastikkartengroßen Chip vereinigen,
  5. die Entwicklung der Computer-unterstützten Quantenchemie (dafür wurde 1998 der Nobelpreis an – den ursprünglich aus Wien stammenden - Walter Kohn und an John A. Pople vergeben),
  6. die Revolution in der Bioinformatik, die mehr und mehr die Beschreibung hochkomplexer Systeme möglich macht und zu einer „Systembiologie“ - d.h. einer holistischen Darstellung der Chemie in der Biologie – führt

All diesen Techniken und ihren unterschiedlichen Weiterentwicklungen ist gemeinsam, daß sie ohne „wissenschaftliches Rechnen“, das heißt ohne den intensiven Einsatz von Computermethoden, nicht denkbar wären. Auf diese primär in Punkt 3 und 6 genannten Methoden nimmt der gegenwärtige Artikel – entsprechend seinem Titel – Bezug.

Steigerung von Rechenleistung und Speichervermögen moderner Computer

Die beobachtete Steigerung von Leistungsfähigkeit und Speichervermögen moderner Computer folgt einer empirischen Regel, die Gordon Moore im Jahr 1965 für integrierte Schaltkreise feststellte und fand, daß sich deren Komplexität bei minimalen Kosten der Komponenten innerhalb von 12 – 24 Monaten verdoppelte. Abbildung 1 zeigt, daß diese Regel auch für die Entwicklung von Computern Gültigkeit hat. Der Zugang zu billiger Rechenleistung ist sehr einfach geworden. Im Jahr 2000 lag die Leistung bereits bei 100 Millionen Rechenoperationen pro Sekunde zu einem Preis von $ 1,0 (Abbildung 1). Dazu kommt, daß auch die technischen Probleme der langfristigen Datenspeicherung gelöst sind. Damit werden nun auch hochkomplexe Rechenprobleme immer mehr zur Routine.

Moore's law Abbildung 1 Wie sich die Leistungsfähigkeit von Rechnern entwickelte. Adaptation der Moore’schen Regel auf die unterschiedlichen Typen von Rechnern. Zu beachten ist die logarithmische Einteilung der senkrechten Achse: jeweils 100-fache Werte von Teilstrich zu Teilstrich! (Quelle: Ray Kurzweil http://en.wikipedia.org/wiki/Image:PPTMooresLawai.jpg)

Was aber noch nicht so sehr Eingang in das öffentliche Bewußtsein gefunden hat, ist die enorme Leistungsfähigkeit von rechnerischen Lösungsansätzen, von Algorithmen, welche die Leistungsfähigkeit der Hardware bereits überflügelt haben. (Unter einem Algorithmus versteht man eine aus endlich vielen Schritten bestehende, eindeutige und ausführbare Handlungsvorschrift zur Lösung eines Problems.) Numerische Mathematiker und Algorithmen-Entwickler schaffen hier ein enorm breites Repertoire an Methoden, welche Lösungen für diverseste Probleme bieten, die auf Grund ihrer Komplexität noch vor kurzem als nicht durchführbar angesehen wurden. Hier sollte insbesondere auf die Arbeiten von Bruno Buchberger hingewiesen werden, dem Gründer und Leiter des Research Institute for Symbolic Computation (RISC) an der Johannes Kepler Universität Linz.

Martin Grötschel, ein deutscher Mathematiker und Experte in Optimierungsfragen an der TU Berlin, hat die Effizienzsteigerung von Computerleistung und Leistungsfähigkeit von Algorithmen am Beispiel eines Modells zur Planung eines Produktionsablaufes aufgezeigt: Wären im Jahr 1988 mit den damaligen Methoden zur Lösung des Problems 82 Jahre vonnöten gewesen, so war der Zeitbedarf 15 Jahre später, im Jahr 2003, bereits auf 1 Minute abgesunken. Zu dieser insgesamt 43-millionenfachen Effizienzsteigerung trug die erhöhte Computerleistung mit einem Faktor 1000 bei, die verbesserten Algorithmen mit einem Faktor 43000.

Von der qualitativen Beschreibung biologischer Vorgänge…

Bis in die siebziger Jahre des vergangenen Jahrhunderts war die quantitative, mathematische Beschreibung von chemisch/biochemischen Prozessen – beispielsweise wie einzelne Enzyme funktionieren oder wie ein Biopolymer seine dreidimensionale Struktur ändert - ein zentrales Element in der biowissenschaftlichen Forschung. Um 1950 wurde dann von dem englischen Strukturbiologen W.T. Astbury der Begriff „Molekularbiologie“ geprägt: diese sollte, über die dreidimensionalen Strukturen der Biomoleküle hinaus, die Fragen nach deren Entstehung, Funktionen und Regulation auf immer höheren Organisationebenen, d.h. immer komplexere Lebensvorgänge, einschließen [1].

Die außerordentlichen Erfolge der Molekularbiologie über mehrere Dekaden hinweg sind unbestritten – eine unvollständige chronologische Aufzählung wichtiger Meilensteine ist in Abbildung 2 dargestellt. Allerdings schloß die Komplexität der Prozesse vorerst eine mathematische Betrachtungsweise und damit eine quantitative Verfolgung über die Zeit hin weitgehend aus.

Meilensteine in der molekularen Beschreibung biologischer VorgängeAbbildung 2 . Meilensteine in der molekularen Beschreibung biologischer Vorgänge. Genomics: Sequenzierung und Analyse von Struktur und Funktion des gesamten Genoms in einem System. Proteomics: Sequenzierung und Analyse von Struktur und Funktion aller in einem System exprimierten Proteine (incl. aller Modifikationen).

Ganz im Gegensatz zu den quantitativen Betrachtungsweisen, die in der Chemie und Physik üblich sind, bot die Molekularbiologie damit ein statisches, qualitatives Bild der Natur, basierend auf „Ja / Nein“-Antworten (beispielsweise: zu einem bestimmten Zeitpunkt ist ein Gen exprimiert oder nicht exprimiert). Dementsprechend sind wir es von der Molekularbiologie gewohnt, Strukturen von Molekülen in grob vereinfachten Bildern dargestellt zu sehen, und Funktionen von Molekülen werden mit Hilfe von Cartoons illustriert anstatt durch mathematische Gleichungen beschrieben zu werden.

Erschwerend kommt dazu, daß eine generell akzeptierte Bezeichnungsweise (Nomenklatur) für die -zigtausend Gene und Genprodukte bislang fehlt: nach wie vor benennen Molekularbiologen neu entdeckte Gene mit willkürlich gewählten Namen, beispielsweise nach den Seiten des Laborjournals oder dem Code des Experiments. Das so entstandene Tohuwabohu an Bezeichnungen macht es selbst für Fachkollegen häufig schwierig den Ausführungen eines Vortragenden zu folgen. Die Molekularbiologie befindet sich hinsichtlich der Nomenklatur noch in einer prä-Linneischen Phase.

…zur holistischen Beschreibung biologischer Systeme

Ziel der biologischen Forschung muß es sein, Arten und Organismen als robuste Einheiten – Systeme – zu verstehen, deren Eigenschaften durch die Dynamik der in ihnen auf unterschiedlichen Zeitskalen und in ständigem Austausch von Energie und Material mit der Umgebung ablaufenden Vorgänge geprägt sind. Das Wissen um diese Vorgänge ist gleichzeitig die Basis dafür, daß Voraussagen über das Verhalten eines Systems gemacht werden können, die auch pathologische Fehlfunktionen erklären und zu deren Behebung beitragen können.

Die Systembiologie will also ein Gesamtbild von den dynamischen Lebensvorgängen und Regulationsvorgängen schaffen: in einer Zellorganelle, einer gesamten Zelle, einem Zellverband, einem gesamten Organismus unter Einbeziehung sämtlicher Ebenen – vom Genom über das Proteom bis hin zu den Regulationsvorgängen kompletter Zellen oder gar einem vollständigen Organismus.

Worum handelt es sich also, wenn man in quantitativer Weise etwa eine typische Säugetierzelle als biologisches System beschreiben will?

Eine Darstellung in einem rezenten Nature-Artikel [2] zeigt am Beispiel einer Herzmuskelzelle, welche Komponenten in Betracht gezogen werden müssen:

  • Etwa 20 000 Gene (Genom) werden in mehr als 1 Million unterschiedliche m-RNAs (Transkriptom) und diese in ebenso viele Proteine umgeschrieben.
  • Die Proteine werden dann in verschiedener Weise zu mehr als 10 Millionen Proteinen mit veränderten Eigenschaften und Funktionen modifiziert (Proteom),
  • die nun den Stoffwechsel der Zelle unter Bildung von mehreren tausend unterschiedlichen kleinen Molekülen (Metabolom) regulieren.
  • Zu dem riesigen Datensatz, der die Konzentrationen aller Komponenten zeitabhängig beschreibt (Kinetik der Komponenten), kommen noch die Informationen, welche die Wechselwirkungen zwischen den Komponenten quantitativ zu erfassen versuchen und insgesamt ein enorm komplexes Netzwerk an Regulationsvorgängen ergeben.

Meilensteine in der molekularen Beschreibung biologischer VorgängeAbbildung 3 . Die Komplexität der Information in einer Säugetierzelle: Vom Genotyp zum Phänotyp. Beschreibung siehe Text. (Quelle: Nature Education [2])

Primär bedürfen systembiologische Untersuchungen daher einer großangelegten, interdisziplinären Zusammenarbeit, vor allem von Chemikern, Biologen, Medizinern, Mathematikern, Computerwissenschaftern, Systemwissenschaftern und Ingenieuren.

Wie wird „systembiologisch“ vorgegangen?

Es müssen vorerst die molekularbiologischen Daten aller Komponenten auf allen Organisationsebenen erhoben und die dynamischen Wechselwirkungen der Komponenten untereinander analysiert werden und dann die enorme Datenmenge durch präzise mathematische Modelle quantitativ beschrieben werden. Das zentrale Element systembiologischer Arbeiten ist dabei ein iterativer Prozeß zwischen Laborexperiment und Computer-Modellierung, der in Abbildung 4 in grober Vereinfachung dargestellt ist: experimentell erhobene Daten werden anhand entsprechender mathematischer Modelle analysiert, mit Hilfe der neu gewonnenen biologischen Information werden bestehende Hypothesen erweitert/verändert, diese durch geeignete experimentelle Ansätze geprüft, anhand von Modellen analysiert, die bestehenden Hypothesen abgeändert usw usf. Der iterative Prozeß in der SystembiologieAbbildung 4. Der iterative Prozeß in der Systembiologie (Beschreibung: siehe Text)

Ist eine systembiologische Beschreibung komplexer Systeme noch reine Utopie?

Zweifellos ist dies nicht mehr der Fall. In der kurzen Zeit seit ihren Anfängen hat sich die Systembiologie weltweit zu einer der dynamischsten Forschungsdisziplinen entwickelt und nimmt unter diesen bereits eine Spitzenposition ein. Reichlich gefördert, auch von öffentlicher Hand, begeben sich mehr und mehr Forschergruppen in dieses zukunftsträchtige Gebiet und untersuchen unterschiedlichste Systeme – von primitiven Einzellern bis hin zu komplexen Säugerzellen und ganzen Organismen. Um hier nur eine (kleine) Auswahl der Institutionen aufzuzählen:

In den USA wird Systembiologie u.a. durch das National Institute of Health (NIH) gefördert: die “National Centers for Systems Biology”, sind 15 an den prominentesten Universitäten angesiedelte Institutionen, die sowohl Grundlagen erarbeiten („The quantity and quality of data required for the approaches often challenge current technologies, and the development of new technologies and cross-disciplinary collaborations may be required.“) als auch die unterschiedlichsten Systeme von Hefezellen und Pflanzenzellen bis hin zu einer virtuellen Laborratte systembiologisch untersuchen.

In Japan wurde bereits im Jahr 2000 das „Systems Biology Institute“ (SBI) von Hiroaki Kitano gegründet – einem der Väter der Systembiologie; dieses untersucht Systeme in Hinblick auf das Design von Pharmazeutika, auf toxikologische Probleme, auf Infektions-ausgelöste Antworten des Wirts u.v.a.m.

In Europa haben sich sehr viele nationale und internationale systembiologisch arbeitende Gruppen angesiedelt. So gibt es in der Schweiz die „Swiss Research Initiative in Systems Biology“, in der zur Zeit mehr als 1000 Wissenschafter in rund 300 Forschungsgruppen mehr als 1000 Projekte bearbeiten.

In Barcelona ist eine Gruppe um Luis Serrano mit der systembiologischen Beschreibung eines der einfachsten Organismen, dem Bakterium Mycoplasma pneumoniae beschäftigt: dieses Bakterium ist eine der kleinsten Lebensformen, es wird von einer Minimalausrüstung von nur rund 700 Genen gesteuert (beim Menschen sind es 30 mal so viele), weist aber enorm komplexe Regulationsvorgänge auf.

Zahlreiche Projekte werden in Deutschland u.a. vom Deutschen Bundesministerium für Bildung und Forschung gefördert – ein halbjährlich erscheinendes Magazin gibt in leichtverständlicher Sprache Auskunft über Initiativen und Fortschritte [3]. Beispielsweise wurde in der Initiative „Hepatosys“ eine virtuelle Leberzelle modelliert, welche breite Anwendungsmöglichkeiten für die Medizin, die Pharmaforschung oder den Bereich Ernährung verspricht [4].

Transnationale Initiativen in Europa werden u.a. durch die “European Research Area for Systems Biology” – ERASysBio gefördert (beispielsweise untersuchen hier Forschergruppen aus mehreren Staaten gemeinsam "Systems Biology of Microorganisms").

Ausblick

Vor 11 Jahren hat der Biologe (und Nobelpreisträger) Sidney Brenner für die Vorgangsweise in der modernen biologischen Forschung die Metapher von Jägern und Sammlern gebraucht [5]: „Im prä-genomischen Zeitalter (Anmerkung: d.i. vor der Sequenzierung menschlichen Genoms im Jahr 2001) hatte man mir beigebracht Jäger zu sein. Ich hatte gelernt, wilde Tiere zu identifizieren, aufzustöbern und zu erlegen. Nun aber sind wir gezwungen Sammler zu sein, alles Herumliegende zusammenzutragen und in Lagerhallen zu speichern. Eines Tages wird hoffentlich jemand kommen, der sämtlichen Mist beseitigt, aber die wesentlichen Befunde behält (die Schwierigkeit liegt darin diese zu erkennen).“

Das Sammeln hat seit dieser Zeit zugenommen.

Die enorme Steigerung an Rechnerleistung und an der Leistungsfähigkeit rechnerischer Modelle ermöglicht die Speicherung, Analyse und Bearbeitung ungeheurer Datenmengen. Die quantitative Beschreibung komplexer Lebensformen erscheint nicht mehr als Utopie; es ist aber erst ansatzmäßig möglich die Funktion einfachster zellulärer Netzwerke darzustellen: vergleicht man ein derartiges Netzwerk mit einem Orchester, so sind wohl die enorm zahlreichen Instrumente - Gene, Gen-Transkripte, Proteine und Metaboliten – durch Hochdurchsatz- (high-throughput)- Techniken bestimmt worden, es fehlen aber weitestgehend noch essentielle Angaben zu deren räumlicher und zeitlicher Abstimmung – also die Partitur. Derartige „spatiotemporal maps of molecular behavior” werden von einer Reihe Institutionen, u.a. an den “National Centers for Systems Biology” (siehe oben) erarbeitet.


[1] WT Astbury (1961) Molecular Biology or Ultrastructural Biology? Nature 17:1124

[2] G Potters (2010) Systems Biology of the Cell. Nature Education 3(9):33

[3] systembiologie.de: MAGAZIN FÜR SYSTEMBIOLOGISCHE FORSCHUNG IN DEUTSCHLAND

[4] Systems Biology - Results, Progress and Innovations from BMBF Funding

[5] S Brenner (2002) Hunters and gatherers. The Scientist 16(3):14.


Weiterführende links

Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)

Mycoplasma: Ein Modellorganismus für die Systembiologie.

Die virtuelle Leber (Virtual Liver Networks: “The Virtual Liver will be a dynamic model that represents, rather than fully replicates, human liver physiology morphology and function, integrating quantitive data from all levels of organisation”). Englisch.

Vorträge des Autors auch zu diesem Thema können von seiner Webseite heruntergeladen werden.


 

inge Thu, 28.03.2013 - 04:20

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

Fr, 21.03.2013 - 04:20 — Gerhard Glatzel

Icon Wald

Gerhard GlatzelAuf Grund des globalen Wachstums der Bevölkerung, des Wirtschaftswachstums, der fortschreitenden Urbanisierung und des steigenden Bedarfs an energieabhängigen Leistungen wird erwartet, daß sich der globale Energieverbrauch bis 2050 verdoppelt. Der Waldökologe Gerhard Glatzel reflektiert über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen [1].

Teil 1: Energiewende und Klimaschutz

Der Begriff „Energiewende“ war der Titel einer vom deutschen Öko-Institut erarbeiteten, wissenschaftlichen Prognose zur vollständigen Abkehr von Kernenergie und Energie aus Erdöl. Das Konzept wurde auch als Taschenbuch veröffentlicht [2]. Ursprünglich war der Ausstieg aus der Kernenergie die vorherrschende Motivation. Mit zunehmenden Erkenntnissen über die Klimaerwärmung wurde das Thema „Klimaschutz“ immer aktueller. Die unausweichliche Erschöpfung fossiler Energiequellen und die Abhängigkeit von Öl- und Gasimporten aus politisch instabilen Weltgegenden sind weitere starke Argumente für die Energiewende.

Da die Gefahren von Atomkraftwerken in verschiedenen Ländern unterschiedlich dargestellt und wahrgenommen wurden, war es nicht möglich, globale Abkommen über den Ausstieg aus der Kernenergie zu erzielen. Daher wurde die Erderwärmung durch die Emission von Treibhausgasen sehr bald zum beherrschenden Element der Energiewende-diskussion.

Das Kyoto-Protokoll

1997 wurde von den Vereinten Nationen das „Kyoto-Protokoll“ (ein Zusatzprotokoll zur United Nations Framework Convention on Climate Change) beschlossen, das alle Vertragspartner verpflichtet, regelmäßige Berichte zu veröffentlichen, in denen Fakten zur aktuellen Treibhausgasemission und Trends enthalten sein müssen. Das Hauptgewicht liegt auf der Reduktion des Ausstoßes von Treibhausgasen, insbesondere von CO2 aus fossilen Energieträgern. Allerdings wurde das Protokoll von einer Reihe von Staaten nicht unterzeichnet oder ratifiziert (darunter die USA, die für etwa ein Viertel der weltweiten CO2–Emissionen verantwortlich sind). Kanada hat sich 2011 aus dem Kyoto-Prozeß zurückgezogen.

Für jene Teilnehmer, die das Protokoll unterzeichnet und ratifiziert haben, sind die darin festgelegten Ziele bindend. In der Praxis bedeutet das, daß die vereinbarten Ziele eingehalten werden müssen, andernfalls treten Sanktionen in Kraft. Die Kyoto-Staaten haben beispielsweise vereinbart, daß Staaten, die ihre Emissionsziele nicht einhalten, eine doppelte Strafe erhalten: Sie müssen dann nämlich in einem neu vereinbarten Zeitraum nicht nur das alte versprochene Ziel erreichen, sondern ihren Ausstoß darüber hinaus noch um zusätzliche 30 % verringern.

Bereits am 19. Oktober 2011, hat der österreichische Nationalrat ein Klimaschutzgesetz (Bundesgesetz zur Einhaltung von Höchstmengen von Treibhausgasemissionen und zur Erarbeitung von wirksamen Maßnahmen zum Klimaschutz; BGBl. I Nr. 106/2011) verabschiedet, das den einzelnen Wirtschaftssektoren ab 2012 verbindliche Einsparziele für CO2–Emissionen vorschreibt. Österreich verpflichtet sich, seine Treibhausgasemissionen bis 2012 um 13 Prozent (gegenüber 1990) sowie bis 2020 um 16 % (gegenüber 2005) zu senken.

Da die in den Kyoto-Prozeß gesetzten Erwartungen hinsichtlich der globalen Verringerung der Emission von Treibhausgasen bislang nicht erfüllt wurden, bemüht man sich auf den UN-Klimakonferenzen neue Ziele zu formulieren sowie neue Mitglieder zu gewinnen und zu bindenden Vorgaben zu verpflichten. Dazu schrieb am 26. November 2011 „Die Presse“ als Schlagzeile auf ihrer Titelseite: „Klimapolitik ist klinisch tot – Die Verhandlungen über ein globales Klimaschutzabkommen stecken in einer Sackgasse. Ein Ausweg ist auch bei der UN-Konferenz in Dubai nicht in Sicht“. Die nächste Klimakonferenz im November 2012 war kaum erfolgreicher: „Die große UN-Klimakonferenz von Doha hat ganz den – geringen – Erwartungen entsprochen, die man in sie gesetzt hat: Als das Treffen am Wochenende zu Ende ging, hatten die teilnehmenden Staaten kaum Fortschritte erzielt. Als Minimalergebnis wurde lediglich das Kyoto-Protokoll, das eigentlich heuer ausgelaufen wäre, bis ins Jahr 2020 verlängert.“(Die Presse, 9. Dezember 2012)

Dieser irritierende Widerspruch veranlaßt den emeritierten Waldökologen einmal mehr über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen zu reflektieren.

Klimaschutz: Faktum – Fiktion – Illusion

Faktum Klimaerwärmung

Faktum ist, daß sich unser Planet gegenwärtig in einer Phase markanter Klimaerwärmung befindet und diese mit dem Anstieg der Konzentration von Treibhausgasen in der Atmosphäre aus anthropogenen Quellen, insbesondere aus der Verbrennung fossiler Energieträger sowie aus industriellen und agrarischen Aktivitäten, gut korreliert. Faktum ist auch, daß sich der Kyoto Prozeß bislang als nicht sehr effizient erwiesen hat. Der 17. UN-Klimagipfel in Durban im November 2011 ebenso wie der 18. Klimagipfel in Doha im November 2012, deren Ziel es war, eine wirksame Nachfolgeregelung zum Kyoto-Prozokoll zu finden und global verpflichtende Vorschriften für die Reduktion des Ausstoßes von Treibhausgasen zu beschließen, brachte letztendlich eine weitere Verschiebung. Erst 2015 soll ein Weltklimavertrag erarbeitet werden.

Fiktion „Leben in Harmonie mit der Natur“

Fiktion ist, daß es genügen würde, die Klimaerwärmung zu verhindern, um uns und künftigen Generationen ein Leben in Frieden und Wohlstand zu sichern. Eine sehr verbreitete, aber falsche Vorstellung geht vom „Gleichgewicht der Natur“ aus, das durch die industrielle Entwicklung und die damit verbundene Ausbeutung der Natur gestört wurde. Die Meinung, daß sich ohne Störung durch den Menschen in der Natur alles im Gleichgewicht befindet, ist ein naives Idealbild. Auch das „Leben in Harmonie mit der Natur“ ist eine Fiktion romantischer Naturvorstellung. Daß Goethes „Aber die Natur versteht gar keinen Spaß, sie ist immer wahr, immer ernst, immer strenge; sie hat immer recht, und die Fehler und Irrtümer sind die des Menschen“ (Goethe zu Eckermann; Gespräche II) immer wieder zitiert wird, entspricht vermutlich unserem inneren Harmoniebedürfnis. Wir verdrängen dabei, daß alles Leben das Ergebnis von Evolution ist, die auf Selektion durch sich laufend ändernde Bedingungen der unbelebten und belebten Umwelt beruht. Aus Goethes Worten die Vorstellung einer harmonischen, im Gleichgewicht befindlichen Natur abzuleiten, die nur vom Menschen gestört wird, ist ein Trugschluß, der von ihm selbst widerlegt wird: „Gleich mit jedem Regengusse/ Ändert sich dein holdes Tal, / Ach, und in dem selben Flusse / Schwimmst du nicht zum zweitenmal.“ Das auf den griechischen Philosophen Heraklit zurückgeführte „panta rhei“ („alles fließt“) ist eine Metapher für die Prozessualität der Welt. Das Sein ist demnach nicht statisch, sondern als ewiger Wandel dynamisch zu erfassen. Einer der Gründerväter moderner Naturwissenschaft, Gottfried Wilhelm Leibniz (1646 – 1716) betonte in seinen biologischen und geologischen Konzeptionen die Dynamik aller Naturvorgänge.

Natürlich gibt es in der Natur Lebensgemeinschaften, die uns aus der Zeitperspektive eines Menschenlebens überaus stabil und gefestigt erscheinen. Wir wandern durch denselben Wald, den wir schon als Kinder mit dem Vater besucht haben, und er erscheint uns genau so dicht und grün wie damals. Wenn wir das Glück haben, mehr als tausend Jahre alte Mammutbäume bestaunen zu können, verstärkt sich der Eindruck der Dauerhaftigkeit. Innere Harmonie, nach der wir uns so sehr sehnen, gibt es aber auch in diesen Wäldern nicht. Es herrscht ein gnadenloser Wettbewerb um Ressourcen, es gibt Unterdrückung und Vernichtung. Aber auch als Ganzes sind Wälder nicht unveränderbar stabil, sondern können durch Sturm, Feuer, Lawinen oder Erdbeben, um nur einige der möglichen Umwelteinflüsse zu nennen, zerstört werden. Wir sprechen dann von „Naturkatastrophen“, die den „Waldfrieden“ jäh gestört haben.

Die Vernichtung bestehender Strukturen bietet aber für viele Lebewesen neue Chancen, und aus dem Wettstreit der Pioniere erwachsen allmählich wieder Wälder, die wir wider besseres Wissen, als ausdauernde Endstadien ansehen. Der Vergleich mit der Geschichte von Imperien drängt sich auf – nach außen mächtig und auf Dauer konzipiert, innen von Machtkämpfen, Ausbeutung und Unterdrückung geprägt, aber in der Realität meist jäh endend und für Neues Platz machend. Auf den Stoffhaushalt von Wäldern werde ich im Zusammenhang mit dem Sparen noch zu sprechen kommen.

Erhebliche Probleme verursacht für die Klimaschutzdiskussion die vereinfachte Argumentation eines für die künftige Entwicklung der Menschheit unverzichtbaren und daher unbedingt zu erhaltenden Gleichgewichtzustandes. Weil die Klimaforschung in immer größerer Detailliertheit zeigt, daß extreme natürliche Klimaschwankungen in der älteren und jüngeren Vergangenheit relativ häufig waren, wird von vielen Bürgern die gesamte Klimaschutzargumentation (zu Unrecht) angezweifelt. Es rächt sich auch, daß Klimaschutz meist sehr isoliert und singulär existenzbedrohend diskutiert wurde und nicht – im Gesamtkontext aller – die gedeihliche künftige Entwicklung der Menschheit bedrohlicher Limitationen und Gefahren.

Illusion – einvernehmliche Nutzung von Ressourcen

Illusion ist die Umsetzbarkeit globaler Vorgaben für Treibhausgasemissionen aus der Nutzung fossiler Energieträger. Während auf Klimakonferenzen über verbindliche Nachfolgeregelungen für das auslaufende Kyoto-Protokoll diskutiert wird, sehen wir im Fernsehen Bilder von der Erschließung der Kohlevorkommen in der Mongolei und in Mosambik sowie den Einsatz von „Hydraulic-Fracturing“ in überaus ergiebigen Shale-Gas-Feldern. Auch im österreichischen Weinviertel wollte die ÖMV Probebohrungen zur Erschließung der dort vorhandenen Schiefergaslager durchführen. „Global Governance“ als Basis für die einvernehmliche und gerechte Nutzung der Umwelt und der Ressourcen der Erde ist noch immer Utopie, wahrscheinlich sogar Illusion.

Der große oberösterreichische Heimatdichter Franz Stelzhamer (1802 – 1874) hat es vor 150 Jahren auf den Punkt gebracht: „Oana is a Mensch, mehra hans Leit, alle hans Viech.“ (Einer ist ein Mensch, mehrere sind Leute, alle sind Vieh.)


[1] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

[2] Krause F., Bossel H., Müller-Reißmann K.F.: Energiewende – Wachstum und Wohlstand ohne Erdöl und Uran. Frankfurt am Main, 1980.


Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Seit 2010 ist er Vorsitzender der IIASA (International Institute for Applied Systems Analysis)-Kommission, 2011 wurde er zum Mitglied der „Biodiversity Targets“ des Science Advisory Council of the European Academies (easac) ernannt.

Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.


Weiterführende links:

Zu Teil 2: Energiesicherheit

Zu Teil 3: Zurück zur Energie aus Biomasse http://scienceblog.at/r%C3%BCckkehr-zur-energie-aus-dem-wald-%E2%80%94-m...

World Energy Council: 2010 Survey of Energy Resources (618 pages; 11,7 Mb) 2013

World Energy Issues Monitor (40 pages; 3 Mb) Doha Climate Change Conference November 2012


 

inge Thu, 21.03.2013 - 04:20

Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

Fr, 14.03.2013 - 04:20 — Gottfried Schatz

Icon BiologieGottfried Schatz

Das Licht, das von der Sonne zur Erde gelangt, verwandelt sich zum grössten Teil in Wärme und verlässt früher oder später unseren Globus wieder. Dennoch ist die Sonnenenergie zum lebenspendenden Strom geworden, an dem – über die Nahrungskette - alle teilhaben.

Edward Munch: Die SonneEdvard Munch: Die Sonne (1910 –13)

«Die Sonne ging auf bei Paderborn, / Mit sehr verdrossner Gebärde. / Sie treibt in der Tat ein verdriesslich Geschäft – / Beleuchten die dumme Erde!» – Mit diesen Worten aus «Deutschland. Ein Wintermärchen» gibt Heinrich Heine unserer Erde übergrosse Bedeutung, obwohl er in seinem bitteren Versepos sonst nur wenig für sie übrig hat. Die Sonne gönnt uns nur ein Zehnmilliardstel ihres Lichts – und mehr als die Hälfte davon wird dann noch von unserer Lufthülle verschluckt oder in den Weltraum zurückgestrahlt.

Jeder Quadratmeter Erdoberfläche empfängt im Durchschnitt pro Jahr nur etwa 1700 Kilokalorien Energie in Form von sichtbarem Licht, das sich zum grössten Teil in Wärme verwandelt und früher oder später als infrarote Strahlen die Erde auch wieder verlässt.

Einfangen der Sonnenenergie

Dennoch schafften es einzellige Lebewesen bereits vor fast vier Milliarden Jahren, einen kleinen Teil dieser Lichtenergie einzufangen und davon zu leben. Bald lernten andere Lebewesen, sich von diesen Lichtessern – und damit indirekt von der Sonne – zu ernähren. Sonnenenergie wurde zum lebenspendenden Strom, dessen unzählige Verästelungen die Vielfalt des Lebens auf unserem Planeten speisen. Diesem Strom entziehen sich nur urtümliche Einzeller, die tief unter der Erdoberfläche oder im Umfeld vulkanischer Erdspalten leben und geochemische Prozesse als Energiequelle verwenden.

Energie ist die Fähigkeit, Arbeit zu leisten. Sie lässt sich weder erzeugen noch vernichten, sondern nur von einer Form in eine andere umwandeln: von Licht in Wärme, von Bewegung in elektrischen Strom – und von diesem in fast alle anderen Energieformen. Die Kilokalorie ist als Energiemass zwar offiziell veraltet, in der breiten Öffentlichkeit aber immer noch gebräuchlich. Eine Kilokalorie kann einen Liter Wasser um ein Grad Celsius erwärmen – und uns etwa dreizehn Meter weit laufen oder eine Minute lang leben lassen. Unter der falschen Bezeichnung «Kalorie» tyrannisiert sie das Leben unzähliger Menschen, die ihrem Körper Energie vorenthalten, um einem bizarren Schlankheitsideal zu frönen.

Sosehr wir Menschen das wärmende Licht der Sonne auch geniessen – es kann uns nicht direkt nähren. Jeder hungernde Tropenbewohner ist ein moderner Tantalos. Nur Pflanzen und Licht-verwertende Einzeller können mit dem Zauberstab des Lichts Kohlendioxid und Wasser in organische «Biomasse» verwandeln. Diese liefert Pflanzenfressern Brennstoff für die Feuer der Zellatmung und damit Lebensenergie.

Versickern der Sonnenenergie in der Nahrungskette

Die Pflanzenfresser kommt ein solches Schmarotzertum allerdings teuer zu stehen: Sie können nur etwa ein Zehntel der in Pflanzen gespeicherten Lichtenergie in ihre eigene Biomasse hinüberretten, weil sie Energie verbrauchen, um sich zu bewegen und die Temperatur sowie die chemische Zusammensetzung ihres Körpers konstant zu halten. Ein Kilogramm Pflanzenfutter liefert deshalb oft weniger als hundert Gramm Fleisch. Noch grösser ist der Energieverlust aber für Raubtiere, weil sie ihre Beute meist mit grossem Energieaufwand über weite Entfernungen jagen.

Ökologische PyramideÖkologische Pyramide: Versickern der Sonnenenergie über die Nahrungskette (dargestellt am Beispiel Silver Springs Florida): Von den rund 1,7 Mio. kcal Sonnenenergie, die jährlich pro m² auf die Erde fallen, „fangen“ Pflanzen etwas mehr als 1 % ein und verwandeln davon weniger als die Hälfte (8900 kcal) in verwertbare Biomasse. Die in Form der Biomasse gespeicherte Energie reduziert sich besonders stark beim Übergang von Pflanzenfressern zu Carnivoren und weiter zu Carnivoren, die von anderen Carnivoren leben – der Großteil der aufgenommenen Energie wird hier für Bewegung und Aufrecherhaltung des Stoffwechsels verbraucht (blau). (Daten aus: http://en.wikipedia.org/wiki/File:EcologicalPyramids.jpg und http://users.rcn.com/jkimball.ma.ultranet/BiologyPages/F/FoodChains.html, abgerufen 12.März 2013)

Das «Versickern» von Sonnenenergie in dieser Nahrungskette ist dramatisch. In der freien Natur speichern Pflanzen im Verlauf ihres Lebens nur etwa ein halbes Prozent des eingestrahlten Sonnenlichts als Biomasse, Pflanzenfresser einige hundertstel Prozent und Raubtiere wiederum zehnmal weniger. Deshalb kennen wir zwar grosse Herden von Rentieren oder Antilopen, nicht aber solche von Tigern oder Leoparden. Noch schlimmer stünde es um Tiere, die sich von anderen Raubtieren ernährten. Ein Raubtier, das vorwiegend Leoparden frässe, müsste sich in der Warteschlange für Sonnenenergie so weit hinten anstellen, dass es sich niemals ausreichend vermehren könnte. Kein Wunder also, dass der Leopard keinen natürlichen Feind hat. Diese unerbittlichen Regeln der Nahrungskette gelten auch für uns Menschen. Jeder von uns muss jährlich etwa 700 000 Kilokalorien chemische Energie in Form von verwertbarer Nahrung zu sich nehmen, um langfristig ein gesundes und normales Leben zu führen. Als Vegetarier könnten sich die Bewohner der Stadt Zürich mit weniger als hundert Quadratkilometern Anbaufläche ernähren, doch bei einer reinen Fleischdiät wäre die erforderliche Fläche – und damit auch der Preis für Nahrung – etwa fünf- bis zehnmal grösser.

Kulturen, Gene

Das Streben nach Sonnenenergie hat auch die Entwicklung menschlicher Kulturen geprägt. Als Jäger und Sammler mussten unsere nomadischen Vorfahren weite Flächen durchstreifen, um sich ihren Anteil an Sonnenenergie zu sichern. Erst Landwirtschaft und intensive Viehzucht ermöglichten es ihnen, mit kleineren Flächen auszukommen, sesshaft zu werden, Städte zu gründen und eine hohe Kultur zu entwickeln. Um auf immer kleinerem Raum immer mehr Nahrung zu erzeugen, setzen wir heute gewaltige Mengen von Wasser, künstlichem Dünger, Pestiziden und Erdöl ein. Um eine Kilokalorie Nahrung zu schaffen, müssen wir oft eine Kilokalorie Erdöl verbrennen. Unsere industrielle Nahrungsproduktion ist zur grotesken Maschine geworden, die Erdöl in Nahrung verwandelt.

Bei der Suche nach Sonnenenergie helfen uns auch unsere Gene. Ein Beispiel dafür liefern zwei eng verwandte Ariaal-Sippen in Kenya, von denen eine als nomadische Viehzüchter in den Bergen und die andere als sesshafte Ackerbauern im Tiefland lebt. Eine seltene Genvariante (Genvariante des Dopaminrezeptors DRD4 (Anm. der Redaktion)), die besonders häufig in Menschen mit Aggressivität, Konzentrationsschwäche, Impulsivität und Hyperaktivität vorkommt, findet sich bei den nomadischen Ariaals vorwiegend in gut genährten und muskulösen, bei den sesshaften hingegen vorwiegend in unterernährten und muskelschwachen Männern. Dies deutet darauf hin, dass diese Genvariante für Nomaden von Vorteil, für sesshafte Bauern dagegen von Nachteil ist. Impulsivität, Angriffsbereitschaft und die Fähigkeit, schnell zu reagieren, könnten Nomaden helfen, Herden zu verteidigen, neue Weidegründe zu entdecken oder als Kinder auch unter unsteten Lebensbedingungen zu lernen – und sich so eine ausreichende Ernährung zu sichern. In einer Dorfgemeinschaft wären solche Eigenschaften hingegen eher hinderlich.

Unabhängig von der Sonnenenergie - Kernfusion?

Wir Menschen haben uns in der Warteschlange für Sonnenenergie schon früh nach vorne gedrängt: mit der Zähmung des Feuers erschlossen wir uns die Sonnenenergie, welche Licht-verwertende Lebewesen über Jahre oder gar Jahrmillionen gespeichert hatten. Und mit Wind- und Wasserrädern, Sonnenkraftwerken und Solarzellen umgingen wir diese Warteschlange ganz. Doch erst die Kernspaltung erschloss uns eine breit anwendbare Energiequelle, die kein Erbe unserer Sonne ist. Vielleicht wird es uns dereinst gelingen, durch die gebändigte Verschmelzung von Atomkernen in Fusionsreaktoren künstliche Sonnen zu schaffen. Diese würden uns Menschen zwar Wärme und elektrische Energie, dem Leben auf unserer «dummen Erde» jedoch nicht genügend Licht schenken. Den lebenspendenden Strom des natürlichen Sonnenlichts könnten sie nie ersetzen.

 


Zum Thema:

inge Thu, 14.03.2013 - 04:20

Das Weizmann-Institut — Spitzenforschung im Garten Eden

Das Weizmann-Institut — Spitzenforschung im Garten Eden

Fr, 07.03.2013 - 04:20 — Israel Pecht

Israel PechtDas Weizmann-Institut in Rehovot (Israel) zählt zu den führenden naturwissenschaftlichen Forschungseinrichtungen der Welt. An fünf Fakultäten betreiben fächerübergreifend mehr als 2600 Wissenschafter und Techniker Grundlagenforschung. Das hier geförderte intellektuelle Potential ist der wichtigste Rohstoff eines Landes, dem natürliche Bodenschätze fehlen; seine Anwendungen haben Israel zu einem Hochtechnologie-Land gemacht. Der ursprünglich aus Wien stammende Autor, em. Prof. für Immunologie am Weizmann-Institut und gegenwärtiger Generalsekretär der FEBS (Federation of European Biochemical Societies) blickt auf die Entwicklung des Instituts zurück.

 

Ficus-Allee Logo Weizmann-Institut
Abbildung 1. Allee alter Ficus-Bäume — Vorbild für das Logo des Weizmann-Instituts.

Chaim Weizmann (1874 – 1952), der Gründer und Namensgeber des Instituts (Logo: Abbildung 1), war der erste Präsident des Staates Israel und Naturwissenschafter. Ursprünglich aus Weißrußland stammend, hatte Weizmann in Deutschland und der Schweiz Chemie studiert, war dann 1904 nach England gezogen und hatte dort mit der Biosynthese des (kriegs)wichtigen Ausgangsstoffs Aceton Berühmtheit erlangt und in Folge Kontakte zu einflußreichsten britischen Politikern geknüpft.

Vision eines durch Wissenschaft geschaffenen Garten Edens

Als erfolgreichem organischen Chemiker war Weizmann das ökonomische Potential naturwissenschaftlicher Forschung voll bewußt. Er kämpfte daher mit voller Überzeugung für die Idee, in Israel moderne Zentren für naturwissenschaftliche Grundlagenforschung zu schaffen, als Motor für die wirtschaftliche Entwicklung des Landes, dem natürliche Bodenschätze ja fehlten.

Für eine Hebräische Universität in Jerusalem hatte Weizmann 1918 den Grundstein gelegt und er war dann – in seiner Funktion als Präsident der Zionistischen Weltorganisation – zusammen mit Albert Einstein maßgeblich am „Fundraising“ für dieses geplante Zentrum akademischer Exzellenz beteiligt (Abbildung 2). Bei der Eröffnung der Universität im Jahre 1925 existierte bereits das Institut für Chemische Forschung, welches über eine Abteilung in der aufstrebenden Disziplin „Biochemie und Kolloidchemie“ verfügte.

Im damals britisch regierten Palästina hatte es biochemische Forschung und auch Unterricht in Biochemie bereits gegeben. Es war eine kleine, idealistisch gesinnte Gruppe von Wissenschaftern, die noch vor der Machtergreifung durch die Nazis aus Europa emigriert waren und jetzt den Kern der Hebräischen Universität bildeten. Deren Wurzeln reichen nach Deutschland und auch nach Österreich zurück. Andor Fodor, der das oben erwähnte Institut für Chemische Forschung gründete und anfänglich nur mit zwei fix angestellten Assistenten leitete, kam von der Universität Halle, Max Frankel, Leiter des Laboratoriums für Theoretische und Makromolekulare Chemie, kam von der Universität Wien, Adolf Reifenberg, Leiter der Angewandten Biologischen und Kolloid Chemie, von der Universität Giessen.

Weizmann mit EinsteinAbbildung 2. Chaim Weizmann und Albert Einstein 1921

Diskussionen mit einer Reihe prominenter Wissenschafter wie Albert Einstein, dem Farbstoffchemiker Richard Wilstätter (er erhielt den Nobelpreis u.a. für seine Arbeiten zum Chlorophyll) oder Carl Neuberg, einem der „Väter“ der modernen Biochemie, brachten Weizmann dann dazu, das sogenannte „Daniel Sieff Forschungszentrums“ zu gründen – eine Stiftung der Londoner Industriellenfamilie Sieff – den Vorläufer des späteren Weizmann-Instituts. Als Vorbild dieses Zentrums dienten dabei die hochrenommierten Institute der Kaiser-Wilhelm-Gesellschaft (der heutigen Max Planck-Gesellschaft), die am Beginn des 20. Jahrhunderts in Deutschland entstanden waren: in 22 Jahren ihres Bestehens waren aus diesen bis 1933 immerhin 10 Nobelpreisträger hervorgegangen.

Im Frühjahr 1934 öffnete das erste Gebäude des Zentrums – das Daniel Sieff Institut – seine Pforten, in Rehovot, einer 21 km von Tel Aviv entfernten Siedlung. Dieses, heute idyllisch inmitten von duftenden Orangenplantagen gelegene Institut, beschäftigte anfänglich zehn fix angestellte Wissenschafter, welche – unter der Leitung Weizmanns – Grundlagenforschung in den Gebieten Chemie, Biochemie und Pharmazie betrieben.

In knapper, zu Fuß erreichbarer Entfernung befand sich auch eine 1921 gegründete landwirtschaftliche Versuchsanstalt, an der 1926 bereits 38 Natur- und Pflanzenbau-wissenschafter arbeiteten. Die Erwartung, daß die räumliche Nähe beider Institutionen zur Zusammenarbeit in ihren Forschungsbemühungen führen würde, erfüllte sich voll und ganz.

Während des zweiten Weltkriegs war das Sieff-Institut intensiv in kriegswichtige Arbeiten involviert, insbesondere in die Produktion des Anti-Malariamittels Atabrin (das damals Chinin ersetzt hatte) und anderer essentieller Arzneimittel.

Daniel Sieff-Institut → Weizmann-Institut → „Groß oder gar nicht“

1949 – ein Jahr nach der Unabhängigkeitserklärung Israels – wurde das Institut – mit Zustimmung der Familie Sieff – zu Ehren seines nun bereits 75-jährigen Gründers in Weizmann-Institut umbenannt und in der Folge zu einem großangelegten Forschungszentrum ausgebaut.

Schon in den 50er-Jahren war die Zahl der Mitarbeiter auf 600 angewachsen, die in 13 Gebäuden arbeiteten. Als der Atomphysiker Robert Oppenheimer in den späten 50er Jahren einen Besuch abstattete, fragte er, ob das Weizmann-Institut nicht viel zu groß wäre für einen so kleinen Staat wie Israel und meinte: „Dazu müßtet ihr das Land vergrößern“. Dazu kommentierte später lakonisch der Staatspräsident Shimon Peres: „Das ist das, was das Institut getan hat: es hat ja das Land vergrößert: intellektuell!“

Schon in den 1950er Jahren erreichte das Institut Spitzenpositionen in verschiedenen Disziplinen, wie beispielsweise in der Isotopenforschung. Es baute auch eines der ersten Kernresonanz (NMR)-Spektrometer, mit WEIZAC eine der ersten (damals noch riesengroßen) Computeranlagen und es spielte eine herausragende Rolle in der makromolekularen Chemie, das heißt in der Biochemie großer biologischer Moleküle (Proteine und Nukleinsäuren), ebenso wie in der Welt der synthetischen Polymere. Es folgten pharmakologisch-medizinische Durchbrüche, wie die Entdeckung und Entwicklung von Wirkstoffen zur Behandlung von Krebs, multipler Sklerose, Parkinson und anderen Krankheiten, Durchbrüche in der Hirnforschung und die Erarbeitung neuer Methoden zur Diagnose u.a. von genetischen Defekten. Durchbrüche in chemisch-biochemischem Neuland waren beispielsweise im Bereich der Sensoren zu verzeichnen oder im Bereich der Nanopartikel, die als Katalysatoren oder biomedizisch Anwendung finden. Ebenso wurden in vielen anderen Sparten Erfolge erzielt, in landwirtschaftlichen Fragestellungen ebenso wie in der Telekommunikation, in Fragen der Energiegewinnung, wie in der Optik.

Im Jahr 2009 konnte das Weizmann-Institut seinen ersten Nobelpreisträger feiern: Die Strukturbiologin Ada Yonath hatte die Auszeichnung für die Aufklärung der molekularen Struktur und Funktion des Ribosoms, der Fabrik an der die Synthese unserer Proteine abläuft, erhalten.

Das Weizmann-Institut heute

Das Institut beherbergt auf einem rund 1 km² großen Campus mehr als 100 Gebäude, in welchen die fünf Fakultäten: Mathematik und Informatik, Physik, Chemie, Biochemie und Biologie untergebracht sind. Dazu kommen rund 100 Wohnhäuser für Wissenschafter und Studentenwohnhäuser (Abbildung 3). Auf diesem Gelände arbeiten fächerübergreifend heute über 2600 Menschen, davon mehr als 2200 Forscher, Studenten und Techniker, aus 28 Ländern. Dazu kommen jährlich etwa 500 Besucher aus aller Welt, um am Institut zu arbeiten.

Campus des Weizmann-InstitutsAbbildung 3. Blick auf den Campus des Weizmann-Instituts

Die Forschungserfolge des Weizmann-Instituts haben es 2012 im Shanghai-Ranking der Universitäten erstmals unter die 100 besten Institutionen gereiht (in Computerwissenschaften erhielt es sogar weltweit Rang 12). Übertroffen wurde es durch die Hebräische Universität in Jersualem (Rang 53) und die Technische Universität (Technion) in Haifa (Rang 78).

Ein wesentliches Ziel des Instituts ist der Technologietransfer, das heißt die Umwandlung von Forschungsergebnissen und Know-How der Forscher in kommerzialisierbare Produkte. Seit Ende der 50er Jahre ist die eigens für diesen Zweck gegründete Firma "Yeda Research and Development" dafür zuständig. YEDA fungiert dabei als Dachorganisation für viele Partner, kooperiert mit großen Pharma-Multis ebenso wie mit kleinen Firmen. Die Webseite zählt zahlreiche Erfolge auf: Spin-Offs, Firmen und Produkte. Beispielsweise wurde Copaxone – ein von Michael Sela, Ruth Arnon und Dvora Teitelbaum entdecktes Arzneimittel gegen multiple Sklerose – zum Blockbuster: im Jahr 2011 wurde damit ein Umsatz von rund 3 Milliarden Dollar erzielt. (Copaxone ist übrigens das Spitzenprodukt des Pharmakonzerns Teva: dieser hatte 1901 als kleine Drogerie in Israel begonnen und sich zur weltweit größten Generikafirma mit einem Jahresumsatz von 20 Milliarden Dollar im Jahr 2012 emporgearbeitet.)

Im Laufe der letzten Jahrzehnte hat sich die israelische Industrie stark gewandelt. Israel hat pro capita enorm viel Geld in Forschung und Entwicklung investiert. Die Grundlagenforschung am Weizmann-Institut, aber auch an den Universitäten, hat Industrieparks mit hunderten Firmen entstehen lassen, welche die Forschungsergebnisse in kommerzielle Produkte umsetzen. Die Investitionen haben sich gelohnt: Israel ist zu einem Hochtechnologieland geworden.

Israel Pecht and Uriel Z. Littauer (2008) Early Development of Biochemistry and Molecular Biology in Israel; IUBMB Life, 60(6): 418–420


Im Artikel angeführte Details

Webseite des Weizmann-Institut PDF-Download in Deutsch

Daten, Fakten Rundgang durch das Weizmann-Institut; Video 3,1 min.

Zu Chaim Weizmann


 

Ficus-AlleeLogo Weizmann-Institut Abbildung 1. Allee alter Ficus-Bäume — Vorbild für das Logo des Weizmann-Instituts. Chaim Weizmann (1874 – 1952), der Gründer und Namensgeber des Instituts (Logo: Abbildung 1), war der erste Präsident des Staates Israel und Naturwissenschafter. Ursprünglich aus Weißrußland stammend, hatte Weizmann in Deutschland und der Schweiz Chemie studiert, war dann 1904 nach England gezogen und hatte dort mit der Biosynthese des (kriegs)wichtigen Ausgangsstoffs Aceton Berühmtheit erlangt und in Folge Kontakte zu einflußreichsten britischen Politikern geknüpft.

inge Thu, 07.03.2013 - 04:20

Die Evolution der Kooperation

Die Evolution der Kooperation

Fr, 01.03.2013 - 04:20 — Karl Simgund

Icon MINTKarl SigmundDer Mathematiker Karl Sigmund untersucht mit Hilfe der Spieltheorie die Entstehung und Entwicklung von kooperativem Verhalten in biologischen Systemen bis hin zu menschlichen Gesellschaften. Er erklärt Formen des Altruismus: direkte Reziprozität (‚Ich kratz’ dir den Rücken, und du kratzt dafür meinen’) und die spezifisch menschliche, indirekte Reziprozität (‚Ich kratz dir den Rücken, damit mir ein anderer meinen Rücken kratzt.’) und erläutert Gründe für deren Entstehen.

Schon Darwin war fasziniert von der Evolution sozialer Verhaltensmuster, und insbesondere von der Entstehung der Kooperation. Die Evolution der Kooperation gehört zu den wichtigsten Problemen des einundzwanzigsten Jahrhunderts. Vielen wird es aber zunächst sonderbar erscheinen, dass sich hier so ein großes Problem verstecken soll. Denn Kooperieren bringt ja offenkundig Vorteile, wieso sollten sich dann nicht Anlagen für kooperatives Verhalten durchsetzen?

Das Problem ist jedoch, dass Kooperation zwar vorteilhaft ist, aber Ausbeuten noch vorteilhafter. Altruismus ist kostspielig.

Evolutionsbiologen definieren altruistische Handlungen als solche, die die handelnden Person etwas kosten, anderen aber einen Vorteil bringen. Im einfachsten Fall vergleichen wir zwei mögliche Alternativen: (C) dem anderen einen Vorteil b zu vermitteln, was mit eigenen Kosten c verbunden ist, oder (D) das zu unterlassen. C steht für ‚to cooperate’ und D für ‚to defect’. Kosten und Nutzen werden hier in der einzigen Währung gemessen, die in der Evolutionsbiologie zählt, nämlich der sogenannten Fitness, also der durchschnittlichen Zahl an Nachkommen. Wie sollte sich eine Anlage durchsetzen, die Kosten verursacht, also den eigenen reproduktiven Erfolg verringert?

Das Gefangenendilemma – ein Standardmodell für kooperatives Verhalten

Diese Frage kann man mit Hilfe der Spieltheorie verdeutlichen, einem Zweig der Mathematik, der sich mit der Analyse strategischer Wechselwirkungen befasst und der seit den Vierzigerjahren des vorigen Jahrhunderts eingesetzt wird, um wirtschaftliches Verhalten zu untersuchen. Eines der bekanntesten Modelle hier ist das sogenannte ‚Gefangenendilemma’. Lassen wir uns nicht von dem etwas bizarren Namen ablenken, sondern stellen wir uns vor, dass zwei Personen, die einander nicht kennen, unabhängig voneinander entscheiden müssen, ob sie der anderen Person fünfzehn Euro zukommen lassen wollen oder nicht. Falls sie das wollen, müssen sie dem Spielleiter fünf Euro zahlen. Der Spielleiter überweist dann fünfzehn Euro ans Gegenüber. Die Alternative (C) bedeutet also, dem anderen Spieler etwas zu schenken, und die Alternative (D), das nicht zu tun. Wenn beide Spieler kooperieren, also (C) wählen, dann gewinnt jeder in Summe zehn Euro. Wenn beide Spieler (D) wählen, gewinnen sie nichts. Trotzdem ist es für den einzelnen vorteilhafter, (D) zu wählen, und zwar unabhängig davon, ob der andere sich für (C) oder (D) entscheidet. In jedem Fall erspart man sich die Überweisung von fünf Euro an den Spielleiter. In einem Fall erhält man fünfzehn Euro ohne Gegenleistung, man beutet also den Mitspieler aus. Im anderen Fall bekommt man zwar nichts, aber das ist immer noch besser, als selbst ausgebeutet zu werden, d.h. fünf Euro zu zahlen, ohne dafür etwas retour zu erhalten.

Dieses Gefangenendilemma ist das einfachste Beispiel eines sozialen Dilemmas, also einer Situation, wo der Eigennutz selbstzerstörerisch wirkt. In solchen Situationen gelingt es der ‚unsichtbaren Hand’ ökonomischer Kräfte nicht, aus den Interessen der einzelnen Individuen ein gemeinnütziges Gesamtergebnis zu erzielen. Wenn es schon dem rationalen Kalkül nicht gelingt, in solchen Fällen die Kooperation durchzusetzen, wie schwer ist es dann erst in einem darwinistischen Wettbewerb um reproduktiven Erfolg, in einem vom blinden Zufall getriebenen Suchprozess?

Evolutionsbiologische Modelle für kooperatives Verhalten: Verwandtenselektion und reziproker Altruismus

Es gibt zahlreiche evolutionsbiologische Zugänge zur Lösung dieser Frage. Hier sollen bloß die beiden bekanntesten vorgestellt werden, die unter den Schlagworten ‚Verwandten-selektion’ und ‚reziproker Altruismus’ die einschlägige Literatur dominieren.

Die Theorie der Verwandtenselektion geht im wesentlichen auf die Arbeiten von William D. Hamilton aus den Sechzigerjahren des vorigen Jahrhunderts zurück. Es gab allerdings schon wichtige Vorläufer. Einer der Väter der Populationsgenetik, der Statistiker R.A. Fisher, erklärte auf diese Weise bereits in den Zwanzigerjahren die auffällige Zeichnung gewisser ungenießbarer Raupen. Jeder Vogel, der so eine Raupe frisst, wird augenblicklich von heftiger Übelkeit heimgesucht und vermeidet fortan solche Nahrung. Die auffällige Zeichnung signalisiert also: ‚Wer mich schluckt, dem wird schlecht’. Das kommt freilich zu spät für die Raupe, die gefressen worden ist. Doch die Raupen dieser Art kriechen gewöhnlich im engen Familienverband herum, in Ketten von zehn oder mehr Individuen. Die Geschwister überleben, und tragen die Anlagen, die für die auffällige Zeichnung und den üblen Geschmack sorgen, in die folgende Generation. Auch JBS Haldane (ein weiterer Vater der Populationsgenetik) unterstrich diesen Gesichtspunkt, als er scherzhaft bemerkte, dass er jederzeit bereit wäre, sein Leben zu opfern, um zwei Brüder oder acht Vettern zu retten. Dahinter steckt eine Theorie.

Diese Theorie beruht auf dem Begriff des Verwandtschaftsgrads. Der Grad der Verwandtschaft zwischen zwei Individuen wird definiert als die Wahrscheinlichkeit, dass ein (in der Bevölkerung seltenes) Gen, welches in einem Individuum vorkommt, sich auch im anderen befindet. Der Verwandtschaftsgrad zwischen mir und meiner Mutter (oder meinem Vater) ist ½, der zwischen mir und meinem Bruder ebenso, denn die Wahrscheinlichkeit, dass wir beide dieses Gen vom Vater (oder von der Mutter) geerbt haben, ist jeweils ¼. Zwischen mir und meinen Vettern ist der Verwandtschaftsgrad 1/8 usw. Vom genetischen Standpunkt aus sind also meine Verwandten einfach verwässerte Kopien meiner selbst (und zwar je nach Verwandtschaftsgrad mehr oder weniger verwässert), und dementsprechend stimmen die genetischen Interessen mehr oder weniger überein – ein reproduktiver Vorteil für meine Verwandten ist somit auch, auf diese indirekte Art, ein reproduktiver Vorteil für mich selbst, nur eben diskontiert um den Verwandtschaftsgrad.

Wenn daher zwei Verwandte das Gefangenendilemma spielen, so ändert sich die Auszahlung. Zu meiner eigenen Auszahlung kommt noch die Auszahlung meines Partners dazu, diskontiert um den Verwandtschaftsgrad r. Und nun sieht man leicht, dass (C) jetzt die bessere Alternative bietet, egal was mein Partner macht, sofern nur der Verwandtschaftsgrad größer ist als das Verhältnis von Kosten zu Nutzen, also r > c/b gilt.

Letztere Regel wird als Hamiltons Gesetz bezeichnet. Es ist die Grundlage der Theorie der Verwandtenselektion. Diese ist inzwischen mächtig ausgebaut worden. Insbesondere ist auch die Definition des Verwandtschaftsgrads ersetzt worden durch einen ähnlichen Begriff, der misst, wie sehr die Tatsache, dass ich die Anlage zur Kooperation habe, die Wahrscheinlichkeit erhöht, dass mein Gegenüber diese Anlage auch hat.

Verwandtenselektion im Tierreich

Die Verwandtenselektion ist in zahlreichen verhaltensbiologischen Beispielen untersucht worden. Die größten Erfolge liefern die Anwendungen auf soziale Insekten. Bekanntlich ist das kooperative Verhalten in einem Ameisenhaufen oder einem Bienenstock ganz besonders hoch, und geht oft bis zur Selbstaufopferung. Bienen können sich wie Kamikaze auf Eindringlinge stürzen: ihr Stich rettet den Bienenstock, und kostet sie selbst das Leben. Erklärt werden kann das durch die besonders engen Verwandtschaftsverhältnisse in solchen Gesellschaften. Typischerweise stammen alle Arbeiterinnen von einer Königin, die sich in vielen Fällen auch noch mit einem nahen Verwandten gepaart hat. Die Genome der Arbeiterinnen sind einander beinahe so ähnlich wie die Genome in unseren Körperzellen, und man ist geneigt, von einem ‚Superorganismus’ zu sprechen.

Darwin schrieb in den ‚Origins’: ‚Eine besondere Schwierigkeit schien mir zunächst unüberwindlich, und geradezu fatal für meine ganze Theorie. Ich spiele hier auf die sterilen Weibchen in den Insektengesellschaften an, die sich sowohl von den Männchen als auch von den fruchtbaren Weibchen stark unterscheiden und die doch, da sie steril sind, ihresgleichen nicht fortpflanzen können.’ Darwin kannte, so wie alle seiner Zeitgenossen, die Mendelsche Vererbungslehre nicht, die sein Problem gelöst hätte. Doch Darwin kam der Lösung denkbar nahe, als er schrieb: ‚Die natürliche Auslese kann auf die Familie ebenso gut angewandt werden wie auf das Individuum.’ Und Darwin erläuterte seine Auffassung mit Beispielen: ‚Ein wohl schmeckendes Gemüse wird gekocht, doch der Gärtner sät Samen derselben Sorte und erwartet vertrauensvoll, beinahe dieselbe Varietät zu erhalten… Ein Tier wird geschlachtet, doch der Bauer greift mit Zuversicht nach derselben Familie…’

Kooperatives Verhalten in menschlichen Gesellschaften – reziproker Altruismus

Auch wir Menschen sind soziale Tiere: schon Aristoteles hatte uns, gemeinsam mit den Ameisen und den Bienen, als solche bezeichnet, und dieser Gedanke wurde immer wieder aufgegriffen, so etwa in der dreihundert Jahre alten ‚Fabel von den Bienen’ von Bernard de Mandeville. Heute wissen wir freilich, dass es in menschlichen Gesellschaften zwar ähnlich kooperativ zugeht wie bei den Ameisen und Bienen, aber die durchschnittliche Verwandtschaft eine viel geringere ist. Neben dem Nepotismus, der in menschlichen Gesellschaften zweifellos eine bedeutende Rolle spielt, muss es daher noch weitere Faktoren geben, die imstande sind, die häufige Zusammenarbeit zwischen nicht-verwandten Individuen zu erklären.

Hier können also die indirekten Fitnesseffekte keine Rolle spielen. Es müssen demgemäß direkte Vorteile aus altruistischem Verhalten zu erwarten sein. Schon im achtzehnten Jahrhundert schrieb der Ökonom Adam Smith von ‚unserer Neigung, zu handeln, zu tauschen und zu feilschen’, und dies führt zum zweiten Lösungsansatz, um Kooperation zu erklären, nämlich der Theorie des reziproken Altruismus. Sie wird in erster Linie auf eine Arbeit von Robert Trivers aus dem Jahr 1971 zurückgeführt. Aber auch die Theorie vom reziproken Altruismus war von Darwin antizipiert worden, als er in der ‚Abstammung des Menschen’ schrieb: ‚Die geringe Kraft und Schnelligkeit des Menschen, sein Mangel an natürlichen Waffen etc werden mehr als wett gemacht durch seine sozialen Eigenschaften, die ihn dazu führen, Hilfe zu geben und zu nehmen.’

Dieses Geben und Nehmen steckt hinter dem reziproken Altruismus, den Robert Trivers definierte als ‚den Austausch altruistischer Handlungen, in denen der Nutzen die Kosten überwiegt, so dass über längere Zeit hin beide Teile in den Genuss eines Nettogewinns kommen.’

Der Aspekt der Wechselwirkung ‚über längere Zeit hin’ lässt sich am besten mit dem sogenannten wiederholten Gefangenendilemma modellieren. Hier nimmt man an, dass es mehrere Runden des Gefangenendilemmas gibt. Nach jeder Runde kommt es mit der Wahrscheinlichkeit w zu einer weiteren Runde. (Wir können uns beispielsweise vorstellen, dass die Wechselwirkung nur abgebrochen wird, wenn eine Sechs gewürfelt wird.) Dann ist die Zahl der Runden eine Zufallsgröße, deren Mittelwert M gerade der Kehrwert von 1-w ist (also im Mittel sechs Runden, falls gewürfelt wird.) Beim wiederholten Gefangenendilemma gibt es zahllose Strategien, wir betrachten zunächst nur zwei besonders einfache: (a) AllD, die Strategie, die niemals kooperiert, und (b) TitForTat, die Strategie, welche vorschreibt, in der ersten Runde zu kooperieren und fortan jenen Zug zu wählen, den der Gegenspieler in der Vorrunde verwendet hat. Zwei AllD-Spieler bekommen beide nichts, während zwei TitForTat Spieler in jeder Runde b-c erhalten. Ein TitForTat-Spieler, der auf einen AllD Spieler trifft, wird von diesem in der ersten Runde ausgebeutet, aber das gelingt in den weiteren Runden nicht mehr – der AllD-Spieler verzichtet also um des kurzfristigen Vorteils der Anfangsrunde willen auf die Aussicht auf (vielleicht viele) Runden künftiger wechselseitiger Unterstützung.

Wenn die Wahrscheinlichkeit w einer weiteren Runde größer als das Kosten-Nutzen Verhältnis c/b ist, ist es demnach besser, einem TitForTat –Spieler mit TitForTat zu begegnen. Gegen einen AllD-Spieler ist freilich AllD die etwas bessere Strategie. Beim wiederholten Gefangenendilemma kommt es also darauf an, dieselbe Strategie wie der Gegenspieler zu wählen. Anders ausgedrückt, bilden sich hier so etwas wie gesellschaftlichen Normen. Es ist günstig, sich so zu verhalten wie die anderen Mitglieder der Gesellschaft.

An dieser Stelle ist es angebracht, festzuhalten, dass es natürlich absurd wäre, anzunehmen, dass ein Programm, TitForTat oder AllD zu spielen, in unseren Genen kodiert ist. Ein Grossteil unserer sozialen Verhaltensweisen ist erlernt. Das kann auf vielerlei Weisen geschehen. Am einfachsten ist es wohl, jene Verhaltensweisen zu kopieren, die besonders erfolgreich scheinen. Wenn man derlei Imitationsprozesse spieltheoretisch modelliert, kommt man aber wieder zu spieltheoretischen Gleichungen von ganz ähnlicher Gestalt, wie bei der genetischen Übertragung. Es kommt lediglich darauf an, dass vorteilhafte Verhaltensweisen in der Bevölkerung häufiger werden (wobei freilich zu beachten ist, dass der Vorteil häufigkeitsabhängig sein kann, ja dass unter Umständen eine Strategie gerade dadurch nachteilig werden kann, weil sie zu häufig vorkommt).

Viele Menschen helfen anderen aber auch dann, wenn eine Gegenleistung eher unwahrscheinlich ist. Der gute Samariter liefert hier wohl das bekannteste Beispiel. Es ist unwahrscheinlich, dass er je wieder auf den Fremden stößt, dem er seine Hilfe angedeihen ließ. Denkbar wäre es freilich, dass hier doch eine Gegenleistung erfolgt, nur eben nicht durch den Empfänger der Hilfe, sondern durch Dritte. Das führt zum Begriff der indirekten Reziprozität.

Direkte und indirekte Reziprozität im sozialen Verhalten

Bei der direkten Reziprozität geht es nach dem Prinzip: ‚Ich kratz dir den Rücken, und du kratzt dafür meinen’. Bei der indirekten Reziprozität hingegen: ‚Ich kratz dir den Rücken, damit mir ein anderer meinen Rücken kratzt.’ Warum sollte der andere das tun? Nun, vielleicht damit ihm seinerseits wieder jemand hilft.

Bei der direkten Reziprozität treffe ich meine Entscheidung auf Grund der Erfahrungen, die ich mit meinem Mitspieler gemacht habe. Bei der indirekten Reziprozität verwende ich auch die Erfahrungen anderer. Der Biologe Richard Alexander hat es in seinem Buch ‚The biological basis of moral systems’ so formuliert: ‚Indirekte Reziprozität beruht auf Reputation und Status, und führt dazu, dass die Mitglieder der Gruppe stets bewertet und neu bewertet werden.’

In einem rudimentären spieltheoretischen Modell lässt sich das folgendermaßen darstellen. Jeder Spieler hat eine Reputation, die der Einfachheit halber nur G (wie Gut) oder B (wie Böse) sein soll. Wir verwenden also eine binäres Bewertungssystem: eine Welt in schwarz und weiß, ohne alle Grautöne. Die Individuen treffen zufällig aufeinander, und der Zufall entscheidet auch, wer der potentielle Geber und wer der Empfänger der Hilfeleistung ist. Der ‚Geber’ kann nun einen Nutzen b an den anderen überweisen, was ihn selbst wiederum c kostet. Liefert der Geber tatsächlich eine Hilfeleistung, so ist seine Reputation in den Augen aller anderen G. Verweigert er aber die Hilfe, so ist seine Reputation B. Der TitForTat-Strategie von vorhin entspricht jetzt die sogenannte Scoring-Strategie, die vorschreibt, nur jenen Spielern Hilfe zu geben, die eine gute Reputation G haben. Dadurch wird die Hilfeleistung auf die Guten konzentriert, und kann nicht von den Bösen ausgebeutet werden.

Hier taucht freilich sofort ein Paradox auf. Wieso sollte man B-Spielern die Hilfe verweigern? Hierdurch wird man ja selbst in den Augen der anderen zu einem Bösen, und die Wahrscheinlichkeit, selbst Hilfe zu empfangen, wird somit verringert. In anderen Worten, es kommt einen teuer, zwischen B- und G-Spielern zu diskriminieren. Vernünftigerweise sollte man also unterscheiden zwischen gerechtfertigter und ungerechtfertigter Verweigerung von Hilfe. Einer, der sich immer weigert, anderen zu helfen, verdient seinen bösen Ruf. Einer, der einem Bösen die Hilfe verweigert und dadurch einen Ausbeuter straft, sollte nicht in denselben Topf geworfen werden.

Die Beurteilung, wer gut und böse ist, führt zu einem rudimentären Moralsystem. Davon gibt es allerdings viele, und es ist nicht klar, welches sich wann durchsetzen wird. Aber alle Moralsystem funktionieren nur, wenn die Information über den anderen in ausreichendem Maß vorhanden ist: das kann durch Sprechen, oder genauer durch Tratschen, erreicht werden. Insbesondere sind die modernen Mechanismen für online-trading, wie etwa eBay, auf einfachen Reputationssystemen aufgebaut.

Zusammenfassend lässt sich sagen, dass direkte und indirekte Reziprozität Schlüssel zum Verständnis pro-sozialen Verhaltens beim Menschen sind, und dass es insbesondere die indirekte Reziprozität ist, die als spezifisch menschlich gelten kann und die den Selektionsdruck für soziale Intelligenz, Sprache und Moral liefert.

Vielen wird spätestens jetzt Zweifel aufkommen, ob denn hier nicht die Grenzen der Naturwissenschaft überschritten werden? Moralische Werte können ja nicht, wie empirische Fakten und wissenschaftliche Theorien, überprüft und falsifiziert werden. Ist also die Moral nicht eigentlich ein Tabu-Thema für die Wissenschaft?

Hier ein diesbezügliches Zitat: ‚Evolutionstheorien, die den Geist auffassen als aus den Kräften der lebendigen Materie entstanden, sind unvereinbar mit der Wahrheit über den Menschen.’ Von der etwas pompösen Sprache abgesehen, ist das eine Meinung, die bei vielen Geisteswissenschaftlern Zustimmung finden könnte. Das Zitat stammt auch keineswegs von einem amerikanischen Kreationisten, sondern von einem europäischen Intellektuellen, nämlich Papst Johannes Paul II, der diese ‚Botschaft an die päpstliche Akademie der Wissenschaften’ im hoch angesehen Quarterly Review of Biology veröffentlichte.

Der Papst stellt sich keineswegs gegen die Evolutionstheorie, er spricht sich nur dagegen aus, sie auch auf die sogenannten höheren Fähigkeiten des Menschen anzuwenden. Er ist in diesem Sinne Exzeptionalist. Viele hoch gebildete Menschen würden ihm darin zustimmen. Sogar Alfred Russell Wallace, der Darwin beinahe den Rang des Entdeckers der Evolutionstheorie hätte streitig machen können, war Exzeptionalist. Er schrieb: ‚Die intellektuellen und moralischen Fähigkeiten des Menschen müssen einen anderen Ursprung haben […] im unsichtbaren Universum des Geistes.’

Darwin kannte solcherlei Berührungsängste nicht. In seinem Nachlass finden sich Aufzeichnungen, die aus 1837 stammen (er war damals noch keine dreißig), und die später von ihm geordnet wurden unter der Rubrik: ’Alte und nutzlose Notizen über moralische Anlagen’. Später schrieb er: ‚Die moralischen Instinkte sind in den sozialen Instinkten begründet, wobei hier auch die Familienbande mitzählen.’

Zur Reziprozität schrieb Darwin: ‚Die Hoffnung, Gutes zurück zu bekommen, führt uns dazu, andern mit Freundlichkeit und Sympathie zu begegnen:’ Und über Reputation: ‘Das Motiv der Menschen, Hilfe zu leisten, beruht nicht mehr nur auf einem blinden instinktiven Impuls, sondern wird weitgehend beeinflusst vom Lob und Tadel der Mitmenschen.’

Ja, Darwin wird sogar zum Lamarckisten, wenn er schreibt: ‚Es ist nicht unwahrscheinlich, das tugendhafte Tendenzen durch langen Gebrauch vererbbar werden.’ Das erscheint uns heute im Gegenteil äußerst unwahrscheinlich, aber auch dieser Gedanke Darwins enthält einen wahren Kern, wenn wir die Theorie der genetisch-kulturellen Ko-Evolution heranziehen. So ist beispielsweise die Viehzucht bestimmt nicht in unserem Genom verankert, sondern eine kulturelle Errungenschaft. Aber in jenen Bevölkerungen, die über Jahrtausende hinweg Rinderzucht betrieben, breiteten sich genetische Anlagen aus, die es erlauben, auch nach der Kindheit noch Milchprodukte zu verdauen. In anderen Bevölkerungen, etwa in Japan, sind diese Gene dagegen sehr selten. Ähnlich lässt es sich vorstellen, dass eine Kultur der Kooperation bei Jägern und Sammlern oder Dorfbewohnern, über Jahrtausende hinweg, Bedingungen geschaffen hat, die zur Ausbreitung genetischer Anlagen führten, die in Darwins Sinn als ‚tugendhaft’ bezeichnet werden können.


Weiterführende Links

Sehr amüsant aufbereitet und nicht minder anschaulich und informativ, führt der Informatiker DI Heinrich Moser (Postdoc TU Wien, Institut für technische Informatik) in einem Bühnenvortrag beim "Science Slam Vienna" vor, was die durchaus ernsthaften Hintergründe der Spieltheorie sind: "Eisverkäufer, Politiker und Spiele in der Informatik"


 

inge Fri, 01.03.2013 - 04:20

Wissenschaftliches Fehlverhalten

Wissenschaftliches Fehlverhalten

Fr, 28.02.2013 - 04:20 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftBetrüger finden sich auf allen Ebenen – vom Studenten bis hin zum renommierten Institutschef. Fragt man nach dem Warum, so sind – außer dem Wunsch des Doktoranden endlich das Studium abschließen zu können – wohl der Kampf um Förderungen, ein Rittern um eine Tenure-Anstellung oder die Aufnahme in höchste akademische Gremien zu nennen. Dazu kommt noch der persönliche Ehrgeiz, in der Fachwelt besser dazustehen als andere Kollegen, in entscheidenden Gremien mitzuwirken, auf großen Tagungen durch keynote-lectures zu glänzen, vielleicht aber auch nur der Wunsch, persönliche Unfähigkeit zu verschleiern. Was ist und zu welchem Ende führt Fehlverhalten in den Naturwissenschaften?

Weltweit stehen einflußreiche Repräsentanten aus Politik und Wirtschaft am Pranger, weil sie in ihren Doktorarbeiten – zumeist in geistes- und sozialwissenschaftlichen Fächern – fremde Arbeiten plagiiert haben. Auch in den Naturwissenschaften lassen falscher Ehrgeiz und/oder eigenes Unvermögen Forscher zu Betrügern werden. Deren Verhalten ist nicht nur moralisch inakzeptabel, es stellt auch die Integrität von Forschung und deren für die Zukunft unserer Gesellschaften essentiellen Ergebnisse in Frage. Dieser Artikel analysiert, wie und in welchem Ausmaß wissenschaftliche Fälschungen zustande kommen und weist auf Initiativen im Kampf gegen den Wissenschaftsbetrug hin.

Was ist los mit den obersten Repräsentanten unserer Staaten, angefangen von den Präsidenten Ungarns und Rumäniens bis hin zum übermächtigen „Zaren“ Rußlands, von u.a. für Bildung zuständigen Ministern bis hin zu „Spitzen“ der Gesellschaft? Offensichtlich haben diese ihre Laufbahn auf Betrug aufgebaut, ihre Doktorarbeiten und damit ihre Karriere-begründenden, akademischen Titel durch Plagiieren fremder Arbeiten geschaffen, sich also „mit fremden Federn geschmückt“.

Was bringt denn eigentlich ein Doktortitel? Ist er bloß ein Statussymbol? Der Politikwissenschaftler Gerd Langguth hat dies klar fomuliert2: „Gerade im bürgerlichen Lager werde jemandem, der einen Doktortitel trägt, einfach mehr Respekt entgegengebracht. Man wird ehrfürchtiger angehört und angeschaut.“ und "Wenn der Doktortitel aberkannt wird, kann auch leicht die Karriere zu Ende sein".

Fremder Federschmuck

„Sich mit fremden Federn schmücken“ ist keine Erfindung unserer Zeit. Mit der Fabel „von der Krähe und dem Pfau“ hat der griechische Dichter Äsop bereits vor rund 2600 Jahren die Annektion fremden Eigentums und deren Folgen veranschaulicht. Die Relevanz dieser Darstellung für das Thema Wissenschaftsbetrug ist offensichtlich (etwas frei übersetzte Version des vor rund 2000 Jahren lebenden Dichters Phaedrus3): Die Krähe und der PfauAbbildung 1. Die Krähe und der Pfau. Steinhöwel, Heinrich; Brant, Sebastian: Esopi appologi sive mythologi: cum quibusdam carminum et fabularum additionibus Sebastiani Brant. (Basel: Jacob <Wolff> von Pfortzheim., 1501; Bild: Uni Mannheim )

„Daß man nicht seinem Hang nachgeben sollte sich mit fremden Verdiensten zu protzen und ein nur auf die Wirkung nach außen bedachtes Leben zu führen, zeigt uns Aesop an folgendem Beispiel: Eine vor eitler Selbstüberschätzung aufgeblasene Krähe hat die Federn aufgehoben, welche ein Pfau verloren hatte und sich damit geschmückt. Jetzt sieht sie auf ihre Artgenossen herab und mischt sich unter die prachtvolle Schar der Pfauen. Diese rupfen dem unverschämten Vogel die Federn aus und vertreiben ihn mit ihren Schnäbeln. Als die arg zugerichtete Krähe nun jammernd versucht zu ihren eigenen Artgenossen zurückzukehren, wird sie von diesen zurückgewiesen und wüst beschimpft. Eine von denen, die ihr früher zu minder waren, meint: "Hättest Du Dich mit unseren Milieu zufrieden gegeben und mit dem abgefunden, was die Natur Dir beschieden hat, dann wäre Dir diese Schande erspart geblieben und Dein Unglück wäre nicht auf Zurückweisung gestoßen.“

Täuschung über die Eigenständigkeit der wissenschaftlichen Leistung – Plagiatoren und Plagiatsjäger

In den meisten Ländern gibt der Doktorand in der Doktorarbeit – gleich welcher Fachrichtung – eine eidesstattliche Erklärung ab, daß diese auf seiner selbständigen Arbeit beruht. Wer hier nachweislich lügt, hat auch sonst das Vertrauen verspielt. In einem anzustrebenden System sollte persönliche Integrität – neben fachlicher Qualifikation – unabdingbare Voraussetzung für die Erlangung hoher politischer Funktionen sein, Betrüger aber sollten – frei nach Äsop – aus dem Kreis der Politiker schmählich verjagt, im Kreis der Wissenschafter als verächtlich gebrandmarkt werden!

Ein „sich mit fremden Federn schmücken“ ist in den letzen Jahrzehnten mit den ungeheuren Möglichkeiten der Informationstechnologie immer leichter und verlockender geworden. Viele einschlägige Publikationen sind ja im Netz frei aufrufbar und können dann in Abschnitten oder auch zur Gänze im copy-paste-Verfahren zur „eigenen“ Dissertation zusammengefaßt werden.

Gleichzeitig erleichtert das Internet aber auch Plagiate mittels geeigneter Software zu entdecken (ich spreche dabei aus eigener Erfahrung). Beispielsweise hat die Universität Wien seit dem Wintersemester 2007/2008 eine flächendeckende digitale Plagiatsprüfung aller – jährlich mehr als 5000 – Abschlußarbeiten eingeführt. Dabei erfolgt ein Textvergleich mit allen digitalisierten Büchern, Journalen und Texten im Internet und den elektronisch gespeicherten Diplom- und Doktorarbeiten. Seitdem wurden in 23 Fällen Verfahren eingeleitet, in 9 Fällen der akademische Titel aberkannt4.

Ist damit von jetzt an ein Plagiieren weitgehend ausgeschlossen? Zweifellos „nein“. Nur stumpfsinniges 1:1 Kopierer bleiben im Netz der Plagiatsprüfung hängen. Leichte Veränderungen im kopierten Text, Ersetzen von Wörtern durch Synonyme, vielleicht sogar eine Übersetzung aus einer anderen Sprache, können das „Werk“ „plagiatssicher“ machen.

Eine eben im Auftrag des Deutschen Bundesbildungsministerium fertiggestellte Studie „Fairuse“ der Universität Bielefeld, die von 2009 bis 2012 in mehreren Erhebungswellen zwischen 2000 und 6000 Studenten aller Fachrichtungen anonym befragte, ergab ein erschreckendes Bild zur Anfälligkeit von Studenten für’s Plagiieren und andere Formen wissenschaftlichen Fehlverhaltens: Demnach hatte jeder Fünfte bereits mindestens ein Plagiat fabriziert, 37 % der Studenten gaben zu, bei Klausuren bloß abgeschrieben zu haben5.

Die Prüfung von Arbeiten aus der vor-digitalisierten Zeit ist sehr aufwändig. Diese werden durch zumeist anonyme Plagiatsjäger eingescannt und penibelst nach Plagiaten abgesucht, deren Quellen häufig ebenfalls noch nicht digitalisiert sein können. Derartige Initiativen können natürlich nur einen kleinen Teil der insgesamt vorhandenen Doktorarbeiten prüfen – dann, wenn ausreichend Verdachtsmomente (oder politisch-motiviertes Interesse) vorliegen. Beispielweise hat VroniPlag im November 2010 begonnen insgesamt 42 mutmaßliche Plagiate zu untersuchen, die zwischen 1987 und 2011 publiziert worden waren: in der Folge wurde bereits in neun Fällen der Doktortitel von der jeweiligen Universität aberkannt6. Eine Plattform PlagiPedi Wiki macht es sich zur Aufgabe, die Arbeiten von Akademikern zu untersuchen, die „derzeit aktiv eine öffentlich herausragende Funktion in einer öffentlichen Körperschaft bekleiden“7.

Charakteristika naturwissenschaftlicher Fachrichtungen

Studien der verschiedenen naturwissenschaftlichen und technischen Fachrichtungen unterscheiden sich von vielen anderen Studienrichtungen in wesentlichen Aspekten:

  • Zumeist sind es recht lange und schwierige Studien mit zu wenig Freizeit für ein „lustiges Studentenleben“ - also sicherlich keine „low-hanging fruits“.
  • Die größtenteils experimentellen Doktorarbeiten ziehen sich über mehrere Jahre hin, sind überaus arbeitsintensiv, die Ergebnisse oft frustrierend. Der Doktorand (der ja bereits Master ist) wird – wenn überhaupt – schlecht bezahlt.
  • Einen Doktortitel in diesen Fächern als bloßes Statussymbol anzusteuern, ist wohl kaum eine Option! Im allgemeinen bedeutet dieser Titel hier weder hohes Prestige, noch eine schnelle Eintrittskarte zu höchstbezahlten Positionen! Sicherlich sind es spezifische Fähigkeiten zusammen mit intellektueller Neugier – Forscherdrang – die Studenten zu diesen Fachrichtungen tendieren lassen.
  • Von Anfang an wird nach dem Motto „publish or perish“ auf möglichst viele Veröffentlichungen in möglichst hochrangigen Journalen hingearbeitet – diese Kennzahlen entscheiden, ob und welcher Karriereweg eingeschlagen werden kann.
  • Möglichst hohe Kennzahlen als Unterstützung eines erfolgversprechenden Projektvorschlags sind Voraussetzung für den immer schwieriger werdenden Kampf um Förderungsgelder (grants) aus den knappen Kassen öffentlicher und privater Einrichtungen; bei einer Ablehnung des grants wird das projekt unfinanzierbar und „stirbt“.

Wissenschaftliches Fehlverhalten in den Naturwissenschaften

Auch in der naturwissenschaftlichen Forschung sind Originalität und Eigenständigkeit essentielle Grundpfeiler. Allerdings basiert ein Großteil dieser Forschung auf experimentellen Untersuchungen, deren Methoden sich sehr schnell verändern – ein weitgehendes Abschreiben fremder Arbeiten ist damit zwar nicht unmöglich, tritt aber eher vereinzelt auf. Im Vordergrund des „scientific misconduct“ stehen dagegen Praktiken des Manipulierens, Fälschens und Erfindens von Daten und ein Zurechtbiegen von Interpretationen.

Betrüger finden sich auf allen Ebenen – vom Studenten bis hin zum renommierten Institutschef. Fragt man nach dem Warum, so sind – außer dem Wunsch des Doktoranden endlich das Studium abschließen zu können – wohl der oben erwähnte Kampf um Förderungen, ein Rittern um eine Tenure-Anstellung (eine Professorenstelle auf Lebenszeit) oder die Aufnahme in höchste akademische Gremien zu nennen. Dazu kommt noch der persönliche Ehrgeiz, in der Fachwelt besser dazustehen als andere Kollegen, in entscheidenden Gremien mitzuwirken, auf großen Tagungen durch keynote-lectures zu glänzen, vielleicht aber auch nur der Wunsch, persönliche Unfähigkeit zu verschleiern.

Datenfälschungen sind zumeist schwieriger aufzudecken als Plagiate. Bis vor kurzem waren es häufig Zufälle, die einen Betrug vermuten liessen, etwa wenn:

  • Labors trotz hoher Expertise und penibler Einhaltung von publizierter Methodik die dort beschriebenen Daten nicht und nicht reproduzieren konnten,
  • man bei Kollegen herausfand, daß diese nur die zu ihrer Hypothese passenden Daten anführten, die widersprechenden aber unter den Tisch fallen ließen oder
  • Kollegen Daten anführten, die mit ihrer Expertise und Ausrüstung überhaupt unvereinbar waren usw.

Charakteristisch für zahlreiche eher zufällige Aufdeckungen ist der Fall des deutschen Physikers Jan Hendrik Schön, der als Nobelpreis-verdächtiges „Wunderkind“ galt. Hier waren es wohl die in sehr kurzen Abständen publizierten, offensichtlich bahnbrechenden Artikel, die stutzig machten. Diese wurden genauer untersucht, als er dieselben Grafiken zur Illustrierung verschiedener Sachverhalte verwendete. Er flog auf, wurde gefeuert und verlor seinen Doktortitel8.

Selbstkorrektiv - Whistleblowers

Wie hoch ist eigentlich der Anteil an Wissenschaftern, denen man besser nicht vertraut?

Dazu gibt es eine Studie von D. Fanelli aus dem Jahr 2009: „How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data”9. Demnach gaben rund 2% der (insgesamt rund 11 600 befragten) Wissenschafter an, Daten selbst gefälscht oder erfunden zu haben; auf ihre Kollegen angesprochen meinten sie, sie hätten bei 14 % Derartiges beobachtet – also ein relativ hohes Potential.

Betrug ist auch der Hauptgrund, warum eine jährlich steigende Zahl an Publikationen zurückgezogen werden (muß). Dies zeigt eine vor wenigen Monaten erschienene Studie von Fang et al.10, die alle in der Datenbank PubMed aufgegelisteten und zwischen 1940 und 2012 von den Autoren zurückgezogenen Veröffentlichungen untersuchte (es waren 2047 von mehr als 25 Millionen Artikel). Die Journale mit dem highest-ranking wiesen auch die meisten Zurückziehungen (retractions) auf.

Insgesamt gesehen liegt also die Rate der offiziell zurückgezogenen Artikel bei etwa 1:10 000. Das klingt zwar sehr wenig, birgt aber das Potential, Wissenschaft und Wissenschafter zu diskreditieren.

In den letzten Jahren hat sich die Vorgehensweise zur Entlarvung von Fälschern grundlegend geändert. Viele Forscher nehmen es nicht mehr hin, daß sie so viel Zeit, Mühe und vor allem Forschungsgeld verschwendet haben um Daten und Methoden zu reproduzieren, die sich schlußendlich als Fälschungen herausstellten. Sie nehmen auch nicht hin, daß sie im Kampf um Grants oder Anstellungen Kollegen unterliegen, deren Erfolg auf Betrug aufgebaut ist.

Aus diesen Gründen, aber auch aus Redlichkeit, haben immer mehr Wissenschafter begonnen, die Artikel mutmaßlicher Fälscher penibelst zu recherchieren. Auf Internetforen und in Blogs untermauern sie dann als (meist anonyme) Whistleblower Anschuldigungen mit fundierten Belegen und lösen damit Diskussionen und Untersuchungen an den betroffenen Institutionen aus, die schlußendlich Betrügern (wie etwa vor knapp einem Jahr dem Salzburger Kristallographen Robert Schwarzenbacher) das Handwerk legen. Insbesondere ist hier die von Ivan Oransky and Adam Marcus vor rund 2½ Jahren ins Leben gerufene Plattform Retraction Watch zu erwähnen.

Im übrigen, der auf RetractionWatch aufgeführte Rekordhalter im Zurückziehen von Artikeln ist ein berühmter Japanischer Anaethesist – Yoshitaka Fujii – der zwischen 1993 und 2011 Daten in 183 von 212 Publikationen gefälscht hatte. Verständlicherweise wurde er aus seinem Posten entfernt.

Wie kommt es aber dazu, daß derartige Fälschungen überhaupt in höchstrangige Journale gelangen können, die ja einem „peer review“ Begutachtungssystem unterliegen? Dieses System sieht je eingereichten Artikel 2 bis 3 – den Autoren nicht genannte – Fachkollegen – „peers“ – als Gutachter vor, die freiwillig und unbezahlt innerhalb einer kurzen Frist ihren Review abliefern. Ein Großteil an Fehlern wird dabei erkannt und die Arbeit zur Korrektur zurückgesandt oder überhaupt abgelehnt. Sei es nun, daß der Gutachter einen der Autoren gut kennt und ihm voll vertraut, sei es, daß er sich bei dem Thema der Arbeit nicht wirklich auskennt oder – wie in den meisten Fällen – einfach zu wenig Zeit hat: die nötige Sorgfalt des Reviews wird dadurch nachteilig beeinflußt. Hier sind zweifellos die Verlage selbst gefordert, zur Qualitätssicherung beizutragen.

Fazit

Wissenschaftsbetrug wird zunehmend riskanter. Whistleblowers und Plagiatsjäger haben bereits erfolgreich eine Reihe von Betrügern mit Schimpf und Schande aus möglicherweise renommierten Positionen „verjagt“. Wissenschaftsbetrug schadet aber nicht nur dem Betrüger, sondern auch Betreuern, Mitautoren, Gutachtern und ganzen wissenschaftlichen Institutionen, weil diese die Fälschungen offensichtlich nicht erkannt oder ignoriert haben. Ob dies nun auf Inkompetenz oder auf einfaches „Wegsehen“ oder gar auf Vertuschen zurückgeführt werden kann: auch damit wird die Glaubwürdigkeit der Wissenschaft schwer beschädigt, auch dies sollte als wissenschaftliches Fehlverhalten geahndet werden!


Literatur:

  1. Paraphrase des Titels von Friedrich Schillers Antrittsvorlesung in Jena, 1789.
  2. http://www.dw.de/wie-wichtig-ist-ein-doktortitel-f%C3%BCr-politiker/a-16308637 abgerufen am 24.2.2013
  3. Phaedrus, Fabulae 1, 3:“ Graculus superbus et pavo“
  4. http://studienpraeses.univie.ac.at/informationsmaterial/sicherung-der-guten-wissenschaftlichen-praxis-2/ abgerufen am 26.2.2013
  5. http://pdf.zeit.de/studium/hochschule/2012-08/schummeln-studie-studium.pdf PDF, abgerufen am 26.2.2013
  6. http://de.vroniplag.wikia.com/wiki/Home abgerufen am 26.2.2013
  7. http://de.plagipedi.wikia.com/wiki/PlagiPedi_Wiki abgerufen am 27.2.2013
  8. http://www.swp.de/ulm/nachrichten/suedwestumschau/Faelscher-verliert-seinen-Doktortitel;art4319,1113357 abgerufen am 27.2.2013
  9. http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0005738 abgerufen am 28.2.2013
  10. http://www.pnas.org/content/109/42/17028.full.pdf+html?sid=884d96ad-a4bb-40f8-962d-807d55858539 abgerufen am 28.2.2013 (Anmeldung erforderlich)
inge Thu, 28.02.2013 - 04:20

Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

Fr, 21.2. 2013 - 04:20 — Manfred Jeitler

Icon PhysikManfred JeitlerDas kürzlich am Forschungszentrum CERN in Genf entdecke Higgs-Teilchen hat die Gültigkeit des Standardmodells der Elementarteilchen erhärtet. Dieses Modell hatte als Kernstück ein das ganze Universum durchziehendes „Feld“ (Higgs-Feld) postuliert, mit dem die Elementarteilchen wechselwirken und daraus ihre Masse beziehen. Durch Zufuhr genügend hoher Energie im Teilchenbeschleuniger (Large Hadron Collider - LHC) ließen sich Störungen (Dichteschwankungen) im Higgs-Feld erzeugen, welche, als echtes Teilchen mit den für das Higgs-Teilchen geforderten Charakteristika aufschienen.

Wieso braucht man im Standardmodell unbedingt ein Higgs-Teilchen?

Das Problem besteht darin, dass in diesem Modell zuerst einmal alle Elementarteilchen masselos wären. Es gibt zwar wirklich Elementarteilchen, die keinerlei Masse haben, so z.B. das "Photon" oder Lichtteilchen (wenn wir etwas sehen, fliegen einfach solche Photonen in unsere Augen, die das dann wahrnehmen können). Aber man hat experimentell festgestellt, dass andere Elementarteilchen sehr wohl Masse besitzen. Jetzt meinen Sie vielleicht: "Na toll, diese Physiker! Weiß ich doch alles auch ohne die! Ich bestehe ja angeblich selbst aus diesen Teilchen, behaupten sie. Und dass ich selbst Masse habe, weiß ich nur zu gut. Ich ärgere mich jedes Mal über diese vielen Kilos, wenn ich auf die Badezimmerwaage steige! Also muss diese Masse ja irgendwie in den Teilchen drin stecken." Ganz so einfach ist das aber nicht! Ein System von Elementarteilchen kann, von außen gesehen, viel mehr Masse haben, als die einzelnen "Bestandteile". Das liegt daran, dass man sich das nicht einfach wie einen Lego- oder Matadorbaukasten vorstellen kann. Warum das so ist, werden wir ein bisschen später sehen.

Was ist das Higgs-Feld?

Einstweilen wollen wir einfach eine Theorie haben, die erklärt, warum manche Elementar­teilchen über Masse verfügen, also "etwas wiegen". Dazu haben der schottische Physiker Peter Higgs (jetzt wissen Sie, woher der Name kommt!) und andere ein "Feld" eingeführt, und das erzeugt diese Masse. (Sie haben vielleicht schon von elektrischen Feldern, Magnetfeldern oder dem Gravitationsfeld, also der Schwerkraft, gehört. Das Higgs-Feld ist im Wesentlichen auch ein solches Feld).

Der englische Physiker David Miller hat das seinem Wissenschaftsminister einmal so erklärt: Bei einem diplomatischen Empfang kommt plötzlich ein bedeutender Politiker ins Zimmer (Abbildung 2.1, links). Sofort stürzen sich die Anwesenden auf ihn, allen voran die Reporter und Paparazzi, und wollen ihn befragen, fotografieren, oder wenigstens anstarren. Der Ärmste ist jetzt von einem Menschenknäuel umgeben und kann sich nicht mehr frei bewegen (Abbildung 2.1, rechts), nur noch ganz langsam. (Das kann natürlich peinlich sein, vielleicht wollte er nur einmal ganz rasch auf die Toilette.) Er hat sozusagen eine riesige Masse bekommen.

Higgsfeld Higgsfeld verleiht einem Teilchen Masse
Abbildung 2.1: Ein gleichförmiges Feld (links) kann einem dieses passierenden Teilchen (rechts) Masse verleihen (Higgs Mechanismus – wie ihn David Miller seinem Minister erklärte)

Ähnlich geht das den Elementarteilchen: die sind der Politiker, und das Higgs-Feld sind die Paparazzis. Jetzt kann es aber passieren, dass überhaupt keine berühmte Persönlichkeit hereinkommt, aber trotzdem jemand irrtümlich (oder absichtlich, um sich über die anderen lustig zu machen) schreit: "Da kommt er!" (Abbildung 2.2, links) Sofort stürzen sich die Schaulustigen zur Tür und merken nicht gleich, dass da gar niemand ist, den man anstarren kann. Dieser Knäuel von Leuten, ganz ohne Politiker in der Mitte, sieht jetzt ganz ähnlich aus wie vorhin und bewegt sich langsam weiter, weil vorne immer neue Leute hinrennen, während sich hinten andere enttäuscht abwenden (Abbildung 2.2, rechts).

Higgsfeld Higgsfeld bildet Teilchen
Abbildung 2.2. Ein gleichförmiges Feld (links) kann ›Klumpen‹ bilden (rechts). In die Sprache der Physik übertragen ist dies das Higgs-Teilchen (Higgs Mechanismus – wie ihn David Miller seinem Minister erklärte)

Das wäre jetzt, wieder in die Sprache der Physik übersetzt, ein Higgs-Teilchen. Also nochmals:

  • das Higgs-Feld brauchen wir, um die Masse der Teilchen zu erklären.
  • Aber dann muss es auch manchmal solche "Klumpen" bilden, ohne dass ein anderes Teilchen da wäre, und das muss man dann als Higgs-Teilchen nachweisen können.

Wie entsteht das Higgs-Teilchen?

Wie kann aber so ein schweres Teilchen entstehen, doch wohl nicht ganz von selbst? Schwer ist es nämlich tatsächlich, es wiegt mehr als hundert Mal so viel als ein Proton. Am CERN-Beschleuniger werden Protonen mit hoher Energie gegeneinander geschleudert. Wieso fliegt dann plötzlich wo ein hundert Mal schwereres Teilchen heraus?

Sie haben sicher schon von der berühmten Formel der Relativitätstheorie gehört: E = mc², gesprochen: "E ist gleich m-c-Quadrat", d.h. "Energie ist gleich Masse mal Quadrat der Lichtgeschwindigkeit".

Was bedeutet das?

Energie ist eigentlich dasselbe wie Masse, nur multipliziert mit einer großen Zahl.

Denken Sie ans Geld. Heute zahlt man in Italien mit Euros, früher zahlte man dort mit Lire. Ein Euro ist fast soviel Geld, wie damals zweitausend Lire waren. Aber Geld ist beides. Und wenn Sie wo einen alten Lireschein finden, können Sie damit zur italienischen Nationalbank pilgern und ihn in Euro umwechseln lassen.

Ebenso sieht es mit Energie und Masse aus.

In einem Kernkraftwerk wiegen die Abfälle nach der "Energieerzeugung" ein ganz kleines bisschen weniger als die Brennstäbe vorher: ein kleines bisschen Masse (Gewicht) ist in eine Menge Energie (Kilowattstunden) umgewandelt worden.

Umgekehrt ist es bei einem Beschleuniger: man steckt viele Kilowattstunden in die Beschleunigung der Protonen, und wenn die dann mit Wucht aufeinander prallen, kann dabei ein Teil dieser Energie wieder in Masse, also in schwere Teilchen, umgewandelt werden, die die Physiker dann mit ihren Detektoren und etwas Glück finden können. (Jetzt kann man auch verstehen, wieso ein System von Elementarteilchen mehr wiegen kann als alle einzelnen Teilchen zusammen genommen: Die Energie, mit der die Elementarteilchen zusammengehalten werden bzw. umeinander fliegen, entspricht eben jener zusätzlichen Masse.)

Wie lässt sich das Higgs-Teilchen finden und nachweisen?

Aber was heißt das eigentlich, "ein Teilchen finden"? Und wo liegt das Higgs-Teilchen jetzt? Schwer bewacht in einem Tresor am Forschungszentrum CERN, damit nicht womöglich wer kommt und es uns wieder wegnimmt? Nein, natürlich nicht. Es ist ja nicht ein einzelnes Teilchen, wie die "Mona Lisa", von der es auf der Welt nur ein Exemplar gibt, sondern eine bestimmte Art von Teilchen. Außerdem ist es aber nicht stabil: wie gewonnen, so zerronnen.

Dieses arme Higgs-Teilchen ist dermaßen kurzlebig, das es selbst, wenn es fast mit Lichtgeschwindigkeit fliegt, niemals die paar Meter bis zu unserem Detektor überdauert.

Aber wieso erdreisten sich dann diese Physiker, zu behaupten, sie hätten diese Teilchen "gesehen"?

Da müssen wir einmal nachdenken, was wir meinen, wenn wir sagen, wir "sehen" etwas. Wenn wir etwas sehen, müssen wir es nicht berühren. Wir können sogar ganz schön weit entfernt davon stehen, denken wir doch nur an die Sterne am Nachthimmel. Wichtig ist nur, dass uns die Lichtteilchen ("Photonen") treffen, die von dort ausgesendet werden.

Ähnlich ist es beim Higgs-Teilchen (und bei vielen anderen sehr kurzlebigen Elementarteilchen): sie kommen nicht bis zu uns, sie zerfallen vorher, aber diese Zerfallsprodukte können wir dann in unseren Detektoren nachweisen. In der Bibel steht geschrieben: "An ihren Früchten sollt ihr sie erkennen." Diese Regel gilt in der Teilchenphysik auch: wenn man es schafft, alle Zerfallsprodukte eines Teilchens richtig zu messen, dann kann man ganz genau die Masse des zerfallenen Teilchens berechnen. Die Masse (sozusagen das Gewicht) ist aber so etwas wie die Visitenkarte eines Teilchens. Anders als bei den Menschen, wo es schon einmal vorkommen kann, dass zwei Leute genau gleich viele Kilos auf die Waage bringen, kann man ein Teilchen genau durch seine Masse identifizieren. (Es gibt ja auch nicht so viele verschiedene Arten von Teilchen, wie Menschen.)

Genau so haben die Physiker am CERN das Higgs-Teilchen nachgewiesen.

Die Entdeckung der Nadel im Heuhaufen

Nur, ganz so einfach ist es dann auch nicht. Oft sieht man eben nicht alle Produkte von irgendeinem Zerfall, oder misst etwas falsch. Es gibt aber sehr, sehr viele andere Prozesse, die gar nichts mit dem Higgs-Teilchen zu tun haben, aber viel häufiger vorkommen. Dass das Higgs-Teilchen eher selten vorkommt, haben Sie sicher schon erraten: sonst hätten die Physiker es ja schon längst gefunden. Wenn es aber so viele andere Vorgänge gibt, die viel häufiger auftreten, und man manchmal einen Fehler macht, könnte das plötzlich so ausschauen, wie ein Higgs-Teilchen. (Sie wissen ja: Wer arbeitet, macht Fehler. Wer viel arbeitet, macht viele Fehler. Wer keine Fehler macht, wird Chef.) Die "Masse", die man dann ausrechnet, ist dann das, was wir eine "Hausnummer" nennen: irgendein Wert ohne wirkliche Bedeutung, einmal größer, einmal kleiner. Diese Fehler bilden den "Untergrund". (Hat nichts mit der Mafia zu tun, ist für Physiker aber auch sehr lästig.) "Das ist ja schrecklich!", werden Sie jetzt vielleicht stöhnen. "So viel Aufwand, und dann misst man erst was Falsches!" Aber es gibt einen Ausweg: der Untergrund wird eben irgendeinen Wert für die "Masse" geben, nicht immer denselben. Die wirklichen braven Higgs-Teilchen haben aber immer dieselbe Masse! Das heißt, bei dem richtigen Wert sieht man ein bisschen öfter etwas, als bei den falschen. Das ist so wie bei einem Telefon- oder Skype-Gespräch, wenn die Verbindung schlecht ist. Man versteht kaum etwas, aber wenn der Partner immer wieder die wichtige Information wiederholt, dann wird man sie schließlich doch kapieren.

Masse des HiggsteilchenAbbildung 2.3: Masse des neu entdeckten Higgs-Teilchen 125 GeV

Ein Bild sagt mehr als tausend Worte, und hier sehen Sie eines der Bilder, die die Entdeckung des Higgs-Teilchens dokumentiert haben (Abbildung 2.3). Man hat sich Fälle angesehen, wo genau zwei Photonen gesehen wurden (Photonen werden in der Physik aus irgendeinem Grund mit einem kleinen griechischen Gamma abgekürzt.) Auf der waagrechten Achse ist für jeden der vielen gemessenen Fälle die Masse aufgetragen, die irgendein anderes Teilchen haben würde, wenn es in diese zwei Photonen zerfallen wäre (für die Photonen wurde jedes Mal eine andere Energie und Flugrichtung gemessen, dadurch gibt es viele verschiedene Werte für diese "Masse", die vielleicht gar nicht der Masse eines wirklichen Teilchens entspricht und übrigens im Physiker-Jargon als "invariante Masse" bezeichnet wird). Die Einheit lautet hier "GeV" (Gigaelektronenvolt), lassen Sie sich aber dadurch nicht beunruhigen, wir hätten genau so gut Kilogramm hinschreiben können (nur müssten wir dann mit unpraktisch kleinen Zahlen arbeiten; Sie verlangen im Geschäft ja auch nicht "bitte eine Zehntausendstel Tonne Extrawurst", sondern "zehn Deka" oder "hundert Gramm").

Der senkrechten Achse entspricht die Häufigkeit, mit der ein bestimmter Wert ausgerechnet wurde. Die falschen Werte kommen öfter bei niedrigen "Massen" vor als bei sehr hohen, drum geht die Kurve von links oben nach rechts unten. Wichtig ist aber der Buckel bei 125 GeV: der kommt von den wirklichen Higgs-Teilchen, die in zwei Photonen zerfallen sind, nicht von irgendwelchen Untergrund-Ereignissen. (Lassen Sie sich nicht von der Aufschrift auf dem Bild verwirren, das sind nur technische Details, die für uns hier belanglos sind.)

Wie geht es weiter?

Higgs-Teilchen zerfallen nicht immer in zwei Photonen, sie können auch andere Zerfallsprodukte hinterlassen. Solche Ereignisse hat man auch gemessen, immer denselben Wert für die Higgs-Masse gekriegt, und drum sind wir jetzt sehr zuversichtlich, dass wir wirklich das Higgs-Teilchen gefunden haben. Was nicht heißt, dass damit alles geklärt und nichts mehr zu tun ist. Jetzt müssen wir erst die Eigenschaften dieses neuen Teilchens genau untersuchen, da wird es erst richtig spannend!

Es gibt noch viel Arbeit. Vielleicht wollen Sie rasch Physik studieren und dann dabei mithelfen?


Anmerkung des Autors:

Dieser Beitrag ist meinem Freund und Kollegen Laurenz Widhalm gewidmet, einem begeisterten Physiker, der sich besonders dafür engagiert hat, die Physik der Öffentlichkeit, vor allem aber der Jugend, näher zu bringen. Leider hat er uns viel zu früh verlassen.


Anmerkungen der Redaktion

Der erste Teil dieses Essays : „Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen“ erschien am 7. Feber 2013. 

CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire) Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.  Publikumsseiten des CERN; https://home.cern/science/physics/higgs-boson

HEPHY: Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften: Grundlagenforschung auf dem Gebiet der Elementarteilchenphysik, Teilnahme an internationalen Großexperimenten am CERN und am KEK (nationales japanisches Forschungszentrum), an der Planung des ILD Experiments (International Linear Collider (ILC)). Auf der Webseite finden sich leicht verständliche Darstellungen (in Deutsch) u.a. zum Higgs-Boson: http://www.teilchenphysik.at/wissen/das-higgs-boson/.


 

inge Thu, 21.02.2013 - 04:20

Gefährdetes Licht – zur Wissensvermittlung in den Naturwissenschaften

Gefährdetes Licht – zur Wissensvermittlung in den Naturwissenschaften

Fr, 14.02.2013 - 04:20 — Gottfried Schatz

Icon Politik & Gesellschaft

Gottfried SchatzDie sieggewohnten Naturwissenschaften sind heute dreifach bedroht. Sie kämpfen gegen den Verlust einer gemeinsamen Sprache, überbordendes Konkurrenzdenken und die Grenzen menschlicher Vorstellungskraft.

Für den Astronomen Carl Sagan war Wissenschaft eine Kerze in einer dunklen und von Dämonen besessenen Welt. Und in der Tat: Das Licht dieser Kerze schützt uns vor dem Dunkel unbegründeter Ängste, sinnloser Zwänge und entwürdigender Vorurteile. Es wuchs aus vielen Funken, die sich in den letzten zwei Jahrhunderten zu einer mächtigen Flamme vereinten. Vor allem gilt dies für die Naturwissenschaft. Noch im frühen 19. Jahrhundert war sie in unzählige Einzelfächer aufgespalten, die sich emsig dem Schaffen und Ordnen von Detailwissen widmeten und im Schatten genialer Denker wie Kant und Schopenhauer standen

Sprachverlust…

Wissen ist jedoch keine Ware, die sich verpacken, etikettieren und für alle Zeiten ablegen lässt; es gehorcht seinen eigenen Gesetzen, die wir weder genau kennen noch ändern können. Wissen gleicht einem Zoo wilder Tiere, die ihre trennenden Gitter durchbrechen und unerwartete Nachkommen zeugen. Jean-Paul Sartres Ausspruch «Nicht wir machen Krieg; der Krieg macht uns» gilt auch für das Wissen. Unter dem Ansturm der wissenschaftlichen Forschung verändert es sich ohne Unterlass und verändert damit auch uns. Wir mögen es zwar kurzfristig bändigen oder sogar verfälschen, doch auf lange Sicht ist es stets stärker als wir. Das Victor Hugo zugeschriebene Zitat «Nichts ist mächtiger als eine Idee, deren Zeit gekommen ist» ist zwar nicht authentisch, aber dennoch wahr.

Diese Dynamik des Wissens schöpft ihre Kraft aus der Zwiesprache der Wissenschafter und deren Bereitschaft, Wissen an die folgenden Generationen weiterzugeben. Erst als Naturwissenschafter verschiedener Disziplinen miteinander zu sprechen begannen, offenbarte sich ihr gemeinsames Wissen als Quelle grosser Wahrheiten über uns und die Welt. Das einigende Band dieser Zwiesprache machte die Naturwissenschaften zu einer philosophischen Kraft des 20. Jahrhunderts.

Heute droht dieses Band zu zerreissen. Eine Vorwarnung war die Entfremdung zwischen den «Natur»- und den «Geistes»-Wissenschaften, die der britische Physiker Charles Percy Snow in seiner berühmten Rede «The Two Cultures» am 7. Mai 1959 im Senate House der Universität Cambridge mit grosser Eindringlichkeit beklagte: Seine Worte «Ich hatte dauernd das Gefühl, mich zwischen zwei Gruppen zu bewegen, die kaum noch miteinander sprachen» haben nichts von ihrer Gültigkeit eingebüßt. Naturwissenschafter sollten sie besonders ernst nehmen, sind sie doch auf dem besten Wege, ihre gemeinsame Sprache zu verlieren.

…und babylonische Sprachverwirrung

Diese babylonische Sprachverwirrung bedroht vor allem die Biologie und andere schnell wachsende Disziplinen, in denen die genaue Beschreibung einer rasant anwachsenden Vielfalt von Objekten und experimentellen Methoden eine zentrale Rolle spielt. Wohl deshalb sind die meisten biomedizinischen Vorträge heute mit wissenschaftlichem Jargon und unnötigen technischen Details derart überfrachtet, dass nur Experten des jeweiligen Spezialfachs sie noch verstehen können. Vorträge mit weit über hundert Power-Point-Projektionen komplexer Collagen aus vielen Einzelbildern sind keine Seltenheit, wobei meist nur ein winziger Bruchteil der projizierten Datenflut im Vortrag Erwähnung findet.

Berauscht von der technischen Virtuosität ihrer schwierigen Experimente verzichten Vortragende immer häufiger darauf, das Ziel und die breitere Bedeutung ihrer Ergebnisse in einfachen Worten zusammenzufassen. Während meiner aktiven Forschertätigkeit hatte ich mich an diesen Verfall wissenschaftlicher Kommunikation gewöhnt, doch jetzt, in der Distanz meiner Emeritierung, zeigt er sich mit bestürzender Klarheit.

Die grossen internationalen Wissenschaftskongresse drohen zu Trade-Shows zu verkommen, an denen die ausgestellten Geräteneuheiten und Bücher den wissenschaftlichen Dialog in den Hintergrund drängen. Wenn Kongressteilnehmer die meisten wissenschaftlichen Vorträge nur noch vage verstehen, zerbröckelt die mühsam erkämpfte Einheit der Naturwissenschaften. Datenflut und Konkurrenzdenken

Zu diesem Sprachverlust gesellt sich eine gewaltige Herausforderung des Wissenschaftsbetriebes durch das dramatische Anwachsen von Daten und Wissen. Dieses Wachstum begann im frühen 18. Jahrhundert, beschleunigte sich bald darauf exponentiell und ist seit einigen Jahrzehnten sogar hyperbolisch. Sollte es ungebremst andauern, würde es um die Mitte dieses Jahrhunderts ins Unendliche explodieren. Natürlich ist dies unmöglich, da auch jedes nichtlineare Wachstum in einer endlichen Welt unweigerlich an seine Grenzen stößt. Doch schon heute haben Naturwissenschafter immer grössere Mühe, ihre Ergebnisse in wissenschaftlichen Zeitschriften zu veröffentlichen, obwohl auch deren Zahl unablässig anschwillt.

Die Folge ist eine bizarre Zeitschriften-Hierarchie, in der einige wenige «Prestige-Zeitschriften» das Feld beherrschen. Und diese ermahnen ihre Begutachter oft unverblümt, möglichst viele der eingesandten Manuskripte ohne Prüfung durch unabhängige Experten abzulehnen, um das Renommee der Zeitschrift zu wahren. Da auch die Zahl der biomedizinischen Forscher in den letzten Jahrzehnten stark angewachsen ist, sind Konkurrenzdenken, Unsicherheit und Aggressivität im heutigen Forscheralltag weit verbreitet. Der Wettstreit der Besten wird zu dem der Lautesten. Könnte dies erklären, weshalb immer noch so wenige Frauen eine Karriere in der biomedizinischen Forschung anstreben? Wie weit geht unsere Vorstellungskraft?

So beunruhigend der drohende Verlust einer gemeinsamen Sprache und des Gemeinschaftssinns auch ist – die größte Bedrohung der Naturwissenschaft könnte ihr eigener Erfolg sein. Sie schenkte uns atemberaubende Erkenntnisse über unsere Welt, unser Wesen und unsere Herkunft und hat dabei jahrtausendealte Traditionen über den Haufen geworfen. Die Entdeckungen von Physik, Astronomie, Chemie und Biologie begeisterten die Menschen und machten die DNS-Doppelhelix und das Satellitenbild unseres blauen Planeten zu Ikonen unserer Zeit. Je tiefer die Naturwissenschaft jedoch in die Geheimnisse der Welt eindringt, desto abstrakter werden ihre Entdeckungen.

Schon längst verstehen nur wenige Eingeweihte, was die unterirdischen Riesenmaschinen am CERN uns verkünden sollen oder was kurz vor dem Urknall geschah. Ich vermute, dass das öffentliche Interesse am Higgs-Boson, am Raum-Zeit-Kontinuum oder an den Geheimnissen des Universums sich nicht so sehr an den wissenschaftlichen Resultaten, sondern an dem gigantischen personellen und finanziellen Aufwand für den Large Hadron Collider, dem exzentrischen Charisma eines alternden Albert Einstein oder der Tragik des genialen, schwerstbehinderten Astrophysikers Stephen Hawkings entzündet. Immer häufiger beantwortet die Natur unsere Fragen mit mathematischen Formeln, die den meisten von uns ebenso unverständlich und unvorstellbar sind wie ein vierdimensionaler Würfel oder die Heilige Dreifaltigkeit. Wo sind die Wissensvermittler?

Selbst die bisher so anschauliche Biologie wagt sich nun als Systembiologie in ein Labyrinth immens komplexer Netzwerke, in denen nur elektronische Gehirne sich noch zurechtfinden. Die Erkenntnisse der Naturwissenschaft nähern sich heute den Grenzen menschlicher Vorstellungskraft und verlieren damit das Vermögen, unser inneres Leben zu bereichern. Mehr denn je braucht es Wissensvermittler, welche die Bedeutung naturwissenschaftlicher Erkenntnisse für unser Menschenbild und unser tägliches Leben in einfachen Worten und dennoch sachlich korrekt erklären. Dies können nur wenige Naturwissenschafter; bei ihren Fachkollegen gelten sie oft als publicitysüchtig, und wenn sie Hilfe bei den Geisteswissenschaften suchen, kämpfen sie nicht selten gegen eine tief verwurzelte Abwehrhaltung und eine unnötig komplizierte Sprache, die ebenso unverständlich sein kann wie das detailbesessene Newspeak der Naturwissenschaften.

Wenn es uns nicht gelingt, diese Hürden zu überwinden und weiterhin junge Menschen für naturwissenschaftliche Forschung zu begeistern, werden die lachenden Dritten Esoterik, Spiritismus und Aberglaube sein. Sie sind die lichtscheuen Dämonen, von denen Carl Sagan sprach.

Nur das Licht der Wissenschaft schützt uns vor ihnen.


Anmerkungen der Redaktion

Zum Problem des Niedergangs wissenschaftlicher Kommunikation (des „Sprachverlusts“) ist im Science-Blog kürzlich der Artikel »Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler« erschienen.

Der 2-teilige Beitrag: »Woraus unsere Welt besteht und was sie zusammenhält« demonstriert, wie Wissen in einem unsere Vorstellungskraft übersteigenden Gebiet vermittelt werden kann.


 

inge Thu, 14.02.2013 - 04:20

Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen

Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen

Fr, 07.02.2013 - 04:20 — Manfred Jeitler

Icon PhysikManfred JeitlerBei dem ursprünglich als unteilbar kleinste Einheit der Materie gedachten Atom stellte sich heraus, dass es aus einer Reihe von Elementarteilchen besteht: aus den Grundbausteinen der Atomkerne (Quarks), Leptonen (z.B. Elektronen) und Kraftteilchen (Eichbosonen), welche die Wechselwirkungen zwischen den Teilchen vermitteln. Was verschafft den Teilchen aber Masse? Welche fundamentale Rolle spielt das kürzlich entdeckte ›Higgs-Boson‹?

Letztes Jahr wurde am Forschungszentrum CERN (Europäische Organisation für Kernforschung) in Genf das Higgs-Teilchen entdeckt - das haben Sie sicher schon gehört. Aber was hat es mit diesem geheimnisvollen Teilchen auf sich? Wozu „brauchen“ wir das? Man hört, dieses Teilchen erschaffe die Masse. Was soll das heißen? Würden wir ohne das Higgs-Teilchen vielleicht masselos umherschweben? Das wäre zwar angenehm beim Stiegensteigen, aber doch auch sehr lästig, wenn man beim ersten kleinen Freudensprung ohne Widerstand in den Weltraum entweicht und seine Lieben nie wieder sieht. Auch die ganze Erde würde ja dann nicht zusammenhalten, und jeder von uns würde auf seinem eigenen kleinen Asteroiden sitzen, wie der kleine Prinz von Saint-Exupéry. Das wäre doch ein wenig einsam. Haben vielleicht die Physiker am CERN letztes Jahr mit ihrer Entdeckung rasch noch die Welt gerettet, vor dem schon vorhergesagten Weltuntergang knapp vor Weihnachten? Manchmal wurde das fragliche Teilchen auch als „Gottesteilchen“ bezeichnet. Heißt das, dass die Physiker jetzt vielleicht auch noch den lieben Gott in ihren Apparaturen entdeckt haben, wie seinerzeit Goethes Faust den Homunculus?

Nichts von alledem - so faszinierend das auch klingen mag. Das Higgs-Teilchen „erschafft“ nicht die Masse - und es gab natürlich dieses Teilchen auch schon, bevor es entdeckt wurde. Aber es hat tatsächlich etwas mit der Masse der anderen Elementarteilchen zu tun. (Was ein Elementarteilchen ist, werden wir gleich besprechen.) Der reißerische Ausdruck „Gottesteilchen“ hat noch viel weniger mit tiefsinniger Wahrheit zu tun. Der amerikanische Nobelpreisträger Leon Lederman schrieb ein Buch über das Higgs-Teilchen, das seit langem vorhergesagt, aber schwer zu finden war. Er wollte es deshalb das „gottverdammte Teilchen“ („goddamn particle“) nennen, genau so, wie wir vielleicht schimpfen: „Wo ist denn schon wieder diese blöde Brille?“, wobei es um den Intelligenzquotienten unseres Sehbehelfs um nichts schlechter bestellt ist als um das Seelenheil unseres kleinen Teilchens. Gotteslästerliche Flüche gelten in den USA aber nicht allgemein als cool, und drum wurde der Name dann auf „Gottesteilchen“ abgeändert. Manche Physiker glauben an den lieben Gott, andere nicht, aber es wird wohl kaum einen geben, der ihm ernstlich die Erschaffung gerade dieses Teilchens, aber nicht die der übrigen Bestandteile unserer Welt zuschreibt.

Der Elementarteilchen-Zoo

Wie sieht es nun aber mit diesen Bestandteilen aus? Zuerst einmal ist die Welt ja ein verwirrendes Durcheinander von Menschen, Autos, Bäumen, Maikäfern und anderen Objekten. Schon im Altertum versuchte man, etwas Ordnung in dieses Wirrwarr zu bringen und alles auf der Welt auf vier Grundstoffe oder Elemente zurückzuführen. Das hat nicht ganz geklappt. Klarheit geschaffen hat in der Chemie das im 19. Jahrhundert von Mendeleev und anderen entwickelte Periodensystem der Elemente. Wir wissen nun, dass im Wesentlichen alles auf der Welt aus Atomen besteht, von denen es knapp hundert verschiedene Arten gibt. Dieser Mendeleev zeigte übrigens eine ganz schöne Zivilcourage, denn zu seiner Zeit waren noch jede Menge Elemente in seinem Periodensystem nicht entdeckt worden. Er zeichnete gewisser Maßen eine Landkarte mit vielen weißen Flecken, die dann erst im Laufe der Zeit mit den neu entdeckten Elementen gefüllt wurden. Das Element Helium, das erst später auf der Sonne nachgewiesen wurde, ist nur eines von einer ganzen Reihe solcher Beispiele.

„Atom“ heißt auf Griechisch „das Unspaltbare“, der Name geht ursprünglich auf den alten Griechen Demokrit zurück und wurde in der modernen Chemie und Physik wieder verwendet. Leider ist er irreführend, denn bekanntlich beschäftigen sich ja die AKW-Betreiber mit Begeisterung gerade damit, Atome zu spalten. Man hat gemerkt, dass Atome aus anderen Teilchen bestehen – Protonen, Neutronen und Elektronen. Bei Protonen und Neutronen hat sich herausgestellt, dass sie ihrerseits wieder aus anderen Teilchen zusammengesetzt sind, den so genannten „Quarks“. Die haben nichts mit Speisetopfen zu tun, der nette Name wurde vom amerikanischen Physiker Gell-Mann erfunden, der dieses Wort aus einem Buch von James Joyce entlehnt hat (aus „Finnegans Wake“; James Joyce ist viel schwieriger zu verstehen als Elementarteilchenphysik, und darum kann ich Ihnen auch nicht sagen, warum gerade dieser Name gewählt wurde). Elektronen und Quarks bezeichnet man als „Elementarteilchen“, weil man bei ihnen bis heute keinerlei innere Struktur festgestellt hat. Sie sind also „elementar“ in dem Sinne, dass sie – jedenfalls nach dem heutigen Stand des Wissens – nicht aus anderen Bausteinen zusammengesetzt sind.

Man hat aber in der kosmischen Strahlung und in Beschleunigerexperimenten noch eine ganze Menge anderer Elementarteilchen gefunden, die man eigentlich gar nicht „braucht“, um die Materie zu bilden. Dafür brauchen wir nämlich eigentlich – so scheint es jedenfalls auf den ersten Blick – nur drei Teilchen: zwei Quarks (das „Up“-Quark und das „Down“-Quark, aus denen wir Proton und Neutron zusammensetzen können) und das Elektron. Es gibt aber noch eine Menge anderer Teilchen, die aus anderen Arten von Quarks bestehen (mit attraktiven Namen wie „strange“, „charm“, „bottom“ und „top“), und auch noch Elementarteilchen, die mit dem Elektron verwandt sind (das Myon, das Tau, und mehrere Neutrinos). Diese Teilchen sind allerdings nicht stabil, sie zerfallen innerhalb kurzer Zeit. („Zerfallen“ heißt aber nicht, dass sich die Teilchen in ihre „Bestandteile“ trennen, Elementarteilchen bestehen ja eben nicht aus mehreren Bausteinen. Es bedeutet vielmehr, dass sich die Teilchen in mehrere leichtere Teilchen umwandeln.) Trotzdem kommen diese instabilen Teilchen in der Natur vor: sie werden bei Zusammenstößen erzeugt, wenn hochenergetische [1] Teilchen aus der kosmischen Strahlung auf die Atome in der Erdatmosphäre treffen.

Wechselwirkungen zwischen den Teilchen

Was wir aber durchaus brauchen, um die Natur zu beschreiben, ist etwas, das die Wechselwirkungen zwischen Teilchen bewirkt. Sie haben vielleicht schon gehört, dass sich elektrisch geladene Körper anziehen, wenn sie verschiedene Ladungen tragen (negativ und positiv), und abstoßen, wenn dieselbe Ladungsart in ihnen vorliegt. Das nennt man die „elektromagnetische Wechselwirkung“. Dennoch können mehrere (positiv geladene) Protonen in einem Kern zusammen liegen, ohne dass dieser auseinanderfliegt. Dafür ist unserem Verständnis nach eine andere Wechselwirkung verantwortlich (die so genannte „starke“ Wechselwirkung). Dass ein Stein zu Boden fällt, wenn wir ihn auslassen, ist der Gravitation zu verdanken. Und schließlich beobachtet man bei radioaktiven Zerfällen auch noch eine vierte Art der Wechselwirkung, die als die „schwache“ Wechselwirkung bezeichnet wird.

Wie aber kommen diese Wechselwirkungen zustande? Woher weiß ein Elektron, dass ihm gegenüber ein Proton sitzt, und es sich von diesem gefälligst angezogen fühlen soll? Woher weiß der Stein, in welche Richtung es da zum Boden geht? Woher wissen zwei Protonen in einem Atomkern, dass sie beieinander bleiben sollen? Nach unserem gegenwärtigen Verständnis sieht es so aus, dass dies durch eine andere Art von Teilchen bewirkt wird, so, wie die Ziegel in einem Bauwerk durch Mörtel zusammengehalten werden. Man kann sich das vielleicht wie zwei Hunde vorstellen, die sich um einen Knochen streiten und dadurch zusammen gehalten werden (oder wie zwei Burschen, die sich um die Gunst derselben jungen Dame bemühen). Eine abstoßende Wechselwirkung kann man sich z.B. wie einen Ball vorstellen, der von Leuten in zwei Booten hin- und hergeworfen wird, wodurch die Boote auseinander treiben. Das ist aber nicht nur ein Bild oder ein Gleichnis: diese Teilchen hat man tatsächlich gefunden und mit physikalischen Geräten (so genannten „Detektoren“) nachweisen können!

Das Standardmodell der Elementarteilchen

Das ist ja ganz schön kompliziert, nicht wahr? Der liebe Mendeleev hat die Natur so einfach und klar gemacht. Auch die Atome scheinen nur aus Protonen, Neutronen und Elektronen zu bestehen. Jetzt aber kommen diese Teilchenphysiker, finden in der kosmischen Strahlung und in Beschleunigerexperimenten noch jede Menge anderer Teilchen, und es herrscht wieder ein Riesendurcheinander. Wer soll sich alle diese „K-Mesonen“ und „Lambda-Hyperonen“ und „Baryonen“ und „Tau-Leptonen“ und vielen anderen Teilchen mit exotischen Namen denn merken? Auch die Physiker selbst waren darüber nicht immer glücklich und haben manchmal bei der Entdeckung eines neuen Teilchens gestöhnt: „Wer hat denn das schon wieder bestellt?“ oder „Statt eines Nobelpreises sollten die Leute für die Entdeckung eines neuen Teilchens lieber eine saftige Geldstrafe aufgebrummt bekommen!“. Aber mit der Zeit hat man in diesem so genannten „Teilchenzoo“, in dem es tatsächlich von exotischen Wesen wurlt wie im Tiergarten Schönbrunn, eine Ordnung erkannt und wieder so etwas Ähnliches wie ein Periodensystem entdeckt. Man nennt dieses System das „Standardmodell der Elementarteilchen“. Es gibt darin nur wenige Typen von elementaren Teilchen: Quarks, „Leptonen“ (das sind die Teilchen, die mit dem Elektron verwandt sind), und „Eichbosonen“ (die Kräfte-Teilchen, die die Wechselwirkungen vermitteln - also die Knochen, um die die Hunde streiten, oder die Bälle, die hin- und hergeworfen werden).

Das Standardmodell der Elementarteilchen mit dem zentralen HiggsteilchenAbbildung 1. Das Standardmodell der Elementarteilchen mit dem zentralen Higgsteilchen

Langsam glauben Sie vielleicht, ich mache mir hier eine Themaverfehlung zu Schulden. Da verspreche ich, Ihnen das Higgs-Teilchen zu erklären, und jetzt rede ich aber von jeder Menge anderer Teilchen, Wechselwirkungen und Modelle. Stimmt aber nicht, jetzt komme ich auf den Punkt: Dieses Higgs-Teilchen ist ein ganz wesentlicher Bestandteil des Standardmodells: sehen Sie sich das Bild des Standardmodells an, wo es in der Mitte zwischen Quarks, Leptonen und Kräfteteilchen thront.

Aber bis letztes Jahr war es noch nicht experimentell gefunden worden! Es war sozusagen so etwas, wie das Element Helium für Mendeleevs Periodensystem: ein weißer Fleck auf einer Landkarte. Das Standardmodell wurde in den siebziger Jahren des 20. Jahrhunderts entwickelt, viele seiner Bestandteile waren damals schon bekannt. Im Laufe der Jahre wurden dann die restlichen vorhergesagten Teilchen gefunden, nur dieses gottverdammte … pardon, dieses schwer nachweisbare Teilchen ließ sich nicht und nicht entdecken. Und weil die Physiker ihm so lange erfolglos nachgelaufen sind, freuen sie sich jetzt natürlich besonders, es gefunden zu haben.


Anmerkung des Autors

Dieser Beitrag ist meinem Freund und Kollegen Laurenz Widhalm gewidmet, einem begeisterten Physiker, der sich besonders dafür engagiert hat, die Physik der Öffentlichkeit, vor allem aber der Jugend, näher zu bringen. Leider hat er uns viel zu früh verlassen.


Anmerkungen der Redaktion

[1] »Hochenergetisch« bedeutet zunächst einmal »sehr schnell«, d.h. jedenfalls im »relativistischen Geschwindigkeitsbereich«, also einem wesentlichen Bruchteil der Lichtgeschwindigkeit (die allerdings keinesfalls überschritten werden kann). Aber »schnell« allein ist auch etwas irreführend: denn bei Zufuhr von Energie erreichen Teilchen recht bald beinahe Lichtgeschwindigkeit und erhöhen diese dann bei weiterer Zufuhr von Energie kaum noch.

Der Länge wegen wurde der Artikel von Manfred Jeitler geteilt. Hier geht es zum 2. Teil: »Woraus unsere Welt besteht und was sie zusammenhält: Was ist das Higgs-Teilchen?«.


Weiterführende Links:

Vorträge und Vorlesungen von Manfred Jeitler

Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012) Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012) Astro-Particle Physics (WS 2012/13) — PDF-Downloads:

Introduction to Particle Physics CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire) Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert. Publikumsseiten des CERN Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)


 

inge Thu, 07.02.2013 - 04:20

Comments

Assistive Technologien als Unterstützung von Aktivem Altern

Assistive Technologien als Unterstützung von Aktivem Altern

Fr, 31.01.2013 - 04:20 — IIlse Kryspin-Exner

Icon MINT

Ilse Kryspin-ExnerBis zum Jahr 2030 wird die Zahl pflegebedürftiger alter Menschen in Österreich auf über 800.000 Personen angestiegen sein und damit die Kapazitäten professioneller Hilfs- und Pflegesysteme weit überfordern. Inwieweit ist ein Ersatz konventioneller Pflege und Betreuung durch technische Produktentwicklungen zumutbar?

Zu den bedeutsamsten Phänomenen des 21. Jahrhunderts zählen die rapid ansteigende Alterung der Bevölkerung und das zunehmende Tempo der Technisierung. Diese Schnittstelle hatte in den letzten Jahren großes Forschungsinteresse – vor allem der Technikseite – zur Folge. Psychologische Modelle zur Akzeptanz oder wie diese technischen Möglichkeiten optimal zu nutzen sind („usability“), ebenso wie ethische Gesichtspunkte, etwa Zumutbarkeit oder ständige Überwachung, wurden kaum oder nur am Rande beachtet.

Die Alterspyramide

Durch den wachsenden Anteil an Älteren - bereits viel diskutiert, wird die Alterspyramide in Zukunft im wahrsten Sinne des Wortes „auf den Kopf gestellt“ (Abbildung 1) – ist eine Veränderung der Altenpflege und Betreuung in den kommenden Jahrzehnten europaweit unabdingbar.

Entwicklung der Bevölkerungspyramide in ÖAbbildung 1: Die Entwicklung der Bevölkerungspyamide in Österreich

Die erhöhte Zahl von Single-Haushalten und das in den Hintergrund Treten von traditionellen Pflege- und Hilfeleistungen, die früher vorwiegend aus dem Familiensystem übernommen wurden, fordern einerseits einen höheren Bedarf an professionellen Dienstleistungen, andererseits sind bereits jetzt nicht genügend personelle Ressourcen vorhanden und auch vom Gesundheitssystem nicht finanzierbar.

Die Zahl pflegebedürftiger Personen in Österreich wird für das Jahr 2030 auf 811.000 Personen geschätzt. Wie soll mit Prognosen wie diesen umgegangen werden, wenn man bedenkt, dass viele ältere Menschen so lange wie möglich in den eigenen vier Wänden verbleiben möchten? Noch bevor diese Überlegungen für die Zukunft zum gravierenden Problem werden, hat die Technik mit Produktentwicklungen begonnen, um in weiterer Folge als Ressourcen in das Gesundheitssystem integriert werden zu können

Assistive Technologien

Ein Lösungsansatz für diese Entwicklung ist es, den Wunsch älterer Menschen nach Autonomie und Selbstständigkeit in ihrer eigenen Wohnumgebung mit verschiedenen technischen Hilfsmitteln zu unterstützen und notwendige Ressourcen zur Verfügung zu stellen. Unter dem Schlagwort Assistive Technologien werden verschiedenste Produkte oder Hilfsmittel subsumiert, die Personen in ihren Tätigkeiten des täglichen Lebens (bei den ATLs - Aktivitäten des täglichen Lebens) unterstützen sollen. Die Tatsache, dass durch derartige technische Hilfsmittel Kosten für das Gesundheitssystem durch Einsparung von Pflegepersonal oder Transport zu Serviceeinrichtungen um bis zu 50% reduziert werden können, klingt viel versprechend. Allerdings muss gewährleistet werden, dass die Technik - wie propagiert -, die Lebensqualität der Älteren erhält bzw. erhöht. (Abbildung 2)

Smart HomeAbbildung 2. Smart Home (LINE9, 2006)

Gut vorbereitet und unter Berücksichtigung der Bedürfnisse und Wünsche der Nutzer entwickelt, können Technologien eine hilfreiche Rolle für die Betroffenen einnehmen: Darunter fallen Gehhilfen, Rollstühle, Bildschirmlesegeräte, aber auch spezielle Programme zur Unterstützung der Computeranwendung für Menschen mit Beeinträchtigungen; Vernetzung verschiedenster Technologien im Haushalt selbst, also die Integration von Technologien und Diensten in der häuslichen Umgebung, um den Verbleib im Eigenheim durch Automatisierung der alltäglichen Arbeiten zu fördern (Mikrowellen und Herde mit Kochsensoren, Automatisches Abschalten des Badewassers, Fernsteuerung von Rollläden, Ortungssysteme für verlegte Gegenstände, Teppiche oder andere Textilien mit Notrufalarmfunktionen usw.). Hier ist insbesondere auch die Unterstützung durch die Informations- und Kommunikationsmedien wie Internet, E-Mail, Seniorenhandys, Bildtelephonie, Videophonie zur Aufrechterhaltung und Pflege sozialer Netzwerke zu erwähnen - die sogenannten „silver surfers“ sind die derzeit am schnellsten wachsende Gruppe von Nutzern!

E-Health - Telemonitoring

Unter dem Begriff „E Health“ werden medizinische Assistive Technologiesysteme wie das Telemonitoring von körperlichen Parametern subsummiert wie die kontinuierliche Erfassung von Temperatur, EKG, Blutzuckerüberwachung, Kontrolle der Flüssigkeitszufuhr, etc.. Das heutige Telemonitoring profitiert vor allem von der Mobilfunktechnik und vom Internet. (Abbildung 3)

e-Health: Überwachung von Blutdruck und Gewicht
Abbildung 3: e-Health. Automatisierte Überwachung von Blutdruck und Gewicht (A. Bolz et al., 2005 Herzschr Elektrophys 16:134–142)

Dabei werden über eine patientennahe Basisstation Patientenwerte an eine Datenbank gesendet, auf die die behandelnden Mediziner Zugriff haben. Die Datenmengen werden über ein tragbares digitales System, einem digitalen Assistenten oder ein Handy umgewandelt und an die zuständige Überwachungseinheit gesendet. Steigt zum Beispiel der Zuckergehalt im Blut eines Diabetikers gefährlich an, kann rechtzeitig eine Intervention in Gang gesetzt werden. Einer der häufigsten Gründe für Notarzteinsätze sind Herz-Kreislauf-Erkrankungen, da sie durch eine hohe Morbidität und Letalität gekennzeichnet sind. Eine telemedizinische Überwachung der Herzfunktionen könnte auch als

Präventionsmaßnahme: Risikopatienten frühzeitig erkennen.

Ein Vorteil wäre auch die damit einhergehende verkürzte Zeitspanne zwischen Diagnose und Therapiebeginn. Somit sollen Notfalleinsätze verringert bis verhindert werden.

Unser Technikzeitalter hat es bereits selbstverständlich gemacht, immer und überall erreichbar zu sein. Es war somit nur eine Frage der Zeit, bis auch Personen über GPS Systeme ortbar und somit überwachbar waren. Dazu dienen Notrufsysteme, Überwachungskameras, Notfallarmbanduhren; es ist heute technisch leicht möglich, 24-Stunden Videoüberwachungssysteme zu konstruieren, die jedoch massiv in die Intimität und Privatheit eingreifen. Die Brücke zwischen Sicherheit und erwünschter Kontrolle bis hin zur ständigen Überwachung ohne Intimsphäre ist eine Gratwanderung. In erster Linie sollten immer das Anliegen und die Lebensqualität des älteren Menschen im Mittelpunkt stehen, doch auch Angehörige oder Betreuungspersonen müssen auf ihre Lebensqualität achten. Diese Interdependenz der Lebensqualität (Betroffener, Angehöriger, „significant others“, professionelle Pflege) ist bisher zu wenig beachtet und untersucht.

Sony AIBOAbbildung 4: Virtueller Gefährte: Sony AIBO (Sony Entertainment Robot Europe, 2006)

(Noch) ungewöhnlich wirkt der Einsatz von Robotern als technische „Butler“, in ihrer Funktion zum Heben schwerer Patienten bis hin zum Gesellschafter. Virtuelle „tierische“ Gefährten wie AIBO oder Paro, die versuchen, Zuwendung und Berührungen von Tieren, die in der Realität eventuell Allergien auslösen oder in Gesundheitsinstitutionen wie Pflegestationen nicht erlaubt sind, zu ermöglichen. Diese Roboter führen ihre Wirkmechanismen vor allem auf Studien über positive Effekte von Tieren auf Menschen zurück und werden besser akzeptiert als angenommen. (Abbildung 4)

Ambient Assisted Living (AAL)

Der kurze Überblick zeigt, dass sich unter dem neu anmutenden Begriff Ambient Assisted Living (AAL, siehe http://www.aal-europe.eu/) sowohl sehr vertraute Unterstützungsmaßnahmen wie Krücken oder Treppenlifte finden, aber auch futuristisch anmutende wie Spiegel, die Gesundheitsdaten wiedergeben (bereits in Planung) oder Teppiche, die man betritt und die kritische Daten in Bezug auf Sturzgefahr aufgrund der Ganganalyse an eine Zentrale weiterleiten. Dieser Eindruck lässt vermuten, dass in Zukunft – wenn auch derzeit vielleicht noch mit Skepsis betrachtet – einige dieser Produkte gut in das Leben der davon profitierenden Betroffenen integriert sein werden. Ein Paradebeispiel dafür ist sicherlich das Mobiltelefon oder Handy, das noch vor zwanzig Jahren einer elitären Gruppe vorbehalten war und heute bereits von Volksschulkindern tägliche Verwendung findet. Dass mittlerweile der Wirtschaftsmarkt der Älteren für die Entwicklung von Seniorenhandys entdeckt wurde, liegt auf der Hand.

Ambient assisted living hat das Konzept der Ambient Intelligence (kurz AmI, deutsch Umgebungsintelligenz) zur Grundlage. Es ist ein technologisches Paradigma, das vor allem die IT- Unterstützung in den Vordergrund stellt; Ziel der Forschungsanstrengungen soll es sein, Sensoren, Funkmodule und Computerprozessoren massiv zu vernetzen, um so den Alltag zu verbessern. Der Focus liegt dabei auf der gesamten Lebensspanne und je nach Kontext wird von Ambient Assisted Working, Ambient Assisted Education, Ambient Assisted Transportation, oder Ambient Assisted Leisure gesprochen. Im Bezug auf das Altern spielt dies sowohl für das “normale/kompetente/aktive” Altern eine Rolle als natürlich auch in Hinblick auf Beeinträchtigungen (Multimorbidität, Gebrechlichkeit, etc.). Für erstere Gruppe sind technische Unterstützungsmassnahmen im Zusammenhang mit Arbeitsprozessen (AAL@work oder “Ambient Assisted Education” im Prozess des lebenslangen Lernens) zu sehen, wie auch beispielsweise im Bezug auf die Mobilität (adequate Einstiegshilfen, Automaten mit entsprechender altersgerechter Bedienung, was Handhabbarkeit bzw. Schriftgröße betrifft; “Ambient Assisted Transportation”). Dementsprechend haben Smart Home Anwendungen zum Ziel mit Hilfe verschiedenster Technologien und Dienstleistungen den Verbleib im Eigenheim zu ermöglichen oder zu verlängern, indem vor allem ATLs durch technische Unterstützung erleichtert werden. Die Technik verspricht eine Erhöhung an Sicherheit und Autonomie für den älteren Menschen im Sinne einer Ressourcenorientierung.

So ist auch für den privaten Freizeitsektor gesorgt, etwa durch Einkäufe über das Internet, das Ausüben von Hobbies wie Hörbücher oder Musik hören, Spiele, die man im WWW mit virtuellen oder realen Partner durchführen kann oder es ist auch nur für Unterhaltung in Chat Rooms gesorgt. Man könnte meinen, dass Personen ihre vier Wände gar nicht mehr verlassen müssen oder wollen werden, wobei dieser Aspekt sicher kritisch zu betrachten ist, da Untersuchungen über die Gesundheit der Bevölkerung zeigen, dass die Menschen einerseits noch nie so viel Wissen über gesunde und ausgewogene Ernährung hatten, andererseits aber 80% der Weltbevölkerung zu wenig auf Bewegung und Ernährung achten und 70% aufgrund von Problemen der Wirbelsäule oder Gelenken den Arzt aufsuchen.

Akzeptanz der Unterstützungsmaßnahmen

Was die Akzeptanz dieser technischen Hilfsmittel oder Anwendungen betrifft, zeigen Studien, dass eine freundliche sowie einfache Benutzeroberfläche und eine hohe Zuverlässigkeit entscheidend sind, ob das Produkt eingesetzt wird oder nicht. Eine Befragung von älteren Menschen in ihrer Wohnung verdeutlicht, dass das individuell erlebte Bedürfnis nach Unterstützung und die Ausstattung des Eigenheims den Wunsch nach Hilfe mittels technischer Lösungen beeinflussen. Folglich wurden auch nur solche Produkte als hilfreich erachtet, die eine wirkliche Unterstützung im Leben der Personen waren und/oder die Räume oder die Einrichtung des Eigenheims tatsächlich bereits zu Einschränkungen oder Barrieren im täglichen Leben führten. Dies hat zweierlei Konsequenzen: erstens muss das Produkt auch von den Betroffenen als effizient, sicher und einfach zu bedienen eingeschätzt werden, und weiters müssen Szenarien antizipiert und vorstellbar gemacht werden, um technische Produkte vorausschauend in das Leben betagter Menschen integrieren zu können – ein schwieriges Unterfangen, da die Frage danach bei den sogenannten Bedürfnis-Analysen häufig so beantwortet wird: Das benötige ich noch nicht – das brauche ich nicht mehr…... Ältere Menschen müssen daher unbedingt in die Entscheidung für technische Hilfsmittel mit einbezogen werden und ausreichend Informationen und Schulungen über die Handhabung der Produkte erhalten. Nur dann kann der Einsatz neuer Technologien hilfreich für die Erhaltung von Selbstständigkeit sein, einen erheblichen Beitrag zur Verlängerung des Verbleibs in der häuslichen Umgebung leisten und tatsächlich die Lebensqualität steigern oder erhalten.

Bedürfnis nach Sicherheit - Ablehnung von zu viel Kontrolle

Die Schnittstelle Technik/Gerontologie wirft neue ethische Fragstellungen auf: Generell sollten technische Lösungen immer auf einem informed consent, das heißt einer vorab gut informierten Einwilligung beruhen. Allerdings ist gerade diese in fortgeschrittenen Krankheitsstadien, oder Erkrankungen wie der Demenz, oft eingeschränkt. Selbst wenn Betroffene ihre Einwilligung zum Einsatz solcher Maßnahmen geben, bleibt doch immer die Frage ungeklärt, ob die Konsequenzen für sie begreifbar sind und wie gut ihr Technikverständnis ist, nachzuvollziehen, was ihnen da in die Hand gegeben wurde. Älteren Menschen ist es manchmal auch ein starkes Bedürfnis dem sozialen Umfeld nicht zur Last zu fallen, und es ist denkbar, dass sie unter diesem Aspekt Überwachungsmaßnahmen eher zustimmen, diese dann aber als massiv beeinträchtigend empfinden. Zwar wissen wir, dass ältere Menschen ein Bedürfnis nach Sicherheit und Stabilität haben, aber wissen wir auch, ob und in welcher Intensität sie überwacht werden möchten? Wie viel Kontrolle und Selbstmanagement sind sie bereit für eine hohe Sicherheit „einzutauschen“ und bis zu welchem Grad würden sie das tun, nur um im Eigenheim verbleiben zu können? Dies gilt es in Zukunft vor allem von psychologischer und ethischer Seite zu erfassen.

Was ist technisch machbar, was ist ethisch vertretbar?

Berücksichtigt man die oben angestellten Überlegungen wird deutlich, dass eine übertriebene Euphorie im Sinne eines Überangebots an technischen Geräten weder der Realität noch einer Notwendigkeit entspricht. Vielmehr geht es um eine auf das Individuum zentrierte adaptive Problemfokussierung. Die kognitive Alterung und Kompetenzerhaltung der älteren Menschen sowie deren Bedürfnisse und Wünsche sollten verstärkt in der Entwicklung neuer Technologien berücksichtigt werden. Technisch möglich ist bereits vieles, nun geht es darum den Benutzer in den Mittelpunkt zu rücken und die Compliance für die Annahme von Assistiven Technologien unter ethischen Gesichtspunkten zu erhöhen. Es gilt individuell Zeitpunkte zu erfassen, ab wann der Einsatz einer Technologie nötig ist – zu früh appliziert, kann sie Eigeninitiative und Aktivitäten reduzieren. Andererseits kann die Angst vor dem Umgang mit bestimmten Technologien mit speziell entwickelten Trainingsprogrammen und durch verstärkte Beratung verbessert werden, ebenso auch durch allgemeine Informationen in Gesundheits- und Sozialinstitutionen, die einen Überblick über die Möglichkeiten von Assistive Technologies geben. Zu berücksichtigen ist auch der sogenannte „“digital devide”, die “digitale Kluft”, womit gemeint ist, dass die Chancen auf den Zugang zum Internet und anderen (digitalen) Informations- und Kommunikationstechniken ungleich verteilt und stark von sozialen Faktoren abhängig sind, somit ein unterschiedlicher Zugang zu diesen Möglichkeiten besteht.

Studien haben gezeigt, dass professionelle Hilfe- und Pflegesysteme durch technische Unterstützung der Betroffenen zwar entlastet werden können, jedoch nicht ersetzbar sind - und es kann davon ausgegangen werden, dass beide Maßnahmen im Sinne einer Balance zwischen menschlicher und technischer Hilfestellung bestehen bleiben werden: diese Wechselwirkung gilt es noch genauer zu untersuchen!

 


Anmerkungen der Redaktion

Essay von Ilse Kryspin-Exner in ScienceBlog.at: Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

Weiterführende links

Webseite des Ambient Assisted Living Joint Programme Smart Home mit intelligenten Assistenten (Offis 2009), PDF-download. slide show:

Marktpotenziale und Entwicklungschancen von AAL-Technologien PDF-Download. R. Wichert, E. Berndt (2010)

SmartAssist – Smart Assistance with Ambient Computing.; PDF-Download. A Schrader (2010) www.itm.uni-luebeck.de


 

inge Thu, 31.01.2013 - 04:20

Umweltökologie und Politik — Der Frust der nicht gehörten Wissenschaftler

Umweltökologie und Politik — Der Frust der nicht gehörten Wissenschaftler

Fr, 24.01.2013 - 04:20 — Gerhard Glatzel

Icon Politik & GesellschaftGerhard GlatzelDie öffentliche Empörung über Korruption und Spekulation und entsprechender medialer Druck haben nun letztendlich zu Gesetzen geführt, die evidente Missstände eindämmen sollen. Nicht minder schädlich als Korruption ist aber auch die Nichtberücksichtigung wissenschaftlicher Erkenntnisse und/oder deren missbräuchliche Anwendung durch klientel-verpflichtete Lobbyisten, wenn politische Entscheidungen zu Umwelt- und Ressourcenfragen mit potentiell gravierenden Auswirkungen für künftige Generationen getroffen werden. Derartige politische Weichenstellungen sollten von den Akademien geprüft werden, vergleichbar dem Prüfauftrag der Rechnungshöfe in wirtschaftlichen Fragen. Darüber hinaus sollten in Parteiakademien verstärkt wissenschaftliche Grundkurse angeboten werden.

 Nach einer ganzen Reihe von erfolglosen Konferenzen zu Fragen des Klimawandels und des Klimaschutzes sowie politischen Fehlentscheidungen bei Biokraftstoffen und anderen Ressourcen fragt man sich, warum wissenschaftliche Erkenntnisse zu komplexen Systemfragen von der Politik so wenig berücksichtigt werden. Die stetig wachsende Zahl wissenschaftlicher Veröffentlichungen zu diesen Fragen nehmen Politik und Öffentlichkeit zur Kenntnis wie einst die Predigten Abraham a Santa Claras oder die Höllenbilder der Jesuitentheater. Wir erschaudern vor den Visionen der schrecklichen Folgen unseres Tuns, versprechen Besserung, sündigen aber hemmungslos weiter.

Der negative Einfluß der Lobbyisten

Wenn wir die Lösung für den Mangel an wissensbasierten politischen Entscheidungen darin sehen, die Politiker mit noch mehr wissenschaftlicher Forschung zum selben Thema zu fundierteren Entscheidungen zu bewegen, schließen wir vor der Realität politischer Entscheidungsvorgänge die Augen. Wir übersehen, dass der wichtigste Werkzeugkoffer der Naturwissenschaftler – gute wissenschaftliche Praxis und Veröffentlichungen in anerkannten, hochrangigen Zeitschriften – in erster Linie der wissenschaftsinternen Qualitätssicherung und der Leistungsbeurteilung von Wissenschaftlern dient, wenn es um deren Karrieren und um Forschungsfinanzierung geht. Es ist der international anerkannte Werkzeugkoffer für Ordnung innerhalb des „Elfenbeinernen Turmes“ aber für die Einflussnahme auf politische Entscheidungen wenig geeignet.

Auch der zweite gut ausgestattete Werkzeugsatz der Natur- und Technikwissenschaften, das für industrielle Anwendungen bestimmte Patentwesen, taugt wenig, wenn es um politische Entscheidungen geht. Dort kommt nämlich der üppig ausgestattete Werkzeugkoffer der klientelverpflichteten Lobbyisten zum Einsatz. Dieser Werkzeugkoffer verfügt über eine gut gefüllte Geldlade, beinhaltet schlechte Wissenschaft, Pseudowissenschaft, falsche Argumente, mannigfache Zugänge zu den Medien, Netzwerke und, wie wir täglich lesen, oft auch Spezialwerkzeuge für Korruption.

Politische Parteien halten sich „Experten“, die als Wissenschaftler auftreten, aber als Abhängige ihrer Auftraggeber in deren Interesse argumentieren. Gegen den Werkzeugsatz der Lobbyisten mit seriösen wissenschaftlichen Veröffentlichungen in hochrangigen internationalen Zeitschriften ankämpfen zu wollen ist aussichtslos, besonders dann, wenn die Entscheidungsträger wenige Hemmungen haben, moralische Grundsätze und Werte auszublenden und weder Verständnis noch Wertschätzung für wissenschaftliche Methodik haben.

Die manipulierbare Stimme des Volkes

Ein weiteres wirkungsvolles Werkzeug der Politik ist die „Stimme des Volkes“, die mit den dafür bestimmten Spezialwerkzeugen leicht manipuliert werden kann. Der sogenannte „Hausverstand“ gilt dabei als verlässlichere Entscheidungshilfe, als die Ergebnisse akribischer wissenschaftlicher Untersuchungen, die oft nicht für jedermann zu verstehen sind und die - wie leicht zu zeigen ist - immer wieder von neueren Erkenntnissen überholt werden, und daher von Menschen mit „Hausverstand“ grundsätzlich anzuzweifeln sind.

Täglich sehen wir im Fernsehen Damen und Herren in weißen Mänteln vor Laborkulissen, die uns vermitteln wollen, dass die von ihnen angepriesenen Produkte wissenschaftlich geprüft sind. Wir erfahren von den wunderbaren Wirkungen besonderer Mikroorganismen im Joghurt und von den von ihnen getesteten Wundermitteln, die Gewichtsabnahme oder üppigen Haarwuchs garantieren. Da leicht zu durchschauen ist, dass die uns durch die Werbung vermittelten vorgeblichen „Forschungsergebnisse“ oft ein großer Schwindel sind, kommen viele Leute zum Schluss, dass man der Forschung und Wissenschaft insgesamt wenig trauen dürfe.

Es ist nicht verwunderlich, dass die simplen Zerrbilder der Volksverhetzer geglaubt werden, obwohl sie die Wissenschaft als nicht der Faktenlage entsprechend bloßgestellt haben. Erschreckend ist, dass auch Politiker, wenn es um ihre Interessen und Vorteile geht, häufig so argumentieren, als hätte es Aufklärung und die Forderung, Entscheidungen auf Basis wissenschaftlicher Erkenntnisse zu treffen, nie gegeben.

Unzulängliche Vereinfachungen und Worthülsen

Fundamentalismus und übersimplifizierte Konzepte komplexer Phänomene entstehen auch aus Unverständnis für wissenschaftliche Methodik und Logik. Lehrer und Forscher versuchen allzu oft, die Dinge einfacher darzustellen, als sie in Wirklichkeit sind. Schlagwörter wie Klimagerechtigkeit, Gleichheit, Nachhaltigkeit, Gleichgewicht der Natur, Energiesparen, müssen in ihrer ganzen Komplexität erklärt werden, sonst bleiben sie Worthülsen oder Feigenblätter hinter denen sich Geschäftemacher verstecken können. Gerechtigkeit und Gleichheit bedeuten nicht, jedem Menschen dieselbe Menge an Wasser oder Medikamenten zu geben. Am Schreibtisch brauche ich viel, viel weniger Wasser als ein Bauer, der seine Felder bewässern muss oder als ein Donauschiffer, der sein Boot im Fluss bewegt. Naturkatastrophen resultieren nicht notwendigerweise aus einer Störung des Gleichgewichtes der Natur durch den Menschen, und sein Haus besser zu isolieren hilft nicht, den globalen Energieverbrauch zu senken, wenn man das ersparte Geld für eine Reise in die Karibik oder einen Schiurlaub verwendet.

Fazit: Politisch unabhängige wissenschaftliche Instanzen als Berater

Alle Schuld an den Defiziten der Umwelt-, Klima- und Energiepolitik auf inkompetente, unmoralische und korrupte Politiker abzuwälzen, wäre ungerecht, wäre zu einfach und würde kaum Möglichkeiten für Verbesserungen eröffnen.

Resignierend zur Kenntnis zu nehmen, dass der Werkzeugkoffer der Naturwissenschaftler wenig geeignet ist, politische Entscheidungen mehr wissensbasiert zu machen, ist allerdings auch keine Lösung. Die Tatsache, dass naturwissenschaftliche Erkenntnisse über komplexe, interdisziplinär zu bewertende Phänomene von der Politik so wenig berücksichtigt werden, ist ein Systemfehler, der untersucht, diskutiert und behoben werden muss.

Die Öffentlichkeit hat sich in den letzten Jahren zu Recht über Korruption und Spekulation empört und der mediale Druck hat letztendlich zu Gesetzen geführt, die evidente Missstände eindämmen sollen. Nichtberücksichtigung wissenschaftlicher Erkenntnisse und missbräuchliche Anwendung wissenschaftlicher Methoden bei politischen Entscheidungen zulasten der Umwelt im eigenen Land, aber auch in fernen Ländern, ist ebenso schädlich wie Korruption, - ist oft deren komplementärer Begleiter. Es ist daher höchste Zeit, auch für diesen Bereich strengere Regeln zu schaffen.

In den entwickelten Ländern gibt es Akademien der Wissenschaft als höchste, politisch unabhängige wissenschaftliche Instanzen. Politische Weichenstellungen zu Umwelt- und Ressourcenfragen mit potentiell gravierenden Auswirkungen für künftige Generationen wären von den Akademien zu prüfen, vergleichbar dem Prüfauftrag der Rechnungshöfe in wirtschaftlichen Fragen. Die Wissenschaft müsste aber auch vermehrte Anstrengungen unternehmen, ihre Methoden und Ergebnisse der breiten Öffentlichkeit und der Politik verständlich darzustellen, ohne in die Falle der Übervereinfachung zu tappen.

Besonders wichtig wäre es, auch in Parteiakademien, aus denen heutzutage der überwiegende Teil der Politiker hervorgeht, verstärkt Grundkurse über wissenschaftliche Methodik, insbesondere über systemwissenschaftliche Ansätze anzubieten und die Querbezüge zu Ethik und Moral zu betonen.


Anmerkungen der Redaktion:

National Academy of Sciences USA: ein herausragendes Beispiel für politisch unabhängige wissenschaftliche Instanzen als Berater ( (http://www.nasonline.org/): ):

“Advisers to the Nation on Science, Engineering and Medicine

These private, nonprofit institutions enlist the aid of the nation’s most knowledgeable scientists, engineers, health professionals, and other experts who volunteer their time to provide authoritative, independent advice on many of the pressing challenges that face the nation and world.”

“Briefings are events organized through the Office of Congressional and Government Affairs to inform members of Congress and/or their staff on the conclusions and recommendations of reports of the National Academies.”

Rezente Beispiele für derartige Reports sind nachzulesen unter: http://www.nasonline.org/about-nas/150th-anniversary/150-years-of-service.pdf


 

inge Thu, 24.01.2013 - 04:20

Kommt die nächste Sintflut?

Kommt die nächste Sintflut?

Fr, 17.01.2013 - 09:00 — Günter Blöschl

Icon GeowissenschaftenGünter Blöschl

2012 scheint ein Rekord-Hochwasserjahr gewesen zu sein. Hochwässer in China, Nigerien, Großbritannien. Wirbelsturm Sandy in den USA. Aber auch in Österreich standen Teile der Steiermark und Kärntens unter Wasser. Das Jahrhunderthochwasser 2002 ist noch allen in Erinnerung. Werden die Hochwässer größer? Wenn ja, warum? Und wie können wir uns vor ihnen schützen?

Hochwasser ist nicht Hochwasser

Überflutungen können die verschiedensten Ursachen haben. Küstenhochwässer werden zum Beispiel durch Erdbeben im Ozean ausgelöst, sogenannte Tsunamis wie 2004 in Indonesien und 2011 in Japan. Weniger bekannt ist, dass im Jahr 365 viele Städte am östlichen Mittelmeer und 1755 Lissabon in ähnlicher Weise verwüstet wurden. Aber auch Stürme können Wassermassen an die Küste treiben, wie bei der sogenannten Weihnachtsflut des Jahres 1717 an der Nordseeküste von Holland bis Dänemark und beim Wirbelsturm Sandy.

Hohe Bodenfeuchtigkeit trägt entscheidend zur Gefährlichkeit von Hochwasser beiAbbildung 1. Hohe Bodenfeuchtigkeit trägt entscheidend zur Gefährlichkeit von Hochwasser bei.

 

Für Österreich sind Flusshochwässer freilich relevanter. Früher waren sie oft auf einen Eisstoß zurückzuführen, bei dem Eisschollen das heran strömende Wasser blockierten, wie an der Donau bei Wien im Februar 1830, aber heute lassen höhere Lufttemperaturen und Flusskraftwerke die Bildung großer Eisstöße nicht mehr zu. Flusshochwässer werden jetzt meist durch großräumigen Niederschlag ausgelöst, oft verbunden mit sogenannten Vb-Wetterlagen, bei denen feuchte Luft aus dem Mittelmeerraum herantransportiert wird. Das größte bekannte Hochwasser an der Donau trat im August 1501 auf, das fast um die Hälfte größer war als das Hochwasser im August 2002. Entscheidend für solche Hochwässer ist nicht nur die Niederschlagsmenge, sondern auch der Feuchtezustand der Böden im Gebiet. Er bestimmt den Anteil des Niederschlags, der nicht versickern kann und deshalb zum Hochwasser beiträgt. Dieser Anteil kann zwischen 10% und 60% liegen und damit entscheiden, ob ein Hochwasser wirklich gefährlich wird oder nicht (Abbildung 1). Die große Bodenfeuchte war einer der Gründe, warum das Hochwasser 2002 so extrem ausfiel [1]. Eine Schneedecke im Gebiet kann die Bodenfeuchte zusätzlich erhöhen. Niederschläge, die an sich nicht außergewöhnlich sind, können dann zu großen Hochwässern führen, wie im März 2006 an der March.

Eine dritte Gruppe von Hochwässern sind Sturzfluten, die durch kurze, kleinräumige, aber sehr intensive Niederschläge entstehen. Im Gebirge führt dies oft zu Hangrutschungen und Muren wie im Juli 2012 in St. Lorenzen im Paltental (Bezirk Liezen). Die größte bekannte Sturzflut in Österreich trat im Juli 1913 in der Nähe von Graz auf. Dabei fielen innerhalb weniger Stunden mehr als 600 mm Niederschlag, eine Menge, die sonst nur aus den Tropen bekannt ist. Aber auch in der Stadt können Sturzfluten gefährlich sein, besonders wegen der hohen Fließgeschwindigkeiten auf den asphaltierten Flächen, wie im Mai 2010 in der Wiener Lerchenfelderstraße.

Werden Hochwässer größer?

Nun, diese Frage wird in der Wissenschaft differenzierter gesehen, als sie manchmal in den Medien dargestellt wird. Ansatzpunkt für die Beantwortung dieser Frage sind die Hochwasser auslösenden Prozesse.

Vorerst zu den Küstenhochwässern. Die Entstehung von Wirbelstürmen hängt mit der Temperatur der Meeresoberfläche zusammen. Eine globale Erwärmung könnte deswegen zu häufigeren und größeren Wirbelstürmen führen. Außerdem wurde in den letzten Jahrzehnten ein Anstieg des Meereswasserspiegels von durchschnittlich 3 mm pro Jahr gemessen, der räumlich stark variiert, und auf die Wärmeausdehnung des Ozeans und das Abschmelzen der Gletscher zurückzuführen ist. Bei einem höheren Meeresspiegel werden die Überflutungen häufiger, besonders wenn die Küste flach ist, wie etwa in Bangladesch. Ein in der Öffentlichkeit wenig beachteter Umstand kann allerdings bedeutender sein. Wird an der Küste Grundwasser entnommen, etwa für die Trinkwasserversorgung, kommt es bei bestimmten Untergrundverhältnissen zu Landsenkungen, z.B. 1 bis 15 cm pro Jahr in Jakarta [2]. Das erhöht das Überflutungsrisiko viel mehr. Man sieht, dass mit dem Wasserkreislauf vorsichtig umgegangen werden muss, sonst gibt es unbeabsichtigte Nebeneffekte.

Hochwässer der DonauAbbildung 2. Große und kleine Hochwässer der Donau bei Wien seit 1828

Bei Flusshochwässern gibt es im Wesentlichen drei potenziell verstärkende Faktoren. Der erste Faktor sind wasserbauliche Maßnahmen wie Flussbegradigungen zum rascheren Abführen der Wassermassen und Hochwasserdämme zum Schutz der Bevölkerung. Am Ort der Maßnahme reduzieren sie zwar Hochwässer (dafür werden sie ja gebaut), an der darunterliegenden Flussstrecke können sie aber Hochwässer erhöhen, da weniger Wasser am Ort der Maßnahme zurückgehalten wird. Bei Planung von Maßnahmen wird daher heute die gesamte Flussstrecke betrachtet. Insbesondere versucht man seitlich des Flusses Platz für das Wasser zu schaffen, wodurch die Hochwässer am ganzen Flusslauf reduziert werden. Bei extrem großen Hochwässern, bei denen die Schutzdämme überströmt werden, lässt aber der Einfluss wasserbaulicher Maßnahmen auf den Hochwasserablauf nach. Das sieht man in der nebenstehenden Abbildung 2, in der für jedes Jahr seit 1828 die Hochwässer an der Donau bei Wien dargestellt sind. Die kleinen Hochwässer sind wegen der wasserbaulichen Maßnahmen deutlich angestiegen, bei den großen Hochwässern sieht man kaum eine Veränderung. Zum Glück kann man diesen Effekt sehr gut mit den im Bauingenieurwesen üblichen hydraulischen Modellen berechnen und damit Dammhöhen für zukünftige Maßnahmen festlegen.

Hochwasser im Paznauntal, August 2005Abbildung 3. Hochwasser im Paznauntal, August 2005

Der zweite Faktor ist die Landnutzung im Gebiet. Im ländlichen Bereich kann die Bodenbearbeitung der Felder mit schweren Maschinen den Boden kompakter machen und dadurch den Oberflächenabfluss erhöhen. Dieser Effekt ist auf kleinen Flächen klar nachweisbar, für ganze Flussgebiete wegen der räumlichen Variabilität hingegen nicht, und wird derzeit in Forschungsprojekten der Hydrologie untersucht. Auch die Frage der Auswirkung des Waldes ist interessant. Er wirkt bei kleinen Ereignissen durch das Speichervermögen reduzierend auf den Hochwasserabfluss, bei großen Ereignissen hingegen kaum, wie für das Hochwasser in Paznaun im August 2005 (Abbildung 3) gezeigt wurde [3]. Schipisten oder Siedlungsflächen können lokal Hochwässer erhöhen, für ganze Flussgebiete ist der Einfluss wegen der geringen Flächenanteile aber meist sehr klein. Allerdings kann die Landnutzung indirekt Effekte bewirken. Schlägerung des Waldes kann zu verstärktem Bodenabtrag und damit einer Erhöhung des Oberflächenabflusses führen, was in den Tropenregionen dramatisch ist. In Österreich ist das nur ein lokales Problem, da insgesamt der Waldanteil in den letzten Jahren zugenommen hat.

Der dritte Faktor ist das Klima. Da gibt es ein frappierendes Phänomen, das weltweit zu beobachten ist und vermutlich mit der Kopplung von Ozean und Atmosphäre zusammenhängt: es gibt hochwasserarme und hochwasserreiche Perioden. So sieht man bei den Hochwässern der Donau (Abbildung 2) eine Häufung großer Hochwässer am Ende des 19. Jahrhunderts, aber keine großen Hochwässer in der ersten Hälfte des 20. Jahrhunderts. In kleineren Gebieten können die Hochwässer noch viel unregelmäßiger auftreten, so war im Kampgebiet das Hochwasser 2002 mehr als dreimal so groß wie das größte in den hundert Jahren zuvor. Natürliche Variabilität und durch Klimawandel beeinflusste Änderungen sind dadurch schwierig zu trennen. Aber der Zeitpunkt des Auftretens der Hochwässer innerhalb des Jahres kann gute Anhaltspunkte für diese Differenzierung geben (Abbildung 4). In Gebieten, in denen Hochwässer im Winter auftreten (z.B. im Innviertel und im Mühlviertel), führen höhere Lufttemperaturen zu mehr flüssigem Niederschlag und weniger Schneefall und damit zu einer Verschärfung der Hochwassersituation [4]. In Gebieten, in denen Hochwässer im Sommer auftreten, tritt dieser Effekt nicht auf.

Mittlerer Zeitpunkt des Auftretens von HochwässernAbbildung 4. Mittlerer Zeitpunkt des Auftretens von Hochwässern im Jahr

Ob Sturzfluten größer werden hängt vor allem damit zusammen, ob Starkniederschläge größer werden, da die Bodenbeschaffenheit weniger wichtig ist. Die generelle Überlegung dazu basiert darauf, dass nach der Beziehung von Clausius-Clapeyron das Wasserspeichervermögen der Atmosphäre um 7% pro Grad Temperaturerhöhung ansteigt. Bei sonst gleichen Verhältnissen würde dies einer ebenso großen Zunahme der Starkniederschläge entsprechen, und einer noch größeren Zunahme der Hochwässer, da die Wasseraufnahme des Bodens gleich bleibt. Messungen belegen diesen Zusammenhang zwischen Niederschlag und Lufttemperatur. Die Schwankungen innerhalb eines Jahres sind aber viel größer als die Schwankungen zwischen den Jahren. Deswegen ist die Interpretation des Klimawandels in diesem Zusammenhang schwierig. Es ist also ein Effekt, der zwar plausibel ist, insgesamt aber aus den verfügbaren Daten noch nicht schlüssig abzulesen ist.

Die Frage ob Hochwasser größer werden oder nicht, ist also nicht in einem Satz zu beantworten. Es gibt Situationen wo das klar der Fall ist (z.B. bei Küstenhochwässern durch Landsenkungen), andere Situationen wo das nicht der Fall ist (z.B. bei Flusshochwässern an der Donau durch Abholzung), und wieder Situationen, wo das noch nicht abschließend geklärt ist (z.B. bei Sturzfluten durch Starkniederschläge). Jedenfalls gibt es jetzt mehr Sachwerte, die durch Hochwässer betroffen sein können, als früher.

Wie können wir uns vor Hochwässern schützen?

Hochwasserschutz wird seit Jahrtausenden betrieben, besonders an den Flüssen, da dort der Siedlungsraum wegen der Nähe zur Wasserstraße immer schon attraktiv war. Entsprechend der zunehmenden technischen Möglichkeiten kam es im 19. Jahrhundert zu großen wasserbaulichen Projekten gegen Flusshochwässer, wie etwa die Donauregulierung bei Wien in den Jahren 1870-1875. Zweifelsfrei war dieses Konzept sehr wirksam, da das Hochwasser 1899 in Wien kaum Schaden anrichtete. Ebenso kam es zu Verbauungstätigkeiten an den Oberläufen von Wildbächen gegen Sturzfluten und zu vermehrten Maßnahmen gegen Küstenhochwässer.

Maßnahmen  zum HochwasserschutzAbbildung 5. Maßnahmen zum Hochwasserschutz - Vorsorge und Bewältigung

Besonders für die Flusshochwässer hat allerdings in den letzten Jahren ein gewisses Umdenken stattgefunden, nachdem jetzt nicht mehr ausschließlich Einzelmaßnahmen, sondern eine Fülle verschiedener Maßnahmen im Gesamtsystem gesetzt werden. Das wird als Integriertes Hochwasserrisikomanagement bezeichnet, und beruht auf einem Konzept des Kreislaufes von Vorsorge und Bewältigung (Abbildung 5). So werden bei der Raumplanung Hochwasserrisikoflächen (www.hochwasserrisiko.at) als Bauland vermieden („Flächenvorsorge“). Entsprechende Informationsmaßnahmen zur Bewusstseinsbildung der Bevölkerung fördern die Eigenvorsorge (z.B. Versicherungen). In den meisten Fällen ist der technische (wasserbauliche) Hochwasserschutz wegen seiner hohen Wirksamkeit nach wie vor das Rückgrat der Maßnahmen. Wie wichtig funktionsfähige Dämme sind, zeigte etwa das Marchhochwasser 2006. Daneben wird versucht möglichst viel Wasser im Gebiet zurückzuhalten. Die Hochwasserfrühwarnung zur rechtzeitigen Planung der Katastrophenabwehr (u.a. durch die Feuerwehr) gewinnt zunehmend an Bedeutung. Maßnahmen zur Bewältigung des Hochwassers sind u.a. Evakuierung, Soforthilfe und der Wiederaufbau beschädigter Gebäude. Dieses Konzept gilt auch für Österreich und wird in Plänen für das Hochwasserrisikomanagement implementiert.

Die Betonung des Gesamtsystems beim Umgang mit Hochwässern entspricht auch generell der Tendenz im Bauingenieurwesen, den Blick nicht mehr ausschließlich auf das einzelne Bauwerk zu richten, sondern ein Gesamtsystem im Kontext von Gesellschaft, Wirtschaft und Umwelt zu betrachten, in das die Baumaßnahmen integriert sind. Dafür ist aber verbessertes Know-How erforderlich.

Im Hydrological Open Air Laboratory bei Wieselburg (www.waterresources.at) werden die hochwasserauslösenden Prozesse im Detail erforscht, und in einem vom European Research Council (ERC) geförderten Projekt werden Veränderungen der Hochwässer in ganz Europa untersucht (erc.hydro.tuwien.ac.at). Die Forschungsergebnisse fließen dann in komplexe hydrologische Rechenmodelle ein, mit denen der Hochwasserschutz zuverlässiger geplant werden kann [5]. Auch im Bereich der Frühwarnung gibt es neues Know-How. Hochwasservorhersagen werden jetzt zwei Tage oder mehr im Voraus erstellt, etwa für die Donau und Donauzubringer wie den Kamp. Mit hydrologischen Rechenmodellen wird neuerdings auch die dabei erwartete Vorhersageunsicherheit abgeschätzt [6]. Damit können die Verantwortlichen der Einsatzplanung besser das Risikomanagement gestalten.

Ob die nächste Sintflut kommt, kann man zwar wegen der Komplexität der Prozesse nicht über Jahre voraus prognostizieren. Aber die Maßnahmen des integrierten Hochwasserrisikomanagements erlauben eine optimale Vorbereitung auf die Situation, wenn es wirklich zu einem Hochwasser kommt.

Literatur

[1] Gutknecht et al. (2002) Jahrtausend-Hochwasser am Kamp? www.tuwien.ac.at/aktuelles/news_detail/article/3401

[2] Abidin et al. (2001) Land subsidence of Jakarta (Indonesia) and its relation with urban development. Nat. Hazards 59, 1753–1771.

[3] Kohl et al. (2008) Analyse und Modellierung der Waldwirkung auf das Hochwasserereignis im Paznauntal vom August 2005. www.interpraevent.at/palm-cms/upload_files/Publikationen/Tagungsbeitraeg...

[4] Blöschl et al. (2011) Auswirkungen des Klimawandels auf Hochwasser und Niederwasser. Österr. Wasser- und Abfallwirtschaft, 63, (1-2), 21- 30.

[5] Blöschl et al. (2008) Bestimmung von Bemessungshochwässern gegebener Jährlichkeit Wasserwirtschaft, 98 (11), 12-18.

[6] Blöschl et al. (2008) Hydrologische Hochwasservorhersage für den Kamp. Österr. Wasser- und Abfallwirtschaft, 60 (3-4), a13-a18.

 


Anmerkungen der Redaktion

Zu Günter Blöschl:

Advanced Grant des Europäischen Forschungsrats ERC (2011):

Hochwasserforschung http://www.tuwien.ac.at/aktuelles/news_detail/article/7348/

http://wirtschaftsblatt.at/home/nachrichten/oesterreich/1231580/index

Doktoratkolleg TU Wien: Wasserwirtschaftliche Systeme (Ausbildung von 70 Doktoranden an der TU Wien):

Standard Interview „Detektivarbeit Hochwasserforschung“ 19.1.2011

Zur European Geosciences Union: www.egu.eu

“EGU, the European Geosciences Union, is Europe’s premier geosciences union, dedicated to the pursuit of excellence in the geosciences and the planetary and space sciences for the benefit of humanity, worldwide. It was established in September 2002 as a merger of the European Geophysical Society (EGS) and the European Union of Geosciences (EUG), and has headquarters in Munich, Germany. It is a non-profit international union of scientists with over 12,500 members from all over the world. Membership is open to individuals who are professionally engaged in or associated with geosciences and planetary and space sciences and related studies, including students and retired seniors.”

Sehr empfehlenswerte website der EGU, u.a. mit:

14 peer-reviewed Open Access journals covering various topics of the Earth, planetary and space sciences

Official YouTube channel: http://www.youtube.com/user/EuroGeosciencesUnion
GeoQ: EGU's quarterly newsletter http://static.egu.eu/static/2272/newsletter/geoq/geoq_04.pdf
Imaggeo: online open-access geosciences image repository of the European Geosciences Union.

Hochwasser auf Youtube, u.a.:
Hochwasser 2005 Paznauntal 4:03 min


 

 

inge Thu, 17.01.2013 - 08:59

Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

Fr, 10.01.2013 - 05:20 — Ilse Kryspin-Exner

Politik & GesellschaftIlse Kryspin-ExnerAltern unter positiven Aspekten aufzufassen bedeutet ein längeres Leben mit folgenden Möglichkeiten: Wahrung der Gesundheit, Aufrechterhaltung der persönlichen Sicherheit sowie aktive Teilnahme am Leben und am sozialen Umfeld. Die Weltgesundheits-organisation (WHO) hat den Begriff „Aktiv Altern“ deshalb aufgegriffen, damit der Prozess, der für das Erreichen dieser Vision erforderlich ist, greifbar wird.

Aktives Altern bedeutet, bei guter Gesundheit und als vollwertiges Mitglied der Gesellschaft älter zu werden, ein erfüllteres Berufsleben zu führen, im Alltag unabhängiger und als Bürger engagierter zu sein. Wir können unabhängig von unserem Alter eine Rolle in der Gesellschaft spielen und höhere Lebensqualität genießen. Wichtig ist, das große Potenzial auszuschöpfen, über das wir auch in hohem Alter noch verfügen.

Das Wort „aktiv“ bezieht sich demnach nicht nur auf die Möglichkeit, körperlich fit zu bleiben, vielmehr wird darunter die Möglichkeit verstanden, sein Reservoir für körperliches, soziales und geistiges Wohlbefinden im Verlaufe des gesamten Lebens zu nützen. Außerdem steht die Teilnahme am sozialen, wirtschaftlichen, kulturellen, spirituellen und zivilen Leben in Übereinstimmung mit den persönlichen Bedürfnissen, Wünschen und Fähigkeiten im Vordergrund.

„Aktiv Altern“ bezieht sich zusammengefasst auf die Ausweitung der Lebensqualität und des Wohlbefindens alter Menschen - somit sind auch jene Personen inkludiert, die einer Unterstützung und Pflege bedürfen. Die Lebensqualität der älteren Generation hängt von den Möglichkeiten und Risiken ab, welche im Laufe des gesamten bisherigen Lebens gegeben waren. Selbstverständlich haben auch Art und Umfang an Hilfestellung und Unterstützung, die die nachfolgenden Generationen bei Bedarf zu gewähren bereit sind, einen entscheidenden Einfluss auf die Lebensqualität.

Komponenten des aktiven Alterns

1. Solidarität

Das Kind von heute ist der Erwachsene von morgen und die Großmutter / der Großvater von übermorgen. Bestandteil eines aktiven Alterns ist ein wechselseitiges (reziprokes) Geben und Nehmen, einerseits zwischen einzelnen Personen und andererseits zwischen den jüngeren und älteren Generationen. Dies kommt auch im Schlagwort der „Solidarität zwischen den Generationen“ zum Ausdruck.

2. Gewinne und Verluste

„Aktiv Altern“ ist im Konzept der Psychologie der Lebensspanne integriert (Abbildung 1). Dieses geht entsprechend entwicklungspsychologischer Erkenntnisse von der Ansicht aus, dass Entwicklung im gesamten Leben eines Menschen stattfindet und niemals zum Abschluss kommt.

Der Zugang zu einer derartigen Life-span-Psychologie zielt auf die Verbindung folgender Gesichtspunkte ab: Berücksichtigung der Multidirektionalität ontogenetischer Veränderungen (Entwicklungsprozesse, die erst in späten Phasen des Lebens beginnen oder in verschiedene Richtungen laufen), Einbeziehung altersabhängiger (biologische Vorgänge, lebensalterstypische gesellschaftliche Prozesse) und altersunabhängiger (Zeitströmungen, periodenspezifische Ereignisse) Entwicklungsfaktoren sowie Berücksichtigung individueller Lebensereignisse. Dabei wird von der Annahme ausgegangen, dass jeglicher Entwicklungsprozess sowohl einen Gewinn (Wachstum) als auch einen Verlust (Abbau) an Adaptionsfähigkeit darstellt; die Plastizität von Entwicklungsprozessen wird betont.

MOUSEHINT Abbildung 1 Psychologie der Lebensspanne: Weg von der überkommenen Vorstellung eines stetigen Abbaus hin zur Vorstellung eines Wechselspiels zwischen Verlust und Gewinn

Die psychische Entwicklung ist in jedem Lebensalter von diesen Gegebenheiten bestimmt, sie sind jedoch im frühen Lebensalter in einzelnen Phasen gesetzmäßiger und in größerem Maß normativ als im höheren. Ein „typisches“, für den letzten Abschnitt des Lebens einheitlich gültiges Verhalten älterer Menschen ist nicht bekannt (etwa, ob Verinnerlichung, Motivationsverlust, Resignation, Depression einen charakteristischen Ablauf zeigen). Dies liegt zum einen daran, dass die Gesetzmäßigkeiten des höheren Lebensalters noch nicht so gut erforscht wurden bzw. über lange Zeiträume beobachtet werden konnten – noch nie seit Bestehen der Menschheit erreichten durchschnittlich die Menschen ein so hohes Lebensalter! Da Verhaltens- und Denkweisen zudem sehr wesentlich durch Erfahrungen während des ganzen Lebens geprägt und überformt sind, was in früheren Entwicklungsabschnitten noch nicht in dem Ausmaß der Fall ist, gilt es, sowohl von verschiedene Formen als auch verschiedenen Stadien des Alterns auszugehen. Je nachdem, ob ein kalendarischer, subjektiver oder von außen beurteilender Standort eingenommen wird, ist es unzulässig eine Zeitspanne von durchschnittlich 30 Jahren, die Menschen heute „im Alter“ verbringen, als „einheitliche Etappe“ anzusehen.

3. Gesundes Altern

„Aktives Altern“ meint stets auch gesundes Altern. Die WHO definiert Gesundheit als Summe des körperlichen, geistigen und sozialen Wohlbefindens. Politische Maßnahmen und Programme, die eine Verbesserung oder Stabilisierung der körperlichen Gesundheit bewirken sollen, sind ebenso wichtig wie jene, die der Förderung von geistigem und sozialem Wohlbefinden dienen. Erst bei Beachtung sämtlicher eben genannter Aspekte kann der Weg für aktives bzw. kompetentes Altern geebnet sein.

4. Autonomie, Selbstständigkeit und Kompetenz

Unter Autonomie wird die bestmögliche Selbstständigkeit einer Person verstanden, die sich nicht nur auf die Verrichtung alltäglicher Fertigkeiten (z.B. Anziehen, Körperhygiene) bzw. lebensnotwendiger Routinetätigkeiten (z.B. Flüssigkeitsaufnahme) beschränkt ist. Die oberste Maxime lautet, Lebensformen zu gewährleisten, die soweit als möglich von anderen autonom bzw. unabhängig sind. Kompetenz bezieht sich wiederum primär auf die geistige und körperliche Leistungsfähigkeit.

5. „Hilfe zur Selbsthilfe“

Bei Berücksichtigung der Autonomie und Selbstständigkeit sollte die „Hilfe zur Selbsthilfe“ im Kontrast zu unreflektierter und uneingeschränkter Hilfeleistung bzw. Abnahme jeglicher Tätigkeit vordergründig sein. Pflegende Angehörige, professionelle Fachkräfte aber auch neuere technische Entwicklungen können hierfür einen bedeutsamen Beitrag leisten.

6. Berücksichtigung von Wünschen

Zu aktiv-kompetentem Altern zählt auch die Beachtung von Wünschen älterer Menschen. Dabei gilt als oberstes Ziel, so lange wie möglich zu Hause mobil bleiben zu können. Sowohl die Förderung des Selbsthilfepotentials als auch der Einbezug und die Inanspruchnahme technischer Hilfsmittel in unserer heutigen Zeit können der Berücksichtigung und Erfüllung dieser Anliegen dienen.

Argumente, die berechtigen von Konzepten des „erfolgreichen“, „konstruktiven“ oder „emanzipierten“ Alterns zu sprechen

Epidemiologische Resultate: Betrachtet man die Zahl der in Heimen und Pflegeinstitutionen untergebrachten alten Menschen, so betrifft dies ca. 4% der über 65jährigen Menschen. Dies ist insofern ein gewisser Trugschluss, als der Prozentsatz von zeitweise in Krankenhäusern und Pflegeinstitutionen untergebrachten Menschen natürlich viel höher ist und 18 bis 20% umfasst. Dennoch: 80% der über 65jährigen können zu Hause leben bzw. werden dort versorgt.

Der Anteil psychisch kranker Menschen über 65 Jahre beträgt ca. 25%, eine unter Versorgungsgesichtspunkten sehr ernst zu nehmende Realität (Depression, Demenz, Verwirrtheit, paranoide Tendenzen). Die Zahl soll aber dennoch nicht den Blick dafür verstellen, dass eben 75% der älteren Menschen nicht – zumindest in keiner ernsthaften bzw. behandlungsbedürftigen Weise -, psychisch krank sind.

Altern generell im Sinne eines Defizitmodells zu diskutieren ist obsolet.

Untersuchungen über den altersbedingten Abbau wurden früher meist an einer Auslese von Leuten in Spitälern oder Altersheimen durchgeführt: Wer im Familienverband lebte oder sich bis ins hohe Alter allein versorgte, wurde lange Zeit in diesen Studien kaum berücksichtigt.

Zudem hatte man Ende der 60er/ Anfang der 70er Jahre begonnen, Personen verschiedener Altersgruppen hinsichtlich ihrer Leistung zu untersuchen und miteinander zu vergleichen und damals wurde erhoben, dass die globale Intelligenz ab Mitte 20 leicht und ab 75 Jahren relativ rapid abnimmt. Daraus wurde das „Defizitmodell“ abgeleitet, d.h. dass Alter generell mit einem Defizit einherginge (Abbildung 2). Erst allmählich hat man festgestellt, dass es einen ab Mitte 20 beginnenden, allerdings sehr unterschiedlichen Altersabbau verschiedener Funktionen gibt, z.B: baut die motorische Geschicklichkeit relativ früh ab, wo hingegen das Optimum an Gedächtnisleistung im dritten Lebensjahrzehnt liegt. Andererseits werden manche Funktionen wie Urteilen und Vergleichen, Phantasie oder Problemlösefähigkeit mit dem Alter besser.

Defizitmodell Erfolgreiches, konstruktive & kompetentes Altern
Altern Phase der Lebensspanne
Abbau Multidirektionalität
Multidimensionalität der Leistung
Biographische Intelligenz
Konzepte der Sichtweise
globale Betrachtung individuelle Sichtweise

Depressitivät
Motivationsverlust
Resignation
paranoide Tendenzen
...als primär störende Symptome

... diesen Kriterien Sinn geben
Förderung von skills
→ Orientierung, Gedächtnis, Konzentration, soziale Fertigkeiten etc.
Prävention
(Auswirkungen von Lebensweise im mittleren Lebensalter, Zahl und Schweregrad von Noxen im Kindesalter auf späteres Altern)
abrupter Übergang von Berusfstätigkeit in Pensionierung Allmähliche Überleitung bzw. Vorbereitung auf die Zeit ohne geregelten Beruf
Verlust signifikanter Bezugspersonen
Ausgliederung ("Ghettos")

Neugestaltung des sozialen Netzes

Soziale Integration

Tabelle 1. Defizitmodell versus Aktives Altern

Anhand dieser Beobachtungen wird „Intelligenz“ heute in viel komplexerer Form dargestellt und aufgezeigt, dass Intelligenzfunktionen mit dem Alter sehr unterschiedlich abfallen oder steigen. „Flüssige Intelligenz“, also Fähigkeiten der Umstellung und Motorik sowie das Gedächtnis bauen eher ab, das rasche Auffassen und Verarbeiten von Informationen, lässt tendenziell bereits ab dem 30.Lebensjahr nach. Hingegen nimmt die „kristallisierte Intelligenz“ – Problemlösefähigkeiten, Kombinationsfähigkeit usw. – eher zu, was heute in Zusammenhang mit dem Konzept der „Weisheit“ diskutiert wird bzw. in der „biographischen Intelligenz“, dem „über sich selbst klüger werden“, Ausdruck findet.

Intelligenz ist demnach multimodal und multidimensional (siehe auch weiter oben): Manche Intelligenzfaktoren werden mit dem Alter besser, andere schlechter. Jedenfalls kann man nicht von einem allgemeinen Intelligenzabbau sprechen und dies ist ein wesentliches Argument gegen das Defizitmodell.

Ausnützen der sog. „Reservekapazität“

Anhand mannigfacher Untersuchungen konnte nachgewiesen werden, dass sich der Abbau-Prozess durch gezieltes Üben verlangsamen lässt, wenn beginnende Defizite rechtzeitig aufgespürt, Motivation erreicht und eine stimulierende Umgebung aufgebaut werden kann; hierbei spielen auch soziale Aspekte eine große Rolle, d.h. das Eingebundensein in Familie, Freundeskreis, Zugehörigkeit zu verschiedenen Gruppierungen.

Dies soll anhand eines Beispiels über altersspezifische Geschlechtsdifferenzierung aufgezeigt werden: aus der Beobachtung, dass Frauen in ihren Hirnleistungsfunktionen schneller abbauen, wurde abgeleitet, dies müsse mit einer unterschiedlichen Hirnalterung zu tun haben. Aber man hatte Frauen im Alter untersucht, die in der Jugend wenig Förderung, keine besondere Schulausbildung erhielten und ihr Leben lang ihre intellektuellen Kapazitäten nur wenig nützen konnten. Im Alter bauen diese Personen dann rascher ab – und dies ist nicht geschlechtsspezifisch! Insofern ist der Abbau nicht ausschließlich ein Hirnalterungsprozess, sondern auch ein Förderungsdefizit von früher – was wiederum ein Argument, für das Konzept des „erfolgreiches Alterns“ bringt und zudem darauf hinweist, dass das Altern auch einen sozialen und gesellschaftlichen Aspekt hat.

Altern ist nicht nur individuelles sondern auch soziales Schicksal!

Die Möglichkeiten der Auseinandersetzung und Bewältigung von Alternsprozessen werden durch gesellschaftliche Erwartungen und Normen beeinflusst. In der Gesellschaft bestehen Bilder vom alten Menschen die sowohl negativ (=hilfebedürftig) als auch positiv (=die jungen aktiven Alten, die wohlhabend und wichtige Konsumenten sind) verzerrt sein können und die das Selbstwertgefühl und damit wiederum subjektiv erlebte Handlungsalternativen und das konkrete Verhalten beeinflussen.

Aus letztgenanntem Punkt heraus soll eine weitere Überlegung entwickelt werden, der enorme präventive Bedeutung zukommt: Aus Längsschnittuntersuchungen ist heute bekannt, dass das Fundament zur Alterung bzw. verschiedener Alterungsformen sehr früh, im mittleren Lebensalter, gesetzt wird. Die Art der intellektuellen Betätigung (wobei hier intellektuell im Sinne der bestmöglichen Ausnützung der vorhandenen mentalen Fähigkeit bedeutet) sowie eine ansprechende berufliche Tätigkeit, haben sich als den Alterungsprozess positiv beeinflussend im Sinne einer geringen Progredienz herausgestellt, wohingegen risikoreiches Verhalten im Sinne von falscher Ernährung und insbesondere Alkoholmissbrauch, Mangel an körperlicher Fitness einen Abbau beschleunigen. Konzepte des „erfolgreichen“ Alterns, richtig an die entsprechenden Zielgruppen herangebracht, könnten somit an Selbstkompetenz und den Anteil der eigenen Gestaltmöglichkeit appellieren.

Resumé

Das Konzept des aktiven Alterns beruht auf der Anerkennung der Menschenrechte des älteren Menschen und der Grundsätze der Vereinten Nationen im Hinblick auf die Unabhängigkeit, die Einbindung in das soziale Umfeld, die Würde, die Verfügbarkeit von Pflege und die Erfülltheit eines Lebens. Dabei wird der Schwerpunkt der strategischen Planung weg von dem Konzept der „Bedürftigkeit“ hin zu einem Konzept eines „Rechts“ gelenkt; man geht also von der Annahme ab, dass ältere Menschen primär passive Objekte sind und erkennt ihr Recht auf die Gleichheit an Chancen und Behandlung in allen Lebensbereichen an. Dabei wird die Verantwortung zur Teilnahme an den politischen Prozessen und anderen Aspekten des sozialen Lebens hervorgehoben.


Anmerkungen der Redaktion

Ilse Kryspin-Exner: „Aktiv durchs Leben- Psychologische Aspekte des Älterwerdens“ Vortrag Mai 2011 (PDF)


 

inge Thu, 10.01.2013 - 04:20

Wie «unsichtbarer Hunger» die Menschheit bedroht

Wie «unsichtbarer Hunger» die Menschheit bedroht

Fr, 03.01.2013 - 05:20 — Gottfried Schatz

Icon MINTGottfried Schatz

«Unsichtbarer Hunger» nach Vitaminen und anderen Nährstoffen, die wir nur in kleinsten Mengen benötigen, bedroht ein Drittel aller Menschen und tötet jährlich Millionen von Kindern. Verbesserte Nutzpflanzen könnten diesen Hunger lindern, doch Vorurteile und irrationale Ängste verhindern deren Einsatz.

«Fühlt ihr nicht, dass ich nicht beten kann, wenn der Hunger mir die Eingeweide zerreisst, wenn der Magen im Wahnsinn schreit: erst Brot für mich, dann Liebe, dann Geist, dann Wahrheit!» Als Conrad Alberti in seinem 1888 erschienenen Drama «Brot!» diese Worte dem jungen Thoma Münzer in den Mund legte, ahnte er nicht, dass es noch einen anderen Hunger gibt, der zwar nicht «die Eingeweide zerreisst», aber ebenso tötet wie der Hunger nach Brot.

«Hunger nach Brot» ist immer noch die größte Bedrohung der Weltgesundheit – und seine heimtückische Schwester, die Unterernährung, bei Kindern die weitaus häufigste Todesursache. Etwa vierzehn Prozent der Weltbevölkerung sind chronisch unterernährt, doch zum Glück sinkt dieser Prozentsatz stetig; er war noch vor einem Jahrhundert mehrfach höher, ist heute nur halb so hoch wie vor dreißig Jahren – und dürfte in Zukunft noch weiter absinken. Moderne Landwirtschaft und wirtschaftliche Entwicklung haben – allen Zweiflern zum Trotz – ihre Schuldigkeit getan.

Scharlatane und Diät-Gurus

Unser Hungergefühl warnt uns bei ungenügender Zufuhr von Proteinen, Fetten und Kohlenhydraten, deren sechs «Lebenselemente» Kohlenstoff, Sauerstoff, Wasserstoff, Stickstoff, Phosphor und Schwefel unserem Körper als Bausteine und Energiequelle dienen. Um uns am Leben zu erhalten, braucht es jedoch noch weitere Elemente, darunter die «Spurenelemente» Eisen, Zink, Kupfer, Iod, Fluor, Kobalt, Mangan, Molybdän, Selen und Chrom. Schliesslich muss unsere Nahrung auch etwa ein Dutzend verschiedener «Vitamine» enthalten – komplexe organische Stoffe, die unser Körper nicht selber bilden kann. Wenn wir auch Spurenelemente und Vitamine nur in winzigen Mengen benötigen, so sind sie dennoch für Wachstum, Zellatmung, Bildung der Erbsubstanz DNS und viele andere wichtige Prozesse unersetzlich. Wenn sie uns fehlen, warnt uns kein Hungergefühl. Dieser «versteckte Hunger» bedroht mindestens drei Milliarden Menschen, darunter auch viele Bewohner reicher Staaten.

Vielleicht braucht unser Körper auch noch Spuren von Bor, Silizium, Zinn, Vanadium oder Nickel, doch wir sind uns dessen nicht sicher und rätseln noch, welche Aufgaben diese Elemente in unserem Körper erfüllen könnten. Der tägliche Mindestbedarf ist selbst für viele der bereits gesicherten Spurenelemente und Vitamine umstritten, da er sich meist nur schwer genau bestimmen lässt. Ist das in einem Gewebe gemessene Spurenelement tatsächlich biologisch bedeutsam? Wurde es nur zufällig mit der Nahrung aufgenommen? Oder entstammt es gar einer Verunreinigung der Analysengeräte? Kann – oder darf – man gesunden Versuchspersonen über Tage oder Monate ein Spurenelement vorenthalten, um dessen Wirkung zu bestimmen? Die Aufnahme vieler Spurenelemente oder Vitamine hängt zudem stark von anderen Spurenelementen und Vitaminen sowie von der Diät ab, so dass Angaben über den täglichen Mindestbedarf oft nur grobe Schätzungen sind. Kein Wunder, dass sich in diesem Dunst des Unwissens Scharlatane und Diät-Gurus tummeln, die mit pseudowissenschaftlichen Argumenten, religiösem Eifer und cleverem Geschäftssinn den unnötigen Verzehr oft gefährlicher Mengen an Spurenelementen und Vitaminen predigen.

Tödliche Bedrohung

Für Menschen, die sich vorwiegend von Reis ernähren, ist ein Mangel an Vitaminen und Spurenelementen jedoch eine tödliche Bedrohung. Weltweit darbt jedes dritte Kind an Vitamin A (Abbildung 1) und jeder dritte Mensch – meist Frauen – an Eisen. Vitamin-A-Mangel lässt die vier Lichtsensoren des Auges verkümmern und das Zusammenspiel lebenswichtiger Gene entgleisen. Als Folge davon erblinden jedes Jahr Hunderttausende von Kindern – und Millionen erkranken oder sterben an Infektionen, weil ihre Immunabwehr geschwächt ist. Vitamin A MangelAbbildung 1. Vitamin A Mangel - ein massives Gesundheitsproblem in mehr als der Hälfte aller Länder, insbesondere in Afrika and Südost-Asien. Rund 250 Millionen Vorschulkinder leiden an Vitamin A Mangel, jährlich erblinden 250 000 bis 500 000 Kinder, davon stirbt die Hälfte innerhalb eines Jahres (Quelle: WHO [1]) Eisenmangel ist nicht minder bedrohlich; seine Folgen sind Anämie, bleibende Entwicklungsschäden und Anfälligkeit gegenüber Infektionen. Abbildung 2 zeigt die Prävalenz des Eisenmangels bei Vorschulkindern [2]. Eisenmangel bei VorschulkindernAbbildung 2. Eisenmangel bei Vorschulkindern – ein globales Problem (Quelle: WHO [2]).

Ein Netz verschiedener Hilfsorganisationen, allen voran die Global Alliance for Vitamin A, verteilt seit Jahren an Kinder in den betroffenen Regionen Vitamin-A-Kapseln und senkte damit die Kindersterblichkeit um ein Viertel. Verteilung und regelmässige Einnahme der Kapseln bereiten jedoch immer wieder Probleme, und so träumten Wissenschafter und Entwicklungshelfer davon, die Versorgung mit Vitamin A und Eisen über die Nahrung sicherzustellen.

Die Erfüllung dieses Traums war jedoch schwieriger als erwartet. Ein Reiskorn enthält fast kein Eisen und nur geringe Spuren von orangefarbigem Karotin, das unser Körper zu Vitamin A umformen kann. Diese Eisen- und Karotinspuren beschränken sich zudem auf die Schale des Reiskorns, die beim Polieren verloren geht. Dennoch würde unpolierter Reis die Versorgung mit Vitamin A und Eisen nicht verbessern, sondern neue Probleme schaffen: Die Reisschale könnte den kindlichen Vitamin-A-Bedarf bei weitem nicht decken, wird bei Lagerung schnell ranzig und enthält zudem Stoffe, welche die Aufnahme von Eisen aus anderen Nahrungsmitteln verhindern. Um Reiskörner an Eisen und Karotin anzureichern, müsste man die Pflanze mit etwa einem halben Dutzend aktiver Gene «aufrüsten», was mit klassischen Züchtungsmethoden kaum möglich wäre.

Um Träume zu erfüllen, braucht es praktisch veranlagte Träumer – wie den Pflanzenforscher Ingo Potrykus, der ab 1987 an der ETH Zürich wirkte. Er träumte von einer neuen Reissorte, deren Körner nicht nur genügend Vitamin-A-Vorstufen, sondern auch genügend Eisen enthalten würden, um den Bedarf eines Kindes zu decken. Schon früh erkannte er, dass sich dieser Traum nur mithilfe der modernen Gentechnologie verwirklichen ließe. Zusammen mit seinem Kollegen Peter Beyer und vielen Mitarbeitern aus der ganzen Welt gelang es ihm in mehr als einem Jahrzehnt harter Arbeit, den Karotingehalt von poliertem Reis beträchtlich zu steigern. Es war ein steiniger Weg voller Rückschläge, doch eines Tages konnten die Forscher ihren Kollegen stolz Reiskörner zeigen, die dank ihrem hohen Karotingehalt goldig schimmerten: der «Goldene Reis» war geboren (Abbildung 3). Eine Tasse davon genügte, um zusammen mit der ortsüblichen Nahrung den kindlichen Tagesbedarf an Vitamin A zu decken.

Golden RiceAbbildung 3: Goldener Reis (rechts). Im Korn des goldenen Reis’ (nicht aber im normalen Reis – links) wird das gelbe beta-Carotin (Provitamin A) gebildet, das nach der Aufnahme in den menschlichen Organismus zu Vitamin A (Retinol) umgewandelt wird. Aus Retinol entstehen das für den Sehvorgang essentielle Retinal und Retinsäure, ein für Wachstum und Entwicklung unabdingberes Hormon. (Bild: Wikipedia).

Mit Hilfe erfahrener Patentanwälte sorgten dann Potrykus und seine Mitstreiter auch dafür, dass alle notwendigen Lizenzen und Verwendungsrechte frei für humanitäre Zwecke verfügbar waren. Reisbauern werden den «Goldenen Reis» meist als Einkreuzung in lokale Reissorten von staatlichen Reis-Institutionen beziehen, auf gleiche Weise wie herkömmlichen Reis anbauen und – unabhängig von Saatgutfirmen – mit den Körnern einer Ernte die nächste säen können. Untersuchungen staatlicher Bewilligungsgremien konnten bisher keine gesundheitlichen Nachteile dieser neuen Reissorte finden. In den letzten Jahren entwickelten Potrykus und seine Mitarbeiter überdies noch eine eisenreiche Reissorte, die nach herkömmlicher Kreuzung mit «Goldenem Reis» den «unsichtbaren Hunger» nach Vitamin A und Eisen gleichzeitig stillen könnte.

Hunger ist oft auch eine Folge von Naturkatastrophen, Unterdrückung und Krieg. Wenn auch Wissenschaft und Technologie allein ihn deshalb nie bezwingen werden, so liefern sie uns dennoch dazu wirksame Waffen – wie den «Goldenen Reis». Dieser wurde vorwiegend mit öffentlichen Geldern entwickelt, stieß aber sofort auf die erbitterte Ablehnung jener, die «genetisch veränderten» Pflanzen den Krieg erklärt hatten. Auch diese Aktivisten wollen Hunger bekämpfen, doch ihre Argumente können mich nicht überzeugen.

«Schwachmütiges Mitleid»

Laut ihnen ist «Goldener Reis» ein «trojanisches Pferd», das gentechnisch veränderten Pflanzen die Märkte erschliessen soll. Ähnliches wurde einst auch vom ersten gentechnisch erzeugten Insulin behauptet – bis dann eine breite Palette lebensrettender gentechnischer Produkte diesen Vorwurf verstummen liess. Das Einschleusen fremder Gene, so ein weiteres Argument, habe das Erbgut von Reis nach «Jahrmilliarden der Ruhe plötzlich gestört», was nicht nur die Umwelt, sondern auch die Gesundheit Reis essender Menschen gefährde. Dieser Einwand übersieht, dass traditionelle Pflanzenzüchter seit Jahrtausenden ungezählte Gene unkontrolliert von einer Pflanze in eine andere einkreuzen – und dass in den fast vier Milliarden Jahren der Evolution Gene unablässig zwischen verschiedenen Lebensformen hin und her sprangen. Dennoch ist der Einsatz von «Goldenem Reis» seit zehn Jahren blockiert.

Wie schade, dass man nicht auf die Stimmen der Mütter hörte, deren Kinder an Vitamin-A-Mangel starben. Mitleid mit den Hungernden dieser Welt ist grausam, wenn es diesen nicht mit allen verfügbaren Mitteln helfen will. – «Es gibt eben zweierlei Mitleid. Das eine, das schwachmütige und sentimentale, das eigentlich nur Ungeduld des Herzens ist, sich möglichst schnell freizumachen von der peinlichen Ergriffenheit vor einem fremden Unglück, jenes Mitleid, das gar nicht Mitleiden ist, sondern nur instinktive Abwehr des fremden Leidens vor der eigenen Seele.» Hat Stefan Zweig die Zukunft gesehen, als er 1938 diese mahnenden Worte fand?


Einzelnachweise und Quellen

[1] WHO: Vitamin A deficiency

[2] WHO: Summary tables and maps on worldwide prevalence of anaemia


Weiterführende Links

Golden Rice and Vitamin A Deficiency (12:47 min)

 

inge Thu, 03.01.2013 - 05:20

Comments