2012
2012 Redaktion Wed, 20.03.2019 - 01:01Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im Ingenieurholzbau
Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im IngenieurholzbauDo, 20.12.2012 - 09:00 — Josef Eberhardsteiner
„Holz ist der größten und nötigsten Dinge eines in der Welt, des man bedarf und nicht entbehren kann.“ (Martin Luther, 1532). Seit den frühesten Epochen dient Holz als Baumaterial für die verschiedenartigsten Konstruktionen, seine mechanischen Eigenschaften werden allerdings auch heute noch überwiegend empirisch, in langwierigen Testreihen, ermittelt. Mikromechanische Modelle von Holz machen die Materialeigenschaften berechenbar und ermöglichen es, das volle architektonische und konstruktive Potential von Holz auszuschöpfen.
Holzwerkstoffe zur Herstellung von Strukturelementen gewinnen im Bauwesen zunehmend an Bedeutung. Der Verbrauch an Bauholz boomt nicht zuletzt auf Grund der offensichtlichen ökologischen Vorteile. Hinsichtlich des Holzvorrats liegt unser Land im europäischen Spitzenfeld (rund 48 % der Gesamtfläche sind bewaldet, davon etwa 54 % mit Fichten). Es wächst jährlich mehr Holz nach als geerntet wird und steht damit auch künftigen Generationen nachhaltig zur Verfügung (http://www.proholz.at/wald-holz/wald-in-zahlen/).
Den gestalterischen Möglichkeiten des Bauens mit Holz sind allerdings enge Grenzen gesetzt. Nach wie vor gehen die Bemessungskonzepte von Holzkonstruktionen, ebenso wie zahlreiche Bauvorschriften von einer rein empirischen, veralteten Basis aus, welche leider häufig unbefriedigende Resultate hinsichtlich der Effizienz und Sicherheit von Holzbaukonstruktionen liefert. Stark überdimensionierte Tragelemente aus Holz sind oftmals das Ergebnis.
Will man das volle architektonische und konstruktive Potential des überaus vielseitigen Werkstoffs Holz ausschöpfen und seine Verwendung für moderne, innovative Konstruktionen erleichtern, so bedarf es verlässlicher neuer Methoden zur Berechnung der Materialeigenschaften. Die rechnerischen Methoden sollten einerseits langwierige experimentelle Testreihen (zum Teil) ersetzen können und andererseits als Instrument zur Vorhersage und Optimierung der Materialeigenschaften von Holzwerkstoffen dienen.
Ein Beispiel für derartige neue Konstruktionen, welche durch komplexe zwei-und dreidimensionale Beanspruchungszustände charakterisiert sind, ist das in Abbildung 1 dargestellte „Metropol Parasol“, eine zwar ästhetisch anspruchsvolle, konstruktiv aber äußerst herausfordernde Holzkonstruktion.
Abbildung 1. Metropol Parasol: Das 2011 in der Altstadt von Sevilla fertiggestellte Bauwerk – sechs Riesen-Pilze (Architekt: Jürgen Mayer-Hermann) - gilt mit seinen Abmessungen von 150 x 70 m, einer Höhe von 26 m und insgesamt 3400 einzelnen Holzelementen als weltweit größte Holzkonstruktion. Das ursprüngliche Baukonzept erwies sich allerdings als undurchführbar und zog langwierige Untersuchungen zur Verbesserung der Materialeigenschaften nach sich, die zur Verlängerung der Bauzeit und Verdoppelung der Baukosten führten (aus: Wikipedia).
Holz ist ein inhomogener Werkstoff
Holz ist ein natürliches Material mit einer sehr heterogenen Mikrostruktur; sein Aufbau ist artspezifisch und durch das Vorhandensein von Astansätzen, Änderungen im Faserverlauf und anderen Defekten und Wuchsunregelmäßigkeiten gekennzeichnet.
Alle Eigenschaften von Holz sind von seinem strukturellen Aufbau abhängig. Das mechanische Verhalten, beispielsweise Steifigkeit und Festigkeit, ist zudem stark anisotrop, d.h. von der Richtung der Beanspruchung – radial (R-Richtung), in Längsrichtung des Stammes (L-Richtung), tangential (T-Richtung) – abhängig und variabel. Die Heterogenität der Mikrostruktur ist in Abbildung 2 ersichtlich, die Richtungsabhängigkeit der mechanischen Eigenschaften wird daraus verständlich:
Die wabenartige Mikrostruktur von Holz setzt sich bis zu 95 % aus so genannten Tracheiden zusammen. Das sind längs zur Stammachse ausgerichtete Zellen mit einem radialen Querschnitt von 20–50 Mikrometer und einer Länge von 2–5 mm. Am Beginn der Wachstumsphase weisen die Zellen ein größeres Lumen und dünnere Zellwände auf (Frühholz); erstere dienen dem Wassertransport von der Wurzel in die Krone. Die Zellen im Spätholz haben ein kleineres Lumen und sind dickwandiger, mit einem höheren Anteil an Lignin in den Zellwänden; sie dienen überwiegend der Stützfunktion.
Abbildung 2. Makrostruktur (links) und Mikrostruktur (rechts) von Nadelholz: Die wabenartige Mikrostruktur aus so genannten Tracheiden zeigt Zellen mit größeren radialen Lumen im Frühholz (A) und kleineren Lumen im Spätholz (B). Die Zellen sind in Stammrichtung ausgerichtet (C) und ihre Länge übertrifft ihren radialen Durchmesser um rund zwei Größenordnungen. (Bild modifiziert nach http://www.vcbio.science.ru.nl/images/stemgrowth/woodanatomy-slide-03.jpg)
Wie können Materialeigenschaften von Holz berechenbar gemacht werden?
Gegenwärtige Konzepte in der Holzbautechnologie sind vielfach charakterisiert durch:
- Mangelhaftes Verständnis über das mechanische Verhalten von fehlerfreiem Holz und dessen Bezug zu den mikrostrukturellen Eigenschaften. Daraus resultiert eine unzureichende Kenntnis der Materialeigenschaften unterschiedlicher Holzarten und wie diese von holzspezifischen Parametern, wie beispielsweise Dichte und Feuchtigkeit, abhängen.
- Ungenügende Kenntnis darüber, wie sich Astansätze und andere „Defekte“ auf die mechanischen Eigenschaften von Holzwerkstoffen auswirken. Entsprechend werden dann im Bauwesen Holzstrukturelemente als weniger geeignet eingestuft und das Potential ihrer Anwendungsmöglichkeiten nicht voll ausgeschöpft./li>
- Vereinfachung und Vereinheitlichung der zu Grunde liegenden mechanischen Prozesse (beispielweise unterschiedliche Effekte bei Platten, Laminierungen, mechanischen Verbindungen). Da ein ausreichendes physikalisches Werkstoffverständnis und daraus resultierend ein umfassendes mechanisches Konzept fehlt, welches auf verschiedenste Holzkonstruktionen angewendet werden kann, werden aktuelle Modellierungsansätze vielfach von empirischen, experimentell bestimmten Parametern dominiert.
Unter Berücksichtigung dieser wichtigen Probleme verfolgt eine Forschergruppe am Institut für Mechanik der Werkstoffe und Strukturen (IMWS) der Technischen Universität Wien die Strategie mikrostrukturelle Charakteristika mit dem mechanischen Verhalten von fehlerfreiem und in weiterer Folge von „fehlerbehaftetem“ Holz zu verknüpfen. Auf dieser Basis werden Modelle für Holz, Holzprodukte und Strukturelemente erstellt, die praktisch auf alle Holzbaukonsturktionen anwendbar sind:
Diese Modelle gehen von einem Mehrskalenmodell aus, welches die mechanischen Eigenschaften von fehlerfreiem Holz beschreibt. Auf diesem Ansatz bauen weitere Berechnungskonzepte (3D-Finite Element Modelle) auf, welche (a) den Einfluss von Astansätzen und anderen Wuchsunregelmäßigkeiten berücksichtigen und zur Beschreibung von Holzprodukten dienen und (b) Modelle zur Analyse von Holzverbindungen, die die Geometrie der Verbindungen, ihre Belastbarkeit und Nachgiebigkeit sowie gegebenenfalls Verstärkungsmöglichkeiten charakterisieren. Ein dreidimensionales stochastisches numerisches Modell erlaubt die Vorhersage von Steifigkeits- und Festigkeitswerten von geschichteten Leimholzprodukten (Brettsperrholz, Brettschichtholz, u.a.) unter Berücksichtigung der unterschiedlich schwankenden mechanischen Eigenschaften der Einzellamellen.
Eine Beschreibung all dieser Modelle würde den Artikel weit über die im Blog übliche Länge ausdehnen. Im Folgenden soll deshalb nur das grundlegende Mehrskalen-Modell dargestellt werden. Detaillierte Information über alle Modelle ist in [1] nachzulesen.
Das Mehrskalen-Modell für Holz
Abbildung 3. Holz ist hierarchisch aufgebaut: Das Mehrskalenmodell für fehlerfreies Holz geht schrittweise von der submikroskopischen Ebene aus und verwendet repräsentative Volumselemente (rote Quadrate) um die Eigenschaften der jeweils nächsten höheren Beobachtungsebene zu beschreiben und zu prognostizieren. Die elementaren Komponenten bestimmen die Strukturen der Zellwände, die Zellwände die mechanischen Eigenschaften der Zellen und diese die Eigenschaften des Werkstoffs Holz. Zur Wabenstruktur von Holz siehe Abbildung 2. (Zu den Methoden siehe [1])
Wie bereits weiter oben beschrieben, besitzt Holz eine sehr heterogene Mikrostruktur, sein mechanisches Verhalten ist stark richtungsabhängig und variabel. Geht man allerdings zu sehr kleinen, submikroskopischen Dimensionen, werden hierarchische Bauprinzipien ersichtlich, und man findet universelle Komponenten, die allen Holzarten gemeinsam sind (Abbildung 3):
Diese elementaren biochemischen Komponenten – Zellulose, Hemizellulose, Lignin und in geringerem Ausmaß Extraktstoffe – bilden, vereinfacht dargestellt, ein Zellulosefaser-verstärktes, polymeres Netzwerk. Aus diesem sind in mehreren Schichten die Zellwände der in Stammrichtung verlaufenden Holzfasern aufgebaut. Zellulose liegt dabei zu größeren Struktureinheiten (Elementarfibrillen) gebündelt vor, diese wiederum (jeweils bis 2000 Zelluloseketten) sind zu fadenförmigen Mikrofasern zusammengefasst. Die Mikrofasern sind in eine Matrix aus Hemizellulose und Lignin eingebettet. Auf Grund der hygroskopischen Eigenschaften dieser Polymere ist auch Wasser in die Zellwände eingelagert.
Die Zusammensetzung aus diesen elementaren Komponenten, deren Strukturen und Verteilung innerhalb des mikroheterogenen Materials, ebenso wie die Wechselwirkungen, die sie aufeinander ausüben und die daraus resultierenden mechanischen Eigenschaften, bestimmen auch die mechanischen Eigenschaften auf der makroskopischen Ebene! Dementsprechend zielen rechnerische Ansätze darauf ab, eine Beziehung zwischen den mechanischen Eigenschaften auf (sub)mikroskopischen Ebenen und jenen auf der makroskopischen Ebene herzustellen. Auf der Basis seiner hierarchischen Struktur können hier für fehlerfreies Holz so genannte Mehrskalen-Modelle entwickelt werden:
Die Methode beruht darauf, dass in jeder Größenskala repräsentative Volumselemente oder Einheitszellen ausgewählt werden können, welche geeignet sind, die unterschiedlichen Mikrostrukturen in einer statistisch relevanten Art darzustellen. (Links zu den entsprechenden mikromechanischen Ansätzen – Mori-Tanaka-Methode, self-consistent scheme-Methode, Einheitszellen-Methode und Laminate-Theorie – sind in [1] zu finden.) Auf diese Weise wurden bereits Modelle für unterschiedliche Arten von Weichholz und Hartholz entwickelt, ebenso auch für Holz mit Pilzbefall und archäologisches Holz. In allen bisherigen Anwendungen haben Vergleiche mit experimentell, auf verschiedenen Größenskalen erhobenen Ergebnissen die Brauchbarkeit dieser Verfahren aufgezeigt, ebenso deren Potential, Holzeigenschaften ohne aufwändige Testreihen verlässlich prognostizieren zu können. Ein weiterer wesentlicher Vorteil der vorgestellten Methoden ist , erwünschte mechanische Eigenschaften auf der makroskopischen Ebene auf der Basis von mikroskopischen Änderungen definieren zu können.
Ausblick
Die Anwendung geeigneter rechnerischer Verfahren zur Charakterisierung von Holz, Holzprodukten und Holzverbundmaterialien liefert eine verbesserte Basis um mechanische Eigenschaften – wie Steifigkeit, Festigkeit, Belastbarkeit – von nicht experimentell getesteten Materialien verlässlich abschätzen und prognostizieren zu können. Die Etablierung derartiger Berechnungsmöglichkeiten, deren Relevanz durch experimentelle Untersuchungen bestätigt wurde, lässt hoffen, dass nicht nur ästhetisch anspruchsvolle und leistungsfähige Holzkonstruktionen verstärkt zum Einsatz gelangen, sondern – basierend auf zuverlässigen Technologien – sich auch innovative neue Betätigungsfelder im Ingenieur-Holzbau eröffnen.
[1] J. Füssl, T.K. Bader, J. Eberhardsteiner (2012) Computational mechanics for advanced timber engineering – from material modeling to structural applications. IACM Expressions 32/12, 6-11.
Anmerkungen der Redaktion
Holz-Struktur
"Structure of wood" (3:45 min) http://www.youtube.com/watch?v=E5GWBRMfF20&list=PL1815F6DBF74F31F0&index=17
Zum Holzbau
Wood in Education: Building a Strong Foundation (5:37 min) Inhabitat talks with Architect Jürgen Mayer H. about the Metropol Parasol (5:42 min) Zum Thema Mehrskalen-Analyse siehe auch den Artikel von Herbert Mang: »Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken« im ScienceBlog
Multiskalenansätze zur Bewältigung von Komplexität in Natur- und Geisteswissenschaften
Stimmen der Nacht - Gedanken eines emeritierten Professors über Wissenschaft und Universitäten
Stimmen der Nacht - Gedanken eines emeritierten Professors über Wissenschaft und UniversitätenDo, 06.12.2012- 0:00 — Gottfried Schatz
Genügt es, wenn Professoren nur Fachwissen vermitteln? Sollten sie nicht vielmehr junge Menschen dazu ermuntern, unabhängig zu denken, sich von anerzogenen Vorurteilen zu befreien und Antworten auf die grossen Fragen zu finden - Fragen nach unserem Dasein und dem Wesen der materiellen und geistigen Welt? Gedanken eines Vermittlers von Wissenschaft par excellence, der auch hochkomplexe Zusammenhänge in einfachen, für Laien verständlichen Worten darzustellen vermag.
Seit Jahren bin ich emeritiert - ein Professor im Ruhestand. Ich habe kein Laboratorium, keine Mitarbeiter und keine Forschungsgelder mehr, muss aber auch nicht mehr sinnlose Formulare ausfüllen, Berichte für Schubladen schreiben und an unnötigen Sitzungen mit dem Schlaf kämpfen. Meine Freiheit ist mir noch immer nicht ganz geheuer. Sie macht jeden Tag zu einem Experiment, das Unerwartetes zutage fördern kann - über Wissenschaft, über meinen ehemaligen Beruf oder über mich selbst.
Zwischen Wachen und Träumen
Als frischgebackener Biochemiker war ich fast stets im Laboratorium und arbeitete bis spät in die Nacht - manchmal auch bis in den frühen Morgen. Die Stille des nächtlichen Laboratoriums schenkte meinen Gedanken freien Lauf und mir neue Ideen. Wenn ich jetzt nachts wach liege und meinen Erinnerungen nachgehe, vermisse ich diese Stille, denn die Stimmen der Nacht stören sie mit ihren Fragen. Die Stimmen sind unerbittlich und lassen sich nicht belügen. Ich versuche, ihnen zu widerstehen, doch sie kommen zur Stunde des Wolfs, wenn meine Gedanken im Niemandsland zwischen Wachen und Träumen wandern und meine Verteidigung versagt.
Immer wieder wollen die Stimmen wissen, was Wissenschaft mir gab. Es ist nicht leicht, darauf zu antworten, denn es gibt zu viele Antworten. Ich wollte Wissenschafter werden, um zu erfahren, wie die Welt um mich beschaffen ist. Bald jedoch erkannte ich, dass die wissenschaftliche Wahrheit von heute schon morgen falsch sein kann. Einer meiner Kollegen gestand dies in seiner Festrede für frischgebackene Doktoren mit folgenden Worten: «Wir haben unser Bestes getan, um Ihnen die neuesten Erkenntnisse der Wissenschaft beizubringen. Dennoch ist wahrscheinlich die Hälfte dessen, was wir Sie lehrten, falsch. Leider kann ich Ihnen nicht sagen, welche Hälfte.» Wissenschaft zeigte mir nicht die endgültige Wahrheit, sondern den Weg, um mich einer Wahrheit zu nähern. Ich erfuhr, dass sie nicht das Sammeln und Ordnen von Tatsachen ist, sondern der Glaube, dass wir die Welt durch Beobachten, Experimentieren und Nachdenken begreifen können. Wissenschaft zeigte mir auch die engen Grenzen des menschlichen Verstandes und lehrte mich Bescheidenheit. Arroganz, Hierarchie und Macht waren stets ihre Todfeinde.
Dennoch konnte mich Wissenschaft nie ganz befriedigen. Das Adagio aus Mahlers Zehnter Sinfonie, Shakespeares Sonette oder Cézannes Visionen des Mont Sainte-Victoire erzählten mir von einem verzauberten Land, das jenseits jeder Wissenschaft liegt. Erst dieses Land schenkte meiner Sicht der Welt einen zweiten Blickwinkel und damit die Dimension der Tiefe.
Und immer wieder die Frage, vor der ich mich fürchte: «Warst du ein guter Wissenschafter?» Nur allzu oft war ich es nicht, denn ich war nicht immer leidenschaftlich, mutig und geduldig genug. Wissenschaftlicher Erfolg entspringt nicht nur aus Intelligenz und Originalität, sondern auch vielen anderen Talenten. Die wichtigsten Voraussetzungen jedoch sind Leidenschaft, Mut und Geduld. Es braucht sie, um allgemein akzeptierte Ideen und Dogmen zu hinterfragen und ein schwieriges wissenschaftliches Problem zu lösen. Und es braucht sie auch, um trotz Fehl- und Rückschlägen ein Ziel über Jahre hindurch unbeirrt zu verfolgen.
Die Waffe der Wissenschaft ist Wissbegierde - doch diese Waffe ist stumpf ohne die Schärfe der Intelligenz. Aber selbst die schärfste Intelligenz ist kraftlos ohne Leidenschaft und Mut - und diese wiederum sind Strohfeuer ohne die Macht der Geduld. Und die Stimmen fragen weiter. «Hast du deinen Studenten und Mitarbeitern geholfen, leidenschaftlich, mutig und geduldig zu sein?» Hier schmerzt die Antwort: «Sicher nicht genug.» Ich glaube nicht, dass Leidenschaft sich lehren lässt, doch Mut und Geduld erstarken im Umgang mit mutigen und geduldigen Menschen. Darum versuchte ich, so gut ich konnte, meinen Mitarbeitern Mut und Geduld vorzuleben, denn persönliche Vorbilder sind für die Entwicklung junger Menschen von überragender Bedeutung. Sie sind die wichtigste Gabe, die eine Universität ihren Studenten geben kann. Wie schade, dass ich dies erst jetzt ganz erkenne.
Wissenschaft und Lehre
Und dann die Frage: «Was würdest du besser machen, wenn du nochmals beginnen könntest?» Hier fällt mir die Antwort leicht: «Ich würde die Lehre mindestens ebenso wichtig nehmen wie die Forschung.» Unter «Lehre» verstehe ich nicht die Aufzählung wissenschaftlicher Tatsachen, sondern die Weitergabe meiner wissenschaftlichen Erfahrungen und meiner persönlichen Ansichten über Wissenschaft, die Welt und uns Menschen. Professoren dürfen nicht nur Fachwissen vermitteln, sondern müssen junge Menschen dazu ermuntern, unabhängig zu denken, sich von anerzogenen Vorurteilen zu befreien und Antworten auf die grossen Fragen zu finden - Fragen nach unserem Dasein und dem Wesen der materiellen und geistigen Welt.
Alle jungen Menschen suchen Antworten auf diese Fragen, selbst wenn sie sich dessen nicht bewusst sind oder es nicht zugeben wollen. Und wenn unsere Bildungsstätten sie dabei im Stich lassen, werden sie bei Gurus und religiösen Fanatikern Rat suchen. Wie anders lässt es sich erklären, dass so viele Anhänger der berüchtigten Bhagwan-Sekte an den besten Universitäten der USA studiert hatten? Im Rückblick erscheint es mir fast unglaublich, dass Hunderte von begabten jungen Menschen mir bei meinen Vorlesungen über eine Stunde lang zuhörten. Welch einmalige Möglichkeit, diese jungen Menschen zu formen! Doch ich nutzte sie oft zu wenig, weil es mich zurück ins Laboratorium zog. «Was hat dich an der Wissenschaft überrascht?», fragt eine Stimme. Auch hier muss ich nicht lange nach der Antwort suchen. «Ich hatte einsames Forschen erwartet und nicht geahnt, wie sehr die Gemeinschaft mit anderen Wissenschaftern mein Leben prägen und bereichern würde.» Grosse wissenschaftliche Entdeckungen sind meist Kinder der Einsamkeit, werden aber dennoch nicht in Isolation geboren. Wir Wissenschafter arbeiten an einer Kathedrale, deren Vollendung keiner von uns erleben wird. Deshalb zehren wir doppelt von der Gemeinsamkeit unseres Schaffens.
Meine nächtlichen Besucher wollen vieles wissen und verstummen erst im Morgengrauen. Um mich gegen ihre Fragen besser zu wappnen, schreibe ich nun meine Antworten im Schutz des Tages nieder. Es sind Versuche - essais. Michel Eyquem de Montaigne sah seine «Essais» als Versuche, sich selbst zu erforschen. Vielleicht wollte aber auch er nur die Stimmen der Nacht besänftigen.
Anmerkung der Redaktion
Zum obigen Thema und über dieses hinaus gibt es in der Reihe „Sternstunde Philosophie“ ein rezentes (12.08.2012), großartiges Interview mit Gottfried Schatz: „Das Rätsel unserer Lebensenergie. Über Biochemie, Forschungsintrigen und Wissenschaftspolitik“ (55 min)
Schatz nimmt u.a. darin Stellung zu Themen wie: Arroganz und beschränkte Erkenntniskraft, Wahrheiten und Modelle in der Wissenschaft, Kultur und die Naturwissenschaften, Wissenschaft und Politik und Zukunft der Wissenschaft.
Zahlreiche weitere Artikel von Gottfried Schatz zu wissenschaftlichen und wissenschaftspolitischen Themen sind im ScienceBlog erschienen und unter der Rubrik „Einträge nach Autoren“ nachzulesen.
Homo ludens - Spieltheorie
Homo ludens - SpieltheorieDo, 29.11.2012- 04:20 — Karl Sigmund
Die Spieltheorie ist eine mathematische Disziplin, die sich direkt aus dem Spiel ableitet. Auf der Basis von Gesellschaftsspielen (wie z.B. Schach oder Poker) modelliert die Spieltheorie die sozialen/ökonomischen Wechselwirkungen zwischen den Mitspielern. Der Zufall kann dabei eine Rolle spielen, jedoch kommt ein weiteres Element der Ungewissheit hinzu: der Spielausgang hängt nicht nur von den eigenen Entscheidungen, sondern von anderen ab, die zumeist andere Interessen haben.
Spieltheorie ist die Theorie von Interessenskonflikten. Diese spielen bei sozialen, wirtschaftlichen oder militärischen Wechselwirkungen eine wesentliche Rolle; auch Recht und Moral dienen in erster Linie dazu mit Interessenskonflikten fertig zu werden.
Spieltheoretiker befassen sich zumeist nicht mit der Theorie von Brett- oder Kartenspielen. Sie verwenden nur die Sprechweise von Gesellschaftsspielen – Spiel, Spieler, Strategien, Auszahlung - um soziale Wechselwirkungen zu beschreiben.
- Die Wechselwirkung wird als Spiel bezeichnet,
- die Individuen heißen Spieler,
- diese müssen sich zwischen mehreren Alternativen (= Strategien) entscheiden und
- je nachdem, was die Spieler gewählt haben, fällt dann ihre Auszahlung aus (die keineswegs in Geld bestehen muss, aber ihre Präferenzen widerspiegelt: jeder möchte möglichst gut abschneiden).
Als Geburtstunde der Spieltheorie wird das Erscheinen des Buches von Oskar Morgenstern und John von Neumann angesehen, 1944: ‚Game Theory and Economic Behaviour‘ sollte ursprünglich ‚Theory of Rational Decisions‘ heißen, und wahrscheinlich wäre dann der Erfolg weniger fulminant gewesen. Das Buch begeisterte Journalisten, Politikberater und Militärs, vor allem aber junge Mathematiker wie etwa den genialen John Nash, der bald darauf die Spieltheorie auf neue Füße stellte, und dessen tragisches Leben durch den Film ‚A beautiful mind‘ einem großem Publikum bekannt wurde. Bald entdeckten auch Moralphilosophen, Ökonomen, und Verhaltensbiologen die Spieltheorie. Sie ist das Werkzeug par excellence des methodologischen Individualismus.
Im folgenden möchte ich einige Beispiele für typische spieltheoretische Gedankengänge bringen.
Beispiel 1: Schaden durch Eigennutz
Stellen Sie sich folgenden Versuch vor. Zwei Probanden (also Spieler A und B), die einander nicht kennen und nie sehen werden (und die das wissen) sitzen in zwei Kämmerchen. Jeder hat die Wahl zwischen zwei Alternativen (also Strategien) C und D: Wenn ich C wähle, muss ich dem Versuchsleiter 5 € zahlen, und der andere Spieler erhält (durch den Versuchsleiter) 15 €. Wenn ich D wähle, geschieht das nicht. Wir müssen unsere Entscheidungen – soll ich dem anderen Spieler etwas schenken oder nicht? - unabhängig voneinander treffen.
Abbildung 1. Das Gefangenendilemma.
Es ist klar: wenn der andere C wählt, und ich auch, erhält jeder unterm Strich 10 € . Mehr erhielte ich, wenn ich das Geschenk des anderen nicht erwidere, also D spiele: dann bekomme ich 15 €. Also: wenn der andere C spielt, ist es für mich besser, D zu spielen. Wenn der andere D spielt, natürlich erst recht. Denn wenn ich C wähle, verliere ich 5 €, und wenn ich D spiele, nichts. Also ist es in jedem Fall besser, D zu spielen. Das gilt für den anderen genau so. Dann bekommen wir aber beide nichts. Jeder hat dann auf 10 € verzichtet – und zwar aus Eigennutz!
Das ist ein Beispiel für ein sogenanntes Gefangenendilemma (siehe unten). Das Paradoxon: durch Eigennutz schaden wir uns selbst!
Oft fasst man das Wirtschaftsleben auf als Unterfangen, wo jeder seinen eigenen Nutzen verfolgt, zum schließlichen Wohle aller. Laut Adam Smith harmonisiert eine ‚unsichtbare Hand‘ die eigennützigen Bemühungen der Wirtschaftstreibenden: dadurch, dass sie ihr eigenes Einkommen maximieren wollen, maximieren sie das Allgemeinwohl.
„Durch das Verfolgen der eigenen Interessen fördert der Mensch oft das Interesse der Gesellschaft wirksamer, als wenn er es wirklich fördern wollte... Der Mensch beabsichtigt nur den eigenen Vorteil, und er wird so wie durch eine unsichtbare Hand zu einem Ziel geführt, das er gar nicht beabsichtigt.“ (Adam Smith)
Und manchmal funktioniert das auch wirklich. Aber bei einem Sozialdilemma eben nicht! Da lässt sich mit Joseph Stiglitz sagen: ‚Die unsichtbare Hand ist unsichtbar, weil sie gar nicht da ist.‘
Nebstbei gesagt, der ‚Eigennutz‘ ist nicht notwendigerweise Egoismus, Präferenzen müssen nicht selbstsüchtig sein. Mir könnte es beispielsweise ausschließlich um das Wohl von Seehundbabys gehen. Trotzdem, solange ich und mein Spielpartner verschiedene Präferenzen haben, können wir uns in so einer sozialen Falle verfangen.
Es gibt tausende von wissenschaftlichen Artikeln und eine ganze Reihe von Büchern über das Gefangenendilemma! Es taucht immer dort auf, wo zwei Personen zusammenarbeiten. Sobald es möglich ist, den Beitrag des anderen auszubeuten, oder den eigenen Beitrag auf Kosten anderer zu verringern, können wir in eine soziale Falle tappen. Anscheinend sind Menschen aber besonders befähigt, sich daraus zu befreien. Wir kooperieren oft mit Erfolg, ohne immer zu wissen, wieso. Wenn man zum Beispiel ein Bild des anderen sieht, steigt die Bereitschaft, dem etwas zu schenken, umso mehr, als der uns ähnlich sieht (selbst wenn uns diese Ähnlichkeit gar nicht auffällt!). Man kann im Experiment das Bild des anderen digital manipulieren und damit auch die Bereitschaft, zu schenken.
Beispiel 2: Das Ultimatum-Spiel - Homo oeconomicus
Dieses Experiment erfordert wieder einen Spielleiter und zwei Spieler, die einander nicht kennen, nicht einmal sehen, und die wissen, dass sie einander nach dem Spiel nie wieder begegnen werden. Der Spielleiter verkündet, dass er 10 € unter die zwei Spieler aufteilen wird, unter den folgenden Bedingungen:
- Zuerst entscheidet ein Münzwurf, wer von den zwei Spielern der Bieter ist.
- Dann darf der Bieter (hier A) einen Vorschlag machen, wie die 10 € aufgeteilt werden.
- Wenn der andere (hier B) zustimmt, wird das auch so gemacht, und das Spiel ist zu Ende.
- Wenn aber der andere ablehnt, ist das Spiel ebenfalls zu Ende. Denn dann nimmt der Spielleiter die 10 € wieder an sich, und die beiden Spieler gehen ihrer getrennten Wege, ohne irgend etwas bekommen zu haben. Es gibt kein Feilschen, keine zweite Runde; sondern nur ein Angebot, das akzeptiert oder verworfen werden muss. Ein Ultimatum halt! Gespielt wird um echtes Geld.
Wie würden Sie sich entscheiden, in der Rolle des Bieters oder des anderen? Abbildung 2. Entscheidungsbaum für den Homo oeconomicus
Ist der andere rational, sollte er jedes (positive) Angebot annehmen, auch wenn es noch so gering ist – ein Euro ist besser als keiner. Im Hinblick darauf sollte ein rationaler Bieter dem anderen einen Minimalbetrag anbieten, hier etwa 1 €, und sich den Rest behalten. So sollte der sogenannte Homo oeconomicus handeln, zumindest wenn er glaubt, seinesgleichen zum Partner zu haben. In Wirklichkeit geschieht das fast nie! Der weitaus überwiegende Teil der Angebote beträgt 4 oder 5 €, also die Hälfte der Summe oder knapp darunter. Nur ganz wenige Angebote betragen 2 € oder weniger. Solche ‚unfairen‘ Angebote werden fast ausnahmslos empört abgelehnt. Die meisten Spieler bestehen auf einer ‚fairen‘ Lösung, also einer Aufteilung zu etwa gleichen Teilen.
Das Spiel ist an vielen Orten wiederholt worden (Tokio, Ljubljana, Chicago, Zürich…), die Resultate sind zumeist ganz ähnlich. Die Stadtmenschen sind in dieser Beziehung überall gleich. Aber dann hat man dieses Spiel in sogenannten small-scale societies durchgeführt, also etwa bei den Machiguenga (Jägern und Sammlern aus dem Amazonasbecken), den Hazda (einem Hirtenvolk aus Kenia), den Lamalera (Fischern in Indonesien). kulturelle bedingte Unterschiede. Die Jäger und Sammler sind am ‚unfairsten‘ (aber immer noch viel weniger unfair als der fiktive Homo oeconomicus: sie bieten im Mittel etwa ein Viertel der Gesamtsumme). Die Lamalera sind dagegen hyperfair, sie bieten mehr als die Hälfte (und lehnen übrigens solche Angebote meist ab: das hängt mit ihrer Geschenkkultur zusammen). Am ‚fairsten‘ sind Gruppen aus modernen Großstädten wie Los Angeles oder Chicago.
Beispiel 3: Solidarität, Trittbrettfahrer und institutionelle Bestrafung
In einer Gruppe von, sagen wir, 6 Spielern kann jeder einen gewissen Betrag in eine Gemeinschaftskasse einzahlen, sagen wir 20 €, wissend, dass der vom Versuchsleiter verdoppelt wird, und dann auf alle Teilnehmer gleichmäßig aufgeteilt. Auf alle, egal, ob die eingezahlt haben oder nicht! Die Gemeinschaftskasse ist ein öffentliches Gut, in dem Sinn. Jeder hat daran teil.
Wenn alle brav einzahlen, bekommt jeder doppelte heraus. Das ist gut! Ich gewinne 20 €. Aber noch besser scheint es, ein sogenannter Trittbrettfahrer oder Schwarzfahrer zu sein. Wenn die fünf anderen 20 € einzahlen und ich nichts, gewinne ich 33€! Freilich, wenn alle schwarzfahren, also nichts einzahlen, dann erhält keiner was. Wieder so eine soziale Falle!
Klar ist: Schwarzfahrer gehören bestraft. Denn wenn sie eine Strafe zahlen müssen, werden sie keinen Anreiz haben, schwarz zu fahren, also das öffentliche Gut auszubeuten. Ein Kontrollor gehört her! Aber stellen wir uns vor, dass so eine schwarzkäpplerische Obrigkeit nicht existiert, also Anarchie herrscht. Was dann?
Nun, dann sollten wir die Missetäter selbst bestrafen. Aber das kostet uns etwas (Zeit und Aufwand, und das Risiko, dass sich der Schwarzfahrer rächt…). Im Experiment dürfen jetzt die Spieler die Ausbeuter bestrafen, aber das kostet sie etwas! Das Bestrafen wirkt, und verhindert das Schwarzfahren. Aber in Anbetracht der Kosten ist es besser, wenn ich es den anderen überlasse, die Schwarzfahrer bestrafen, und damit dafür zu sorgen, dass das öffentliche Gut nutzbar ist. Was ich dann aber mache, ist nichts anderes als Trittbrettfahren zweiter Ordnung! Wieder nutze ich andere aus!
Kann sich in so einer Situation das Bestrafen von Missetätern durchsetzen?
Strategien – Computersimulation [1,2]
Es gibt zahlreiche Möglichkeiten, sich diesem Problem zu nähern. Ich möchte aus Zeitgründen nur einen Weg einschlagen, der dem Mathematiker besonders liegt, nämlich dem der Computersimulation, also ein rechnergestütztes Gedankenexperiment. Nehmen wir an, wir haben eine fiktive Population von (sagen wir) hundert Spielern. Jeder hat eine Strategie. Unsere Spieler sind also Roboter, jeder mit einem Verhaltensprogramm.
Zur Wahl stehen drei Strategien:
(a) zum öffentlichen Gut beizutragen, und Schwarzfahrer zu bestrafen;
(b) beizutragen, aber Schwarzfahrer nicht zu bestrafen (das sind die Trittbrettfahrer zweiter Ordnung;
(c) nicht beizutragen, und die anderen auszubeuten.
Von Zeit zu Zeit werden sechs Spieler zufällig ausgewählt aus der hundertköpfigen Roboterpopulation, um dieses Spiel gemäß ihrer Strategie zu spielen. Von Zeit zu Zeit können sie auch Strategie wechseln, und zwar, wie wir naheliegender weise annehmen wollen, eher zu einer Strategie mit höherer als mit geringerer Auszahlung. Ein simpler Lernprozess.
Die Auszahlung hängt natürlich davon ab, was die anderen in der Gruppe machen, hängt also von der Zusammensetzung der Bevölkerung ab; die Zusammensetzung wiederum hängt von den Auszahlungen ab, auf Grund des Lernprozesses; also ein Rückkoppelungskreis, wie bei einer Katze, die mit dem eigenen Schweif spielt.
Was passiert, ist unausweichlich. Die Neigung, Ausbeuter zu bestrafen, verschwindet, denn sie ist kostspielig. Die ungebremsten Ausbeuter übernehmen die Gesellschaft, und bald gibt es keine Kooperation mehr. Das soziale Dilemma (oder: die Tragödie der Allmende) hat voll zugeschlagen. Führen wir aber jetzt eine weitere, vierte Strategie ein. Nämlich
d) an dem gemeinsamen Unternehmen gar nicht teilzunehmen.
Dieses Unternehmen ist ja eine Spekulation; eine, die aufgeht, wenn alle kooperieren, aber fehlschlägt, wenn viele schwarzfahren. Es kann sein, dass risiko-scheue Spieler sich lieber nicht auf so eine Spekulation einlassen wollen. Dann tragen sie weder zur Gemeinschaftsleistung bei, noch nehmen sie diese in Anspruch. Was passiert jetzt?
Nun, erstaunlicherweise setzen sich jetzt, nach einer gewissen Lernphase, die Bestrafer durch, und die Bevölkerung kooperiert. Wohlgemerkt: es sind nicht die Eigenbrötler, die sich durchsetzen; aber sie wirken als Katalysatoren für die Emergenz der Zusammenarbeit.
Das war nur ein Computermodell. Wir können jetzt Varianten untersuchen. Zum Beispiel, dass die Spieler nicht auf eigene Faust bestrafen, sich also gewissermaßen persönlich rächen, sondern in einen Fonds einzahlen, der eine Obrigkeit (einen Sheriff, vielleicht) finanziert. Wieder sehen wir dasselbe. Wenn die Spieler am Spiel teilnehmen müssen, dann erlischt die Zusammenarbeit. Wenn die Teilnahme freiwillig ist, also Eigenbrötler vorkommen dürfen, dann setzt sich die Zusammenarbeit durch.
Dazu bedarf es bemerkenswerterweise gar keiner philosophischer Überlegungen und politischer Vereinbarungen, keiner höheren Offenbarung oder tieferen Einsicht. Bloßes Nachäffen erfolgreicher Verhaltensweisen führt schon zu dem Resultat. Andere Tierarten, wie etwa Bienen und Ameisen, kooperieren auch, aber nur innerhalb ihrer Familie (also des Bienenstocks, oder des Ameisenhaufens). Wir Menschen aber kooperieren auch mit Nichtverwandten, und das auf Grund zweier zusammengehöriger ‚Erfindungen‘ der Evolution, die unserer Spezies vorbehalten waren: einerseits Institutionen, die uns von außen, andrerseits Tugenden, die uns von innen steuern (und die ich aus Zeitmangel heute außer Acht lassen muss).
Spielen mit Gesellschaften - Die freiwillige Festlegung gehört zum Spiel
Unsere Computersimulationen sind Spiele mit fiktiven Gesellschaften. Von den Gesellschaftsspielen sind wir also zum Spielen mit Gesellschaften gelangt. Natürlich kann es bei derlei computergestützten Gedankenexperimenten nicht bleiben: alle Schlussfolgerungen müssen in wirklichen Gesellschaften getestet werden.
An der Wirklichkeit haben wir uns zu messen, und das liefert ein Riesen-Programm für historische, soziologische, anthropologische, psychologische und neurologische Untersuchungen!
Jedenfalls versprechen diese spieltheoretischen Modelle einige Einsicht. In unserem dritten Beispiel die Einsicht: Damit die Gemeinschaft trotz Sozialdilemma kooperiert, muss auf Ausbeutung Strafe stehen, wir müssen uns also einem Zwang unterwerfen. Aber das klappt besser, wenn das Unterwerfen freiwillig erfolgt, wir uns also freiwillig entscheiden, einander gegenseitig zu zwingen, zu kooperieren.
Was doch stark an den Sozialkontrakt erinnert! Der erste Satz in Jean Jacques Rousseaus Büchlein lautet: ‚Der Mensch wird frei geboren, und überall liegen die Menschen in Ketten‘. Das wird oft falsch übersetzt, mit ‚aber‘ statt ‚und‘, so als gäbe es eine Opposition zwischen den beiden Halbsätzen. Unsere simplen spieltheoretischen Modelle zeigen, dass dem nicht so ist. Sondern vielmehr: gerade weil wir uns frei entscheiden können für die Teilnahme, gerade weil der Ausweg des Eigenbrötlers offen steht, bleibt es profitabel, uns Zwängen zu unterwerfen. Wir legen uns fest. Die freiwillige Festlegung gehört zum Spiel.
Wir legen uns in Ketten, oder weniger pathetisch: wir zähmen uns gewissermaßen selbst. Haustiere, wie etwa Rinder und Schweine, haben wir erst im Lauf der letzten Jahrtausende domestiziert, Hunde (also Wölfe) seit höchstens hundert tausend Jahren, uns selbst vielleicht viel länger. Nicht homo homini lupus, sondern homo homini canes sollte es heißen!
Konrad Lorenz hat diese Idee der Selbstdomestikation diskutiert, leider in einer Arbeit, die er schrieb, als er einigermaßen infiziert war von nationalsozialistischem Gedankengut. Lorenz spricht von der Verhausschweinung des Menschen im denkbar abschätzigen Ton, und insinuiert einen Widerspruch zu den edlen Wilden, oder blonden Bestien, und ähnlicher Tarzan-Romantik! Das ist wohl Unsinn.
An der Selbstdomestikation ist aber etwas dran. Sie führt nicht, wie Lorenz glaubte, zu moralischem Verfall sondern im Gegenteil zur Ausbildung unserer Anlagen zu ethischen Normen und wechselseitiger Erziehung. Schon vor 200 Jahren hat der Zoologe Blumenthal, ein Lehrer Schopenhauers und Fakultätskollege von Gauss, den Menschen als das ‚vollkommenste aller Haustiere‘ bezeichnet.
Die Selbstzähmung des Menschen, im Sinn eines Sozialkontrakts, ist keine Entartung, sondern Ausgangspunkt seines unerhörten stammesgeschichtlichen Erfolgs. Zur Selbstzähmung gehört die menschliche Bereitschaft, freiwillig Regeln zu folgen: genau das ist es aber, was beim Spielen geschieht.
Wichtigste Funktion des Spieltriebs, beim Menschen, ist also vielleicht nicht, dass er dadurch seine Umgebung spielerisch erkundet, oder seinen Bewegungsapparat spielerisch trainiert, sondern dass er spielerisch lernt, mit Verhaltensregeln zu experimentieren. Dass er bei dieser fürs menschliche Überleben so wesentlichen Tätigkeit großen verspürt, verrät die Handschrift der natürlichen Auslese.
Die freiwillige Festlegung auf Regeln macht nicht nur das Spielen möglich, sondern ermöglicht die Kooperation, also das Gesellschaftswesen Mensch – den Homo ludens.
Einzelnachweise und Quellen
[1] Karl Sigmund, et al., (2010), Social learning promotes institutions for governing the commons. Nature 466:861-863
[2] T Sasaki, A Braennström, U Dieckmann, and K Sigmund (2012) The take-it-or-leave-it option allows small penalties to overcome social dilemmas. ProcNat AcadSci 109: 1165-69
Anmerkungen der Redaktion
Dieser Text entstand auf der Basis eines Referats mit dem Titel „Homo ludens: Offenheit, Wahrscheinlichkeit, Festlegung“, das am 27. September in der Österreichischen Akademie der Wissenschaften gehalten wurde. Der erste Teil des Referats ist unter dem Titel: „Homo ludens - Spiel und Wissenschaft“ am 15. November hier im Science-Blog erschienen.
Gefangenendilemma: die Interaktion zwischen zwei Spielern wurde erstmals - der Anschaulichkeit halber - durch zwei schuldige, räumlich getrennte Untersuchungshäftlinge dargestellt, die vor die Wahl gestellt werden zu leugnen oder zu gestehen. Kooperieren (= beide leugnen) bringt das beste Gesamtergebnis, für den Einzelnen ist es am sichersten zu gestehen. Die Bezeichnung Gefangenendilemma wird seitdem für alle „Spiele“ unter denselben Rahmenbedingungen (Interaktion zwischen 2 Spielern, 2 Strategien, ohne Möglichkeit der Absprache, symmetrische Auszahlung) angewandt.
Eine sehr gute Darstellung: „Das Gefangenendilemma als Paradigma von Kooperation - ZEIT Akademie Philosophie“ , 7:45 min
Weiterführende Links
Evolutionäre Spieltheorie. Von Gesellschaftsspielen zum Spielen mit Gesellschaften. (PDF-Download)
im Science-Blog:
Karl Sigmund Die Evolution der Kooperation
Karl Sigmund : Homo ludens - Spiel und Wissenschaft
Peter Schuster: Die Tragödie des Gemeinguts
Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.
Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.Do, 22.11.2012- 04:20 — Georg Wick
Unser Organismus reagiert auf ein Implantat, indem er um diesen Fremdkörper eine zarte und weiche Kapsel aus Bindegewebe aufbaut und ihn damit im umgebenden Gewebe verankert. Allerdings kann daraus in Folge einer verstärkten Körperreaktion eine exzessive, krankhafte Vermehrung und Verhärtung des Bindegewebes – eine sogenannte ›Fibrose‹ – entstehen. Die Grundlagen für die Entstehung und Entwicklung derartiger Fibrosen werden hier am Beispiel der relativ häufig an Silikon-Brustimplantaten auftretenden Komplikation „Kapselfibrose“ aufgezeigt.
Der Wunsch nach Schönheit und „ewiger Jugend“ hat in unserer Zeit einen Boom in der plastischen Chirurgie ausgelöst. Eine vorrangige Rolle spielt dabei die Vergrößerung der weiblichen Brust, ebenso wie deren Wiederaufbau nach Tumoroperationen. (Laut einer Statistik der American Society of Plastic Surgeons unterzogen sich im Jahr 2010 beispielsweise in den USA 296 203 Frauen einer Brustvergrößerung und 93 083 einer Brustrekonstruktion [1]; die jährliche Gesamtzahl an Brustimplantaten liegt in der westlichen Welt bei rund 3 Millionen). Patientinnen mit Silikon-Brustimplantaten entwickeln allerdings relativ häufig um das Implantat herum verdickte, verhärtete Bindegewebskapseln – sogenannte Fibrosen -, die zur Kapselkontraktur führen und neben ästhetischen Problemen auch Schmerzen bereiten.
Derartige Fibrosen finden sind nicht nur bei Brustimplantaten, sondern können sich auch um andere Silikon- (überzogene) Implantate entwickeln, wie beispielsweise um Herzschrittmacher, Cochleaimplantate, Insulinpumpen, etc. und um sogenannte passive Medizinprodukte wie Drainageschläuche, Kontaktlinsen oder Magenbänder (zur Gewichtsreduktion).
Da Brustimplantationen weltweit an großen Gruppen von Frauen ausgeführt werden, liegen hier auch die umfangreichsten epidemiologischen Studien zu Silikon-Nebenwirkungen vor. Der vorliegende Artikel beschränkt sich nur auf die durch Brustimplantate bei ansonsten gesunden Frauen ausgelöste Kapselfibrose, die aber als Paradigma für Reaktionen auf andere Typen von Silikon-Implantaten gelten kann. Im weiteren werden neue Erkenntnisse zur Entstehung dieser Fibrosen aufgezeigt und verbesserte Möglichkeiten zur Abschätzung des Risikos ihrer Entstehung und zur frühzeitigen Diagnose. Zur besseren Verständlichkeit dieses pathogenen Prozesses erfolgt einleitend eine kurze Charakterisierung des Bindegewebes, aus welchem heraus sich Fibrosen entwickeln und eine vereinfachte allgemeine Beschreibung von Fibrosen.
Was ist Bindegewebe?
Bindegewebe ist eine Sammelbezeichnung für unterschiedlichste, überall im Organismus anzutreffende Gewebetypen, welche die Zellzwischenräume – das sogenannte Interstitium - bilden.
Bindegewebe bestehen aus einem dichten fachwerkartigen Maschenwerk von Proteinfasern, der extrazellulären Matrix, die in eine dem Serum vergleichbare Flüssigkeit eingebettet ist. In dieser Matrix finden sich in lockerem Verband Gewebszellen – sogenannte Fibroblasten –, welche u.a. die kollagenen und nicht-kollagenen Matrixproteine aufbauen. Im Bindegewebe verlaufen auch Nervenbahnen, Blutkapillaren und Lymphgefäße. Sauerstoff und Nährstoffe, welche aus den Blutgefässen austreten versorgen die umliegenden Zellen, metabolische Produkte werden in Blut- und Lymphkapillaren abtransportiert. Neben den Fibroblasten finden sich im Bindegewebe mobile Zellen, wie u.a. Fresszellen – Makrophagen – und Mastzellen, welche essentielle Rollen in der körpereigenen Abwehr spielen und dem angeborenen („innate“) Immunsystem zuzurechnen sind. Eine stark vereinfachte Darstellung des Bindegewebes ist in Abbildung 1 gegeben.
Abbildung 1. Schematische Darstellung eines Bindegewebes. Den Raum zwischen den Epithelzellen eines Organs (Interstitium) nimmt die extrazelluläre Matrix ein, ein Maschenwerk aus Proteinfasern (Kollagen-, Elastinfasern,...), das, eingebettet in eine viskose, wässrige Flüssigkeit, Organen ihre Form und Festigkeit verleiht. Die Gewebeflüsssigkeit ist zusammengesetzt aus stark quellenden Glykoproteinen, Komponenten des Plasmas, die aus den Blutkapillaren austreten und sezernierten Produkten (Metaboliten, Hormonen, Kofaktoren, etc.) benachbarter Zellen. In die Matrix eingelagerte Fibroblasten sind für den Aufbau der kollagenen und nicht-kollagenen extrazellulären Matrix verantwortlich. Zellen des Immunsystems schützen vor Fremdkörpern, Infektionen (Bild: modifiziert nach Wikipedia)
Was sind Fibrosen?
Unter Fibrose versteht man eine krankhafte, exzessive Bildung der extrazellulären Matrix des Bindegewebes, die auf einer unkontrollierten Vermehrung und Aktivierung der Fibroblasten basiert. Der Umbau zu fibrotischem Gewebe kann in praktisch allen Organen auftreten (von Lungenfibrosen, Leberzirrhose bis hin zur Fibrose der arteriellen Innenwand, der Arteriosklerose), zur Einschränkung bis hin zum Verlust der Funktion betroffener Organe führen und stellt damit ein enormes globales Gesundheitsproblem dar. Rund 45 % aller Todesfälle sind durch Fibrosen verursacht. Dementsprechend finden sich zum Thema „fibrosis“ in der größten textbasierten biomedizinischen Datenbank PubMed (www.ncbi.nlm.nih.gov/pubmed) seit 1974 rund 153 000 Veröffentlichungen. Dennoch sind erstaunlicherweise die Prozesse, welche Fibrosen auslösen und deren Pathogenese im Detail noch zu klären, ebenso sind Diagnose und Therapie von Fibrosen noch unbefriedigend.
Fibrosen können spontan, ohne feststellbare Ursache entstehen, häufiger entwickeln sie sich jedoch in Folge verschiedenster pathologischer Bedingungen: Entzündungsprozesse (verursacht durch Infektionen, Autoimmunreaktionen, etc.), Gewebsschädigung/-zerstörung (infolge von Trauma, Chemikalien, Verbrennungen, postoperativen Narben, Leberzirrhose, etc.), Tumore oder Kontakt mit Fremdmaterial (beispielsweise Silikonimplantate) können Fibrosen auslösen. Unabhängig davon, durch welche der diversen pathologischen Situationen eine Fibrose ausgelöst und perpetuiert wurde, entwickeln sich Fibrosen
- in ihrem weiteren Verlauf völlig stereotypisch und
- sind immer gekennzeichnet durch entzündlich-immunologische Merkmale:
Als Abwehr- und Reparaturmechanismus des Bindegewebes findet um die Blutgefäße herum eine Infiltration mit Zellen des Immunsystems (Monozyten, Lymphozyten) statt, welche vorerst sowohl pro- als auch anti-entzündliche sowie pro- und antifibrotische Botenstoffe (Zytokine) produzieren und die Normalisierung des Gewebes bewirken können. In der Folge kann es aber zu einem Ungleichgewicht der Botenstoffproduktion in Richtung pro-entzündlicher und pro-fibrotischer Mediatoren kommen, die zu einer Vermehrung von Fibroblasten und zu deren verstärkter Ablagerung von kollagenen sowie nicht-kollagenen extrazellulären Matrixproteinen führt. Die Population dieser Fibroblasten (sogenannter Myofibroblasten)ist dabei stark heterogen und unterscheidet sich von der in gesundem Gewebe durch Entstehung, Eigenschaften und Profil der produzierten Botenstoffe.
Wodurch der Abwehrmechanismus ursprünglich in Gang gesetzt wurde, ist in den meisten Fällen noch ungeklärt. Diesbezügliche, einander nicht ausschließende Hypothesen reichen von Infektionen, Reaktionen des Immunsystems gegen veränderte Proteinstrukturen („altered self“), Überproduktion von reaktivem Sauerstoff bis hin zu mechanischem Streß. Abbildung 2. fasst in vereinfachter Weise Ursachen und Entwicklung von Fibrosen zusammen.
Abbildung 2. Ursachen und Entwicklung von Fibrosen. Beschreibung: siehe Text. (Bild: modifiziert nach Wick et al., 2010)
Silikon-Implantate
Das Polymer Silikon (Polydimethylsiloxan) ist auf Grund seiner hervorragenden Materialeigenschaften und einer relativ hohen Bioverträglichkeit seit Jahrzehnten das weltweit am häufigsten verwendete Fremdmaterial für medizinische Produkte, darunter auch für Implantate. Entsprechend den behördlichen Auflagen für die Zulassung medizinischer Produkte müssen Silikonimplantate eingehend geprüft werden, in Untersuchungen, die über eine physikalisch-chemische Charakterisierung und Feststellung der mechanischen und biologischen Stabilität ein breites Spektrum an biologischen Studien - in sowohl präklinischen, als auch klinischen Anordnungen - zur Verträglichkeit und Toxizität einschließen. Dennoch erzeugen Silikon-Implantate bei zahlreichen Patienten schädigende Nebenwirkungen.
Ein Silikon-Brustimplantat besteht aus einer äußeren Schale, gebildet aus hochvernetztem Polymer Silikon, die (zumeist) mit einem Gel, einer Lösung von wenig-vernetztem Silikon oder mit einer physiologischen Kochsalzlösung gefüllt ist. Um dieses, wie auch um alle anderen Implantate bildet sich eine körpereigene Hülle aus einer zarten dünnen Schicht von Bindegewebe – diese ist nicht spürbar und „verankert“ das Implantat in dem umgebenden Gewebe. Häufig kommt es dann aber zur exzessiven Bildung von Bindegewebe um das Implantat herum, zur sogenannten Kapselfibrose, die eine Verhärtung und Kontraktion der Kapsel hervorruft (Abbildung 3).
Abbildung 3. Silikonbrustimplantate. Von links nach rechts: vor der Implantation, Entwicklung der Kapselfibrose um das Implantat bis hin zur Kapselkontraktion und verkalktem Implantat, darunter Patientin mit Kapselfibrose.
Wie ensteht die Kapselfibrose?
Unser Team hat die zelluläre und molekulare Zusammensetzung operativ entfernter, fibrotischer Kapseln analysiert und die aus den Befunden resultierenden Hypothesen durch in vitro und in vivo Modelluntersuchungen untermauert. In den fibrotischen Kapseln fanden sich reichlich Zellen des Immunsystems (T-Lymphozyten, Makrophagen, dendritische Zellen, einige B-Lymphozyten) und es zeigte sich klar, daß immunologische Prozesse eine primäre Rolle in der Pathogenese der Fibrosen spielen, deren Ablauf stark vereinfacht etwa so beschrieben werden kann [2, 3]:
Primär lagern sich auf der Oberfläche des Silikonimplantats Proteine aus Serum und Wundbettflüssigkeit an. Ein derartiger Proteinfilm entsteht bereits unmittelbar nach der Implantation, sein Ausmaß nimmt mit zunehmendem Alter des Implantats zu.
Es zeigte sich, dass die Proteine an der Silikonoberfläche quasi als Klebstoff wirken, an den sich dann Fibroblasten, Fresszellen (Makrophagen) und Proteine der extrazellulären Matrix anheften. Die Proteine an der Silikonoberfläche weisen zum Teil biochemische Veränderungen auf und/oder präsentieren Strukturbereiche, welche ansonsten im Innern des Protein verborgen sind („kryptische Strukturen“): diese, als fremd angesehenen Strukturen werden von den Makrophagen aufgenommen (phagozytiert) und bewirken deren Aktivierung. Eine Aktivierung der Makrophagen kann auch durch aufgenommene Silikon-Fragmente erfolgen.
Die Komponenten des Proteinfilms konnten diversen Proteinklassen zugeordnet werden - es dominieren Proteine der extrazellulären Matrix, weiters Proteine, welche direkt in die Immunantwort involviert sind, Transportproteine, Proteine, die als Antwort auf Stress gebildet werden, u.a.m. Von besonderer Bedeutung erscheint die vermehrte Ausschüttung des Stressproteins HSP60 (Hitzeschockprotein 60). Dieses Protein wird auch in anderen fibrotischen Erkrankungen, wie beispielsweise der Arteriosklerose, als Antwort auf zellulären Stress an der Zelloberfläche exprimiert, lockt dort als Trigger T-Lymphozyten an und löst die Immunreaktion in der innersten Schicht der Aorta aus.
Aktivierte Lymphozyten in der Kapsel und Makrophagen induzieren dann die Transformation von Fibroblasten in Typen, die mit verstärkter Synthese von Matrixproteinen den Umbau in fibrotisches Gewebe bewirken.
Ausblick
Zweifellos stellt die frühe Identifizierung und Eliminierung – oder zumindest Kontrolle - des auslösenden Faktors einer Fibrose den besten Ansatz zu deren Behandlung dar. Unsere Untersuchungen zur Kapselfibrose beschäftigen mit der Aufklärung der Prozesse, die den entzündlich-immunologischen Reaktionen zugrunde liegen, ebenso wie mit der Identifizierung molekularer Marker, die eine frühzeitige Diagnose der Fibrose ermöglichen und die Effizienz einer Therapie verfolgen lassen.
Basierend auf der Analyse der an Silikonoberflächen anhaftenden Serumproteine wurde ein neues Testsystem – SILISAR - entwickelt, das es erlaubt, das individuelle Adhäsionsmuster (die „Signatur“) dieser Proteine zu bestimmen. Da diese Signatur sich bei Patientinnen mit fibrotischen Komplikationen signifikant von jenem bei Patientinnen ohne derartige Nebenwirkungen unterschied, kann der Test u.a. zur Abschätzung des Risikos von Komplikationen vor der Einsetzung unterschiedlicher Silikonimplantate herangezogen werden. Zusammen mit einem molekularbiologisch bestimmbaren Marker zur Erkennung früher Fibrosestadien, kann SILISAR auch zur regelmäßigen Kontrolle von Implantat-Trägerinnen und damit zur frühzeitigen Erkennung und Behandlung von fibrotischen Komplikationen eingesetzt werden. Schließlich kann mittels der Tests dazu dienen, dass verträglichere Silikon-implantate (nicht nur zur Brustvergrößerung) entwickelt werden.
Diese Tests sollten zweifellos zu einer Verbesserung der gegenwärtigen Situation bei Brustimplantaten führen, die am besten mit der 2011 erfolgten Feststellung der amerikanischen FDA (Food and Drug Administration) aufgezeigt wird [1]:
„Erkennen Sie, dass Brustimplantate keine lebenslang haltbaren Produkte darstellen. Beachten Sie, dass Brustimplantate mit erheblichen lokalen Komplikationen assoziiert sind. Je länger Sie Implantate haben, desto wahrscheinlicher wird es notwendig diese entfernen zu müssen.... Lokale Komplikationen und unerwünschte Nebenwirkungen inkludieren Kapselkontraktion, Umoperieren, Entfernung und Reissen des Implantats. Viele Frauen erleiden auch Schmerzen, Faltenbildung , Asymmetrie, Narbenbildung und Infektionen.“
Einzelnachweise und Quellen
[1] FDA Update on the Safety of Silicone Gel-Filled Breast Implants, June 2011
[2] G.Wick et al., (2009) The immunology of fibrosis: innate and adaptive responses. Trends in Immunology 31: 110-119
[3] Backovic, A. et al. (2007) Identification and dynamics of proteins adhering to the surface of medical silicones in vivo and in vitro. J.Proteome Res. 6, 376–381
Weiterführende links
Fibrosen: Laboratory of Autoimmunity (Georg Wick) Was versteht man unter Kapselfibrose und was kann man dagegen tun? 2:12 min Bindegewebe (Connective Tissue): The Basics 13:30 min, Englisch Connective Tissue Lecture 6:21 min, Englisch
Homo ludens – Spiel und Wissenschaft
Homo ludens – Spiel und WissenschaftDo, 15.11.2012- 04:20 — Karl Sigmund
Von allen Wissenschaften ist sicher die Mathematik dem Spiel am nächsten verwandt und es leiten sich mindestens zwei wichtige mathematische Disziplinen - Wahrscheinlichkeitstheorie und Spieltheorie - direkt und unmittelbar aus dem Spiel ab. Mathematische Axiome entsprechen Spielregeln; es ist die freiwillige Festlegung auf Regeln, welche nicht nur das Spielen ermöglicht, sondern auch die Kooperation, also das Gesellschaftswesen Mensch schafft.
In meiner akademischen Frühzeit war ich Ergodentheoretiker: wenn ich mich als solcher vorstellte, traf ich zumeist auf Stirnrunzeln und blankes Unverständnis. Ganz anders jetzt, wenn ich sagen kann, dass ich Spieltheoretiker bin: meist ernte ich freundliches, ja gelegentlich schelmisches Lächeln. Das Spielen hat einen guten Ruf: ‚Der Mensch spielt nur, wo er in der vollen Bedeutung des Worts Mensch ist, und er ist nur da ganz Mensch, wo er spielt‘ (Friedrich Schiller). Freilich, in der Spieltheorie wird der Begriff ‚Spiel‘ in einem sehr eingeschränkten Sinn verwendet.
Um etwas weiter auszuholen: zum ersten Mal seit bald dreißig Jahren hab ich wieder in den „Homo Ludens“ von Johan Huizinga hinein gelesen, welcher die Rolle des Spiels in allen Bereichen der Kultur untersucht und es als Ursprungsort der großen kulturellen Haltungen ansieht. Der Historiker und Sprachwissenschafter Huizinga (1872 – 1945) liefert da in einem großartigen Galopp durch die geisteswissenschaftlichen Fächer eine klassische Studie des Spielelements in der Kultur. Kaum ein Bereich, zeigt er, der nicht vom Spiel geprägt ist. Aus den Spielregeln werden die selbstgesetzten Regeln zivilisierter Gemeinschaften: etwa für die Feste und Feiern, die besonders in frühen Gesellschaften einen gewaltigen Platz einnehmen. Das festliche Spiel ist ein Hauptbestandteil jedes Kults.
Überall ist Spiel
Thomas Bernhard ist ein Untertreibungskünstler, wenn er meint: ‚Die Leute am Land haben kein Theater außer der Kirche.‘
Rituelle Spielregeln sind auch in der Rechtspflege wesentlich. Noch heute hat jede gerichtliche Verhandlung Elemente von Glücksspiel und von Mummenschanz. Dazu kommt noch das Element des Wettstreits. Spannung und Ungewissheit gehören oft zum Spiel.
Rituelle Spielregeln finden wir auch bei Handel und Industrie wieder. Das Wort ‚Gewinn’ erinnert ans Glückspiel und Wetten (und steht damit im Gegensatz zum Wort ‚Lohn’). Jede Spekulation ist ein Hasardieren: die Börsenkurse beschreiben Irrfahrten. Börse und Spielhalle haben vieles gemeinsam.
Auch die Jagd, lang ein dominierender Wirtschaftszweig, ist von spielerischen Elementen durchsetzt, sowohl in archaischen Gemeinschaften, in denen sie ja eine Lebensnotwendigkeit darstellt, als auch als adeliges Vergnügen. Das ist in der Sprache lebendig geblieben. Die Wienerische ‚Hetz‘ kommt von der Tierhatz. Im Englischen sagt man ‚game‘ zum Wild. Eine Fuchsjagd ist ein Spiel – so grausam einseitig wie jenes der Katze mit der Maus.
Selbst der Krieg ist dem Spiel nahe verwandt. Ausdrücke wie ‚Kriegsspiel‘ (zur Vorbereitung des sogenannten ‚Ernstfalls‘) machen das deutlich. Schach ist angeblich ein Abkömmling generalstäblerischer Gedankenexperimente.
Vom Krieg zur Liebe: Im Geschlechtsleben kommt dem Spiel vor allem bei der Einleitung eine wichtige Rolle zu: Tändeln, Necken, Flirten, die tausend Spielarten des Vorspiels. Und nun zur Kunst: beim Schauspiel ist der Bezug evident, sowohl Darsteller als auch Zuschauer spielen ’als ob’. Alle Literatur spielt mit Wortklang und Vorstellung. In Tanz und Film werden Bewegungsspiele durchgeführt. Und der Zusammenhang von Spiel mit Musik wird schon dadurch unterstrichen, dass auch Berufsmusiker ihre Instrumente ‚spielen‘, ob im Deutschen, Englischen ‚to play an instrument‘, Französischen, Slawischen oder Arabischen. Was die Malerei betrifft, ihre ‚Illusionen’ leiten sich von ‚in-ludere‘ ab, da steckt ‚spielen‘ drin.
Und Architektur wird von sogar von einem Funktionalisten wie Le Corbusier definiert als das ‚korrekte, kluge und wunderbare Spiel von Volumen im Licht‘. Die Pyramidenbauer hätten es nicht besser ausdrücken können.
Zeit zum Lernen, Zeit zum Spielen
Hunderte Märchen und Mythen zeugen von der Bedeutung des Frage- und Antwort-Spiels, manchmal in der Form des Halsrätsels, das über Leben und Tod entscheidet. Im Deutschen löst man Rätsel, wie man Fesseln löst. Bis heute hat sich viel Spielerisches in den Riten der Gelehrsamkeit erhalten (auch das Theater in unserer Akademie der Wissenschaften spielt sich nicht immer nur im Theatersaal ab).
Neben der gestrengen Prüfung gibt es die geheimbündlerischen Weihen und den öffentlichen Disput. Und überhaupt kommt das Wort ‚Schule‘ vom griechischen Scholé, was soviel wie ‚Muße‘ bedeutete. Die wird heute den Kindern, ebenso wie den Lehrpersonen geraubt. Verspieltheit gilt als Zeichen mangelnder Reife, und wird oft getadelt.
Friedrich Nietzsche meinte: ‚In jedem rechten Manne ist ein Kind versteckt, das will spielen.‘ Konrad Lorenz gehörte zu den ersten, die darauf hinwiesen, dass in unserer Stammesgeschichte die verzögerte Reife eine entscheidende Rolle gespielt hat, also das Kind im Manne (und in der Frau). Der Mensch ist so etwas wie ein unreifer Affe. Ein ganzes Bündel sogenannter neotener Eigenschaften belegt das: körperliche Zeichen der Kindlichkeit wie etwa die hohe Stirn, das zarte Kinn, die spärliche Körperbehaarung.
Von den Schimpansen sehen uns die Babys weit ähnlicher als die Erwachsenen. Wir sind steckengeblieben in der Kindheit. Wir benötigen ein Drittel unserer Lebensspanne zum Heranwachsen. Das gibt uns Zeit, um zu lernen, vor allem aber, zu spielen (Abbildung 1). Abbildung 1: Kinderspiele, P. Bruegel d.Ä. 1550 (Kunsthistorisches Museum, Wien. Bild: Wikimedia)
Wir Menschen haben kein Monopol auf das Spiel
Bei vielen Säugetieren und Vögeln lässt sich Spielverhalten beobachten. Vögel segeln im Sturm, Marder rutschen im Winter über schneebedeckte Windschutzscheiben, Menschenaffen verdecken ihre Augen und blinzeln verstohlen zwischen den Fingern hindurch.
Zur Domestikation von einigen Haustieren hat wohl die Freude an einem verlässlichen Spielpartner erheblich beigetragen. Montaigne schreibt: ‚Wenn ich mit meiner Katze spiele, wer weiß, ob es ihr nicht noch mehr Spaß macht als mir?‘ Spielbereitschaft drückt sich bei Tieren durch eigene Signale aus, und wirkt ansteckend.
Selten ist so ein Spiel von unmittelbarem Nutzen, aber offenbar längerfristig von Wert: ohne Zweck, aber sinnvoll. Bei der spielerischen Erkundung ihrer Umwelt und Gemeinschaft sammeln Heranwachsende viel Erfahrung. Neugierverhalten weist stets einen kindlich-verspielten Zug auf.
Oft übt ein Jungtier Bewegungsabläufe ein, die es später braucht, etwa bei Beutefang, Flucht oder Balz. Eine Katze, die einen Fetzen beutelt, mit der Pfote unter den Teppich wischt oder einem Schnurende nachspringt, führt offenbar Jagdbewegungen aus. Und raufende Welpen erwerben spielerisch Erfahrung für spätere Kämpfe.
Diese Tiere tun so, als ob. Dieses spielerische Üben und Lernen belohnt sich selbst. Eine Katze braucht kein Stück Wurst, um bereit zu sein, die Übung zu wiederholen.
Doch selbst der ausgeprägteste Spieltrieb ist weit schwächer als andere Triebe. Schon ein geringes Maß an Angst oder Hunger reicht aus, um jedes Spiel zum Erliegen zu bringen. Nur dort, wo es von Notwendigkeiten nicht behelligt wird, kann es gedeihen. Jeder Zwang unterdrückt es.
Selbst angeborenes Spielverhalten ist in diesem Sinn frei von Zwang, ist programmierte Offenheit. Diese Offenheit macht es so schwer zu Umschreiben wie keine andere biologische Funktion. Psychologen unterscheiden Funktionsspiele, Fiktionsspiele, Konstruktionsspiele, Rollenspiele und so fort, aber die Grenzen sind fließend.
Was ist allen Spielen gemeinsam?
Wittgenstein stellt diese Frage in seinen Philosophischen Untersuchungen:
„Gibt es überall eine Konkurrenz der Spielenden? ‚Denk an Patiencen‘. Gibt es Gewinner und Verlierer? ‚Wenn ein Kind einen Ball an die Wand wirft und wieder auffängt, ist dieser Zug verschwunden‘. Schau, welche Rolle Geschick oder Glück spielen…Denk nun an Reigenspiele…Was ist noch ein Spiel und was keines mehr? Kannst du eine Grenze angeben? Nein.“ (PU §66 ff)
Wittgenstein verwendet hier den Begriff des Spiels als ein Beispiel (Bei-Spiel!) für einen Begriff mit verschwommenen Rändern. Dass die Regeln für seinen Gebrauch nicht vollständig abgegrenzt sind, schadet nichts, solange sie ausreichen für seine Rolle im Sprachspiel. Wittgenstein führt noch andere unscharfe Worte an, etwa ‚Zahl’ oder ‚gut’ oder ‚wissen’. Doch hat er für das Wort ‚Spiel’ eine ausgeprägte Vorliebe. Vielleicht weil unter allen Tätigkeiten das Spielen die offenste ist. Jedenfalls ist Wittgensteins Frage ‚Wie ist denn der Begriff des Spiels abgeschlossen?‘ fast schon ein sophistischer Kunstgriff. Kein Wunder, dass der Begriff des Spiels sich nicht scharf umgrenzen lässt – zum Spiel selbst gehört ja ein Freiraum dazu. Man spricht auch vom Spielraum eines mechanischen Teils, von seinem Spiel, das für die Beweglichkeit nötig ist.
Spiel und Wissenschaft
Dass Wissenschaft mit Spiel zu tun hat, spiegelt sich auch darin wider, dass man immer häufiger Modelle statt Theorien untersucht. Wie Spielsachen lassen sich solche Modelle herzeigen, zerlegen, und dann oft genug wegwerfen. Modelle haben eine Art aufgehobener Wirklichkeit. Niemand würde für ein Modell den Scheiterhaufen riskieren.
Spiel und Wissenschaft haben gemeinsam, dass sie zumeist nicht auf unmittelbaren Nutzen ausgerichtet sind. Ein Spiel braucht durch nichts gerechtfertigt werden, Grundlagenforschung auch nicht. Der weltberühmte österreichische Physiker Ludwig Boltzmann schrieb: ‚Solange die Alchemisten nur den Stein der Weisen suchten (sicher ein ungemein nützliches Ziel) war all ihr Bemühen vergeblich. Erst die Beschränkung auf scheinbar weniger wichtige Fragen schuf die Chemie.‘ Dass Wissenschaft langfristig nützlich sein kann, ist ein kollateraler Effekt.
Von allen Wissenschaften ist sicher die Mathematik dem Spiel am nächsten verwandt, obwohl ihr hoher Unterhaltungswert oft übersehen wird. Die mathematischen Axiome entsprechen Spielregeln. Axiome wie Spielregeln schaffen – als Spielraum – eine eigene Welt in der Welt, Doderer würde sagen: ein Jenseits im Diesseits. Spielende Kinder können buchstäblich außer sich geraten. Weder Spielregeln noch Axiome lassen sich sinnvoll anzweifeln. Man kann sie nur akzeptieren oder nicht.
[[Besonders beliebt ist der Vergleich von Mathematik mit Schach. Nicht mit Turnierschach, sondern mit der Lösung von Schachproblemen. Kann Schwarz den Gegner in drei Zügen matt setzen, ja oder nein? Solche Aufgaben findet man in den Spielecken der Beilagen, fein abgetrennt vom redaktionellen Teil der Zeitung. Wie ja überhaupt Abgrenzung oft als Vorbedingung zum Spiel gehört: ob jetzt ein Fußballplatz, eine Bühne, ein Boxring, eine Kultstätte, ein Gerichtsort. Im Altertum wurden manchmal sogar die Schlachtfelder abgesteckt. Das Spielbrett spiegelt diese Tatsache wieder, besser gesagt: es ist ein Modell dafür. Ganz analog gelten in mathematischen Räumen eigene selbstgewählte Gesetze.]]
Das so-tun-als-ob gehört zum Handwerkszeug der Mathematiker. Besonders schön kommt das bei den indirekten Beweisen zum Ausdruck. Man tut so, als ob diese oder jene Aussage wahr wäre (etwa: es gibt eine größte Primzahl) und zieht daraus Folgerungen, die schließlich zu einem Widerspruch führen, was beweist, dass die Aussage falsch sein muss (hier: es gibt keine größte Primzahl, es muss also unendlich viele Primzahlen geben).
Neben dieser allgemeinen Verwandtschaft zwischen Mathematik und Spiel leiten sich mindestens zwei wichtige mathematische Disziplinen direkt und unmittelbar aus Spielen ab, nämlich Wahrscheinlichkeitstheorie und Spieltheorie. Die Entstehung der Ersteren wird im Folgenden behandelt, die Spieltheorie in einem weiteren Essay.
Glücksspiele als Wiege der Wahrscheinlichkeitstheorie
Abbildung 2: Achilleus und Ajax beim Würfelspiel (ca. 500 AC, Louvre. Bild: Wikipedia)
Die Wahrscheinlichkeitstheorie spielte bei den Griechen noch keine Rolle, aber mit dem Zufall gespielt haben sie schon!
Die Griechen sahen sich als Erfinder des Würfelspiels – wie Abbildung 2 mutmaßt, könnte es ein Zeitvertreib der Belagerer Trojas gewesen sein. (Allerdings kannten die Ägypter den Würfel schon zur Zeit der ersten Dynastie.)
Das Münzgeld dagegen kam erstmals in Griechenland auf, und man darf wohl vermuten, dass bald darauf 'Kopf oder Adler' gespielt wurde (vielmehr ‚Kopf oder Eule’).
Kartenspiele gibt es seit dem Mittelalter.
Gutenberg druckte zwar als erstes pflichtschuldigst die Bibel, aber noch im selben Jahr auch einen Satz Spielkarten. Lotterien stammen aus dem Florenz der Renaissance.
Die französische Aufklärung bescherte uns das Roulettespiel (als Erfindung eines Polizeioffiziers). Die Russen entwickelten eine eigene Variante.
Industrialisierung brachte Glückspielautomaten, usw.
Glückspiele standen an der Wiege der Wahrscheinlichkeitstheorie. Fast gleichzeitig wendeten sich Geister wie Pascal, Fermat, Huyghens und Newton ihr zu.
Eine typische Frage war folgende:
Mit zwei Würfeln lässt sich die Augensumme 9 auf zweierlei Weise erhalten, als 3+6 oder als 4+5. Ebenso kann man die Augensumme 10 auf zweierlei Weise erhalten, als 4+6 oder 5+5. Wieso kommt es dann häufiger zur Augensumme 9 als zur Augensumme 10? Wenn man mit drei Würfeln spielt, kann man die beiden Augensummen 9 und 10 auf jeweils sechs verschiedene Weisen erhalten. Aber diesmal kommt die 10 häufiger vor als die 9. Das verlangt nach Erklärung!
Inzwischen hat sich die Wahrscheinlichkeitsrechnung von den Spielsalons emanzipiert. Aber die ersten Anwendungen betrafen Versicherungen, die im Grunde ja auch Glücksspiele sind. Jährlich zahlen wir eine Prämie, unseren Einsatz: mit einer gewissen Wahrscheinlichkeit gewinnen wir eine hohe Summe, nämlich dann, wenn etwa unser Haus abbrennt. Das ist ein Glückspiel (und im Mittel verlieren wir dabei, genau so wie im Kasino): ein Glückspiel, dem freilich nichts Frivoles mehr anhaftet.
Heute ist die Wahrscheinlichkeitstheorie aus Physik, Chemie, Wirtschaft, Biologie nicht wegzudenken. Mit dem Zufall zu rechnen haben wir spielerisch gelernt.
Wahrscheinlichkeitstheorie und Risikobereitschaft
Es herrschen große individuelle Unterschiede in unserer 'Risikobereitschaft'. Es gibt Spielernaturen und geborene Pessimisten. Man kann das durch Experimente mit Lotterien testen.
Beispiel 1: Typischerweise wird die Versuchsperson gefragt, welche der folgenden Alternativen sie bevorzugt: A: 3000 Euro mit Sicherheit B: Teilnahme an einer Lotterie, bei der man mit 80 Prozent Wahrscheinlichkeit (W) 4000 Euro erhält und mit 20 Prozent W. nichts.
Obwohl also der Erwartungswert der Lotterie B 3200 Euro ist, bevorzugen 82 Prozent der Befragten A. Sie sind risiko-scheu. Das ist ihr gutes Recht.
Interessanterweise sieht die Sache bei der nächsten Lotterie ganz anders aus.
Beispiel 2: Man wähle zwischen: A: 3000 Euro mit 25 Prozent W. (und 0 mit 75 Prozent W.) B: 4000 Euro mit 20 Prozent (und 0 mit 80 Prozent).
Hier wählen 70 Prozent die zweite Alternative. Warum sollten sie nicht? Nun, das Bemerkenswerte ist, dass der zweite Test dieselben Alternativen bietet wie der erste, außer dass die Wahrscheinlichkeiten auf ein Viertel gestutzt sind.
Anders ausgedrückt, die zweite Frage können wir so sehen: zuerst wird eine Münze zweimal geworfen, und nur wenn sie beide Male Kopf liefert (was mit einer Wahrscheinlichkeit von ein Viertel geschieht), wird die erste Frage gestellt. Wenn die Spieler nach dem zweifachen Münzwurf entscheiden, entscheiden viele anders, als vorher. Und das ist rational schwer zu begründen.
Derlei Experimente sind von Allais in den Fünfzigerjahren, später von Kahnemann, Twersky etc durchgeführt worden (das lieferte einige Wirtschafts-Nobelpreise).
Beispiel 3: Hier noch ein Beispiel, der sogenannte Stanford-Quiz. Nehmen wir an, dass die Wahrscheinlichkeit, zuckerkrank zu sein, 1:1000 beträgt. Stellen wir uns einen Test vor, der die Krankheit untrüglich erkennt, wenn sie vorliegt, aber mit einer Wahrscheinlichkeit von 5 Prozent auch bei einem Gesunden ein 'positives' Resultat liefert. Wenn dieser Test bei Ihnen die Diagnose 'zuckerkrank' liefert, ist also nicht sicher, dass sie wirklich daran erkrankt sind. Wie groß ist die Wahrscheinlichkeit? Die meisten Schätzungen liegen völlig falsch. Die Wahrscheinlichkeit ist kleiner als zwei Prozent. (Denn bei tausend Leuten liefert der Test 50 falsche 'positive' Ergebnisse, und nur ein richtiges).
Ein anderes Paradox stammt vom Psychologen Ellsberg. Wenn der Spieler die Häufigkeit der roten und schwarzen Kugeln in einer Urne nicht kennt, so wird er mit gleicher Bereitschaft auf rot oder schwarz setzen.
Wenn er andrerseits weiß, dass die Urne gleich viele rote wie schwarze Kugel enthält, so wird er wiederum keine Farbe bevorzugen.
Wenn er aber, bevor er auf eine Farbe setzt, zwischen den beiden Urnen wählen kann, so hat er meist eine deutliche Vorliebe für die Urne mit dem bekannten Inhalt. Die Wahrscheinlichkeitsrechnung kann das nicht erklären - schließlich beträgt die Gewinnwahrscheinlichkeit in beiden Fällen 50 Prozent. Dieses psychologische Paradox wirft ein bezeichnendes Licht auf unser Verhältnis zu Ungewissheit und Risiko.
Ich brauche nicht zu erwähnen, dass auch die Neurowissenschaftler davon fasziniert sind, und untersuchen, was in unseren Hirnen passiert, wenn wir Risiken eingehen.
Spieltheorie, eine Theorie der Interessenskonflikte – wird, wie oben angekündigt, in einem nachfolgenden Essay behandelt.
Anmerkungen der Redaktion
Dieser Text entstand auf der Basis eines Referats mit dem Titel „Homo ludens: Offenheit, Wahrscheinlichkeit, Festlegung“, das am 27. September in der Österreichischen Akademie der Wissenschaften gehalten wurde.
Glossar:
Ergodentheorie: ist ein Begriff innerhalb des mathematischen Teilgebiets der Stochastik, entstanden aus dem Bemühen, Methoden und Folgerungen der statistischen Mechanik mathematisch korrekt zu formulieren und beweisen. Die Statistik eines Prozesses wird von einer Musterfunktion beschrieben
Stochastik: Wissenschaft, die sich mit zufallsabhängigen Phänomenen beschäftigt.
Links:
Karl Sigmund im Science-Blog: Die Evolution der Kooperation
PDF-Download: Evolutionäre Spieltheorie.
Von Gesellschaftsspielen zum Spielen mit Gesellschaften.
Ludwig Wittgenstein: Philosophische Untersuchungen
Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle Heuristik
Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle HeuristikDo, 08.11.2012- 00:00 — Peter Schuster
Eine gleichzeitige Optimierung mehrerer Kriterien ist komplex und führt zu einer Vielzahl an nicht-vergleichbaren Ergebnissen. Entscheidungen hinsichtlich dieser Ergebnisse müssen dann an Hand weiterer Kriterien getroffen werden. Allerdings sind rigorose Formalismen zur Optimierung im praktischen Leben häufig nutzlos, wenn Entscheidungen rasch und daher mit begrenzter Rationalität zu treffen sind.
Jeder, der einmal in der Oberstufe eines Gymnasiums gesessen ist, hat gelernt, wie man das Maximum oder Minimum einer mathematischen Funktion bestimmt. Wie man optimiert, erscheint einem großen Teil unserer Bevölkerung – Wissenschafter miteingeschlossen – daher ein recht einfaches Unterfangen zu sein.
Wer sich mit dem Problem der Optimierung aber näher befaßt, findet sehr schnell heraus, daß die im Lehrbuch aufgezeigte Lösung nur sehr wenig mit der realen Welt zu tun hat, in welcher ja gleichzeitig Optimierungen hinsichtlich mehrerer Parameter erforderlich sind. Mit eben mit diesem Problem beschäftigt sich ein kürzlich von einer Projektgruppe der Berlin-Brandenburgischen Akademie der Wissenschaften veröffentlichter Band [1]: „Wie erfolgt eine Optimierung im Fall mehrerer Kriterien, mehrerer Ziele und wie können wir derartige Situationen erfolgreich bewältigen?
Optimierungsprozeß unter Einbeziehung mehrerer Kriterien
Verständlicherweise führt ein Optimierungsprozeß unter Einbeziehung mehrerer Kriterien zu widersprechenden Lösungen – außer die Kriterien sind voneinander völlig unabhängig, was ja ein in der Realität höchst seltener Fall ist. Ein simples Beispiel einer derartigen Optimierung soll hier angeführt werden:
Mit einem Auto von A nach B zu fahren braucht Zeit und man benötigt Benzin. Natürlich möchte jeder so schnell wie möglich B erreichen, natürlich sollten der Benzinverbrauch und damit die Kosten minimal sein. Klar ist auch, daß jedes Auto mehr Benzin verbraucht, wenn es schneller fährt. Wir haben es hier also mit zwei Pseudo-Optima zu tun: mit der kürzesten Zeit um von A nach B zu kommen und der wirtschaftlich günstigsten Geschwindigkeit diese Strecke zurückzulegen; es muß nicht erwähnt werden, daß die beiden Optima unterschiedlich ausfallen.
Um das Beispiel Autofahren weiter zu spinnen: Jeder Autokäufer ist daran interessiert, die Produkte verschiedener Autohersteller zu vergleichen. Falls der Kunde nun alle anderen Kriterien außer Geschwindigkeit und Benzinverbrauch unberücksichtigt läßt, kann dafür ein einfaches Preis- Leistungs-Diagramm erstellt werden, das sogenannte Pareto-Effizienz aufweist; das heißt, einen Zustand angibt, in dem es nicht möglich ist, ein Kriterium zu verbessern, ohne zugleich das andere zu verschlechtern. Abbildung 1
Abbildung 1. Pareto-Set: Autofahren als Beispiel der Optimierung hinsichtlich zweier gegensätzlicher Kriteria, Geschwindigkeit und Kosten. Die inverse Geschwindindigkeit aufgetragen gegen die Fahrtkosten zeigt Pareto-effiziente Fahrzeuge (schwarze Sterne). Der rote Stern ist Pareto-ineffizient und kann hinsichtlich maximaler Geschwindigkeit und minimaler Kosten weiter optimiert werden.
In diesem Plot liegen die Produkte der meisten Autohersteller nahe dem Pareto-Optimum – einer hyperbelartigen Funktion, die quasi eine Grenze zwischen Möglichem und Unmöglichem darstellt. Jeder einzelne dieser Punkte resultiert aus den unterschiedlichen individuellen Preferenzen, beispielsweise wieviel Geld es dem Käufer wert ist, schneller zu fahren.
Ein Produkt in dieser Darstellung (mit rotem Stern gekennzeichnet) erscheint Pareto-ineffezient, d.h. seine Leistung in einem Kriterium kann gesteigert werden ohne das andere negativ zu beeinflussen – beispielsweise kann der Kraftstoffverbrauch gesenkt werden ohne negative Auswirkungen auf die maximale Geschwindigkeit zu haben und vice versa. Zwei Gerade, parallel zu den Achsen begrenzen die Kurve und beschreiben die beiden extremen Situationen: i) das schnellste Auto zu wählen unabhängig von seinen Kosten, ii) das wirtschaftlichste Auto unbhängig davon, wie langsam es dahinzottelt.
In realen Situationen sieht man sich mit wesentlich mehr als zwei Kriterien konfrontiert, zudem ist der Raum persönlicher Präferenzen mehrdimensional anzusetzen. Ein Auffinden von Lösungen für eine zwei-Kriterien Optimierung ist rechnerisch billig, vorausgesetzt, gute Daten stehen zur Verfügung. Für hochdimensionale Probleme kann der rechnerische Aufwand enorm hoch werden.
Optimierung oder knappe und schnelle Entscheidungen?
Bis jetzt haben wir einen wichtigen Faktor noch nicht berücksichtigt, nämlich die für die Optimierung benötigte Zeitdauer, die ebenfalls optimiert werden muß. Schnelle Entscheidungen sind aber im täglichen Leben definitiv wichtig: Ein Autolenker, ein Pilot, ein Steuermann auf einem Schiff – sie alle müssen momentane Entscheidungen treffen; die Zeitdauer, welche sie für eine optimale Antwort benötigen, spielt eine essentielle Rolle. Aus gutem Grund wird hier die Qualität der Antwort – sie erfolgt „knapp und schnell“ – häufig zugunsten Sicherheitsaspekten geopfert. Zwei einfache – bei Entscheidungsträgern wohlbekannte – Fälle sollen als Beispiele dienen:
Der erste Fall setzt nichts anderes voraus wie die Fähigkeit, Objekte zu beobachten. Ein Pilot sieht ein anderes Flugzeug sich nähern und fürchtet einen Zusammenstoß. Ein „knappes und schnelles“ Vorgehen ist hier einen Kratzer oder Fleck an der Windschutzscheibe anzuvisieren und zu beobachten, ob sich das entgegenkommende Flugzeug relativ dazu bewegt. Wenn dies nicht der Fall ist, ist raschestes Ausweichen unumgänglich. Der zweite Fall – auch Erkennungs-Heuristik genannt – wird von vielen Menschen unbewußt im Alltagsleben angewandt. Beispielsweise lautete eine 1-Million $ Frage in einem Fernseh-Quiz: Welche von den beiden Städten Detroit oder Milwaukee hat mehr Einwohner? Für Amerikaner erscheint die korrekte Antwort Detroit relativ leicht und wurde von zwei Drittel der undergraduate-Studenten an der Universität Chikago richtig gegeben. Als dieselbe Frage an Deutsche gerichtet wurde, war das Ergebnis aber höchst erstaunlich: es gaben praktisch alle die korrekte Antwort. Wie dies zu erklären war? Definitiv wußten die Deutschen über die Bundesstaaten Michigan und Wisconsin nicht besser Bescheid als die Amerikaner, intuitiv (unbewußt) wandten sie aber eine erfolgreiche Heuristik an: Städte mit einer höheren Einwohnerzahl sind eher bekannt als solche mit einer kleineren Einwohnerzahl. Dementsprechend hatten die Deutschen von Detroit eher gehört als von Milwaukee. Dieser Erkennungstest wurde mit vergleichbarem Erfolg auch für andere Städte angewandt, für Fußballmannschaften und einer Reihe anderer Objekte.
Lassen wir die Psychologie beiseite und kommen wir zu den Optimierungsverfahren zurück, so sehen wir zwei wesentliche Ergebnisse:
- Eine gleichzeitige Optimierung mehrerer Kriterien ist komplex und führt zu einer Vielzahl an nicht-vergleichbaren Ergebnissen. Entscheidungen hinsichtlich dieser Ergebnisse müssen dann an Hand weiterer Kriterien getroffen werden – zusätzlichen Gesichtspunkten und individuellen Präferenzen. Der rechnerische Aufwand für die entsprechenden mathematischen Formulierungen kann sehr hoch und zeitraubend sein.
- Rigorose Formalismen zur Optimierung sind im praktischen Leben häufig nutzlos, wenn Entscheidungen rasch und daher mit begrenzter Rationalität zu treffen sind. Über lange Zeit hin wurden Entscheidungen auf der Basis eines heuristischen Ratens anstelle exakter Methoden als armselige mentale Krücken betrachtet, als irrationale Illusionen [2]. Innerhalb des letzten Jahrzehnts ist ein neues Programm entstanden, welches basierend auf einer wirtschaftlichen Rationalität Instrumente zur Optimierung untersucht und entwirft und zu einem Konzept der knappen und raschen Entscheidung geführt hat [3].
Alles in allem ist ja der menschliche Geist das Produkt eines langdauernden Evolutionsprozesses, in welchem die richtigen Entscheidungen rasch und (gerade) ausreichend für das Überleben gefällt wurden.
Einzelnachweise und Links
[1] Lucas K, Roosen P. (2010) General Aspects of Optimization in Emergence, Analysis, and Evolution of Structures (Lucas K, Roosen P. eds, Springer Heidelberg)
[2] Piattelli-Palmarini, M. Inevitable Illusions: How Mistakes of Reason Rule our Mind. Wiley: New York 1994.
[3] Goldstein, D.G., Gigerenzer, G. Models of ecological rationality: The recognition heuristic. Psychological Review 2002, 109, 75-90. Das Paretokriterium und Paretoverbesserungen (5,35 min)
Grenzen des Ichs - Warum Bakterien wichtige Teile meines Körpers sind
Grenzen des Ichs - Warum Bakterien wichtige Teile meines Körpers sindDo, 01.11.2012- 00:00 — Gottfried Schatz
Bakterienzellen besitzen zwar nur rund ein Tausendstel des Volumens unserer Körperzellen, ihre Zahl in und auf unseren Körpern ist aber zehn mal so hoch wie jene, und sie tragen beträchtlich zu unserer Gesundheit bei. Mehr als 10 000 Arten von Bakterien bewohnen unsere Körper, wobei der Großteil in unserem Verdauungstrakt residiert und eine bedeutende Rolle in der Umsetzung und Aufnahme von Nährstoffen spielt. Es gehen aber auch essentielle Bestandteile unserer Zellen – die Mitochondrien - ursprünglich auf Bakterien zurück und wurden zu einem Charakteristikum eukaryotischer Zellen.
Als ich in meiner Mutter heranwuchs, war mein Ich noch klar umrissen: Alle Zellen meines Körpers trugen mein Erbgut. Doch kaum hatte ich den schützenden Mutterleib verlassen, begannen Bakterien mich zu besiedeln. In wenigen Wochen hatten sie die Oberfläche meiner Haut sowie die Schleimhäute meiner Nase, meines Mundes und meines Verdauungstrakts erobert. Heute bestehe ich aus etwa zehntausend Milliarden menschlichen Zellen und zehn- bis zwanzigmal mehr Bakterienzellen. Sind diese Bakterien Teil von mir – oder nur Parasiten? Wo endet mein Ich?
Ein buntes Völkchen
Da Bakterien etwa tausendmal kleiner als menschliche Zellen sind, machen sie nur wenige Prozente meines Körpergewichts aus – also etwa ein bis zwei Kilogramm. Sie sind ein buntes Völkchen, denn allein meine Haut beherbergt bis zu fünfhundert verschiedene Arten (Abbildung 1). Und es scheint, dass manche Arten nur auf mir leben und so meine molekulare Individualität mitbestimmen.
Abbildung 1: Eine Vielzahl und Vielfalt von Bakterien besiedeln meine Haut (Bild: Wikipedia)
Viele dieser Bakterien sind für mein Wohlbefinden fast ebenso wichtig wie mein Erbgut. Sie halten andere, krankmachende Bakterien von mir fern, förderten in meinen ersten Lebensjahren die Entwicklung meines Immunsystems und versorgten mich als hungerndes Kriegskind mit den lebenswichtigen Vitaminen K, B 12 und Folsäure, weil sie diese aus einfachen Bausteinen herstellen können. Mein Körper vermag dies nicht, und unsere kärgliche Kriegskost konnte meinen Bedarf an diesen Vitaminen nicht decken. Vielleicht haben mir die Synthesekünste «meiner» Bakterien damals das Leben gerettet.
Nicht alle meine Bakterien sind friedfertig, doch solange ich gesund bin und vernünftig lebe, hält mein Immunsystem sie in Schach. Wenn diese Abwehr aber versagt, weil ich mich schlecht ernähre, zu viel arbeite oder mit einer Virusinfektion kämpfe, kann eine Bakterienart sich plötzlich stark vermehren, Gift ausscheiden und mich akut bedrohen. Auch offene Wunden stören die Eintracht zwischen mir und meinen Bakterien, weil sie diesen Zutritt zu meinem Blut und meinen Geweben geben, wo sie Amok laufen können. Und wenn ich mir nicht regelmässig die Zähne putze, bilden Rudel verschiedener Mundbakterien auf ihnen einen festen Film und zersetzen mit ihrer Säureausscheidung meinen Zahnschmelz.
Alle uns bekannten Tiere beherbergen Bakterien, und viele könnten ohne sie nicht leben. Besonders eindrückliche Beispiele dafür liefern gewisse Insektenarten, die sich nur vom Saft bestimmter Bäume ernähren. Dieser Saft ist meist eine sehr einseitige Nahrung, weil ihm viele Aminosäuren fehlen, die das Insekt als Bausteine für Proteine benötigt, aber nicht selbst herstellen kann. Die im Insekt lebenden Bakterien können dies und sichern so ihrem Wirt das Überleben. Wohl deshalb leben viele Wirte seit Jahrmillionen mit ihren Bakterien zusammen und vererben sie über die Eier ebenso sorgfältig wie ihr eigenes Erbgut.
Kein Bakterium beherrscht die Kunst dieses Zusammenlebens so souverän wie Wolbachia. Es haust in mindestens einem Viertel aller bekannten Insektenarten sowie in vielen Würmern, Krustentieren und Spinnenarten und ist vielleicht der erfolgreichste Parasit auf unserem Planeten. Viele Wolbachia-Wirte können zwar auch ohne das Bakterium leben, beziehen aber von ihm dennoch manche Zellbausteine, die sie nicht selbst herstellen können und in ihrer Nahrung nicht in ausreichender Menge vorfinden. Wahrscheinlich hat Wolbachia vor Jahrmillionen jeweils einen Vertreter dieser Wirte infiziert und ihn dann nie wieder verlassen. Als Schmarotzer konnte das Bakterium es sich leisten, etwa drei Viertel seines Erbmaterials verkümmern zu lassen. Dies tat jedoch seiner Ausbreitung keinen Abbruch, da es über die Eier infizierter Mütter vererbt wird und das Sexualleben der von ihm infizierten Wirte zu seinem eigenen Vorteil verändert.
Je nach Art des Wirtes kann es dabei die Männchen vor dem Ausschlüpfen aus dem Ei töten, in Weibchen verwandeln oder überflüssig machen, indem es Weibchen selbst ohne Befruchtung infizierte Töchter gebären läßt (Abbildung 2).
Abbildung 2: Wolbachia in der Eizelle einer kleinen parasitischen Wespe. Die hellgefärbten Bakterien sammeln sich an einem Ende der Eizelle an, aus dem sich die reproduktiven Organe bilden sollen und induzieren die Entwicklung eine weiblichen Nachkommens ohne vorherige Befruchtung. (Bild: MicrobeWiki)
In wieder anderen Fällen können die von ihm befallenen Männchen nur mit infizierten Weibchen Nachkommen zeugen. Das Ziel ist dabei stets, möglichst viele infizierte Insektenweibchen in die Welt zu setzen, ihnen gegenüber Männchen und nicht infizierten Weibchen Vorteile zu verschaffen – und damit über infizierte Eier die eigene Ausbreitung zu fördern. Wolbachia würde selbst Niccolò Machiavelli vor Neid erblassen lassen. Vielleicht wird es in den kommenden Jahrmillionen immer mehr von seinem Erbgut an die jeweilige Wirtszelle abgeben und sich damit zu einem normalen Zellorgan mausern, das kaum mehr etwas von seiner bakteriellen Herkunft erkennen lässt.
Auch in mir leben Nachkommen freilebender Bakterien, die vor eineinhalb Milliarden Jahren meine fernen Vorfahren infizierten und sich dann in diesen fest ansiedelten. Diese Bakterien hatten gelernt, organische Stoffe mit Hilfe von Sauerstoffgas zu verbrennen und dabei grosse Energiemengen freizusetzen: Sie hatten die Zellatmung erfunden. Erst diese atmenden Parasiten lieferten ihren Wirtszellen die nötige Energie, um komplexere Lebensformen zu entwickeln. Die Wirtszellen übernahmen schliesslich mehr als neunundneunzig Prozent des Erbguts ihrer atmenden Fremdarbeiter, so dass diese heute nur ein stark verkümmertes Erbgut in sich tragen. Wider die Abschottung
Die atmenden Eindringlinge wurden so zu festen Bestandteilen meiner Zellen – den Mitochondrien. Und der winzige Rest ihres Erbguts, der nur noch Baupläne für dreizehn Proteine trägt, ist heute meine Mitochondrien-DNS. Sie ist mein zweites DNS-Genom, das zwar viel kleiner als das meines Zellkerns, aber für mich ebenso lebenswichtig ist. Meine Mitochondrien können nicht mehr frei leben oder Zellen infizieren, sondern werden, ebenso wie Wolbachia-Bakterien, über die Eizelle der Mutter vererbt. Männer sind für Mitochondrien also eine genetische Sackgasse: Ich konnte meine Mitochondrien keinem meiner Kinder weitergeben.
Etwa fünf bis sieben Kilogramm von mir sind Mitochondrien. Weil sie von allem Anfang an in mir waren, empfand ich sie stets als Teil meines Ichs. Doch jetzt, wo ich um ihre Herkunft weiss, bin ich mir dessen nicht mehr so sicher. Und wenn ich dann noch an die ein bis zwei Kilogramm Bakterien denke, die mich nach meiner Geburt besiedelten, beginnen sich die Grenzen meines Ichs weiter zu verwischen.
Vielleicht ist dies gut so. Wer sein Ich zu wichtig nimmt und argwöhnisch dessen Grenzen abschottet, verschliesst den Blick vor der Vielfalt der Welt und huldigt dumpfem Stammesdenken. Dies gilt nicht nur für einzelne Menschen, sondern auch für Völker, Nationen und Kulturen. Wem das eigene Ich Mass aller Dinge, der Mensch gesetzgebende Krone der Schöpfung oder die eigene Sicht der Welt die einzig wahre ist, der hat die letzten Jahrhunderte ebenso verschlafen wie der, für den unsere Erde immer noch das Zentrum des Universums ist. Wenn die moderne Biologie nun die Grenzen meines Ichs verwischt, schmälert sie es nicht, sondern schenkt ihm zusätzliche Einsicht und Tiefe.
Weiterführende links
Ulrich Kutschera: Video 9 – Was ist Symbiogenese? [Tatsache Evolution - Was Darwin nicht wissen konnte] 11:52 min
Planet Wissen - Bakterien: Keimherd für Leben und Tod (1. von 6 Teilen à ca.9 min)
Spiegel (14.06.2012): Mikroben-Inventur Das Gewimmel im Körper Joshua Lederberg: Das World Wide Web der Mikrobiologie
M.Neukamm & A.Beyer: Die Endosymbiontentheorie - Allgemeine Grundlagen, Fakten, Kritik (PDF) Cinelecture 25 - The Endosymbionts (Chloroplasts, Mitochondria) (12:11 min)
Auge um Auge — Entwicklung und Evolution des Auges
Auge um Auge — Entwicklung und Evolution des AugesDo, 25.10.2012- 04:20 — Walter Jakob Gehring
"Die Wissenschaft übertrifft Hollywood“ titelte die New York Times im März 1995, als Walter Gehring mit dem Gen Pax6 den Hauptschalter in der Entwicklung des Auges entdeckt hatte und dessen Funktion durch die Generierung zusätzlicher Augen auf unterschiedlichen Körperteilen der Taufliege bewies. Spätere Untersuchungen Gehrings ergaben, daß das Pax6-gesteuerte Augenentwicklungsprogramm ein universelles, bei allen Tieren von den Plattwürmern bis zu den Säugetieren, vorliegendes Prinzip darstellt, der Ursprung all der unterschiedlichen Augentypen also vom selben Prototyp ausgeht.
Die Natur hat im Verlauf der Evolution die verschiedensten Augentypen hervorgebracht. Diese reichen vom Kameraauge der Wirbeltiere mit einer Linse, die das einfallende Licht auf eine lichtempfindliche Netzhaut (Retina) projiziert, über das komplexe Facettenauge der Insekten und anderer Gliederfüßler, das aus zahlreichen Einzelaugen mit je einer Linse und einer Gruppe von Photorezeptorzellen zusammengesetzt ist, bis zum Spiegelauge, das beispielsweise bei der Jakobsmuschel sowohl über eine Linse als auch über einen reflektierenden Parabolspiegel verfügt, die das Licht auf eine Netzhaut projizieren. Abbildung 1.
Abbildung 1. Unterschiedliche Augentypen. A) Kamera-Auge der Eule, B) Facettenauge der Fliege, C) Spiegel-Auge der Jakobsmuschel, D) Prototyp-Auge bestehend aus einer Pigmentzelle und einer Photorezeptorzelle des Plattwurms Polycelis auricularis.
Trotz dieser morphologischen Vielfalt bestimmen ähnliche physikalische und chemische Prinzipien den Sehvorgang. In allen Vielzeller-Organismen finden sich sogenannte Opsine als Sehpigmente. Dies sind Photorezeptor-Proteine, die - von einem einzelnen Lichtimpuls (Photon) angeregt - eine Konformationsänderung durchlaufen und damit einen Nervenimpuls auslösen.
Darwins Hypothese zum Ursprung des Auges
Für Darwin war es eine besondere Herausforderung, die Entstehung und Entwicklung des Auges zu erklären, und er widmete diesem Thema ein ganzes Kapitel in seinem Buch „The Origin of Species“. Er war davon überzeugt, daß ein so perfektes Organ wie beispielsweise das Auge eines Adlers nicht ein durch rein zufällige Variationen und Selektion entstandener Prototyp sein könnte, weil ja Selektion erst einsetzen kann, wenn ein bereits ansatzweise funktionierender Prototyp existiert. In genialer Weise fand er eine Lösung des Problems: Er postulierte, daß sehr früh in der Entwicklung ein ganz einfaches, aus zwei Zellen - einer Nervenzelle (Photorezeptorzelle) und einer Farbstoffzelle (Pigmentzelle) - bestehendes Auge existiert haben mußte, das ausreichte um seinem Träger bereits das Richtungssehen und damit einen Selektionsvorteil zu ermöglichen. Ausgehend von diesem höchst einfachen Prototyp hätten sich dann die viel komplexeren Augen eines Insekts, eines Fisches, eines Vogels entwickelt.
Tatsächlich konnte später ein derartiger Prototyp bei bestimmten Plattwürmern in Japan gefunden werden (Abbildung 1 D). Derartige Neuentwicklungen sind in der Evolution sehr seltene, zufallsbedingte Ereignisse.
Sind die verschiedenen Augentypen aus einem Prototyp oder voneinander unabhängig entstanden?
Neodarwinisten unterlegten Darwins Theorie der „Entstehung der Arten“ mit genetischen Prinzipien. Da die verschiedenen Augentypen einen unterschiedlichen morphologischen Aufbau haben und sich embryologisch unterschiedlich entwickeln, wurde bis in die jüngste Zeit angenommen, daß die Augen in den 40 bis 60 verschiedenen Tiergruppen voneinander unabhängig – polyphyletisch - entstanden seien. Das klassische Dogma, das man zur Zeit noch in fast allen Lehrbüchern findet, besagt, daß das Komplexauge der Insekten und das Linsenauge der Wirbeltiere keine gemeinsamen Vorfahren hätten.
Da sich die Entstehung derartiger Prototypen aber nicht durch Selektion erklären läßt, müßten diese sehr seltenen und zufälligen Ereignisse 40 bis 60 Mal unabhängig voneinander eingetreten sein.. Unsere neueren molekulargenetischen Untersuchungen haben jedoch gezeigt, daß die verschiedenen Augentypen, die man im Tierreich findet, alle durch das gleiche Masterkontrollgen – eine Art Hauptschalter – namens Pax6 gesteuert werden und somit – monophyletisch - auf einen gemeinsamen Ursprung zurückgehen.
Pax6 – essentiell für die Entwicklung des Auges
Welche Gene einen Einfluß auf die Entwicklung des Auges haben, läßt sich auf Grund auftretender Mutationen nachweisen: Bei der Maus wurde eine Mutation („small eye“) beschrieben, die bei mischerbigen Tieren (mit einer defekten und einer funktionstüchtigen Kopie des Gens) zu einer Reduktion der Augen führt. Bei reinerbigen Embryonen (mit zwei defekten „small eye“-Genen von beiden Eltern) werden keine Augen gebildet, aber auch keine Nase und ein großer Teil des Gehirns fehlt – die Embryonen sterben bereits im Uterus. Ein ähnlicher, als Aniridia (= fehlende Iris) bezeichneter Erbdefekt findet sich auch beim Menschen: Individuen mit nur einem funktionstüchtigen Gen bilden im Extremfall keine Iris, sind also blind. Zwei abortive – vermutlich reinerbige Föten hatten, wie bei der Maus keine Augen, Nasen und reduzierte Gehirne.
Die mutantentragenden Gene wurden zuerst bei der Maus und anschließend beim Menschen kloniert und als sogenanntes Pax6-Gen identifiziert; ein bei der Taufliege Drosophila gefundenes homologes Pax6-Gen entsprach der bereits lange als „eyeless“ beschriebenen Mutante. Abbildung 2 Abbildung 2. Die Mutationen des Pax6-Gens. Links: Small-eye bei der Maus (a: normaler Mausembryo, b: mischerbiger Small-eye-Typ, c: reinerbiger Small-eye Typ), rechts eyeless bei der Taufliege (oben: normaler Kopf, unten reinerbiger eyeless-Typ).
Pax6 – Hauptschalter in der Entwicklung und Evolution des Auges
Das Pax6-Gen kodiert für ein Protein, das als Regulator (Transkriptionsfaktor) die Aktivität der ihm untergeordneten Gene steuert und in der Evolution hoch konserviert ist. In der Maus ist dieses Pax6-Protein bereits in den frühesten Stadien der Augenentwicklung – wenn sich das Augenbläschen aus dem Gehirn stülpt – in allen Teilen der Augenanlage exprimiert, ebenso trifft dies für die eyeless-Mutante der Fliege zu.
Diese Übereinstimmung zwischen Wirbeltieren und Wirbellosen brachte mich auf die Idee, es könnte sich bei Pax6 um ein Masterkontrollgen – einen Hauptschalter – in der Augenentwicklung handeln. Den Nachweis ob dieses einzelne Gen fähig ist, die gesamte Kaskade der für die Augenentwicklung benötigten, mehr als tausend Gene zu induzieren, versuchten wir durch gezielte „ektopische“ Expression von Pax6 zu erbringen, d.h. durch Expression nicht nur in den Augen sondern beispielsweise in Beinen, Flügeln, Antennen der Taufliege. Da der Entwicklungsgang dieser Körperteile bereits im frühen dritten Larvenstadium festgelegt wird, mußte Pax6 noch vor diesem Zeitpunkt „angeschaltet“ werden.
Zur großen Überraschung der Fachwelt war dieser Versuch erfolgreich, es gelang zusätzliche Augen auf den erwähnten Körperteilen zu erzeugen (Abbildung 3). Wie später gezeigt wurde, waren diese Augen auch zum Sehen befähigt. Abbildung 3. Ektopische Induktion zusätzlicher Augen in der Taufliege durch Pax6. Gezielte Expression des mutierten Pax6 Gens „eyeless“ (Drosophila) führt zur Induktion zusätzlicher Augen in den Antennen (oben links) und in den Beinen (oben rechts). Drosophila. Das Maus Pax6-Gen induziert ebenfalls zusätzliche Augen in den Antennen (umten links, rechts in Vergrößerung). Die zusätzlichen Augen sind durch rote Linien markiert.
Außerdem konnte gezeigt werden, daß auch die Expression des Pax6-Gens der Maus geeignet ist, zusätzliche Augen in ektopischen Stellen der Taufliege zu erzeugen. Die Pax6-Gene von Wirbeltieren und Wirbellosen sind also in ihrer Funktion äquivalent! Diese erstaunlich hohe evolutionäre Konservierung deutet auf einen starken Selektionsdruck und auf die wichtige funktionelle Bedeutung des Gens hin. Zusätzliche Augen wurden auch in Frosch-Embryonen erzeugt, denen das Pax6-Genprodukt der Taufliege injiziert worden war. Schlußendlich wurde das Pax6-Gen in einer Vielzahl an Spezies bis hin zu den Plattwürmern gefunden.
Schlußfolgerungen
Unsere molekulargenetische Untersuchungen haben ergeben, daß das Augenentwicklungsprogramm bei allen Tieren von den Plattwürmern bis zu den Säugetieren, den Menschen miteingeschlossen, übereinstimmt. Rund 65 % der Gene, die in der Retina der Taufliege exprimiert werden, sind auch in der Retina der Maus aktiv. Zuoberst in der Hierarchie steht das Masterkontrollgen Pax6. Bereits der zweizellige Prototyp des Auges, der noch in den Plattwürmern gefunden wird, wurde von Pax6 gesteuert. Diese Steuerung wurde auch bei allen höheren Lebewesen beibehalten, hat aber zu den verschiedensten Augentypen geführt, wobei immer mehr Gene (beispielsweise für die Entwicklung der Linsen) in den Entwicklungsweg eintraten.
Der Ursprung all dieser Typen geht also vom selben Prototyp aus. Die Hypothese Darwins ist damit glänzend bestätigt worden. Abbildung 4.
Abbildung 4. Schema der Evolution des Auges. Der erste Schritt ist die Evolution eines Lichtrezeptormoleküls, das bei allen vielzelligen Organismen Rhodopsin ist. Aus der ersten einzelligen Photorezeptorzelle entstand dann durch Pax6- und MITF-gesteuerte Zelldifferenzierung der zweizellige, von Darwin postulierte Prototyp des Auges (MITF ist ein Regulator für die Pigmentzelle). Aus diesem Prototyp haben sich alle komplexeren Augentypen entwickelt, wobei immer mehr Gene(beispielsweise für die Entwicklung der Linsen) in den Entwicklungsweg eintraten.
Weiterführende Links
PBS - Genetic Toolkit 4:47 min (Englisch)
International workshop on Evolution in the Time of Genomics (7 – 9 May 2012)- part 07. 1:27:37. Vortrag von Walter Gehring rund 30 min (ab: 38 min). (in Englisch; setzt etwas an biologischen Grundkenntnissen voraus)
Reinhard Böhm, ScienceBlog-Autor, ist tot
Reinhard Böhm, ScienceBlog-Autor, ist totDo, 11.10.2012 - 05:20 — Inge Schuster
In einem am 9. Oktober erschienenen Nachruf bezeichnet „Der Spiegel“ Reinhard Böhm als österreichischen Vater der Klimaforschung sowie einen der bedeutendsten Klimaforscher der Welt und charakterisiert ihn in äußerst treffender Weise: „Seine kritische Haltung widersprach oftmals der gerade modernen Meinung zu Umweltthemen ... er sprach jeder Art ideologischer, voreingenommener Wissenschaft sein Misstrauen aus.” In unserem Blog soll Reinhard Böhm noch einmal gehört werden: seine Ansichten zur Klimahysterie, aber auch ganz allgemein zum Wissenschaftsbetrieb in Österreich.
Es ist nun gerade vier Wochen her, dass der letzte Beitrag von Reinhard Böhm „Spielt unser Klima verrückt – zur Variabilität der Klimaschwankungen im Großraum der Alpen“ im Blog erschienen und auf das – bis jetzt – größte Echo gestoßen ist. Am 9. Oktober erreichte uns die bestürzende Nachricht, daß Reinhard Böhm am Vortag plötzlich und völlig überraschend gestorben sei, an den Folgen eines Herzinfarkts, den er bei Feldmessungen auf den Gletschern des Sonnblickgebietes erlitten hatte.
Reinhard Böhm hat seit 1973 an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) gearbeitet, mehr als 150 Studien veröffentlicht – die meisten über Klima- und Gletscherforschung im Alpenraum – und damit die Klimaforschung auch international geprägt. Neben seiner Tätigkeit als höchstrenommierter Wissenschafter hat Böhm versucht, den aktuellen Stand seines Fachgebietes der Öffentlichkeit klar und verständlich zu vermitteln, jedoch immer auf wissenschaftliche Korrektheit bedacht. Demzufolge war das Konzept unseres ScienceBlogs ganz nach seinem Geschmack, und er hat sofort zugesagt, Beiträge zu liefern.
Der Versuch, Reinhard Böhm seinen Verdiensten als Wissenschafter und Persönlichkeit entsprechend zu würdigen, gelingt vielleicht am besten, indem man ihn selbst nochmals zu Wort kommen lässt. Im folgenden finden sich Auszüge aus dem e-mail Verkehr mit ihm vor rund vier Wochen: aus den von ihm vertretenen Standpunkten und kritischen Betrachtungen tritt die Person Reinhard Böhms als wahrer, gegen jede ideologische, voreingenommene Wissenschaft ankämpfender Naturforscher klar zutage.
Neugier als Antrieb der Forschung
„Für mich ist Neugier der allein erstrebenswerte Antrieb zur Forschung, und nicht der heute gerade in meinem Fach so dominante „postnormale“ (nach Funtovicz und Ravetz), der in einer rein zweckgebundenen Forschung endet. In meinem Fach ist das schlicht „die Rettung der Welt vor der Klimakatastrophe“, und das führt dann sehr schnell zu dem Zustand, dass nur noch öffentlich ausgetragene Hahnenkämpfe von „Alarmisten“ gegen „Abwiegler“ (letztere oft auch „Skeptiker“ genannt) erzeugt, und bei dem die „normale“ Forschung auf der Strecke bleibt.“
Sonnblick als immaterielles Kulturerbe und ist Naturwissenschaft unter Kultur einzustufen?
„Ich muss noch einige Texte schreiben, die notwendig sind, um den Sonnblick (bzw. dessen Klimadatensatz, um genau zu sein) in das „immaterielle Kulturerbe Österreichs“ aufzunehmen. Das ist eine auf den ersten Blick vielleicht etwas skurril erscheinende Idee unseres Direktors (bzw. eines Herrn vom Außenministerium, der in einer einschlägigen UNESCO-Kommission sitzt), die vielleicht nicht von Erfolg gekrönt sein wird: Etwas Naturwissenschaftliches als immaterielles Kulturerbe, inmitten von Dingen wie „Märchenerzähler“, „Spanische Reitschule“, „Ötztaler Mundart“ oder „Heiligenbluter Sternsinger“ zu plazieren, scheint einem gelernten Österreicher von vornherein als aussichtslos.
Gerade das hat mich aber auch gereizt, da für mich (ich glaube, da habe ich Ähnliches auch bei ihnen im Blog schon gelesen) dieser weitestgehende Ausschluss der Wissenschaft und ganz speziell der Naturwissenschaft aus dem, was man hierzulande unter „Kultur“ versteht, ärgert.
Deshalb werde ich die nächsten zwei oder drei Tage wohl speziell damit verbringen, die nötigen Bewerbungslisten mit Argumenten zu füllen, warum ein Klimadatensatz, der auf einem 3100m hohen Berggipfel seit 1886 praktisch ohne Lücken erzeugt worden ist, ein Kulturgut darstellt. Wäre später evt. auch ein Thema für ScienceBlog (?).“
Zum ScienceBlog
“Ich bin gern bereit, auch künftig mit Ihnen bzw. dem ScienceBlog zusammen zu arbeiten. Ich lese übrigens auch des Öfteren darin, was meistens ein Gewinn und ein Genuss ist. In die Rolle eines Kommentators anderer Beiträge bin ich (noch) nicht hineingewachsen - übrigens auch nicht in anderen Blogs, z.B. den von mir sehr geschätzten www.klimazwiebel.blogspot.com , den ich Ihnen auch empfehlen kann. Nicht zuletzt deshalb, da dort u.a. oft die Debatte „normale vs. postnormale“ Wissenschaft geführt wird. Daran hat mich bei Ihnen im ScienceBlog z.B. der Artikel über die Neugier als Forschungsantrieb (im Juli, Peter Schuster) erinnert.”
Von den Gletschern und von den Eisbären
Reinhard Böhm hat mir den sarkastischen, humorvollen und überaus lesenswerten Artikel „Von den Gletschern und von den Eisbären“ zugeschickt („Ich schieße gleich noch einen älteren Artikel nach, den ich anlässlich der Rauriser Literaturtage 2007 in einer Literaturzeitschrift unterbringen konnte (da damals auf unseren Vorschlag das Thema „Literatur trifft Wissenschaft“ das Thema war).“)
Darin charakterisiert sich der Autor in treffendster Weise selbst: „Trotzdem nehme ich mir heraus, in der Wissenschaft auf Exaktheit zu bestehen, Zweifel immer zu zulassen, sie aber, genauso wie Übertreibungen im Dienste der guten Sache, nachzuprüfen und aufzuzeigen.“
Ich hoffe, ich verletze kein Copyright, wenn ich abschließend einige Absätze aus diesem Artikel anführe:
„Wir haben sie alle schon gesehen, die beeindruckenden Bildvergleiche von Alpengletschern aus der Anfangszeit der Freiluftfotografie im späten 19. Jahrhundert und den kümmerlichen Resten des „ewigen Eises“ auf modernen Aufnahmen – eines Eises, das so ewig nicht mehr zu sein scheint."
"Wenn dann noch in den Hochglanzbroschüren von Umweltorganisationen oder im Fernsehen zur Universumzeit eine Eisbärenmutter mit zwei Kindern – meistens haben diese sogar Namen, damit wir uns mit ihnen besser identifizieren können – im nördlichen Eismeer schwimmt, und weit und breit kein Eis zu sehen ist, dann, spätestens dann ist wohl dem letzten Zweifler klar, dass wir knapp vor der größten Katastrophe dieses Jahrhunderts stehen, die über die Menschheit gerade hereinbricht. Der berühmte Eisbär, der von einer Eisscholle zur anderen springt, hat ja für den Klimawandel beinahe den Kultstatus erreicht, den das Ivo-Jima Foto der Soldaten mit der amerikanischen Flagge für das US Marine Corps hat."
"Was ist denn so schlecht daran, den Gletscherrückgang, das kalbende Polareis und die Eisbären dazu zu benützen, Betroffenheit zu erzeugen, um die Menschen zu einer Umkehr zu bewegen? Gehen die Gletscher denn nicht zurück, kalbt das Polareis denn nicht, ist es denn unwahr, dass die Eisbären zunehmend Schwierigkeiten bekommen, auf dem Packeis Robben zu killen?"
"… Der Zusammenhang scheint einfach und klar. Eis schmilzt, wenn es wärmer wird, und die Gletscher und das polare Meereis gehen zurück. Damit werden die Jagdgründe des Eisbären immer kleiner, und er ist vom Aussterben bedroht. Warum also bin ich Nörgler immer noch skeptisch und schließe ich mich noch immer nicht so ohne weiteres der Mehrheit der Klimaexperten an, von denen manche schon vor Jahren gemeint haben „geforscht ist nun genug, der Fall ist klar! Nun ist es Zeit zu handeln!“ Bin ich vielleicht wirklich einer von diesen Climate Sceptics? – eine Bezeichnung übrigens, die von einfacheren Gemütern gerne als Totschlagargument eingesetzt wird, wenn es bei ihnen für echte Argumentation nicht reicht. Interessant, dass wir in der Klimadebatte schon so weit sind, Skeptizismus tatsächlich als etwas Negatives einzustufen – für mich ist er jedenfalls immer noch eines der Fundamente für wissenschaftlichen Fortschritt, und einer der Hauptantriebe überhaupt, Wissenschaftler zu sein. Aber ich bin ja auch einer, der gerne Sätze mit mehr als fünf Wörtern schreibt, bei denen man sich konzentrieren sollte, wenn man sie liest. "
"Darüber hinaus bin ich der Ansicht, dass man sich in der Wissenschaft spezialisieren muss, um auf irgendeinem Gebiet auf der Höhe der Zeit zu sein – schon wieder so eine veraltete Verschrobenheit von mir, wo doch heute jeder weiß, dass Vernetzung, die Zusammenführung des Detailwissens das Gebot der Stunde sind! Da dieser mir gefühlsmäßig auch sympathische, aber unendlich schwierig zu erfüllende Anspruch zur Interdisziplinarität gerne in die Untiefen der Banalität abgleitet, möchte ich mich hier ganz bewusst auf Sachverhalte beschränken, die in das Arbeitsgebiet der kleinen Forschungsgruppe fallen, in der ich arbeite: die Rekonstruktion des Klimas der Vergangenheit und die Gletscher."
"Zurück also zum Gletscherrückgang, einem der führenden heiligen Kühe des Klimawandelmarketings. Dieser Kuh habe ich selbst viel Futter gegeben. Seit jetzt schon mehr als 25 Jahren fotografiere ich im Herbst die Gletscher der Goldberggruppe hier im Talhintergrund von Rauris, immer von denselben Standorten aus, bis hinauf zum Herzog Ernst zum Alteck und zur Wasserfallhöhe. Manche davon wurden schon seit 1896 von meinen Vorgängern benutzt. Vergleiche der alten Aufnahmen mit meinen eigenen habe ich wiederholt dazu herangezogen, um den Gletscherrückgang zu illustrieren. Ich selbst bin immer wieder beeindruckt von seinem enormen Ausmaß, wenn ich etwa im leeren Gletscherbett des Kleinfleißkeeses stehe und 150 Höhenmeter über mir die Seitenmoräne der Gletscherzunge sehe, die vor 150 Jahren noch bis dort hinauf gereicht hat.… "
"Es erinnert mich auch daran, dass es jetzt höchste Zeit ist, den nötigen Hinweis darauf zu geben, dass ich nicht von der Erdölindustrie bezahlt werde ... dass ich nicht anzweifle, dass sich die untere Atmosphäre erwärmt und weiter erwärmen wird, und dass ich sogar selbst zu dem Wissen darüber im Rahmen meiner Möglichkeiten beigetragen habe. Trotzdem nehme ich mir heraus, in der Wissenschaft auf Exaktheit zu bestehen, Zweifel immer zu zulassen, sie aber, genauso wie Übertreibungen im Dienste der guten Sache nachzuprüfen und aufzuzeigen. Das Thema Klimawandel ist mir jedenfalls zu ernst, um es den Marketingstrategen von privaten Umweltorganisationen, der Kernkraft- und der Versicherungslobby zu überlassen.“
Wer sich ein ausführliches Bild von der entspannten, ja schmunzelnden Art Reinhard Böhms machen möchte, die aber keinen noch so kleinen Spielraum für Ungenauigkeit jedweder Art zuließ, dem sei sein Buch »Heiße Luft – nach Kopenhagen" anempfohlen, das auf der Webseite des Austria Forum als freies e-Book online abrufbar ist.
Weiterführende Links
Kondolenzbuch (ZAMG)
Nachrufe
Foren
Evolution – Quo Vadis?
Evolution – Quo Vadis?Do, 04.10.2012- 05:20 — Uwe Sleytr
Die Evolution verläuft nach Regeln, die von einfacheren zu immer komplexeren neuen Lebensformen führen. Unglaublich viele dieser Lebensformen sind auf dem Weg bis zu uns Menschen bereits ausgestorben. Wie dieser Weg weitergeht, ist für uns nicht voraussehbar.
Wir leben wissenschaftlich in einer faszinierenden Zeit. Einzelwissenschaften, wie beispielsweise Physik, Chemie, Biologie, Zell- und Molekularbiologie, Genetik, Synthetische Biologie, Materialwissenschaften und Kognitionswissenschaften, verlieren ihre Grenzen. Wir sprechen auch von einem Paradigmenwechsel, weg von den Einzelwissenschaften hin zu den „Converging Sciences“, also einer methodischen Verschmelzung der Wissens- und Forschungsgebiete. Fragt man nach den Gründen für diese Entwicklung, zeigt sich immer deutlicher, dass über ein immer tiefer gehendes Verständnis der Materie und der ihr innewohnenden Fähigkeit immer komplexere Strukturen einzunehmen, auch die Grenzen zwischen unbelebter und belebter Materie verschwinden. Am Horizont unserer Erkenntnis sehen wir immer klarer einen dem Universum innewohnenden Mechanismus. Insbesondere sind es die Gesetzmäßigkeiten der biologischen Evolution, die unsere naturwissenschaftliche Denkweise beeinflussen.
Die Kreativität der Evolution
Die Evolution besitzt keine Intelligenz aber ihre schöpferische Kraft, neue Systeme hervorzubringen, ist phantastisch.
In kosmischen Dimensionen gedacht, sind wir mit einer etwa 3,5 Milliarden Jahre dauernden biologischen Evolution auf unserer Erde vermutlich erst in einer sehr frühen Phase der Entwicklungsmöglichkeiten oder des „Potentials“ des Lebens. Jetzt ist die Evolution eben erst beim Menschen angelangt. Provokant formuliert: Jetzt haben die Gesetzmäßigkeiten der Evolution eben erst den Menschen hervorgebracht. Selbst wenn wir uns sehr ernst nehmen und uns (aus offensichtlicher Arroganz heraus) als „Krone der Schöpfung“ bezeichnen, müssen wir akzeptieren, dass auf dem Weg bis zum Menschen bereits unglaublich viele Lebensformen ausgestorben sind. Wir sind somit – sehr wahrscheinlich – auch ein Zwischenprodukt auf einem nicht immer kontinuierlich laufenden Wege zu einer immer höheren Komplexität des Lebens oder der Lebensformen.
Unser Dilemma ist, dass wir zwar in der jüngsten Zeit unserer Geschichte die molekularen Mechanismen, die zur Evolution führen, mehr und mehr verstehen und auch erstmals Methoden entwickeln, um gezielt in das Erbgut einzugreifen, diese Erkenntnisse aber nicht ausreichen, um die biologische Evolution im Sinne des ihr innewohnenden Prinzips zu betreiben. Soweit wir es erkennen, experimentiert die Natur nach dem Prinzip: Was „funktioniert“ setzt sich durch. Wie aber die Evolution in Fortsetzung des bisherigen Ablaufes weitere Systeme erzeugt und verfeinert – oder sollte man vielleicht besser sagen: „verfeinert wird“ – ist eine der faszinierendsten Frage der Gegenwart.
Jedenfalls ist der Stand unserer heutigen wissenschaftlichen Erkenntnis, dass die Evolution ein System mit Regeln aber ohne Zielrichtung ist, das sich – zumindest auf der Ebene von Molekülen wie z.B. den Nukleinsäuren – im Reagenzglas experimentell ausführen lässt. Das heißt aber auch, dass das, was wir als Evolution erleben und erkennen, ein dem Universum innewohnender Mechanismus ist, bei dem „Chaos und Ordnung“ eng miteinander verbunden sind. „Chaos und Ordnung“ sind dabei zwei Pole desselben Phänomens, und wie auch mathematische Modelle zeigen, ist die Musterbildung und Selbstorganisation der Materie zu komplexeren Formen ein tief im Universum verankertes System.
Ich verweise in diesem Zusammenhang nur auf die Schlüsselarbeiten von Mandelbrot, die stark darauf hinweisen, dass der Natur – die biologische Welt eingeschlossen – eine Mathematik zugrunde liegt (Abbildung 1). Offensichtlich beruhen komplexe Systeme oft auf sehr einfachen Regeln. Bei den Fragen nach der Entstehung der Vielfalt der Formen nimmt das Problem der Rückkopplung von Prozessen und der damit verbundenen nicht Vorhersehbarkeit der Ereignisse eine immer zentralere Stellung ein.
Abbildung 1. Die Mandelbrot-Menge (oben). Die Iteration einer einfachen Beziehung (zn+1 = zn2 + c, die Zahlen zi und c sind komplexe Zahlen) führt zu einem ungeheuren Formenreichtum selbstähnlicher Strukturen. Derartige, sogenannte fraktale Strukturen finden sich auch in der Natur (unten): Farn, Eis auf Glasscheibe, Romanesco (Karfiol-Variante).
Grenzen der Erkenntnisfähigkeit
Exzellente Wissenschaft bewegt sich auf einem reproduzierbaren Methodengefüge mit der gegebenen Limitierung, dass man mit seinen Experimenten in der gesicherten Erkenntnis nur so weit kommen kann, wie es die verfügbaren Methoden erlauben. Leider kommen wir auf diese Weise aber in unserer Erkenntnis nur dorthin, wohin wir können und nicht wohin wir wollen. Wir sind mit unserer Neugier und unserem Erkenntnisfortschritt gleichsam ein an einem Treibanker hängendes Schiff. Wir sehen den Horizont aber wir wissen nicht was dahinter liegt. Zudem führen die Erkenntnisse der Wissenschaft systemimmanent fast immer zu neuen Fragestellungen. In vielen Bereichen der Naturwissenschaften bewegen wir uns nur auf einem „reproduzierbaren Netzwerk der Erkenntnisse“. Aber was liegt dazwischen? Werden wir in diese offenen Bereiche je hineinschauen können, und werden wir diese Bereiche je mit „Erkenntnissen“ füllen können?
Wenn wir unsere Position als Menschen auf der Basis der Erkenntnisse der Eigenschaften der Materie betrachten, bleiben unendlich viele Fragen offen und wir müssen uns – ob wir wollen oder nicht – zur Erkenntnis durchringen, dass wir nur einen Abschnitt in der weiterlaufenden biologischen Evolution auf der Erde repräsentieren, mit der Einsicht und dem Bewusstsein, dass ein tiefes Verständnis des Kosmos für immer jenseits unseres Verständnishorizontes liegen wird. Vieles was uns in einem kontinuierlichen Prozess vom „Einfachen“ zum immer „Komplexeren“ ausmacht, wird sehr wahrscheinlich auf Grund der Limitierung unseres neuronalen Netzwerkes (Erkenntnisleistung) nie erkennbar werden.
Was kommt nach uns?
Unsere engsten Verwandten, die Schimpansen, erfüllen uns mit Erstaunen, wenn sie primitive Werkzeuge verwenden. Beispielweise mit Grashalmen Termiten aus Löchern im Bau zu holen oder zu lernen mit Steinen Nüsse aufzuschlagen. Es würde uns allerdings nie in den Sinn kommen, ihnen die Relativitäts- oder Quantentheorie bzw. die Möglichkeiten der Synthetischen Biologie zu erklären. Obwohl wir uns, bildlich gesprochen, als die „Krone der Schöpfung“ ansehen, müssen wir erkennen, dass wir im Zuge der Evolution und der dem Universum innewohnenden Prinzipien – in einem vorhersehbaren Zeitverlauf – also im Verlauf der kommenden Evolutionsgeschichte uns als Äquivalente der Schimpansen finden könnten. Wir müssen akzeptieren, dass es Erkenntnishorizonte gibt, die selbst den genialsten Vertretern unserer Spezies nicht zugänglich sind und auch nicht zugänglich sein werden.
Der Abstand von einem instinktmotivierten Verhalten zu einem abstrakten Denken, könnte den gleichen Abstand geben wie unser abstraktes Denken zur nächsten Stufe des Erkennens in der Evolution. Wir müssen wohl erkennen, dass für uns Menschen diese „nächste“ Stufe ungeachtet aller unserer naturwissenschaftlichen Anstrengungen (auch der zukünftigen Möglichkeiten von künstlicher Intelligenz) nicht zugänglich sein wird. Der Abstand zu uns mag dann wie zwischen dem einen Grashalm verwendenden Schimpansen zum Physiker am Teilchenbeschleuniger des CERN liegen.
Ausblick
Abbildung 2. Monster – Kreative „Schöpfungen“ auf der Basis bekannter Module (Hieronymus Bosch um 1500)
Wir sind auf dem Punkt der Erkenntnis, dass die gesamte Komplexität des Universums bestimmten Regeln entspricht. Wir wissen, dass basierend auf diesen Regeln bei einer fortlaufenden Evolution Erstaunliches entstehen wird, aber die Produkte sind für uns nicht vorhersehbar. Der Versuch, die nächsten Stufen der Evolution aus den bisherigen Abläufen zu extrapolieren, muß in „Science Fiction“ enden, die – entsprechend unserer Erkenntnisfähigkeit – auf der kreativen Verwendung bekannter Module aufbaut (Abbildung 2).
Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt
Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhelltDo, 27.09.2012- 00:00 — Gottfried Schatz
Sonnenlicht ist eine unerschöpfliche Energiequelle, welche die Natur schon sehr früh mit Hilfe des grünen Sonnenkollektors Chlorophyll in verwertbare Energie umzuwandeln gelernt hat.
Am Anfang war das Licht. Der Urknall, der das Universum vor etwa 14 Milliarden Jahren schuf, war eine Explosion strahlender Energie. Als sich das Universum dann ausdehnte und abkühlte, ermattete das Licht zu unsichtbaren Radiowellen. Schon nach einigen hunderttausend Jahren begann eine 30 Millionen Jahre währende Finsternis, in der sich ein Teil der Strahlung zu Materie verdichtete. Diese wiederum ballte sich zu Gaswolken und dann zu Galaxien zusammen. In deren Innerem presste die ungeheure Schwerkraft Atomkerne so stark zusammen, dass sie miteinander verschmolzen und dabei gewaltige Energiemengen als Licht freisetzten. Die atomaren Feuer dieser ersten Sterne schenkten dem jungen Universum wieder Licht.
Licht essen
Abbildung 1: Explodierter Stern ("Krebsnebel"). Es handelt sich um die Überreste der Supernova von 1054. Deutlich erkennt man, wie Gas (und somit im Stern produzierte schwere Elemente) in die Umgebung geschleudert wird. Aufnahme: Hubble Space Telescope.
Manche Sterne fanden in ihrer Galaxie keine stabile Umlaufbahn und stürzten schliesslich – zusammen mit dem Rest der Gaswolke – zum Mittelpunkt der Galaxie in ein Schwarzes Loch. Bei diesem Todessturz heizten sich diese Sterne so stark auf, dass sie für kurze Zeit heller erstrahlten als die Abermilliarden Sterne der gesamten Galaxie. Die meisten dieser gigantischen, aber kurzlebigen Lichtquellen erloschen bereits vor etwa 10 Milliarden Jahren. Dennoch sehen wir sie noch heute, weil die rasende Ausdehnung des Universums nach dem Urknall sie – zusammen mit ihrer Galaxie – so weit in die Fernen des Universums getrieben hatte, dass ihr Licht uns erst jetzt erreicht.
Viele Sterne brannten schliesslich aus oder explodierten und lieferten so die Bausteine für neue Sterne. Einer von diesen ist unsere Sonne, die erst vor 4,5 Milliarden Jahren zu leuchten begann. Wie manche andere Sterne schleuderte sie bei ihrer Geburt einen Teil von sich ab und formte ihn zu Planeten. Auf einem dieser Planeten bildeten winzige Materieklumpen immer komplexere Gebilde, die sich fortpflanzten, bewegten und schliesslich sogar Intelligenz und Bewusstsein erlangten.
Abbildung 2: Photosynthese schematisch. Kohlenstoff (C) und Wasserstoff (H) verbleiben in Form komplizierterer Verbindungen als Zellulose in der Pflanze.
Ich bin ein später Spross dieses Adels hochgeordneter Materie. Mein Stammbaum ist über 3,5 Milliarden Jahre alt und lässt mich stolz sein. Meine Vorfahren «erfanden» schon sehr früh den grünen Sonnenkollektor Chlorophyll und konnten sich so vom Licht der Sonne ernähren. Um bei allzu greller Sonne deren gefährliches Ultraviolettlicht zu meiden, entwickelten sie überdies Sensoren für kurzwelliges Blaulicht und konnten so die Welt in Farben sehen.
Ich trage drei chemische Nachkommen dieses Blau-empfindlichen Sensors in meiner Netzhaut – sie erkennen Blau, Grün und Rot. Da ihre Farbbereiche überlappen und mein Gehirn ihre Signale miteinander vergleicht, kann ich nicht nur drei, sondern Millionen verschiedener Farben sehen.
Und doch bin ich nahezu blind, denn was ich als Licht empfinde, ist nur ein winziger Bruchteil aller elektromagnetischen Wellen. Diese reichen von 1000 Kilometer langen Radiowellen bis zu den Millionstel mal Millionstel Meter kurzen Gammastrahlen explodierender Sterne. Meine Augen erkennen lediglich Wellenlängen zwischen 400 und 700 Milliardstel Meter und melden sie meinem Gehirn als die Farben des Regenbogens – von Blauviolett bis Tiefrot.
Meine Sonnenlicht essenden Vorfahren haben das Antlitz unseres Planeten tiefgreifend verändert. Da sie eine unerschöpfliche Energiequelle hatten, überwucherten sie das Land und die Meere. Und da sie dabei Sauerstoffgas aus dem Wasser freisetzten, reicherte sich dieses Gas in der ursprünglich sauerstofffreien Atmosphäre immer mehr an. Bald entwickelten einige Lebewesen die Fähigkeit, die Überreste anderer Zellen mit Hilfe dieses Gases zu verbrennen – sie «erfanden» die Atmung. Unser Körper und unsere Nahrung sind gespeicherte Lichtenergie – ein Abglanz des atomaren Feuers in unserer Sonne.
Licht senden
Ein schwacher Widerschein dieses Feuers glimmt sogar in den Tiefen unserer Weltmeere. Diese sind der weitaus grösste Lebensraum auf unserem Planeten, ab einer Tiefe von 1000 Metern jedoch dunkle, kalte und oft auch sauerstoffarme Wüsten. Wie orientieren Lebewesen sich in dieser schier grenzenlosen Finsternis? Wie finden sie Beute – oder Paarungspartner? Und wie erkennen sie rechtzeitig Räuber, um ihnen zu entfliehen? Vieles davon ist noch Geheimnis. Wir wissen jedoch, dass die meisten Tiefseebewohner dafür Lichtsignale verwenden. Gewöhnlich erzeugen sie diese in eigenen Lichtorganen, in denen Nervenimpulse die Reaktion körpereigener Substanzen mit Sauerstoff auslösen und dabei «kaltes» Licht erzeugen – wie Glühwürmchen dies tun. Einige Fische züchten in ihren Augensäcken sogar lichtproduzierende Bakterien und schalten diese raffinierten Scheinwerfer durch Hautbewegungen an und ab.
Auch viele Meeresbakterien erzeugen Licht, doch im Gegensatz zu ihnen versenden Fische, Kopffüssler und Schalentiere ihr Licht meist in Pulsen, die vielleicht Information tragen. Das ausgesandte Licht ist fast immer blaugrün, da solches Licht Wasser besonders leicht durchdringt. Deswegen begnügen sich viele Tiefseefische mit einem einzigen, blaugrün-empfindlichen Sehpigment und leiten dessen Signale mit sehr hoher Verstärkung an das Gehirn. So können sie zwar keine Farben sehen, dafür aber kurze und schwache Lichtsignale mit grosser Genauigkeit orten.
Schwach leuchtender Verstand
Abbildung 3: Idiacanthus atlanticus (Schwarzer Drachenfisch). Weibchen. Wikimedia Commons.
Ein Lichtpuls kann jedoch auch Beute alarmieren oder Räuber anlocken. Der in Tiefen ab 1000 Metern lebende Schwarze Drachenfisch umgeht diese Gefahr, indem er nicht nur blaugrünes, sondern auch tiefrotes Licht aussendet, das für andere Tiere unsichtbar ist. Über diese Privatfrequenz kann er sich ohne Störung von aussen mit seinen Artgenossen verständigen und ahnungslose Opfer ins Visier nehmen. Seine Rotscheinwerfer erzeugen zunächst blaugrünes Licht, verwandeln es aber mit Hilfe eines zusätzlichen Farbstoffs in rotes Licht und «reinigen» dieses dann noch mit einer farbigen Linse. Um das tiefrote Licht seiner Artgenossen wahrzunehmen, speichert der Drachenfisch in seinen Augen eine Variante des grünen Chlorophylls, das rotes Licht wirksam verschluckt und dessen Energie auf noch rätselhafte Weise an den Blaugrün-Sensor der Fischnetzhaut weitergibt. Da der Drachenfisch Chlorophyll nicht selbst herstellen kann, nimmt er es wahrscheinlich mit der Nahrung auf – doch wir wissen nicht, von wem. Was immer die Antwort sein mag – alle lichtspendenden Stoffe und der für ihre Reaktion erforderliche Sauerstoff stammen letztlich von eingefangener Sonnenenergie. Die pulsierenden Lichtpunkte in den Tiefen unserer Weltmeere sind ferne Nachkommen des Sonnenlichts.
Vieles an uns und der Welt ist rätselhaft und dunkel – und die Finsternis unserer Vorurteile bedrohlicher als die der Meerestiefen. Unser Verstand ist uns Licht in dieser Finsternis. Er leuchtet nur schwach – und ist dennoch das wunderbarste aller Sonnenkinder.
Lise Meitner – weltberühmte Kernphysikerin aus Wien
Lise Meitner – weltberühmte Kernphysikerin aus WienDo, 20.09.2012- 05:20 — Lore Sexl
Lise Meitner hat, nachdem sie als zweite Frau vor mehr als hundert Jahren an der Universität Wien in Physik promovierte, die wissenschaftliche Laufbahn eingeschlagen und grundsätzliche Beiträge zum Verständnis des Aufbaus von Atomkern, Atomhülle und der Vorgänge beim radioaktiven Zerfall geleistet. Lise Meitner ist ein herausragendes Beispiel dafür, dass - auch für Frauen und unter schwierigsten Bedingungen - naturwissenschaftliche Begabung gepaart mit Enthusiasmus und enormem Einsatz zu Erfolg und Ruhm führen kann.
... ich fühle beinahe täglich mit Dankbarkeit, wieviel ich an Gutem und Schönem von zuhaus mitbekommen habe. Letzten Endes ist es noch heute der Boden, auf dem ich stehe ...." Lise Meitner an die Wiener Physikerin Berta Karlik 1951
JAHRE DER PRÄGUNG - WIEN 1878-1907
Mitten in die Regierungszeit Kaiser Franz Josephs wird Elise Meitner am 17. November 1878 als drittes von acht Kindern des Hof- und Gerichtsadvokaten Philipp Meitner und seiner Frau Hedwig, geb. Skovran, in Wien geboren. Durch Versehen eines Beamten wird der 7. November 1878 zu ihrem amtlichen Geburtsdatum. Lise Meitner und ihre sieben Geschwister wachsen in einem liberalen, intellektuellen, von Musik und Kultur geprägten Elternhaus auf.
Lise Meitner schließt die Bürgerschule 1892 ab, damit ist die Schulausbildung der noch nicht Vierzehnjährigen beendet. Doch Lise Meitner will unbedingt studieren. Von Kindheit an interessiert sie sich für Naturwissenschaften und Mathematik.
1892 gibt es in Wien keine öffentlichen Gymnasien für Mädchen, für Lise Meitner bleibt nur die Möglichkeit der Externistenmatura. Auf Drängen ihrer Eltern macht sie eine Ausbildung als Französischlehrerin und unterstützt die Ausbildung der beiden älteren Schwestern durch Privatstunden. In ihrer Freizeit arbeitet sie bei sozialen Hilfsorganisationen. Im Alter von zwanzig Jahren erhält sie von den Eltern finanzierten Privatunterricht, um sich auf die Externistenmatura vorzubereiten. Im Juni 1901 bestehen nur vier von vierzehn Mädchen die "überhaupt nicht einfache Prüfung" am Akademischen Gymnasium in Wien.
Im Wintersemester 1901/02 inskribiert Lise Meitner an der Philosophischen Fakultät der Universität Wien; sie belegt die Fächer Physik, Mathematik und Philosophie. Zu ihren Lehrern gehören: Franz Seraphin Exner, Adolf von Lieben, Anton Lampa und der von ihr besonders verehrte Ludwig Boltzmann.
Die Jugendjahre um die Jahrhundertwende in Wien prägen Lise Meitners Leben bis ins hohe Alter. In dieser Zeit entstehen ihre lebenslange Passion für Musik und ihr Interesse für Literatur. Lise Meitner liest in französischer, englischer, lateinischer und griechischer Sprache.
Abbildung 1. Lise Meitner 1906 (Bild: Wikipedia)
Lise Meitner promoviert am 1. Februar 1906 mit Auszeichnung; sie ist die zweite Frau, die an der Wiener Universität im Hauptfach Physik promoviert. Um eine gesicherte Arbeitsmöglichkeit zu haben, legt sie auch die Lehramtsprüfung für Mathematik und Physik ab, obwohl sie niemals Lehrerin werden will.
1906 beginnt Lise Meitner auf Anregung von Stefan Meyer in dem jungen Gebiet der Radioaktivität zu arbeiten. Ihre erste selbständige Arbeit über Radioaktivität ist die Messung der Absorption von Alpha- und Betastrahlen in Metallen.
Obwohl Lise Meitner in knapp zwei Jahren vier eigenständige wissenschaftliche Arbeiten macht, hat sie wie die meisten Mitarbeiter der Physikalischen Institute keine Aussicht auf eine bezahlte Anstellung an der Universität. 1906 lehnt sie das Angebot einer gut dotierten Stelle in der Gasglühlichtfabrik von Carl Auer von Welsbach ab; sie will in der Forschung bleiben. Sie bittet ihre Eltern um weitere finanzielle Unterstützung und beschließt, bei Max Planck, dem Begründer der Quantentheorie, weiterzustudieren.
Mit der Absicht, ein oder zwei Semester in Berlin zu bleiben, verläßt Lise Meitner im Herbst 1907 ihre Heimatstadt Wien.
JAHRE DER WISSENSCHAFT - BERLIN 1907-1938
„Herzlich liebe ich die Physik. Ich kann sie mir schwer aus meinem Leben wegdenken. Es ist so eine Art persönliche Liebe, wie gegen einen Menschen, dem man sehr viel verdankt, und ich, die ich so sehr an schlechtem Gewissen leide, bin Physikerin ohne jedes böse Gewissen.“(Lise Meitner an Elisabeth Schiemann, 1915)
Max Planck wird Lise Meitners wissenschaftliches und menschliches Vorbild. Da Frauen an preußischen Universitäten noch nicht zugelassen sind, ersucht Lise Meitner Max Planck, seine Vorlesungen hören zu dürfen. Max Planck erkennt Lise Meitner´s große wissenschaftliche Begabung und gestattet ihr nicht nur, seine Vorlesungen in theoretischer Physik zu besuchen.
Neben der theoretischen Weiterbildung sucht Lise Meitner eine experimentelle Tätigkeit. 1907 beginnt die mehr als dreißigjährige Zusammenarbeit mit dem gleichaltrigen Radiochemiker Otto Hahn (Abbildung 2). Die Erforschung der Radioaktivität erfordert von Anfang an den gleichzeitigen Einsatz physikalischer und chemischer Methoden. Meitner und Hahn ergänzen sich in ihrer Zusammenarbeit ideal.
Zu den Laboratorien der Universität hat Lise Meitner als Frau keinen Zugang. Gemeinsam mit Otto Hahn experimentiert sie in einer ehemaligen Tischlerwerkstatt. Sie arbeitet zunächst unentgeltlich als Gast und lebt von der Unterstützung ihrer Eltern in einem kleinen Untermietzimmer; oft überlegt sie, ob sie Zigaretten oder Brot kaufen soll.
In den ersten gemeinsamen Arbeitsjahren konzentrieren sich Meitner und Hahn auf die Untersuchung von radioaktiven Elementen und ihren Zerfallskonstanten.
Ab 1910 spezialisiert sich Lise Meitner auf die Untersuchung der radioaktiven Betastrahlen. Lise Meitner gehört bald zu dem Kreis führender Wissenschaftler und nimmt an den legendären, von Max von Laue geleiteten "Berliner-Mittwoch-Kolloquien" teil, in denen die aktuellen physikalischen Themen besprochen werden. Sie hat Gelegenheit zu fruchtbaren Diskussionen mit Max Planck, Max von Laue, Gustav Hertz, Peter Pringsheim, Albert Einstein, James Franck und Otto von Baeyer.
1912 wird Lise Meitner Max Plancks Assistentin und hat mit 33 Jahren zum ersten Mal eine bezahlte Anstellung. Sie ist "der erste weibliche Universitätsassistent" Preußens. 1912 übersiedeln Meitner und Hahn in das Kaiser-Wilhelm-Institut für Chemie in Berlin-Dahlem. Die neuen Laboratorien haben den Vorteil, nicht radioaktiv kontaminiert zu sein.
Von August 1915 bis Oktober 1916 arbeitet Lise Meitner als Röntgenassistentin in österreichisch-ungarischen Lazaretten.
1917 entdecken Meitner und Hahn nach jahrelangem Experimentieren die Muttersubstanz des Actiniums, die den Namen Protactinium erhält.
1917 wird Lise Meitner der Titel Professor verliehen; sie wird Direktorin einer für sie geschaffenen radiophysikalischen Abteilung am Kaiser-Wilhelm-Institut und löst sich nun in ihrer Arbeit völlig von Otto Hahn. 1922 habilitiert sich Lise Meitner bei Heinrich Rubens und Max von Laue mit der Arbeit "Über die Entstehung der Betastrahlspektren radioaktiver Substanzen". Habilitationskolloquium und -vortrag werden ihr erlassen.
In den Jahren 1922-1925 klärt Lise Meitner wesentliche Eigenschaften der Betaspektren auf. Sie leistet damit grundsätzliche Beiträge zum Verständnis des Aufbaus von Atomkern, Atomhülle und der Vorgänge beim radioaktiven Zerfall.
Lise Meitner ist die erste, die erkennt, daß die Betastrahlen Atomelektronen entsprechen, die aus inneren Elektronenschalen, - das bedeutet hohe Energie - stammen. Diese werden durch die Absorption von Gammastrahlen ausgelöst, die aus dem Atomkern bei spontanen Umwandlungen freigesetzt werden. Die Energien der Betastrahlen entsprechen dem umgewandelten Atom. Damit weist sie nach, daß die Emission der Elektronen erst nach der Atomumwandlung (verbunden mit der Emission des Gammastrahls) erfolgt.
Die Jahre zwischen 1917 und 1933 gehören zu den wissenschaftlich erfolgreichsten Jahren in Lise Meitners Leben.
Als Adolf Hitler 1933 an die Macht kommt, verliert Lise Meitner durch das "Gesetz zur Wiederherstellung des Berufsbeamtentums" im September 1933 die Lehrbefugnis. Die Stellung am Kaiser-Wilhelm-Institut bleibt ihr als österreichische Staatsbürgerin erhalten. Trotz intensiver Interventionen von Planck und Hahn im Wissenschaftsministerium ist Lise Meitner ab 1933 von allen universitären Veranstaltungen ausgeschlossen.
Max Planck, Max von Laue und Werner Heisenberg schlagen Lise Meitner mehrfach für den Nobelpreis vor. Diese soziale und wissenschaftliche Isolation ist ausschlaggebend, daß sie 1934 wieder eine gemeinsame Arbeit mit Otto Hahn initiiert, die Erzeugung von den sogenannten Transuranen: Elemente, die bei Beschuss von Uran mit Neutronen entstehen und daher schwerer als Uran sind. Der analytische Chemiker Fritz Straßmann wird 1934 zu den Experimenten zugezogen.
Nach dem Anschluss Österreichs im März 1938 wird Lise Meitner Reichsdeutsche, die Rassengesetze gelten nun auch für sie. Ihre Lage am Institut verschlechtert sich dramatisch. Am 10. Juli 1938 schickt das Team Meitner, Hahn, Straßmann die letzte gemeinsame Arbeit an die "Naturwissenschaften". Am 13. Juli 1938 flieht Lise Meitner mit einem Handkoffer über einen wenig frequentierten Grenzübergang in die Niederlande.
In den Jahren 1908-1938 publiziert sie 59 Arbeiten alleine und 68 Arbeiten gemeinsam mit Otto Hahn und anderen.
JAHRE DES EXILS: STOCKHOLM - CAMBRIDGE 1938-1968
„Etwas komme ich mir wie ein Toter vor, dessen Stimme nicht mehr gehört werden kann“ (Lise Meitner an E. Schiemann 1939)
Lise Meitner entschließt sich, die von Manne Siegbahn angebotene Stelle am neu gebauten Nobelinstitut in Stockholm anzunehmen. Die Arbeitsbedingungen am Institut von Siegbahn sind für sie extrem schlecht. Es fehlt an den einfachsten Arbeitsgeräten. Sie hat kaum menschlichen Kontakt, weder einen Laboranten noch einen Assistenten und bezieht das Gehalt eines Anfängers. Erst nach drei Jahren hat sie die Möglichkeit, eine Vorlesung zu halten.
Die Entdeckung der Kernspaltung.
In Berlin setzen Otto Hahn und Fritz Straßmann die gemeinsam mit Lise Meitner begonnenen "Transuranexperimente" fort (Abbildung 3). Beim Beschuß des Urankerns mit Neutronen weisen Hahn und Straßmann ein Element nach, das sich chemisch wie das "leichte" Element Barium und nicht wie das erwartete "schwere" Transuran verhält. Otto Hahn informiert nicht seine Mitarbeiter am Institut, sondern bittet seine Kollegin in Stockholm um eine physikalische Erklärung.
Im Dezember 1938 beginnt ein reger Briefwechsel zwischen Berlin und Stockholm, der den Ablauf der Berliner Experimente und die wesentlichen Beiträge, die Lise Meitner zur Deutung der Kernspaltung leistet, kommentiert: Briefwechsel zur Kernspaltung).
Ende Dezember 1938 berichtet Lise Meitner ihrem Neffen Otto Robert Frisch über die Ergebnisse von Hahn und Straßmann. Meitner und Frisch erklären das Zerplatzen des Urankerns. Das "Zerplatzen" des Urankerns in zwei Bruchstücke mit Hilfe des Bohrschen Tröpfchenmodells. Sie schätzen nach Einsteins Formel E=mc2 die frei werdende Energie ab. Für den Vorgang des Zerplatzens eines Urankerns durch Neutronenbeschuß in zwei leichtere Bruchstücke prägen sie den Begriff "nuclear fission" bzw. Kernspaltung.
Für die Entdeckung der Kernspaltung erhält Otto Hahn den Nobelpreis für Chemie 1944. Meitner und Straßmann werden nicht berücksichtigt.
Lise Meitner und Otto Hahn ist die Gefährlichkeit der Auswirkung der Kernspaltung voll bewußt. Beide sprechen sich gegen die Erzeugung von Kernwaffen aus.
Meitner, Hahn und Straßmann sind an der Entwicklung der Atombombe völlig unbeteiligt. Es ist unwahrscheinlich, daß Lise Meitner Kenntnis von den Arbeiten in den USA und in England hatte.
Im August 1945 fallen Atombomben auf Hiroshima und Nagasaki.
Lise Meitner rückt als Mitentdeckerin der Kernspaltung in das Licht der Öffentlichkeit; in Europa und USA werden zahlreiche Interviews mit ihr veröffentlicht.
Lise Meitner macht ihrer engsten Freundin der Biologin Elisabeth Schiemann, aber auch Otto Hahn und Max von Laue und anderen Kollegen in Deutschland den Vorwurf, passiv und ohne Widerstand das Hitlerregime hingenommen zu haben. Im Juni 1945 schreibt sie an Otto Hahn einen Brief, der ihn aber nie erreicht hat: Lise Meitner macht Otto Hahn den Vorwurf, ihren Anteil an der Kernspaltung nicht genügend gewürdigt und sie nur als "seine Mitarbeiterin" bezeichnet zu haben.
Zwischen Meitner und Hahn kommt es immer wieder zu Spannungen, Kontroversen und Mißverständnissen, die sich bei persönlichen Aussprachen und in Briefen im Laufe der Jahre auflösen.
Ende 1945 nimmt Lise Meitner eine Gastprofessur an der katholischen Universität in Washington D.C. an und hält ein Semester lang Vorlesungen über Kernphysik. Sie wird von Präsident Truman empfangen, erhält vier Ehrendoktorate und wird wegen ihres Beitrages zur Kernspaltung zur Frau des Jahres gewählt, wie Jahre zuvor Marie Curie.
1950 besucht sie zum ersten Mal wieder ihre Heimat Österreich. Es ist der erste von vielen weiteren Besuchen. Lebenslang behält sie die österreichische Staatsbürgerschaft, 1950 nimmt sie die schwedische Staatsbürgerschaft nur unter der Bedingung an, die österreichische behalten zu können.
Lebensabend in Cambridge
Mit 82 Jahren übersiedelt Lise Meitner von Stockholm nach Cambridge, um in der Nähe ihrer Verwandten zu leben. Auch im hohen Alter macht sie viele Reisen; sie hält Vorträge in den Vereinigten Staaten, Deutschland und Österreich. Weihnachten 1964 fährt sie mit 86 Jahren zum letzten Mal in die Vereinigten Staaten und hält Vorlesungen.
Lise Meitner stirbt wenige Tage vor ihrem 90. Geburtstag in einem Pflegeheim in Cambridge. Auf ihren Wunsch wird sie auf dem kleinen Dorffriedhof von Bramley in der Nähe von Cambridge beigesetzt.
Lise Meitners letztes öffentliches Auftreten im kleinen Kreis ist die Entgegennahme des Enrico Fermi Preises am 23. Oktober 1966 in Cambridge. Ihre Dankesworte sind:
... Es ist alles so schwierig geworden, weil wir an den alten Grundlagen hängen, die nicht mehr da sind. Es ist in der Politik nicht anders als in der Kunst. Überall ist es ein Suchen nach neuen Grundlagen, nach neuen Ausdrucksformen und wenig bewußter Wille, sich gegenseitig zu verstehen und sich zu verständigen ... Wir lernen langsam. Trotzdem glaube ich daran, daß es einmal wieder eine vernünftige Welt geben wird, auch wenn ich es nicht mehr erleben werde."
Zentralismus und Komplexität
Zentralismus und KomplexitätDo, 13.09.2012- 00:00 — Peter Schuster
Zentralismus versagt in der Kontrolle hochkomplexer Systeme. Ein eindrucksvolles Beispiel aus den Regulationsmechanismen der Natur. Die Ineffizienz zentraler Kontrollen ist uns allen aus unserem täglichen Leben bekannt. In der Natur ist das Problem der Regulation komplexer Systeme, wie der Genexpression in höheren Organismen, durch ein Zusammenspiel von zentraler und dezentralisierter Kontrolle gelöst.
Die Aussage, daß eine zentrale Kontrolle großer, komplexer Einheiten zum Scheitern verurteilt ist, stellt eine Binsenweisheit dar. Wirtschaft und Gesellschaft untermauern die Gültigkeit dieser Aussage durch zahllose Beispiele in der Vergangenheit und Gegenwart, welche beweisen: Systeme werden ineffizient, sobald sie eine kritische Größe überschreiten. Bereits in frühen Zeiten waren sich kluge Herrscher dieses Problems bewußt und haben dem eine Strategie des „divide et impera“ entgegengesetzt.
Die Natur scheint eine elegante Lösung für die Regulation ihrer großen, hochkomplexen Systeme gefunden zu haben, indem sie modulare Strukturen verwendet und die Module darin partielle Autonomie besitzen. Das beste Beispiel dafür ist der Vielzeller-Organismus, in welchem jede einzelne Zelle über gerade so viel Autonomie in ihrem Stoffwechsel verfügt, als toleriert werden kann ohne dem gesamten System Schaden zuzufügen: Ein wenig mehr Unabhängigkeit für somatische Zellen und unlimitiertes Wachstum – ein Tumor – kann entstehen.
Zentrale Kontrolle in Bakterien
Die Regulierung von Stoffwechsel und Vermehrung der einfachsten Lebensformen, der Bakterien, wird noch zentral gesteuert. Um möglichst effizient zu bleiben, sich möglichst effizient zu vermehren, ist den Bakterien in der Größe ihres Genoms aber eine Obergrenze gesetzt. Wie aus der Sequenzierung von mehr als tausend bakteriellen Genomen hervorgeht, ist es die darin enthaltene Zahl an regulatorischen Genen, welche die Größe des Genoms limitiert [1, 2]: Bakterien mit einem kleinen Genom von einigen hundert Genen besitzen nur wenige dieser regulatorischen Gene. Mit wachsender Größe des Genoms nimmt deren Zahl aber in einer quadratischen Funktion zu (Abbildung 1) und führt schließlich dazu, daß jedes der nicht-regulatorischen Gene – welche ja für die in Stoffwechsel und Vermehrung essentiellen Proteine kodieren - ein eigenes regulatorisches Gen zur Steuerung besitzt. Es ist evident, daß eine weitere Steigerung dieses „Überwachungs-/Kontrollsystems“ zu „kostspielig“ wird, eine maximale Größe erreicht ist.
Abbildung 1. Die Zahl der regulatorischen Gene im bakteriellen Genom wächst mit dessen Größe im quadratischen Ausmaß. Die Zahl der Gene im Genom und die Zahl der Regulatorgene sind im logarithmischen Maßstab dargestellt. Meßwerte in Grün stammen von Archäbakterien, in Blau von Bakterien. Bild modifiziert nach Croft et al., [2].
Zusammenspiel von zentraler Kontrolle und dezentralisierter Regulation in höheren Organismen
Eukaryonten – das sind alle höheren Organismen von der Hefe bis zum Menschen – benutzen für die Regulation ihrer wesentlich komplexeren Systeme der Genexpression ein Zusammenspiel von zentraler Kontrolle und dezentralisierter Regulation:
- Zentral ist dabei die genetische Kontrolle auf der DNA-Ebene, d.h. auf der Ebene der Übersetzung der in den Genen festgelegten, noch rohen Baupläne für Proteine.
- Dezentralisiert erfolgt die Regulation der in die Vorläufer-Messenger RNA (pre-mRNA) kopierten (transkribierten) Baupläne durch alternatives Auseinanderschneiden (splicing) und Zusammenfügen von Abschnitten der pre-mRNA zu reifen Messenger-RNAs, den für die Synthese der Proteine verwendeten Vorlagen (siehe unten, Abbildung 2) und
- Eine Reihe von epigenetischen Regulationsmechanismen greifen am Gen selbst oder in späteren Phasen der Übersetzung regulierend ein.
Die Erforschung des Zusammenwirkens dieser Mechanismen ist neuesten Datums, basierend auf der im Human Genome (HUGO) Projekt erfolgten Entschlüsselung des menschlichen Genoms, d.h. aller Gene, welche die Baupläne für die den Aufbau und Stoffwechsel unseres Organismus bestimmenden Proteine enthalten. Damals, im Jahr 2001, war die Verwunderung groß, als beim Menschen mit rund 22 000 für Proteine kodierenden Genen nicht viel mehr Gene als beispielsweise beim Wurm Caenorhabditis (rund 19000 Gene) festgestellt wurden und diese insgesamt nur rund 1,5 % des gesamten Genoms ausmachten.
Das ENCODE-Projekt
Welche Funktion haben nun die restlichen – nicht für Proteine kodierenden – 98,5 % der DNA, sind diese nicht – wie häufig angenommen - zum Großteil nur Müll (junk DNA)? Ein riesiges internationales Team von 442 Forschern hat sich mit dem „Encyclopedia of DNA Elements (ENCODE)-Projekt“ die systematische Erkundung aller funktionellen Elemente der DNA zum Ziel gesetzt und vor wenigen Tagen die ersten Ergebnisse in rund 30, öffentlich zugänglichen Publikationen veröffentlicht [2]. Demnach konnten bereits zu rund 80 % der DNA biochemische Funktionen zugeordnet werden, die direkt – zentral - am Chromosom oder indirekt über RNA-Transkripte, die nicht in Proteine übersetzt werden und über weitere Mechanismen regulieren wann, in welchen Zelltypen, unter welchen Bedingungen und in welchem Ausmaß Gene abgelesen und in Proteine übersetzt werden.
Für unsere Frage nach zentraler und dezentraler Regulierung kommt dabei besondere Bedeutung dem Mechanismus zu, mit dem die ursprünglich in der genetischen Information vorhandenen Baupläne in funktionelle Proteine übersetzt werden, dem Vorgang des alternativen Splicing der pre-mRNA (siehe oben).
Hier wendet die Natur erfolgreich ein Modul-Schema an (Abbildung 2): Dasselbe Stück DNA, das von einem Gen in eine pre-mRNA transkribiert wird, kann durch unterschiedliches Herausschneiden und Zusammenfügen diverser Abschnitte zur Bildung mehrerer reifer mRNA Moleküle und in der Folge zu unterschiedlichen Proteinen führen. Wie ENCODE zeigt, folgt diese Expression keiner minimalistischen Strategie: abhängig vom individuellen Organismus und den Zelltypen/Geweben in welchen die Expression stattfindet, entstehen aus einer pre-mRNA simultan bis zu 10 – 12 Isoformen, wobei jeweils zumindest zwei Isoformen vorherrschen.
Abbildung 2. Genexpression und Alternatives Spleißen in eukaryontischen Zellen: Aus ein und demselben Gen, das in eine pre-mRNA kopiert (transkribiert) wurde, entstehen durch Alternatives Spleißen dieser pre-mRNA mehrere unterschiedliche reife mRNAs und aus diesen durch Proteinsynthese an den Ribosomen (Translation) eine Reihe verschiedener Protein-Isoformen.
Zweifellos ist das von ENCODE gezeichnete Bild noch ein sehr unvollständiges, und wir müssen auf Überraschungen gefasst sein. Was aber als gesichert angesehen werden kann, ist, daß es Eukaryonten gelungen ist, durch dezentrale Regulierungsmechanismen – einem „divide et impera“ - die Limitierung in der Anzahl ihrer Gene aufzuheben und höchstkomplexe Systeme zu steuern.
Zentrale – dezentrale Kontrolle: Versuch einer ökonomischen Betrachtung
Um eine grobe Abschätzung der unterschiedlichen „Kosten“ von zentraler versus dezentraler Kontrolle zu treffen, wollen wir ein zentral reguliertes, 10 000 Gene enthaltendes Genom eines Bakteriums vergleichen mit einem gleich großen, virtuellen System, das aber aus 10 lokal regulierten Genomen zu je 1000 Genen bestehen soll:
Im Fall der zentralen Organisation werden – wie aus Abbildung 1 ableitbar - rund 1200 Regulatorgene benötigt [1, 2]. Im dezentralen System reicht dagegen ein kleines Zentrum - beispielsweise mit 180 Regulatorgenen (jeweils 4 Gene für die insgesamt 45 paarweisen Wechselwirkungen) – aus um die Aktivitäten der 10 Untersysteme kontrollieren, je 12 Gene pro Untersystem sollten für dessen Regulation genügen und jeweils 2 „Kontrolloren“ für die Meldungen aus den Untersystemen an das Zentrum. In Summe könnte damit das skizzierte dezentralisierte Modell mit insgesamt 320 Regulatorgenen - einem Viertel des Bedarfs des zentralen Modells - sein Auslangen finden.
Fairerweise muß man dazu anmerken, daß bei einem Einsparen von rund ¾ der Kontrolloren im dezentralisierten Modell auch einiges an Information verloren gegangen ist. Der Großteil der Kontrollfunktionen wird lokal geregelt, das „Nachrichten-Hauptquartier“ erhält gerade soviel an Information, wie für das Management der Wechselwirkungen zwischen den Untersystemen absolut erforderlich ist und kann damit kaum Planungen für die Zukunft des gesamten Systems anstellen. Derartige Konzepte können ja kaum ohne ein umfassendes Bild des gesamten Umfeldes und der daraus abgeleiteten Schlußfolgerungen erstellt werden.
Der Darwin`sche Mechanismus einer Optimierung durch Variation und Selektion braucht sich aber um die Zukunft nicht zu kümmern, da er ja nach einem Prinzip von „trial and error“ vorgeht. Für sich allein existierende Vielzeller-Organismen können damit leicht mit einem Mindestmaß an zentraler Kontrolle und „Zukunftsplanung“ auskommen. Natürlich ändert sich die Situation, wenn es um Gesellschaften im Tier- und Menschenreich geht. Erziehung und Lernen des einzelnen Individuums verändern hier den Darwinischen Mechanismus in einen Lamarckschen: Information, die ein einzelnes Mitglied der Gesellschaft erhalten hat, kann schnell und weitgehend auch an zukünftige Generationen weitergegeben werden, zentralisierte Prognosen über zukünftige Entwicklungen liegen daher im Interesse der Gesellschaft. Ein Zuviel an Föderalismus, ein Zuwenig an zentraler Steuerung ermöglichen hier kaum eine erfolgreiche Planung für die Zukunft. Dazu möchte ich nur ein zur Zeit wichtiges Beispiel anführen: das Versagen einer weltweiten Reduktion der Kohlendioxyd-Emissionen trotz eindeutigen Nachweises von dessen Notwendigkeit.
Schlußfolgerung aus akademischer Sicht
Die Ineffizienz zentraler Kontrollen kennen wir alle aus unserem täglichen Leben. Wenn man an einer großen Universität mit mehr als 80 000 Studenten arbeitet, möchte man die Lehre aus dem Beispiel der Bakterien ziehen, daß die Größe eines Systems limitiert ist, das zentral verwaltet werden kann. Für eine dezentralisierte Universitätsverwaltung sprechen viele Gründe, einer davon liegt darin die Kosten für die „Overheads“ gering zu halten, da diese ja die ohnehin stark begrenzten Mittel der Forschungsgelder dramatisch reduzieren:
Wir sollten daher auf unsere Forschungstätigkeit fokussiert sein und nicht darauf unsere Dekane und Rektoren permanent über Ideen und Planungen zu unterrichten, die sich möglicherweise nicht realisieren lassen, wenn wir - wie es ja unsere Aufgabe ist - ins Neuland vorstoßen. Der Erfolg dieses Vorgehens läßt sich an den Veröffentlichungen in der wissenschaftlichen Literatur sehr gut ablesen und bietet damit die Basis für Evaluierungen durch die zentrale Verwaltung. In den meisten anderen Belangen sollte sich diese aber heraushalten und kann damit so klein wie möglich gehalten werden.
Einzelnachweise und Quellen:
[1] EV Koonin, YI Wolf (2008) Genomics of bacteria and archaea: the emerging dynamic view of the prokaryotic world. Nucleic Acids Res. 36:6688-6719.
[2] Croft, L.J.; Lercher, M.J.; Gagen, M.J.; Mattick, J.S.(2003) Is prokaryotic complexity limited by accelerated growth in regulatory overhead? Genome Biology, 5:P2
[3] The ENCODE Project Consortium. An integrated encyclopedia of DNA elements in the human genome. Nature 489: 57- 74. 6 September 2012
Glossar
DNA: Desoxyribonucleinsäure; ein üblicherweise in Form eines Doppelstranges (Doppelhelix) vorliegendes Polymer, welches die primäre genetische Information aller Zellen enthält.
RNA: Ribonucleinsäure. Polymere, welche unterschiedliche biochemische Funktionen ausüben können, in der Umsetzung von genetischer Information (Genexpression) ebenso wie als katalytisch aktive Moleküle.
Pre-mRNA: primäres Transkript (Umschreibung) eines zu einem Gen gehörenden Abschnitts der DNA in ein mRNA-Molekül, durch alternatives Splicen entsteht daraus die messenger-RNA (mRNA).
Alternatives Splicen: Abschnitte der pre-mRNA, die keine kodierende Informationen enthalten (Introns), werden entfernt und die verbleibenden Abschnitte (Exons) in unterschiedlicher Weise miteinander verbunden. Damit können aus ein und demselben Gen/derselben pre-mRNA mehrere verschiedene reife mRNA-Moleküle entstehen und aus diesen mehrere unterschiedliche Proteine.
Weiterführende Links
ENCODE: Encyclopedia Of DNA Elements (video 4,4 min) ENCODE, the Encyclopaedia of DNA Elements, is the most ambitious human genetics project to date. ENCODE: Encyclopedia of DNA Elements (video 6,5 min) Ewan Birney of EMBL-EBI, Tim Hubbard of the Wellcome Trust Sanger Institute and Roderic Guigo of CRG talk about ENCODE, an international project which revealed that much of what has been called 'junk DNA' in the human genome is actually a massive control panel with millions of switches regulating the activity of our genes.
Read more about this at: http://www.embl.org/press/2012/120905_Hinxton.
Spielt unser Klima verrückt? Zur Variabilität der Klimaschwankungen im Großraum der Alpen
Spielt unser Klima verrückt? Zur Variabilität der Klimaschwankungen im Großraum der AlpenDo, 06.09.2012- 05:20 — Reinhard Böhm
Treten mit dem Klimawandel extreme Klimasituationen - Hitzewellen, Kältewellen, Trockenperioden und Starkniederschläge - immer häufiger auf? Die Analyse von 250 Jahren Klimavergangenheit aus direkten Messungen im Großraum Alpen (HISTALP) spricht dagegen.
Im öffentlichen Diskurs wird es als erwiesen betrachtet, dass der Klimawandel mit einer Zunahme von Häufigkeit und Intensität extremer Wettersituationen einhergeht. So formulierte beispielsweise Erwin Mayer, ein Klimaexperte von Greenpeace, im Jahre 2005 „Heute gibt es in der Wissenschaft keine Zweifel mehr daran, dass das Klima immer extremer wird!“
Zu diesem Thema hat sich der Weltklimarat IPCC (Intergovernmental Panel on Climate Change) in seinem jüngsten, 2012 erschienenen Bericht [1] allerdings sehr vorsichtig geäußert: „Confidence in observed changes in extremes depends on the quality and quantity of data and the availability of studies analyzing these data, which vary across regions and for different extremes“ und diesbezüglich angemerkt: „Extreme events are rare, which means there are few data available to make assessments regarding changes in their frequency or intensity.”
Tatsächlich existiert ein ungewöhnlich langer und hochwertiger Datensatz aus dem Großraum Alpen, welcher auf die weltweit längste Tradition an Klimaaufzeichnungen – bis 250 Jahre in die Vergangenheit – zurückblicken kann. Diese Daten erfüllen die Ansprüche an Qualität und Quantität der Messreihen, an Dichte des Messnetzes und statistischer Signifikanz. Führt man an Hand dieser Klimadaten eine Analyse von Klimavariabilität und Klimaschwankungen aus, so findet man nur schwerlich einen Trend der Extremwerte, der vom Trend der Mittelwerte abweicht [2]. Im Gegenteil: Die Temperaturschwankungen sind in den letzten Jahrzehnten sogar geringer geworden. Es ist zwar wärmer geworden, aber die Schwankungen haben eindeutig nicht zugenommen.
Klimadatensammlung aus dem Großraum Alpen
HISTALP (Historical Instrumental Climatological Surface Time Series of the Greater Alpine Region) ist eine öffentlich zugängliche, internationale Klimadatenbank der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) für den Großraum Alpen [3]. Diese Datenbank enthält in monatlicher Auflösung mehr als fünfhundert Zeitreihen von mehreren Klimaelementen (Temperatur, Luftdruck, Niederschlag, Sonnenscheindauer und Bewölkung), darunter 58 Langzeitreihen, die zumindest bis 1830 - einige davon bis vor 1800 - in die „frühinstrumentelle Klimaperiode“ zurückdatieren.
Was bedeutet „Großraum Alpen“ (GAR: Greater Alpine Region)? Dieser schließt auch größere Gebiete Mitteleuropas und des Mittelmeerraums ein, wobei die Alpen eine scharfe Klimagrenze zwischen drei Hauptklimazonen (atlantisch, kontinental, mediterran) darstellen. Abbildung 1 zeigt die aktuelle Karte der Messstationen, wobei entsprechend den Klimazonen eine Regionalisierung in Subregionen Nordost, Nordwest, Südost und Südwest erfolgte.
Abbildung 1. HISTALP Stationsnetz (Stand 2008). Ein Netzwerk von ca. 200 Standorten und mehr als 500 einzelnen Klimazeitreihen, darunter 32 Langzeitreihen, die zum Teil bis 1760 zurückdatieren. Die objektiv analysierte Regionalisierung wird durch unterschiedliche Farben wiedergegeben, die Klimagrenzlinien sind eingezeichnet.
Qualität der Messreihen. Da Messungen in frühen Perioden nicht unbedingt nach heutigen, standardisierten Kriterien stattfanden, wurde für diese Zeitabschnitte eine Anpassung an den aktuellen Zustand von Messstationen und Technologien durchgeführt. Diese Korrekturen von Fehlern und Inhomogenitäten – die sogenannte „Homogenisierung“ der Originaldaten – erfolgte hinsichtlich Änderungen des Standorts, der Instrumentierung, der Mess- und Auswertemethoden, der Umgebung und anderen wichtigen Kriterien. Beispielsweise wurden mehrjährige Parallelmessungen an einer historischen Installation und der modernen Gartenaufstellung in der Langzeitstation des Stifts Kremsmünster durchgeführt. Diese ermöglichten die Bestimmung der Abweichungen der historischen Messungen von den aktuellen Messungen und damit die Erstellung von Korrekturmodellen für den Vergleich der Messwerte der Gegenwart mit den historischen Abschnitten der Messreihen (Abbildung 2).
Abbildung 2. Langzeitmessstelle im Stift Kremsmünster: Parallelmessung der Temperatur. Links: Historische Installation: 6 m vom Boden, Ausrichtung NNE, rechts: moderne Gartenhütte: 2 m vom Boden. Mitte: Differenz der gemessenen Temperatur: „historisch minus modern“ im Tagesverlauf, für die Monate Jänner – Juni.
Zeitliche Auflösung der Messreihen – ausreichend um Klima-Extrema anzuzeigen? Der Datensatz HISTALP wurde zunächst für Zeitreihen in monatlicher Auflösung entwickelt: dadurch war es möglich die „instrumentelle Periode“ sehr weit in die Vergangenheit – bis maximal zum Jahr 1760 – auszudehnen. Die monatlichen Datensätze erweisen sich als durchaus geeignet vor allem die wirtschaftlich bedeutenden und großräumigeren Extremwerte verlässlich anzuzeigen: diese werden in monatlicher, aber auch saisonaler, jährlicher Auflösung gut sichtbar und voll analysierbar. Ein Beispiel dafür ist an Hand der Zeitreihen von lokalen Niederschlagsmengen in Abbildung 3 dargestellt. Die Debatte um Extremwerte als Folge des Klimawandels und um deren gravierende humanitäre und volkswirtschaftliche Folgen wird bei uns noch heute von der Hochwasserkatastrophe im August 2002 dominiert. Auch wenn die damaligen, enormen Niederschläge nur wenige Tage andauerten, treten sie in den Zeitreihen von Abbildung 3 überaus deutlich hervor. Dabei stellen die im Kerngebiet des Hochwassers gemessenen Monatssummen die absolut höchsten Werte auch der längsten Zeitreihen dar. Dass diese Katastrophe räumlich begrenzt war, wird aus den Messungen in den nicht sehr weit entfernten Städten Wien und Regensburg ersichtlich.
Abbildung 3. Niederschlagszeitreihen für den Monat August im Kerngebiet der Hochwasser-Katastrophe im August 2002 und in entfernten Randgebieten. Die Niederschlagsmenge im August 2002 ist farbig (pink) hervorgehoben und mit dem Zahlenwert angegeben (Datenquelle: www.zamg.ac.at/histalp)
Für die Zeit seit 1950 kann in Österreich für die Klimaelemente Minimum- und Maximumtemperatur sowie Niederschlagssumme nun auch auf rund 50 Zeitreihen in täglicher Auflösung zurrückgegriffen werden, die auf der Basis hochkorrelierter Referenz-Messstationen homogenisiert wurden.
Analyse: 250 Jahre Klimavergangenheit [2]
Es kann kein Zweifel daran bestehen, dass es in den letzten Jahrzehnten wärmer wurde, im Alpenraum sogar stärker als im weltweiten Mittel (Abbildung 4). Im Alpenraum können dabei zwei Phasen beobachtet werden: zwischen 1790 und 1890 kam es zu einer Abkühlung um rund 1 °C, in den darauffolgenden 116 Jahren zu einer Erwärmung um 1,48 °C. Im Vergleich dazu war die globale Erwärmung 1890 – 2005 mit 0,74 °C nur halb so hoch. (Globale Messsysteme existieren erst ab 1850.)
Abbildung 4. Abweichungen der Jahrestemperatur vom Mittelwert 1901 –2000. Mittlere Temperatur im Alpenraum (HISTALP-Datenbank): Abweichungen der Einzeljahre und 20-jährig geglättet (rot). Im Vergleich dazu das weltweite Ländermittel 1858 – 2005 (blau; Climatic Research Unit, Univ. East Anglia, Norwich).
Mit der Klimaerwärmung werden natürlich auch Hitzewellen häufiger. Werden damit aber auch die Schwankungen insgesamt immer häufiger und stärker? Stimmt die allgemeine Ansicht, dass es kaum noch Übergangsjahreszeiten gibt, dass alle Jahreszeiten immer mehr durch extreme Kalt-Warm-Schwankungen gezeichnet sind? Unsere Studie [2] zeigt eindeutig, dass das nicht so ist. Dazu gibt es überraschende Ergebnisse (Abbildung 5):
- In den letzten 250 Jahren wurden im Alpenraum die saisonalen und jährlichen Schwankungsbreiten heiß-kalt, trocken-feucht nicht stärker und damit nicht extremer.
- Auch die letzten 30 Jahre, die stark durch den Einfluss des Menschen geprägt sind, zeigen im Vergleich zu den Jahrzehnten davor keinen Trend zu mehr Variabilität.
- In Langzeitverläufen zeigen sich bei Temperatur, Niederschlag und Luftdruck zwei lange Wellen der Variabilität mit einer Wiederkehrzeit von etwa hundert Jahren. Die Tatsache, dass dieser Zeitverlauf in allen drei, unabhängig von einander gemessenen Klimaelementen auftritt, spricht dagegen, dass es sich um Artefakte auf Grund unterschiedlicher Messtechnologien handelt. Variabler („verrückter“) war das Klima in der Mitte der beiden vergangenen Jahrhunderte, weniger variabel („ruhiger“) zu Beginn und Ende der Jahrhunderte. Diese langen Wellen lassen sich vorerst nicht erklären. Eine mögliche Ursache sind Wechselwirkungen mit den Ozeanen, die im Klimasystem sozusagen ein Langzeitgedächtnis besitzen.
Abbildung 5. Veränderungen der Klimaschwankungen für die drei Klimaelemente: Luftdruck, Temperatur und Niederschlag in den drei Subregionen (NW, S, NE) des Alpenraums. Die Zeitverläufe stellen den 90 %-Bereich dar, innerhalb dessen die einzelnen Jahresmittel (bzw. -summen) in 30-jährigen Subintervallen gelegen sind. Die Subintervalle wurden „übergreifend“ (von Jahr zu Jahr fortschreitend) über die regionalen Zeitreihen berechnet.
Fazit und Ausblick
Die Analyse eventueller Trends von Extremwerten in der Vergangenheit erfordert lange und räumlich dichte Zeitreihen und eine sorgfältige Homogenisierung (siehe oben) dieser Datenreihen, um zu signifikanten Ergebnissen zu kommen, da ja die sehr seltenen, sehr starken Ausreißer das Ziel der Analyse sind. Trendanalysen auf der Basis der HISTALP Datenbank, die beide Voraussetzungen erfüllt, kommen zu folgenden Ergebnissen:
- Mit der generellen Klimaerwärmung (Abbildung 4) steigen auch Extremwerte, die sich auf Hitze beziehen, und im gleichem Maß ist ein Rückgang der Kälteindizes zu beobachten. Eine umfassende Trendanalyse der oben erwähnten, in täglicher Auflösung verfügbaren homogenisierten Zeitreihen zeigt innerhalb Österreichs eine eher einheitliche Tendenz zu wärmeren Minimum- und Maximumtemperaturen.
- Die Analyse dieser Zeitreihen hinsichtlich Niederschlagsindizes ergab deren größere räumliche Heterogenität. Eine Langzeitstudie in zwei benachbarten, durch den Alpenhauptkamm getrennten Tälern (Rauristal und Mölltal) der Region Hohe Tauern wies auf einen möglichen Ansatzpunkt für die Weiterentwicklung auf dem Gebiet der Zeitreihenanalysen von Klima-Extremwerten hin. Zumindest in dieser Region ist eine deutliche Ähnlichkeit der Trends von auf Tageswerten beruhenden niederschlagsbezogenen Extremwerten mit den Trends, bzw. den geglätteten Verläufen von Jahres-Gesamtniederschlägen zu sehen. Sollte dieses Ergebnisses auf andere Regionen übertragbar sein, könnte auch in Fällen unzureichender Extremwertindizes auf Tagesbasis eine Abschätzung auf der Basis homogenisierter Zeitreihen mit längerer Zeitauflösung getroffen werden.
- Die Schwankungen in den Klima-Parametern haben in den letzten 30 Jahren, in einer von Menschen geprägten „Greenhouse Gas“ Atmosphäre, nicht zugenommen, für die Temperatur sogar abgenommen (Abbildung 5). Zumindest für den Großraum Alpen ist es also nicht unbedingt zu erwarten, dass zum Beispiel in Gegenden mit generell fallendem Niederschlagstrend (wie etwa im Südosten des Alpenbogens) ein Anstieg der Starkregen zu erwarten ist oder, im umgekehrten Fall in Regionen mit Niederschlagszunahme (wie etwa im Nordwesten des Alpenbogens) die Trockenperioden häufiger werden.
-------------------------------------------------------------
Nachweise und Quellen:
[1] Special Report of the IPCC (2012): Managing the risks of extreme events and disasters to advance climate change adaptation (SREX)
[2] R. Böhm (2012): Changes of regional climate variability in central Europe during the past 250 years. ; The European Physical Journal Plus 127/54, doi:10.1140/epjp/i2012-12054-6
[3] R. Böhm et al., (2009): HISTALP (instrumentelle Qualitäts-Klimadaten für den Großraum Alpen zurück bis 1760).
Wiener Mitteilungen 216, 7 – 20 (PDF-download)
Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält
Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quältDo, 30.08.2012- 00:00 — Gottfried Schatz
Nichts warnt so eindringlich vor Gefahr wie akuter Schmerz, nichts kann so zerstörerisch wirken wie chronischer Schmerz, der seine Signal- und Warnfunktion verloren hat. Der Kampf gegen den Schmerz (und seine überkommenen soziokulturellen Sichtweisen) hat neue, mechanistisch basierte Ansatzpunkte gefunden, deren therapeutische Umsetzung plausibel erscheint.
Wir sehnen uns zeit unseres Lebens nach der Geborgenheit unserer Kindheit. Vielleicht hat Thomas Wolfe sein grosses Epos deswegen «Look Homeward, Angel» genannt. Wo ist mein Schutzengel geblieben, der mich einst behütete? Eltern und Lehrer, die ihn mir schenkten, haben ihn wohl mit sich ins Grab genommen. Dennoch bewahren mich auch heute noch unzählige winzige Hüter vor Gefahr. Es sind Sensoren meines Körpers, die mich sehen, hören, riechen, schmecken, fühlen – und Schmerz empfinden lassen.
Sensoren
Nichts warnt mich so eindringlich vor Gefahr wie der Schmerz. Er fällt mir in den Arm, wenn ich einen brühheissen Tee trinken, barfuss auf einen spitzen Stein treten oder ein gebrochenes Bein bewegen will. Und er lässt mich wissen, dass im Inneren meines Körpers etwas nicht im Lot sein könnte. Schmerz ist mein häufigster Grund für einen Arztbesuch. Die Schmerzsensoren an meiner Körperoberfläche sind dicht gesät, sprechen im Bruchteil einer Sekunde an und lassen mich den Schmerz millimetergenau orten. Die Sensoren meines Körperinneren reagieren viel langsamer. Sie sind zudem spärlicher gesät und sagen mir oft nicht genau, woher ein Schmerz kommt. Sie könnten mich sogar in die Irre führen und mir einen Herzschaden als harmlosen Schulterschmerz melden. Und mein Gehirn kann überhaupt keinen Schmerz empfinden.
Wer keinen Schmerz fühlt, lebt gefährlich – und oft kurz. Vor einigen Jahren entdeckten Ärzte im Norden Pakistans eine Gruppe verwandter Menschen, die keinen Schmerz kennen. Viele von ihnen hatten sich als Kinder einen Teil der Zunge abgebissen oder Glieder gebrochen, ohne es zu bemerken. Und ein Knabe verdiente seinen Lebensunterhalt damit, vor Zuschauern über glühende Kohlen zu laufen oder sich ein Messer in den Arm zu stechen. Er starb, als er kurz vor seinem 14. Geburtstag von einem Hausdach sprang. Diese Menschen fühlen zwar den Stich eines Messers, empfinden ihn aber nicht als unangenehm. Sie sind völlig gesund – ausser dass ihnen ein intaktes Eiweiss fehlt, das in schmerzempfindlichen Nervenzellen ein elektrisches Signal auslöst. Manche Menschen besitzen eine überaktive Variante dieses Eiweisses, das ihr Gehirn mit grundlosen Schmerzsignalen überflutet und ihnen brennende und oft unerträgliche Schmerzen bereitet. Ihre hütenden Schutzengel wurden zu unbarmherzigen Folterern.
Wir haben im Kampf gegen den Schmerz während der letzten zwei Jahrhunderte zwar entscheidende Schlachten gewonnen, den endgültigen Sieg aber noch nicht errungen. Ein Grund dafür ist, dass in unserem komplexen Körper Bewusstlosigkeit und Tod gefährlich nahe beieinander wohnen. Um Knaben den Schmerz der Beschneidung zu ersparen, würgten assyrische Ärzte sie vor dem Eingriff bis zur Bewusstlosigkeit – und oft auch noch darüber hinaus. Und so mancher schmerzlindernder Pflanzenextrakt erwies sich als Todestrunk. Der geniale Paracelsus erkannte zwar bereits um die Mitte des 16. Jahrhunderts die betäubende Wirkung von Äther, kam jedoch nicht auf die Idee, ihn zur Schmerzlinderung bei Operationen einzusetzen. So mussten Menschen noch fast drei Jahrhunderte lang das Grauen chirurgischer Eingriffe bei vollem Bewusstsein erleiden, bis am 13. Oktober 1804 der japanische Arzt Seishu Hanaoka der 60-jährigen Kan Aiya einen Brusttumor unter allgemeiner Betäubung entfernte. Zu dieser Zeit hatte sich Japan unter dem Tokugawa-Shogunat jedoch abgeschottet, so dass diese grossartige Leistung im Westen ebenso unbekannt blieb wie die Zusammensetzung des dabei verwendeten Pflanzenextrakts.
Erst 1841 begann der 27-jährige amerikanische Provinzarzt Crawford Williamson Long, seine Patienten vor Operationen mit Äther zu betäuben. Da er seine Erfolge aber erst sechs Jahre später veröffentlichte, galt lange Zeit der ehrgeizige und umtriebige William T. G. Morton als Erfinder der Äthernarkose. Auf Äther folgte bald darauf Chloroform und schliesslich eine reiche Palette immer wirksamerer und sicherer Narkosegase, die heute nur noch äusserst selten tödliche Zwischenfälle verursachen. Wir wissen immer noch nicht genau, wie sie ihre segensreiche Wirkung entfalten. Wahrscheinlich binden sie sich an wasserabstossende Nischen in den Schmerzsensor-Proteinen und blockieren so deren Funktion.
Unvernunft
Im Kampf gegen den Schmerz mussten wir jedoch nicht nur die Komplexität unseres Körpers, sondern auch die menschliche Unvernunft überwinden. Für viele ist Schmerz gottgewollt und seine Bekämpfung Sünde. Heisst es nicht im Buch Genesis der Lutherbibel: «Und zum Weibe sprach er / Jch wil dir viel schmertzen schaffen wenn du schwanger wirst / Du solt mit schmertzen Kinder geberen»? Die buchstabengetreue Auslegung dieser fatalen Passage führte schon kurz nach den ersten Erfolgen der Äthernarkose zu heftigem Widerstand. Im Jahre 1865 untersagten die Zürcher Stadtväter diese Methode mit der Begründung, dass Schmerz eine natürliche und vorgesehene Strafe für die Erbsünde sei – und jeder Versuch, ihn zu beseitigen, unrecht sei.
Selbst die angesehene Wissenschaftszeitschrift «The Lancet» zeigte sich im Jahre 1853 darüber schockiert, dass Königin Victoria ihr achtes Kind unter Chloroformnarkose geboren hatte. Solche Vorbehalte gehören heute der Vergangenheit an. Für mich ist schmerzfreie Chirurgie die grösste und menschlichste technische Erfindung der letzten zwei Jahrtausende. Als ich vor einigen Jahren wegen eines entzündeten Blinddarms auf dem Operationstisch lag und der Narkosearzt sich kurz vor dem Eingriff über mich beugte, vermeinte ich den Schutzengel meiner Kindheit wiederzuerkennen. Und insgeheim hoffte ich, er möge mein Ich in seine sicheren Hände nehmen und es mir unversehrt wieder schenken.
Migräne, Krebs, Arthrose sowie Erkrankungen der Wirbelsäule oder der schmerzempfindlichen Nerven bereiten jedoch immer noch unzähligen Menschen unerträgliche Qualen, die selbst das gewaltige Morphium nicht immer lindern kann. Hier geben uns die schmerzfreien Pakistaner Hoffnung: Da sie trotz ihrem defekten Protein gesund sind, könnten wir dieses Protein in Schmerzpatienten vielleicht schon bald mit Medikamenten ausschalten und so den Teufelskreis des Schmerzes durchbrechen.
Und die Psyche?
Doch wie steht es mit unserem Kampf gegen psychische Schmerzen? Unsere Gesellschaft akzeptiert und bekämpft sie meist nur in Menschen, die offensichtlich geisteskrank sind, und betrachtet die Entzugsqualen eines Drogenabhängigen als selbstverschuldete und verdiente Strafe. Wie aber, wenn für manche Menschen das Leben ohne Drogen unerträglich wäre? Wie viele dieser Unglücklichen wählen wohl den Selbstmord als Ausweg? Weite Kreise unserer Gesellschaft finden es sündhaft – oder zumindest ungesetzlich – die psychischen Leiden scheinbar normaler Menschen mit «harten» Drogen zu lindern. Feiert die Anti-Narkose-Bewegung unseligen Angedenkens hier fröhliche Urständ? Und könnte diese Geisteshaltung daran mitschuldig sein, dass wir trotz enormen Anstrengungen auf bestem Wege sind, den «Krieg gegen die Drogen» zu verlieren? Die Frage ist zu vielschichtig für eine einfache Antwort – und dennoch müssen wir Antworten suchen. Wiederum kämpfen wir nicht nur gegen die Komplexität unseres Körpers, sondern auch gegen die Macht unserer Unvernunft.
Anmerkungen der Redaktion
Das in dem Artikel erwähnte, bei einigen pakistanischen Kindern festgestellte Fehlen von Schmerzempfindungen beruht auf Mutationen eines Gens (SCN9A). Dieses kodiert für das Protein Nav1.7 (einen Natrium-Kanal), welches eine essentielle Rolle in der Weiterleitung des Schmerzsignals spielt. Infolge der Mutation verliert Nav1.7 seine Funktionsfähigkeit und die Schmerzempfindung wird dadurch ausgeschaltet.
Seit der Publikation dieses neuartigen Mechanismus im Jahr 2006 (J.J. Cox et al., „An SCN9A channelopathy causes congenital inability to experience pain" Nature 2006, 444: 894), haben sich mehrere Pharmaunternehmen zum Ziel gesetzt, das Protein Nav1.7 durch kleine synthetische Moleküle zu blockieren und damit Schmerzen unterschiedlichen Ursprungs auszuschalten. Von drei Firmen – Pfizer, Xenon und Convergence Pharmaceuticals – befinden sich chancenreiche Entwicklungskandidaten bereits in der klinischen Phase 2 – Prüfung an Patienten hinsichtlich Wirksamkeit und Fehlen von (limitierenden) Nebenwirkungen. Ergebnisse werden noch heuer erwartet.
Weiterführende Links (in englischer Sprache)
Der Übersichtsartikel „Hurt Blocker - The next big pain drug may soothe sensory firestorms without side effects” (R.Ehrenberg, 30. Juni 2012)
Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und Unternehmertum
Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und UnternehmertumDo, 23.08.2012 - 00:00 — Inge Schuster
Der österreichische Chemiker Carl Auer von Welsbach (1858 – 1929) war Forscher, Entdecker, Erfinder und Unternehmer in einer Person. Seine drei großen Erfindungen - das Gasglühlicht, die Metallfadenglühlampe und der Zündstein - haben weltweit eine neue Epoche eingeleitet, seine auf diesen Erfindungen basierten Firmen florieren heute noch. Welcher Voraussetzungen bedurfte es zu derartig grandiosen Erfolgen?
Carl Auer von Welsbach kam 1858 in Wien zur Welt. Sein Vater stammte aus einer oberösterreichischen Flößerfamilie, hatte sich als Autodidakt zum Direktor der k.u.k. Hof-und Staatsdruckerei emporgearbeitet und daraus einen weithin berühmten, typographischen Musterbetrieb geschaffen. Der Sohn hatte Begabung, Bildungsdrang, enormen Fleiß und Durchsetzungskraft vom Vater geerbt, diesen in seinen Erfolgen aber weit übertroffen.
Lassen sich Art und Weise, in der Carl Auer von Welsbach Forschung & Entwicklung betrieben hat, als Leitbild auf unsere Zeit übertragen?
Welche Rolle spielten dabei persönliche Eigenschaften und Fähigkeiten, wie Bildung, Wissen, Expertise, Eigeninitiative, Kreativität und systematische Forschung, welche Risikobereitschaft und Geschick in finanziellen Belangen?
Schlußendlich aber auch: welches Umfeld ermöglicht solche Erfolge?
Der Weg zum Wissenschafter
Auer von Welsbach hatte von Jugend an seine Interessen und Fähigkeiten richtig erkannt und eingeschätzt. Diese lagen überwiegend auf naturwissenschaftlichen Richtungen und waren gepaart mit einer besonderen Eignung für akribische experimentelle Arbeiten. So erklärt sich die Wahl der Studienfächer Chemie und Physik, vorerst an der Technischen Hochschule in Wien.
Bereits nach drei Semestern entschloß er sich aber sein Studium in Heidelberg fortzusetzen, welches den Ruf eines Mekkas der Naturwissenschaften hatte und enorm viele Studenten und arrivierte Spitzenwissenschafter anzog.
Insbesondere verdankte Heidelberg seinen Ruf einem Dreigestirn an Persönlichkeiten, die zusammen das gesamte Spektrum der damaligen Naturwissenschaften repräsentierten und außerordentlich zu deren Fortschritt beitrugen, nämlich dem Mathematiker und Physiker Gustav Robert Kirchhoff (1824-87), dem Universalgelehrten Hermann von Helmholtz (1821-94) und dem Chemiker Robert Bunsen (1811-99). Kennzeichnend für diese drei Wissenschafter waren ihr interdisziplinäres theoretisches und praktisches Wissen und ihre hervorragende Kooperation. Auf häufigen Spaziergängen diskutierten sie wissenschaftliche Fragen fachübergreifend, ohne auf Barrieren einzelner Disziplinen zu stoßen (dazu Bunsen: „Ein Chemiker, der kein Physiker ist, ist gar nichts“).
An dem von Robert Bunsen geleiteten Chemischen Institut erhielt Auer seine wissenschaftliche Bildung, die prägend für sein Forschungsgebiet, die darin angewandten Methoden und die daraus resultierenden Innovationen wurde.
Das Bunsensche Laboratorium
Bunsen hatte Durchbrüche in der Chemie ebenso wie in der Physik erzielt. U.a. konstruierte er die Zink-Kohle Batterie (bis zur Erfindung des Dynamos die effizienteste elektrische Energiequelle), erfand die Wasserstrahlpumpe und entwickelte das Standardutensil jedes Laboratoriums, den sogenannten Bunsenbrenner (zusammen mit Peter Desaga) und die Schmelzfluß-Elektrolyse zur Reindarstellung von Metallen. Vor allem entwickelte er zusammen mit Kirchhoff die Spektralanalyse mit deren Hilfe ihnen die spektakuläre Entdeckung von zwei neuen Elementen – den Alkalimetallen Rubidium und Caesium – gelang.
Das vielversprechende Potential der neuen spektroskopischen Methode – nicht nur als Werkzeug zur Entdeckung damals noch unbekannter Elemente, sondern beispielsweise auch zur Analyse des Lichts und damit der Zusammensetzung von Gestirnen - führte zu einem Ansturm von Studenten und Gast-Wissenschaftern aus aller Welt. Zwischen 1852 und 1889 dürften wohl mehr als 5000 Studenten und Gäste in dem Bunsenschen Laboratorium gearbeitet haben. Eine Liste der Mitarbeiter und Schüler [1] ist ein „Who is Who in Chemistry“. Daß „nur“ drei Mitarbeiter (Fritz Haber, Philip Lenard, Adolf von Baeyer) mit dem Nobelpreis ausgezeichnet wurden, ist darauf zurückzuführen, daß dieser erst von 1901 an verliehen wurde.
In diesem wissenschaftlich zu Höchstleistungen stimulierendem Klima verbrachte Auer zwei Jahre (1880 – 82), arbeitete über Trennung und Spektralanalyse Seltener Erden und schloß mit der Promotion zum Doktor ab. (Seltene Erden sind eine Gruppe von 17 Metallen, die als Oxyde in Erzen vorliegen und auf Grund sehr ähnlicher chemischer Eigenschaften nur äußerst schwer voneinander getrennt werden konnten.)
Seine Heidelberger Arbeiten hat Auer nach seiner Rückkehr nach Wien veröffentlicht.
Der unabhängige Forscher und Erfinder
In Wien konnte Auer von Welsbach die Forschungsarbeiten über Trennmethoden der Seltenen Erden nahtlos fortsetzen – neben einem hervorragenden theoretischen und experimentellen Know-How in diesem Gebiet, hatte er auch die benötigten Geräte, Materialien und sogar Gesteinsproben aus Heidelberg mitgenommen. Er arbeitete selbständig und selbstverantwortlich, als unbezahlter „Privatgelehrter“ vorerst in einem Labor des 2. Chemischen Instituts der Universität, dessen Vorstand der organische Chemiker Adolf Lieben war.
Diese reine Grundlagenforschung führte bereits 1885 zur Entdeckung zweier neuer Elemente der Seltenen Erden, Praseodym und Neodym, die er in aufwändigsten Trennverfahren isoliert und charakterisiert hatte. Später entdeckte er zwei weitere Elemente, Ytterbium und Lutetium.
Seine ausgefeilten Trennmethoden ermöglichten es Auer – dann bereits in seiner eigenen Firma in Atzgersdorf (s.u.) – 10 Tonnen Uranerzrückstände aus Joachimsthal aufzuarbeiten und daraus die weltweit größte Menge an Radium zu isolieren.
Ausgehend von seinem Stammgebiet, den Seltenen Erden, und den dafür entwickelten Techniken schlug er neue Wege ein: In kreativer Weise verknüpfte er dabei Erkenntnisse und Methoden der Heidelberger Zeit mit neuen Ansätzen, die er mit Ausdauer, hohem handwerklichen Können und enormen Einsatz ausführte.
Erfindung des Gasglühlichts. Auf Untersuchungen zum außerordentlichen Strahlungsvermögen (Candoluminiszenz) von Seltenen Erden beruht die Erfindung des Gasglühlichts. Auer experimentierte mit Salzen unterschiedlicher Seltener Erden, mit denen er ein Baumwollgestrick imprägnierte, das in Form eines Strumpfes die Gasflamme des Bunsenbrenners umhüllte (Abbildung 2). Nach Veraschung des Gewebes blieb ein Gerüst aus den Oxyden der Elemente übrig, das in der Gasflamme hell strahlte: der Glühstrumpf. Auer war 27 Jahre alt als er das Patent für das erste „Gasglühlicht“ erhielt - einen modifizierten Bunsenbrenner, der den Glühkörper „Actinophor“ (aus Oxyden des Magnesiums und der Seltenen Erden Lanthan und Yttrium) zum Strahlen brachte -, 28 Jahre als er eine ehemals chemisch-pharmazeutische Firma in Wien-Atzgersdorf erwarb um dort (allerdings noch mit Mangel behaftete) Glühstrümpfe bereits in kommerziellem Maßstab herzustellen und 33 Jahre als das nun ausgereifte „Auerlicht“ – aus 99 % Thoriumoxyd und 1 % Ceroxyd - seinen globalen Siegeszug anzutreten begann.
Das Auerlicht übertraf alle bis dahin bekannten Lichtquellen – auch die ersten elektrischen, von Thomas A. Edison entwickelten Kohlefadenglühlampen - an Leuchtkraft, längerer Lebensdauer (1000 h) und niedrigeren Energiekosten. Bereits im ersten Jahr wurden 300 000, im zweiten 500 000 Auer-Brenner verkauft. In wenigen Jahren hatte sich der jährliche Umsatz an Glühstrümpfen allein in den USA auf 80 Millionen Stück erhöht [2].
Dieser außerordentliche Durchbruch in der Lichttechnik wurde 1929 folgendermaßen beschrieben [3]:
„In jener langen Spanne, beginnend mit dem Augenblick, in dem Prometheus die brennende Fackel zu den Menschen brachte und ihnen damit Feuer und Licht schenkte, bis zu jenem Zeitpunkt, da Auer seine Versuche anstellte, war stets nur glühender Kohlenstoff, die einzige Quelle künstlichen Licht gewesen, im Kienspan, in der Tranlampe, in der Kerze, im Petroleum, im Leuchtgas und in der Kohlenfadenlampe Edisons. Jetzt zum ersten Male lernte man wirkliche Lichtspender kennen, Licht war bisher nur gleichsam der Abfall der Wärmeerzeugung und der Verbrennung gewesen. Die Geburtsstunde des Auer-Strumpfes war gleichzeitig die Geburtsstunde der modernen Lichtwissenschaft und Lichttechnik“
Erfindung der Metallfadenglühlampe. Trotz des wirtschaftlichen Erfolgs des Gasglühlichts beschäftigte sich Auer von Welsbach mit der Entwicklung einer innovativen elektrischen Glühlampe auf der Basis eines Glühfadens aus Metall. Um die Temperatur des Glühfadens und damit seine Leuchtkraft zu erhöhen, experimentierte er mit höchstschmelzenden Metallen, für deren schwierige Verarbeitung er erst ein neues Verfahren entwickelte – dies war der Beginn der Pulvermetallurgie. 1898 meldete er dann die erste Glühlampe mit einem Osmiumglühfaden – das Auer-Oslicht - zum Patent an, 1902 erfolgte die Markteinführung. Diese Lampe übertraf die Edison’sche Kohlefadenlampe an Lichtqualität, hoher Lebendauer und einem um 60 % niedrigerem Energieverbrauch und leitete den Siegeszug der elektrischen Beleuchtung ein. 1905 wurde der Osmiumglühfaden durch einen Glühfaden aus Wolfram ersetzt, dem Metall mit der höchsten Schmelztemperatur. Der Name, der von Auer gegründeten, weltbekannten Firma OSRAM (s.u.) ist eine Synthese der Namen Osmium und Wolfram.
Erfindung des Zündsteins als Spin-off der Erzeugung von Gasglühstrümpfen. Als Rohstoff für die Erzeugung von Glühstrümpfen wurde Monazitsand aus Brasilien importiert, der viel Cer und wenig Thorium – die Hauptkomponente des Auer-Lichts – enthält. Dementsprechend sammelten sich große Halden an übriggebliebenem Cer an und Auer suchte nach einer Verwendung. Aus seiner Heidelberger Zeit kannte er die pyrophoren Eigenschaften des Metalls, d.h. bei mechanischer Bearbeitung Funken zu erzeugen, und entwickelte optimale Zusammensetzungen von Cer-Eisen-Legierungen mit dem Ziel, Zündvorrichtungen für Feuerzeuge, Gasanzünder und Gaslampen sowie zur Geschoß- und Minenzündung zu bauen. 1903 patentierte er diese Legierungen als „Auermetall“, aus welchem seitdem die Zündsteine aller Feuerzeuge gemacht sind.
Der durchschlagende Erfolg seiner Erfindungen steigerte die Popularität Auers und zeigte auch, welcher Nutzen sich aus einer Verbindung von akademischer Forschung und kommerzieller Nutzung ergeben kann.
Neben zahllosen hohen akademischen Auszeichnungen, Ehrenmitgliedschaften und Orden wurde Auer durch kaiserliches Dekret in den erblichen Adelsstand erhoben. Sein Wappen zeigt u.a. eine brennende Fackel und trägt die Inschrift „Plus Lucis“
Der Unternehmer
Auer von Welsbach besaß einen sechsten Sinn für vermarktbare Forschungs-Ergebnisse und daraus resultierendes Unternehmertum, aber auch für entsprechende Werbung für sich selbst und seine Produkte. Arbeitsweise, wissenschaftlicher Anspruch und wirtschaftliches Denken Auer von Welsbachs paßten ausgezeichnet in den Stil der damaligen Gründerzeit. Auer wirkte authentisch: er verkörperte sein Arbeitsgebiet voll, war überzeugt von der Bedeutung seiner Forschung und bereit für diese sich selbst und auch seine finanziellen Ressourcen einzusetzen. Im Bewußtsein des Marktpotentials seiner Ergebnisse sicherte er diese umgehendst durch weltweite Patente ab.
Die Umsetzung von Innovationen zu kommerziellen Produkten erforderte zu allen Zeiten die Bereitstellung ausreichender finanzielle Ressourcen für die nötigen Investitionen. Anfängliche Forschungs-& Entwicklungsarbeiten Auers und sein Start als Unternehmer waren durch Vermögenswerte aus Familienbesitz und dem Erlös früher Patente gedeckt, nicht aber die Investitionen in Fabrikanlagen und deren Ausstattung, Rohmaterialien sowie in geeignetes Personal wie sie für eine Serienproduktion in großtechnischem Maßstab des Gasglühlichts und später der Metallfadenlampe benötigt wurden.
Gründung der Deutschen Gasglühlicht Gesellschaft (heute OSRAM). Auer von Welsbach fand in dem Bankier Leopold Koppel einen passenden, visionären Partner. Koppel, ein Selfmade-Mann, der sich vom kleinen Bankgehilfen zum Millionär und Bankbesitzer emporgearbeitet hatte, erkannte das Potential, das in Auer’s Erfindungen steckte. Als Investor gründete er 1892 zusammen mit Auer als Erfinder die Deutsche Gasglühlicht Gesellschaft (später Auergesellschaft) mit dem Hauptsitz in Berlin und Tochterunternehmen in Österreich, England (Welsbach Company) und USA.
Die Firmengründung erwies sich als nachhaltig. Mit dem beginnenden Siegeszug der Wolframfadenlampe - nach deren 1906 erhaltenen Warenzeichen - in OSRAM GmbH umbenannt, fusionierte der Konzern nach dem 1. Weltkrieg mit den Konkurrenten AEG und Siemens. Heute ist die OSRAM GmbH (im Besitz der Siemens AG) ein „Global Player“ in der Lichttechnik mit einem Marktanteil von 19 %, einem Umsatz von 4,69 Milliarden € und mehr als 41 000 Beschäftigten in rund 50 Tochterunternehmungen in aller Welt (Osram GmbH, Geschäftsbericht 2007).
Gründung der Treibacher Chemischen Werke Ges.m.b.H. Die Verwertung der Patente zu seinen bahnbrechenden Produkten machte aus Auer einen reichen Mann der u.a. 1907 in Treibach (einem Teil der Gemeinde Althofen, Kärnten) ein High-Tech Unternehmen errichtete und damit die Seltenen Erden-Industrie begründete. Dieses Werk erwies sich als erfolgreich und wirtschaftlich stabil. Es ist heute ein Export-orientiertes Unternehmen mit den Schwerpunkten Seltene Erden, Metallurgie und Hochleistungskeramik. Es beschäftigt 670 Mitarbeiter und erreichte 515 Millionen € Jahresumsatz (Treibacher Industrie AG, Daten und Fakten 2007).
Auer von Welsbach und das Umfeld einer modernen Forschungs- & Entwicklungslandschaft
Auer hat sich lebenslang vor allem mit dem Thema „Seltene Erden“ beschäftigt und erreichte darin höchste wissenschaftliche und technische Kompetenz. Unabhängig in Planung und Ausführung seiner Projekte konnte Auer Beobachtungen erschöpfend analysieren und interpretieren. Die Frage „Warum?“ führte zu mehr und mehr Einblick in die komplexe Materie, die Frage „Wofür?“ zu kreativen Anwendungen, die Frage „Wie?“ zu methodischen Verbesserungen und technologischen Durchbrüchen.
Im Vergleich dazu dominiert heute die Suche nach raschem Erfolg, führt zu schellem Wechsel von Zielvorgaben, und damit bleibt ungenügend Zeit um solides Wissen und Kompetenz im neuen Fachgebiet aufbauen zu können. Oberflächliche Kenntnisse und mangelhaftes Verstehen von Mechanismen und Techniken werden häufig kaschiert durch starre Vorschriften („Standard Operation Procedures“), welche die persönliche Arbeitsweise rechtfertigen. Wesentliche Untersuchungen werden in zunehmenden Maße auch an externe Auftragsfirmen vergeben („outsourcing“) und damit die Chance auf eigene Erfahrung vertan. Mangelnde Kompetenz führt vielfach zu unrichtiger Abschätzung von Potential und Risiko von Entwicklungsprodukten und daraus resultierend zu niedrigen Erfolgsraten bei gleichzeitig hohen Entwicklungskosten.
Sicherheitsaspekte in Hinblick auf Einrichtungen, Methoden, Materialien, Mitarbeiterschutz und Sicherheit von Produkten, wie sie heute gelten, aber auch überbordender Bürokratismus hätten sicherlich einige der Arbeiten Auer von Welsbachs stark behindert, wenn nicht überhaupt unmöglich gemacht. Dies trifft beispielsweise auf den Umgang mit einem seiner wichtigsten Materialien, dem schwach radioaktivem 232Thorium zu. Vermutlich sähe das Produktespektrum Auers heute anders aus, zeugte aber ebenso wie damals von Exzellenz und Innovation.
Wie werden Bildung, Forschung, Innovation heute gesehen? In ihrer Lissabon-Strategie hat die Europäische Union erklärt: „Damit ein wirklich wettbewerbsfähiger, wissensgestützter Wirtschaftsraum entstehen kann, muss Europa besser werden - bei der Hervorbringung von Wissen durch Forschung, bei dessen Verbreitung durch Bildung und bei dessen Anwendung durch Innovation. Dieses „Wissensdreieck“ aus Forschung, Bildung und Innovation funktioniert am besten, wenn die Rahmenbedingungen das Wissen begünstigen, das zum Nutzen der Wirtschaft und Gesellschaft zur Wirkung gebracht wird.“[4] Zur Förderung diese Ziels laufen EU Rahmenprogramme – zur Zeit das bis 2013 dauernde 7te Programm mit einem Volumen von 50 Milliarden Euro, welches „die Dynamik, die Kreativität und die herausragenden Leistungen der europäischen Forschung in den Grenzbereichen des Wissens verbessern soll.“
Die Förderung der Kreativität als essentieller Triebkraft innovativer Leistungen muß dabei zweifellos ein Hauptanliegen sein.
Kreativität und Umsetzung in innovative Leistung. Kreativität, allgemein verstanden als Originalität und Flüssigkeit des Denkens, Sensibilität gegenüber Problemen und Flexibilität der Ideen, benötigt ein geeignetes Umfeld um Ideen auch in Innovationen umzusetzen. Eine recht anschauliche Darstellung dieses Umfelds, entnommen der Financial Times Deutschland [5] zeigt ein Dreieck von drei von einander abhängigen Feldern, die das Zustandekommen kreativer Leistung bestimmen:
Ein Blick in unsere reale Welt der (angewandten) Forschung zeigt, daß wohl nur in den wenigsten Fällen optimale Bedingungen in allen drei Feldern vorliegen, es müssen also Kompromisse eingegangen und damit Abstriche in Wert und Qualität der umzusetzenden kreativen Ideen in Kauf genommen werden:
- Persönliche Fähigkeiten und Kompetenz in einem Gebiet stoßen nicht unbedingt auf die nötigen Ressourcen – ein Umfeld, das vor allem akademische Forscher häufig vorfinden.
- Persönliche Fähigkeiten gepaart mit ausreichenden Ressourcen aber wenig Freiraum im Arbeitsgebiet sind vielfach Charakteristika industrieller Forschung.
- Ausreichende Ressourcen und Vorlieben für ein Themengebiet können ein Fehlen persönlicher Talente nicht wettmachen und höchstens mediokre Leistungen ergeben.
Im Falle Auer von Welsbachs stimmte offensichtlich das gesamte Umfeld: Er war unabhängig, bestimmte selbst seine Spielregeln, wählte Forschungsgebiete aus, in denen er höchste Kompetenz mit persönlichen Begabungen verbinden konnte und verstand es dafür auch die nötige Unterstützung aufzutreiben. Sein Werdegang ist ein Beispiel für die Relevanz des von der EU Union proklamierten „Triangel des Wissens: Bildung, Forschung, Innovation“, insbesondere für die grundlegende Bedeutung einer exzellenten Ausbildung.
Sollte sein Werdegang nicht dazu dienen um Rezepte abzuleiten, auf welche Art und Weise Durchbrüche in Grundlagenforschung und angewandter Forschung erzielt werden können?
[1] Eine Bibliothek als beredte Zeugin eines umfassenden — Wandels des wissenschaftlichen Weltbilds; Teil 2 (PDF – Abruf: 20. August 2013)
[2] Sidney Mason (1915) Contribution of the chemist to the incandescent gas mantle industry. J.Industr.Engin.Chem. April 1915, p.279
[3] Robert Plohn (1929) Seltene Erden Das Lebenswerk Auer von Welsbachs (PDF – Abruf: 20.8.2013).
[4] Vorausdenken, Optionen abwägen, die Zukunft gestalten: Zukunftsforschung für Europa. Schlussbericht der hochrangigen Expertengruppe für die Europäische Kommission. Abteilung RTD-K.2 – “Wissenschaftliche und technologische Zukunftsforschung; Verbindungen zum IPTS” September 2002.
[5] Jürgen Fleiß. Kreativität Antriebskraft für den täglichen Erfindungsprozeß. Financial Times Deutschland.14.10.2007
Weiterführende Links
Webseite des Auer von Welsbach Museum in Althofen, die ausführliche illustrierte Details zur Biographie und den Forschungen und Erfindungen Auer von Welsbachs bietet. Das Museum selbst ist vom 1. Mai bis 26. Oktober täglich außer Montag geöffnet.
Das Element Zufall in der Evolution
Das Element Zufall in der EvolutionDo, 16.08.2012- 05:20 — Peter Christian Aichelburg
Die Bedingungen, die zur Entstehung und Entwicklung von Leben führten, sind eng mit der Entwicklung des gesamten Kosmos verknüpft. Wie sieht ein theoretischer Physiker die Aussage, die Evolution sei zufällig verlaufen.
Nach der allgemein anerkannten Urknall-Theorie hat sich das Universum aus einer dichten, sehr heißen Urphase über nahezu 14 Milliarden Jahre zum heutigen Zustand in Form von Milliarden von Sternen zusammengeballt zu Galaxien und Galaxienhaufen, Superhaufen und Filamenten entwickelt, eingebettet in einen Kosmos der mit zunehmender Geschwindigkeit expandiert. Die heute beobachtbaren Strukturen des Universums sind also erst allmählich entstanden (Abbildung 1).
Abbildung 1. Urknall-Modell: Entstehung und Expansion des Weltalls. Das anfänglich sehr dichte und heißere Universum enthielt im kosmischen Plasma Photonen, die vorerst an den geladenen Teilchen gestreut wurden, Nach der Abkühlung und Entstehung von Atomen konnten sich die Photonen nahezu ungehindert ausbreiten = Hintergrundstrahlung. Danach begann allmählich unter der Wirkung der Gravitation die Kondensation der Materie zu den Strukturen wie wir sie heute beobachten.
Die biologische Evolution auf der Erde ist eng mit der Evolution des ganzen Kosmos verknüpft. Voraussetzung für das Leben auf der Erde war die Existenz von Kohlenstoff. Dieser kann aber nur im Inneren von Sternen durch Kernfusion entstanden sein: Waren in den ersten Sekunden nach der „Geburt des Kosmos“ aus der „Ursuppe“ von Elementarteilchen nur die leichtesten Atomkerne – Wasserstoff und Helium (und Spuren von Lithium, Beryllium) entstanden, so wurden die schwereren Elemente durch Kernfusionsprozesse im Innern der ersten, aus kollabierten Gaswolken entstandenen Sterne erzeugt. Somit ist die Entstehung von Leben erst nach dem Ausbrennen und Explodieren der ersten Sterne (Supernovae), das heißt erst ab der zweiten Sterngeneration möglich.
Unsere Sonne entstand vor zirka 4,5 Milliarden Jahren aus Gaswolken, angereichert mit schweren Elementen, die von Explosionen früherer Sterngenerationen stammen, Damit begann die Evolution unseres Planeten Erde, auf der vor rund 3,5 Milliarden Jahre die ersten Lebensformen entstanden, deren immer weiter fortschreitende Evolution vor rund 6 Millionen Jahren zur Spezies Mensch geführt hat.
Für die Entstehung von Leben bedurfte es anscheinend nicht nur besonderer Bedingungen in unserer unmittelbaren Umwelt, sondern im gesamten Kosmos.
Was bedeutet nun die Aussage, die Evolution sei zufällig, das heißt ungerichtet, verlaufen?
Ich möchte die Frage präziser fassen, um aufzuzeigen, dass eine klare Antwort vielleicht nicht so einfach ist. Ohne einer Designer-Theorie das Wort zu reden oder auf die Möglichkeit des Erkennens einer höheren Macht in den Naturgesetzen einzugehen.
Nach Darwin entstanden die Arten durch Variation und Selektion. Heute wissen wir, daß Variationen durch Mutationen in der Erbsubstanz, der DNA, hervorgerufen werden. Die Kernaussage ist, dass diese Mutationen nicht zielgerichtet sind, das heißt, ihr Auftreten unabhängig davon ist, ob eine Mutation günstig für die Weiterentwicklung ist oder nicht. Die Ideen Darwins haben sich im Lauf der Zeit verfeinert: Evolutionsbiologen haben neben Mutation und Selektion noch andere, für die Evolution maßgebliche Mechanismen aufgefunden: Einschränkungen der Möglichkeit evolutionären Wandels bestimmen, wohin sich eine Art entwickeln kann, und wie sehr bestimmte Probleme ganz bestimmte Lösungen erzwingen. Die Evolution ist demnach keineswegs beliebig verlaufen.
Dennoch bleibt der Zufall ein Element der Evolution.
In der theoretischen Beschreibung wird das Auftreten von Mutationen durch Wahrscheinlichkeiten charakterisiert. Wie aber kommt es zu diesen? Biologische Abläufe werden auf der elementarsten Ebene durch physikalisch-chemische Prozesse beschrieben. Also erhebt sich die Frage: Woher kommt der Zufall in der Physik?
Woher kommt der Zufall in der Physik?
Würfeln als Prototyp für zufällige Resultate. Wenn jeder Augenzahl die Wahrscheinlichkeit 1/6 zugeordnet wird, ergibt sich nach einer großen Zahl von Würfen tatsächlich eine recht gute Gleichverteilung der Augenzahlen.
Dennoch ist der Fall des Würfels in der klassischen Physik streng deterministisch, d.h. vorherbestimmbar: Wenn wir genau wissen, wie der Würfel die Hand verlässt und auch alle anderen Bedingungen (etwa Härte der Unterlage) genau beschreiben können, sollten wir voraussagen können, auf welche Augenzahl er fällt. Das ist zwar praktisch und auch theoretisch unmöglich, doch es geht hier ums Prinzip.
Wieso aber stellt sich die mathematische Zufallsverteilung ein?
Vereinfacht gesagt: Weil wir nicht darauf achten, wie wir werfen - im Gegenteil: Der Würfel wird manchmal vor dem Wurf in einem Becher geschüttelt. Genauer: Die Gleichverteilung der Augenzahlen kommt zustande, weil das Resultat sehr empfindlich auf auch nur kleine Änderungen des Wurfs ist und wir außerstande sind, völlig gleiche Würfe auszuführen.
Wärmelehre – Beschreibung durch Wahrscheinlichkeiten. Der Wiener Physiker Ludwig Boltzmann hat Ende des 19. Jahrhunderts die Wärmelehre (Thermodynamik) auf statistische Mechanik zurückgeführt. Dabei wird etwa die Temperatur eines Gases als mittlere kinetische Energie der Atome (Moleküle) verstanden. Man interessiert sich nicht für die Bewegung einzelner Teilchen, sondern nur für gemittelte, also makroskopische Größen wie Temperatur. Hier kommt die Wahrscheinlichkeit ins Spiel: Ein Makrozustand ist umso wahrscheinlicher, je mehr mikroskopische Konfigurationen zu ihm gehören. (Daraus folgt z.B. dass zwei Körper mit zunächst unterschiedlichen Temperaturen ( mit an Gewissheit grenzender Wahrscheinlichkeit) sich im Laufe der Zeit angleichen. Diese Wahrscheinlichkeiten sind aber kein intrinsisches Element der klassischen Theorie, sondern werden durch die Beschreibung hineingetragen, weil wir eine vollständige Beschreibung nicht anstreben oder gar nicht dazu imstande wären.
Oft wird chaotisches Verhalten als Quelle für zufällige Entwicklung genannt. Das ist missverständlich, denn dieses tritt bereits in streng deterministischen Systemen auf, deren Entwicklung in der Zeit eindeutig bestimmt ist. Wir sind nur außerstande, sie vorauszusagen, weil jede Messung nur mit endlicher Genauigkeit möglich ist.
Der Zufall der Quantentheorie ist von ganz anderer Qualität: Wir beobachten im Mikrokosmos Ereignisse, deren Eintreten die Theorie prinzipiell nicht vorhersagen kann. Etwa den Zerfall eines radioaktiven Atomkerns: Niemand kann sagen, wann er stattfindet. Alles, was wir voraussagen können ist, mit welcher Wahrscheinlichkeit er in einem bestimmten Zeitintervall zerfällt. Dies gilt beispielsweise auch für die Aussendung eines Photons durch ein angeregtes Atom: Es lassen sich die Frequenz und die Wahrscheinlichkeit berechnen, aber wir können nicht den Augenblick voraussagen.
Einstein hat sich stets gegen diese Konsequenz der Quantentheorie gewehrt. Auch andere Physiker haben nach "verborgenen Parametern" gesucht, um zu einer vollständigeren Beschreibung der Natur zu gelangen - ohne Erfolg. Nach unserem heutigen Wissen sind diese Wahrscheinlichkeiten der Natur immanent und nicht die Konsequenz einer unvollständigen Beschreibung.
Bringt also die Quantentheorie den Zufall in die Evolution? Natürlich sind letztlich Atombindungen für die Kodierung in der DNA verantwortlich. Man weiß auch, dass Mutationen durch elementare Strahlungsprozesse ausgelöst werden können. Aber beschrieben werden sie eher als statistische Prozesse und damit durch klassische Wahrscheinlichkeiten.
Unsere Beschreibung der Welt mittels der Quantentheorie ist zweifellos extrem erfolgreich. Ihre Gültigkeit bei der Erklärung lokaler Prozesse ist so gesichert, wie es eine physikalische Theorie nur sein kann. Macht es aber Sinn, sie auf das gesamte Universum anzuwenden?
Liegt der Zufall schon im Urknall? Was heißt, das Universum ist mit einer bestimmten Wahrscheinlichkeit aus einer Quantenfluktuation des Vakuums entstanden?
Welche Bedeutung hat dabei der Begriff "Wahrscheinlichkeit"?
Wir kennen bis heute keine konsistente Quanten-Kosmologie, und niemand kann sagen, ob eine solche Theorie nicht die Grundlagen der heutigen Physik erschüttern und uns zwingen wird, den Zufall unter einer gänzlich neuen Perspektive zu beurteilen.
Biologen werden zu Recht den pragmatischen Standpunkt einnehmen und darauf hinweisen, dass Evolutionsmodelle, die Wahrscheinlichkeitsverteilungen annehmen, sehr erfolgreich sind, ob es dafür eine weitergehende Erklärung gibt oder nicht. Aber erkenntnistheoretisch macht es einen Unterschied! So bleibt für mich offen: Liegt der Zufall in unserer Beschreibung, oder ist er ontologisches Element der Evolution?
(Teile des Artikels sind dem in Der Presse publizierten Essay „Zufall in der Physik“ entnommen.)
Weiterführende Links
Video 2 - Vom Zufall und der Notwendigkeit in der Evolution (7:56 min) Prof. Dr. Axel Meyer (Universität Konstanz) Evolution - Nicht einfach nur Zufall - Logischer Zufall (1:34 min) Leben und Tod der Sterne ... (Doku; 26:44 min)
Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische Strategien
Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische StrategienFr, 9.08.2012 - 05:20 — Kurt Redlich & Josef Smolen
Entzündungsprozesse bewirken eine Aktivierung der knochenabbauenden Osteoklasten bei gleichzeitiger Blockierung der knochenaufbauenden Osteoblasten und sind damit wichtige, aber meistens ignorierte Ursachen für die Entstehung von Knochenschwund. Strategien zur Therapie des Knochenschwunds setzen bei der ursächlichen Bekämpfung des Entzündungsprozesses an, aber auch bei der Manipulation der für den Knochenumbau verantwortlichen Zellen.
Die systemische Osteoporose kann als Begleiterkrankung verschiedener, chronisch-entzündlicher Erkrankungen auftreten. Ist bei diesen Erkrankungen die zugrunde liegende Ursache bekannt und kann beseitigt werden, so erweist sich dies auch als effiziente Therapie der assoziierten Osteoporose. Dafür können einige Beispiele angeführt werden:
- Die Zöliakie ist eine chronisch-entzündliche Erkrankung der Schleimhaut des Dünndarms bedingt durch eine Überempfindlichkeit gegen Gluten-Bestandteile. Wird eine Gluten-freie Diät eingehalten, so kommt es auch zu einer raschen Besserung der Knochendichte.
- Bei Patienten mit Parodontitis (ausgelöst durch Infektionen des Zahnfleisches) sind antibakteriell wirksame Tetrazykline auch erfolgreich in der Behandlung des systemischen und lokalen Knochenschwunds (allerdings dürften hier nicht nur antimikrobielle Aktivitäten dieser Medikamente zur Wirkung kommen).
- Bei der Mukoviszidose, einer genetisch bedingten Stoffwechselerkrankung mit einer gesteigerten Bildung von klebrigem, zähflüssigen Schleimsekret (insbesondere in den Atemwegen und im Verdauungstrakt), kommt es zu wiederholten Infektionen, die für den systemischen Knochenschwund verantwortlich sein dürften: eine strenge antiinfektiöse Therapie führt auch hier zu einer Verbesserung der Knochendichte.
Allerdings sind die Ursachen der meisten chronisch-entzündlichen Erkrankungen (noch) unbekannt. Daher sind hier therapeutische Strategien anzuwenden, die in spezifischer Weise den Entzündungsprozeß und essentielle Schritte in diesem Prozeß zum Ziel) haben.
Behandlung von Knochenschwund – Allgemeines
Wie bereits in unserem vorangegangenen Artikel beschrieben, sind entzündungsfördernde Botenstoffe (proinflammatorische Zytokine) nicht nur im finalen Verlauf der Entzündung wirksam, sie üben auch massive Effekte auf die Aktivitäten von Osteoblasten und Osteoklasten aus und führen damit zum systemischen Knochenschwund. Es ist daher ein wichtiges therapeutisches Ziel die Entzündung zu reduzieren, idealerweise diese zu eliminieren.
Basistherapeutika. In einer prototypischen entzündlichen Erkrankung, wie der rheumatoiden Arthritis, beginnt die Standardtherapie mit synthetischen krankheitsmodifizierenden Antirheumatika (sogenannten “disease-modifying antirheumatic drugs“: DMARDs), wie dem bewährten Methotrexat. Mit diesen Basistherapeutika geht eine Verbesserung der Knochendichte einher. Solange allerdings die Erkrankung noch aktiv ist, kann auch der Knochenabbau weiter fortschreiten.
Glukokortikoide. Das Entzündungsgeschehen wird häufig auch mit (synthetischen) Glukokortikoiden bekämpft, insbesondere in der chronisch obstruktiven Lungenerkrankung (COPD), der rheumatoiden Arthritis oder der chronisch-entzündlichen Darmerkrankung (IBD). Glukokortikoide sind Hormone, die eine Vielfalt unterschiedlicher Vorgänge im Stoffwechsel, im zentralen Nervensystem und im Immunsystem regulieren. Sie können den Entzündungsprozess zwar sehr effizient reduzieren, indem sie u.a. die Ausschüttung von entzündungsfördernden Zytokinen und Gewebshormonen blockieren, sie interferieren aber auch stark mit dem Knochenumbau und können damit zu Auslösern/Verstärkern der Osteoporose werden. Wenn Entzündungsprozesse mit Glukokortikoiden behandelt werden, müssen also geeignete Maßnahmen getroffen werden um den Knochenschwund zu verhindern. Eine ausreichende Zufuhr von Vitamin D und Calcium – aber auch Muskeltraining - sollte alle Behandlungen der Osteoporose begleiten.
Biologika. Bei zielgerichteten medikamentösen Therapien, wie sie für verschiedene chronisch-entzündliche Krankheiten zugelassen sind, spielen seit rund einem Jahrzehnt Biologika, d.h. mit Mitteln der Biotechnologie hergestellte Produkte, eine zunehmend wichtigere Rolle: alle für die Behandlung der rheumatoiden Arthritis zugelassenen Biologika (Antikörper, Rezeptorkonstrukte) blockieren den lokalen Knochenschwund, einige der Produkte verbessern auch den systemischen Knochenschwund.
Zielgerichtete Strategien zur Behandlung chronisch-entzündlicher Erkrankungen und Knochenschwund
Im folgenden werden wesentliche Ansatzpunkte für zielgerichtete Therapien kurz beschrieben. Eine Auflistung zielgerichteter Therapeutika, die gegenwärtig für verschiedene chronisch-entzündliche Erkrankungen und/oder Knochenschwund zugelassen sind, findet sich abschließend in Tabelle 1.
- Blockierung der Cytokine. Hier handelt es sich vorwiegend um die Blockierung der Entzündungsfaktoren Tumor Necrosis Factor Alpha (TNF-Alpha) und Interleukin (IL-1 und IL-6). Diese werden von unterschiedlicher Zelltypen gebildet, docken an der Oberfläche einer Vielzahl von Zelltypen an hochspezifische (Rezeptor-) Proteine an und lösen damit eine Kaskade von Entzündungsmediatoren und proteinabbauenden Enzymen aus, welche auf umgebende Gewebe zersetzend wirken. Die Blockierung erfolgt im wesentlichen durch spezifische gegen diese Cytokine gerichtete Antikörper, die damit die Verfügbarkeit der Cytokine reduzieren, oder durch Rezeptor-Konstrukte, welche die Bindung der Cytokine an deren eigentliche Zell-Rezeptoren und damit die Signalauslösung in der Zelle verhindern.
- Blockierung von B- und T-Lymphocyten (B- und T-Zellen). Aktivierte B- und T-Zellen können auf verschiedenen Wegen die Bildung von Osteoklasten aus Vorläuferzellen beeinflussen, insbesondere auch auf Grund ihrer Expression des Proteins RANKL, das eine Schlüsselrolle im Knochenabbau spielt (Beschreibung siehe unten). Aktivierte T-Zellen interagieren mit anderen Zellen des Immunsystems und produzieren eine Reihe von pro-inflammatorischen Cytokinen. Die Aktivierung von T-Zellen kann durch spezifische, gegen ein (ko-stimulatorisches) Rezeptorprotein an der Zelloberfläche gerichtete Moleküle unterbunden werden. Im Falle von B-Zellen führt ein (gegen das Oberflächen-Antigen CD20 gerichtete) Antikörper zur Zerstörung der Zellen.
- Blockierung der Osteoklasten-Bildung und Aktivität. Verschiedene Verbindungen können direkt die Aktivität von Osteoklasten inhibieren ohne, dass sie einen Effekt auf die Entzündung zeigen. Hier sind die klassischen Bisphosphonate zu nennen, die – gleichwertig mit den anorganischen Pyrophosphaten – eine hohe Affinität zum Calciumphosphat des Knochens aufweisen und eine sehr gute Wirksamkeit in der Behandlung der Osteoporose. Neuere Produkte vom Typ der Aminobisphosphonate werden erfolgreich in der Bekämpfung der postmenopausalen Osteoporose eingesetzt, einige zeigen auch gute Wirksamkeit in der Behandlung von Osteoporose, die als Begleiterscheinung entzündlicher Erkrankungen auftritt. Unerwünschte Nebenerscheinungen von Bisphosphonaten sind vor allem Irritationen der Speiseröhre bei oraler Verabreichung, Fieber und Muskelschmerzen bei intravenöser Applikation. Seltene, aber schwere Nebenwirkungen sind Beeinträchtigung der Nierenfunktion, Kiefernekrosen und atypische Knochenbrüche.
- Denosumab. Ebenfalls zur Behandlung der postmenopausalen Osteoporose geeignet ist Denosumab, ein Antikörper gegen das Cytokin RANKL (RANKL = receptor activator of the nuclear factor kappaB ligand). RANKL wird von verschiedenen Zelltypen, u.a. von Osteoblasten auf der Zell-Oberfläche exprimiert und liegt auch in einer löslichen Form vor. Wenn RANKL an seinen spezifischen Rezeptor RANK, der u.a. auf Osteoklasten exprimiert ist, bindet, wird der Reifungs- und Aktivierungsprozess der Osteoklasten angeschaltet. Der physiologische Gegenspieler von RANKL ist Osteoprotegerin (OPG), das ebenfalls von Osteoblasten ausgeschüttet wird, an RANKL bindet und so seine Assoziation an RANK und auf diese Weise den Prozess der Osteoklasten-Reifung und damit des Knochenabbaus hemmt. Aktivierte T-Zellen und B-Zellen, aber auch Tumorzellen sezernieren RANKL und erhöhen damit das Verhältnis von RANKL zu Osteoprotegerin und leiten so den Weg zum Knochenabbau ein. Ein Schema des RANKL-RANK-OPG- Systems ist in Abbildung 1 gegeben.
Abbildung 1. Der RANK-Weg führt zur Reifung und Aktivierung von Osteoklasten. RANKL, das u.a. von Osteoblasten exprimiert wird, bindet an seinen Rezeptor RANK an der Oberfläche von Osteoklastenvorstufen und löst damit deren Reifungs- und Aktivierungsprozess aus. Osteoprotegerin (OPG), das ebenfalls von Osteoblasten produziert wird, ist der physiologische Gegenspieler: es bindet an RANKL und blockiert so seine Wechselwirkung mit RANK. Ein Ungleichgewicht von RANKL zu Osteoprotegerin – wenn RANKL auch von aktivierten T-Zellen und B-Zellen und/oder von Tumorzellen produziert wird – führt zum Knochenabbau. In analoger Weise bindet der Antikörper Denosumab (DS) überschüssiges RANKL und verhindert damit Reifung und Aktivierung von Osteoklasten.
- Steigerung der Osteoblasten Aktivität. Strategien zur Aktivierung von Osteoblasten waren bei der postmenopausalen Osteoporose schon erfolgreich. Bei entzündlichem Knochenschwund sind sie noch nicht vollständig etabliert oder befinden sich im Entwicklungsstadium. Die intermittierende Anwendung von Parathormon – einem Hormon der Nebenschilddrüse, das unter anderem den Calciumspiegel im Blut kontrolliert –, ist ein wesentlicher Stimulator der Osteoblasten. In Arthritismodellen führte Parathormon zur Umkehr des systemischen Knochenabbaus, sogar tiefe lokale Erosionen wurden aufgefüllt. Ein derartiger Effekt wird üblicherweise mit keiner anderen Behandlung der rheumatoiden Arthritis gesehen: lokaler Knochenschwund kann dort zwar gestoppt aber nicht in Neubildung umgekehrt werden.
Tabelle 1. Aktuelle Medikamente, die den Entzündungsprozess und/oder den entzündlichen Knochenschwund zum Ziel haben
Medikament | Molekül | Target Wirkung |
Zulassung für |
Bisphosphonate | Klein, synthetisch. | Osteoklasten | Osteoporose |
Denosumab | Humaner mAb | RANKL | |
Adalimumab (Humira) | Humaner mAb | TNF anti- entzündlich |
Rheumatoide Arthritis, |
Certolizumab (Cimzia) | Humanisierter mAb | ||
Etanercept (Enbrel) | Rezeptor Konstruct | ||
Golimumab (Simponi) | Humaner mAb*) | ||
Infliximab (Remicade) | Chimärer mAb | ||
Abatacept (Orencia) | Rezeptorkonstrukt | T-Zell Aktivierung anti-entzündlich |
Rheumatoide Arthritis |
Rituximab (Rituxan) | Chimärer mAb | B-Zellen anti-entzündlich |
Rheumatoide Arthritis, B Zell Lymphom, (Multiple Sklerose) |
Tocilizumab (Actemra) | Humanisierter mAb | IL-6 Rezeptor anti-entzündlich |
Rheumatoide Arthritis, Juvenile idiopathische Arthritis, Castleman Krankheit |
Belimumab (Benlysta) | Humaner mAb | B-Zellen Inhibierung | Systemischer Lupus erythematodes (SLE) |
*) mAb: monoklonaler Antikörper (ist gegen ein einziges spezifisches Epitop eines Antigens gerichtet). Definitionen für chimäre, humanisierte und humane mAb’s finden Sie in diesem PDF. Hersteller und Details zu den einzelnen Medikamenten finden sich im Internet.
Ausblick
Knochenschwund, der als Begleiterscheinung chronisch-entzündlicher Erkrankungen auftritt, ist ein enormes medizinisches und auch sozio-ökonomisches Problem, dem häufig nicht genügend Beachtung geschenkt wird. Moderne Behandlungsstrategien haben die ehemals unabwendbare Entwicklung von Bewegungseinschränkung zur Invalidität dramatisch verändert und ermöglichen nun für viele Patienten eine gute Lebensqualität. Die fortschreitende Entwicklung, vor allem von innovativen, hochspezifischen Biologika, die regulierend in den Prozess des Knochenumbaus eingreifen, bieten Patienten nicht nur Chancen auf längerdauernde, klinische Remissionen sondern vielleicht auch auf Heilung von Gelenksdestruktion und Knochenabbau.
Anmerkungen der Redaktion
Dieser aufgrund des Themas naturgemäß etwas schwierigere Text ist der 2. Teil einer Artikelreihe ist, die am 19. Juli begann: Chronische Entzündungen sind Auslöser von Knochenschwund> Viele der hier verwendeten und zum Verständnis nötigen Begriffe werden dort einführend erklärt!
Weiterführende Links
Werden Rheuma-Gelenke bald Medizingeschichte? (aerztezeitung.de)
Vitamin D – Allheilmittel oder Hype? (ScienceBlog Beitrag v. 10.5.2012)
Elektromobilität – Elektrostraßenfahrzeuge
Elektromobilität – ElektrostraßenfahrzeugeDo, 02.08.2012- 05:20 — Erich Rummich
Elektrische Straßen- und Hybridfahrzeuge haben in der letzten Zeit enorm an Bedeutung gewonnen. Der Artikel gibt Auskunft über den heutigen Stand der Speichertechnologien und Energiewandler, der Wärmebedarfsdeckung des Fahrzeugs und der verschiedenen Typen von elektrischen Antriebsmaschinen.
In den letzten Jahren beschäftigen die Menschheit Themen wie das steigende Wachstum der Erdbevölkerung, der damit verbundene Klimawandel, die Erschöpfung der verschiedenen Ressourcen und die stets ansteigende Mobilität der Menschen.
Ein neues Thema ist die so genannte Elektromobilität.
Elektromobilität bezeichnet den Einsatz von elektrischer Energie zum Betreiben von individuellen Fahrzeugen oder elektrische Hybridantriebe (Elektro- und Verbrennungsmotor) für die Erfüllung der unterschiedlichen individuellen Mobilitätsanforderungen. In jüngster Zeit wird der Begriff Elektromobilität auch in Verbindung mit Programmen der unterschiedlichsten Institutionen zur Förderung des Einsatzes von Elektrofahrzeugen verwendet.
Elektrischer Strom, erzeugt aus erneuerbaren Energieträgern, bietet die Vorteile einer abgas- und feinstaubfreien sowie geräuscharmen Verkehrsbewältigung.
Ein erstes österreichisches Elektromobil
Abbildung 1 Lohner-Porsche-Elektromobil. „Semper Vivus“ 1900. Akkumulator: Bleiakku mit 44 Zellen und ca. 80 V Gleichspannung (410 kg). Betriebsdauer ca. 3 Stunden, Höchstgeschwindigkeit 50 km/h. (Technisches Museum Wien; Bild: Wikipedia)
Dabei sollte nicht vergessen werden, dass auch in Österreich Pionierleistungen auf diesem Gebiet der Elektromobilität erbracht wurden. Bereits zur Wende vom 19. zum 20. Jahrhundert konstruierte Ferdinand Porsche in den Lohner-Werken ein für die damalige Zeit richtungweisendes Elektromobil. Dieses wurde von zwei Gleichstrom- Radnabenmotoren, die in den beiden Vorderrädern integriert waren, angetrieben (Abbildung 1).
Als Energiequelle diente damals sowie auch heute vereinzelt noch eine Bleibatterie. Nachteil dieser Batterien waren und sind ihre geringe Energiedichte von damals 10Wh/kg bis 20Wh/kg bzw. heute 35Wh/kg bis 50Wh/kg, damit verbundene hohe Masse und gleichzeitig geringe Reichweite des Fahrzeuges.
Das in den Lohner-Werken gebaute Emobil wurde im Jahre 1900 auf der Pariser Weltausstellung gezeigt. Erwähnt sei auch, dass in diesen Jahren das weltweit erste allradgetriebene Elektrofahrzeug gebaut wurde.
Energiespeicher
Das Problem des Energiespeichers in reinen Elektrofahrzeugen ist bis heute nicht befriedigend gelöst.
Bedenkt man, dass ein Kilogramm eines herkömmlichen Kraftstoffes (Benzin, Diesel) einen Energieinhalt von etwa 11kWh [d.s. 11000 Wh/kg, Anm.] besitzt, erkennt man rasch den Nachteil von heutigen Batteriesystemen mit 80Wh/kg bis 150 Wh/kg (Abbildung 2). Abbildung 2. Energieinhalte von Kraftstoffen und aktuellen Batteriesystemen (Bild: Wikipedia „Gewicht- und Volumenvergleich von Dieselkraftstoff+Tank gegenüber Traktionsbatterie - ohne Betrachtung der Gesamtsysteme mit Motor, Kühlung, Getriebe, Ansaug- und Abgasanlage u. ä“)
Ein weiteres Problem ist das rasche Laden einer Traktionsbatterie (Zusammenschaltung von einzelnen Akkumulatorenzellen oder Blöcken als Energiespeicher). Wenn an einer normalen Tankstelle Kraftstoff mit etwa 40 l/min bis 60 l/min in den Tank gefördert wird, entspricht dies einer Leistung von etwa 40 MW bis 60 MW. Eine derart hohe elektrische Ladeleistung wäre nie ausführbar. Ferner muß erwähnt werden, daß es heute noch an der Infrastruktur von geeigneten Stromtankstellen mangelt!
Bei der Elektromobilität ist zu unterscheiden zwischen dem individuellen Nahverkehr, der heute durchaus von Elektrostraßenfahrzeugen mit den gängigen Batteriesystemen bewältigt werden kann, und dem Fernverkehr.
Für den Nahbereich haben sich in den letzten Jahren Nickel-Metallhydrid-Batterien und verschiedene Typen der Lithium-Batterien durchgesetzt.
Für beide Batteriesysteme gilt, daß die Kapazität (Speicherinhalt) mit sinkender Umgebungstemperatur ebenfalls abnimmt – und damit auch die erzielbare Reichweite.
Die Lebensdauer der Batterien ist mit wenigen hundert bis tausend Lade-Entladezyklen begrenzt und erfordert in bestimmten Zeitabschnitten eine Neuanschaffung, was mit erheblichen Kosten verbunden ist. Ein Batterie-Leasingsystem kann hier positive Impulse setzen.
Vorteilhaft bei der Elektromobilität ist deren hohe Umweltverträglichkeit, so der elektrische Strom für den Betrieb des Fahrzeuges aus erneuerbaren Energieträgern (Wasser-, Windkraft, Solarenergie, Biomasse) gewonnen wurde.
Ein weiterer Vorteil von Elektrofahrzeugen besteht darin, daß die durch Nutzbremsung gewonnene Energie in den Speicher rückgeführt werden kann, dabei arbeitet der elektrische Antriebsmotor als Generator. Zu erwähnen wäre weiters, daß der Gesamtwirkungsgrad des elektrischen Antriebsstranges wesentlich höher als jener von mit Verbrennungsmotoren betriebenen ist.
Wärmebedarfsdeckung des Elektrofahrzeuges
Ein nicht zu vernachlässigbares Problem stellt die Heizung des Elektrofahrzeuges dar. Bei Kraftfahrzeugen mit Verbrennungsmotor fällt durch den niedrigen Wirkungsgrad (kleiner 50 %) des Verbrennungsmotors genügend Abwärme an, die bei Bedarf für die Beheizung des Fahrzeuges herangezogen wird. Die Heizung ist nicht nur für den Komfort der Fahrgäste sondern auch für die Sicherheit des Fahrzeuges erforderlich (z.B. Enteisung der Fenster).
Das Problem der Fahrzeugheizung bedarf noch eingehender Forschungs- und Entwicklungsarbeiten.
Ansätze dazu bietet die Wärmespeicherung durch Anwendung der Heterogen-Verdampfung. Dabei wird einer Stoffkombination AB (Salzhydrate, Metallhydride) Wärme zugeführt. Diese bedingt eine Aufspaltung der Verbindung AB in den festen Bestandteil A und in die flüssige oder gasförmige Komponente B, wobei B in einem zweiten Behälter aufgefangen und dadurch vom Stoff A getrennt wird. In diesem Fall ist der thermische Speicher aufgeladen. Theoretisch kann dieser Zustand beliebig lange aufrecht erhalten werden, da sich das Speichersystem auf Umgebungstemperatur befndet. Bei gewünschter Wärmeabgabe aus dem Speicher wird Komponente B wieder in den Behälter von A transportiert und es erfolgt die Verbindung von A und B unter Wärmefreisetzung zu AB.
Weitere thermische Speicher sind Latentwärmespeicher, bei welchen durch eine Phasenumwandlung fest/flüssig eines geeigneten Mediums (je nach gewünschter Schmelztemperatur eignen sich verschiedene Salzverbindungen oder Paraffine) große Wärmemengen gespeichert und diese beim Übergang flüssig/fest wieder abgeben werden können. Nachteilig ist, daß der Speicher im geladenen Zustand immer über der Kristallisationstemperatur (ist gleich der Schmelztemperatur) gehalten werden muss, was eine entsprechend gute thermische Isolation erfordert.
Grundsätzlich können beide thermischen Speichersysteme durch eine elektrische Heizung während des Ladevorganges der Traktionsbatterie aufgeladen werden.
Die Verwendung von herkömmlichen Standheizungen, wo ein fossiler Brennstoff verbrannt wird, stellt keine Lösung dar, da dabei Schadstoffe emittiert werden.
Eine andere Möglichkeit zur Wärmebedarfsdeckung wäre die Verwendung von Hochtemperaturbatterien. Dies sind Batteriesysteme, die bei Temperaturen von 300 °C bis 350 °C betrieben werden. Eines dieser Batteriesysteme war die Natrium-Schwefel-Batterie, die aber seit einigen Jahren nach einem thermischen Unfall (Natriumbrand) aus dem Verkehr gezogen wurde und die Natrium-Nickelchlorid-Batterie. Bei letzterer wäre es möglich, beim Betrieb durch Kühlung von 350 °C auf etwa 300 °C genügend Wärme für die Beheizung des Fahrzeuges zu gewinnen.
Brennstoffzellen
Eine Alternative bestünde im Einsatz von Brennstoffzellen. Brennstoffzellen sind keine Energiespeicher sondern Energiewandler, welche die chemische Energie eines Brennstoffes (z.B. Wasserstoff H2 oder Methanol - CH3OH - aus Biomasse) unter Anwesenheit eines Oxidationsmittels (z.B. Sauerstoff der Luft) direkt in elektrische Energie und Wärme umsetzen.
Mit H2 betriebene Brennstoffzellen besitzen seit vielen Jahrzehnten eine ausgereifte Technologie. Ein Problem ist hierbei die Speicherung von Wasserstoff im Fahrzeug. Auch hier existieren einige Möglichkeiten wie z.B. in Druckflaschen bis 300 bar, in fester Form als Metallhydrid, in flüssiger Form allerdings bei 20K [d.s. -253 °C, Anm.] oder in modernen Speichern mit Nanostrukturen.
Neu in Entwicklung ist die Bindung von Wasserstoff an Carbazol, C12H9N, einem flüssigen Kohlenwasserstoff, der als Wasserstoffträger fungiert. Bei diesem Konzept wird an der Tankstelle mit Wasserstoff angereichertes Carbazol getankt. Im Fahrzeug erfolgt die Wasserstofffreisetzung und an der Tankstelle die Rückgabe von H2-armem Carbazol. Dieses wird durch geeignete chemische Verfahren wieder in eigenen ortsfesten Hydrieranlagen mit H2 angereichert. Die Erzeugung des Wasserstoffs müßte durch Wasserelektrolyse [Aufspaltung von Wasser 2⨉H2O in seine chemischen Bestandteile: 2⨉H2 + O2 durch elektrischen Strom, Anm.] erfolgen. Wenngleich die Wasserstoffwirtschaft als mögliches zukünftiges Energieszenario gesehen wird, stellt derzeit die Wasserstoffspeicherung einen erheblichen Aufwand an Speichervolumen und -masse dar.
Der Einsatz der "Direkten Methanolbrennstoffzelle" (derzeit noch in Entwicklung) wäre eine günstige Lösung, bei der das Problem der geringen Reichweite von Elektrofahrzeugen nicht mehr vorhanden ist, da der Energieträger Methanol ein flüssiger Energieträger ist, der mit der bestehenden Infrastruktur der heutigen Tankstellen in Tanks, wie sie heute für konventionelle Kraftstoffe üblich sind, verwendet werden könnte.
Die "Direkte Methanolbrennstoffzelle" wandelt den Energieträger Methanol auf direktem Wege in elektrische Energie, Wärme, Kohlendioxid und Wasser um. Diese Variante wäre nicht abgasfrei (CO2 wird emittiert), aber durch die Herstellung von Methanol aus Biomasse CO2-neutral. Die bei der Energieumsetzung in der Brennstoffzelle entstehende Wärme könnte für die Beheizung des Elektrofahrzeuges verwendet werden.
Da sich Brennstoffzellen nicht für die Aufnahme von elektrischer Energie eignen (keine Nutzbremsmöglichkeit), muß ein elektrischer Energiespeicher parallel zur Brennstoffzelle geschaltet werden. Dies kann eine herkömmliche Batterie sein oder die seit wenigen Jahren verfügbaren Superkondensatoren, die sich durch extrem hohe Leistungsdichte (heute bis 3000W/kg) auszeichnen, allerdings nur geringe Energiedichte (bis etwa 5Wh/kg) aufweisen. Sie eignen sich daher für die Aufnahme großer elektrischer Leistungen und ebenso für deren Abgabe, was das Beschleunigungsverhalten des Elektrofahrzeuges positiv beeinflußt.
Maßnahmen zur Steigerung der Elektromobilität
Öffentlicher Verkehr
Zur Steigerung der Elektromobilität im öffentlichen Verkehr sollte der weitere Ausbau von Straßenbahnen, Oberleitungsbussen und Elektrobussen mit Energiespeichern gefördert werden.
Für den Fernverkehr ist der Ausbau und die Elektrifizierung von Bahnlinien erforderlich, wobei auf neu zu errichtende Park-&Charge-Anlagen bei den Bahnhöfen geachtet werden müsste. In diesen könnten Elektrofahrzeuge während der Abwesenheit der FahrzeugbetreiberInnen aufgeladen werden, wodurch eine Anbindung an das öffentliche Netz attraktiver wäre.
Bauweise
Da der Energiebedarf eines Elektrofahrzeuges wie auch eines konventionellen Fahrzeuges von dessen Masse abhängt, ist es wichtig, dass zukünftige Elektrofahrzeuge möglichst in Leichtbauweise hergestellt werden. Hier wären Anleihen aus dem Gebiet der Bionik zu nehmen. Batteriemanagement, Gesamtregelungskonzept. Große Bedeutung kommt dem Batteriemanagement und dem Gesamtregelungskonzept des Elektrofahrzeuges zu. Durch verschiedene neu zu etablierende Verkehrsleitsysteme, wo im voraus das Fahrstreckenprofil mit Steigungen und Gefällen, Behinderungen, Baustellen, Staus oder Witterungseinflüssen und Geschwindigkeitsbeschränkungen bekannt gemacht werden, würden dabei den Einsatz der gespeicherten elektrischen Energie optimieren.
Die erforderlichen leistungselektronischen Systeme wie Frequenzumrichter und Stellglieder für die Drehzahländerung der Antriebsmotoren sowie für diverse Hilfseinrichtungen sind weitgehend ausgereift und weisen hohe Wirkungsgrade auf (über 90 %).
Elektrische Antriebsmaschinen
Ähnliches gilt für den Einsatz von elektrischen Maschinen. War in den letzten Jahren ein Trend zur permanentmagneterregten Synchronmaschine (PSM) zu beobachten, so wird heute wieder den Asynchronmaschinen (ASM) oder den elektrisch erregten Synchronmaschinen mehr Bedeutung zugemessen. Dies deshalb, weil zwar bei PSM das Verhältnis von erzeugtem Drehmoment zu Motorvolumen die besten Werte aufweist, benötigen sie aber für die Herstellung der modernen Seltenerdenmagnete (Neodym-Eisen-Bor-, Samarium-Kobalt-Magnete) die eben angesprochenen Seltenen Erdenelemente Neodym und Samarium. Diese chemischen Elemente sind Ressourcen, die leider relativ rasch zur Neige gehen dürften und deren Lagerstätten vorwiegend in China liegen, in einem Land, das selbst erhöhten Bedarf an diesen Rohstoffen und ein hohes Wachstum auf diesem Sektor aufweist.
Bei ASM kommt praktisch nur die Kurzschlussläufermaschine zum Einsatz, bei der Kupfer für die Statorwicklung und meist Aluminium für die Rotorkurzschlußwicklung verwendet wird. Bei elektrisch erregten Synchronmaschinen kommt nur Kupfer für die Stator- und Rotorwicklung zum Einsatz. Weitere Synchronmaschinen stellen so genannte Reluktanzmaschinen dar. Diese besitzen einen unbewickelten Rotor, der relativ einfach ausgeführt werden kann, allerdings weisen diese Maschinen einen niedrigeren Wirkungsgrad auf.
Vorteilhaft bei modernen kleineren PSM (bis etwa 100kW) ist die Ausführung von Zahnspulenwicklungen. Bei diesen handelt es sich um Drehfeld-Wicklungen, die durch das Aufschieben von Spulen auf die Statorzähne entstehen, was einfach und billig ist.
Erhöhung der Reichweite
Ist die mit heutigen Batteriesystemen erreichbare Fahrstrecke zu gering, besteht die Möglichkeit des Einsatzes von Hybridfahrzeugen. Auch dieses System ist nicht neu und wurde bereits von Lohner-Porsche um die Jahrhundertwende 1900 vorgestellt. Hiebei besitzt das Fahrzeug neben dem elektrischen Antriebsstrang einen Verbrennungsmotor, der die Fortbewegung des Fahrzeuges unterstützt. Hybridfahrzeuge sind bereits in vielen Varianten im Handel erhältlich.
Wie heute schon von einigen Elektromobilherstellern propagiert, kann ein so genannter Range-Extender vorgesehen werden. Bei diesem handelt es sich um einen kleinen Verbrennungsmotor verbunden mit einem Generator, dieser liefert die elektrische Energie für den Antrieb. Es ist klar, daß in diesem Falle wieder die üblichen Emissionen von Verbrennungsmotoren auftreten.
Vorteilhaft ist hier die Tatsache, daß dieser Range-Extender mit konstanter Drehzahl und Leistung betrieben werden kann und damit auch der spezifische Kraftstoffverbrauch und die Emissionen minimiert werden können. Benötigt der elektrische Antrieb eine kleinere Leistung als der Generator erzeugt, so wird die Überschußleistung in der Batterie gespeichert. (Abbildung 3).
Abbildung 3. Range Extender (Serieller Hybridantrieb). Der Verbrennungsmotor treibt lediglich einen elektrischen Generator an, der die Elektromaschinen mit Strom versorgt oder die Traktionsakkus lädt. (Bild: Wikipedia)
Einspurige Elektrostraßenfahrzeuge
Für den individuellen elektrischen Nahverkehr stehen auch die verschiedenen Typen von einspurigen Elektrostraßenfahrzeugen zur Verfügung. Mit steigender Antriebsleistung sind dies E-Fahrräder, Pedelecs, E-Scooter, E-Roller und E-Motorräader. Pedelecs (Pedal Electric Cycle) sind besondere Elektrofahrräder, bei denen der Elektromotor aufgrund von Kraftsensoren bei Betätigen der Tretkurbel mit unterschiedlicher Leistung zugeschaltet wird. Damit erreicht man eine für den/die AnwenderIn leichtere Fortbewegungsmöglichkeit.
Das Laden der Batteriesysteme stellt bei den Fahrzeugen mit kleiner Leistung kaum größere Probleme dar, da deren Energiespeicher meist abnehmbar und damit an jeder Steckdose aufladbar sind.
Für die verkehrstechnischen Bestimmungen (Mindestpersonenalter, Höchstgeschwindigkeit, Führerscheinpflicht etc.) sind die Straßenverkehrsordnungen der einzelnen Länder zuständig.
Eine Sonderform eines zweirädrigen Fortbewegungsmittels stellt der so genannte Segway-Personentransporter (nach der US-Erzeugerfirma benannt) dar. Bei diesem sind zwei elektromotorgetriebene Räder auf gemeinsamer Achse für die Fortbewegung des Fahrzeuges verantwortlich. Der/die FahrerIn selbst steht zwischen den Rädern auf einem Trittbrett und steuert das Fahrzeug über eine Lenkstange. FahrerIn und Fahrzeug bilden ein "inverses Pendel"(ein starres Pendel mit unten angeordnetem Drehpunkt stellt ein instabiles System dar), das durch entsprechende Regelsysteme bei jeder Fahrbewegung im Gleichgewicht gehalten wird. Dieses Fahrzeug ist eher für sportliche Personen geeignet.
Glossar
Energiespeicher - Begriffe
Energiespeicher: energietechnische Einrichtung, deren Energieinhalt durch Zufuhr von Energie bzw. eines Energieträgers steigt (Ladevorgang, Ladung), dann diesen Energieinhalt möglichst verlustfrei über eine bestimmte, vorgebbare Zeit speichert und bei Bedarf Energie bzw. den Energieträger wieder kontrolliert abgibt, wobei der Energieinhalt abnimmt (Entladevorgang).
Kenngrößen
Energiemenge: Nutzbarer Energieinhalt [Wh]
Energiedichte: Nutzbare Energiemenge je Massen – oder Volumseinheit [Wh/kg oder Wh/m3]
Leistungsdichte: Nutzbare Leistung je Massen – oder Volumseinheit [W/kg oder W/m3]
Lade-/Entladezeit: Zeitdauer zur Voll/Entladung mit Nennleistung [s, min, h]
Speicherdauer: Zeitdauer während der der vollgeladene Speicher die Energie ohne nennenswerte Verluste speichert [s, min, h, d]
Lebensdauer: kalendarische oder durch Anzahl von Arbeitszyklen (1 Arbeitszyklus = Laden – Speichern – Entladen)
Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?
Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?Do, 26.07.2012- 00:00 — Gottfried Schatz
Wenn der Parasit Toxoplasma gondii Nagetiere infiziert, setzt er sich in Gehirnregionen fest, welche Emotionen steuern und manipuliert diese. Latente Infektionen mit diesem Parasiten gehören zu den häufigste Infektionen des Menschen. Untersuchungen zu Persönlichkeits-Profilen, Verhalten und Psychomotorik zeigen ausgeprägte Unterschiede zwischen infizierten und nicht-infizierten Menschen.
Das Besondere an uns Menschen ist, dass wir zwei Vererbungssysteme besitzen – ein chemisches und ein kulturelles. Das chemische System besteht aus DNS-Fadenmolekülen und einigen Zellstrukturen und bestimmt, was wir sein können. Das kulturelle System besteht aus der Zwiesprache zwischen den Generationen und bestimmt, was wir tatsächlich werden. Unser chemisches System erhebt uns kaum über andere Säugetiere, doch unser kulturelles System ist in der Natur ohne Beispiel. Seine formende Kraft schenkt uns Sprache, Kunst, Wissenschaft und sittliche Verantwortung. Die Genauigkeit, mit der diese zwei Vererbungssysteme Wissen von einer Generation zur anderen tragen, ist hoch, aber nicht absolut. Übermittlungsfehler – sogenannte Mutationen – im chemischen System verändern unseren Körper und solche im kulturellen System unser Denken und Verhalten.
Saugwurm und Toxoplasma gondii
Langfristig schützen uns diese Fehler vor biologischer und kultureller Erstarrung, doch kurzfristig können sie in Katastrophen münden. Im frühen Mittelalter bewirkte die Tay-Sachs-Mutation im chemischen System eines osteuropäischen Aschkenasen, dass dessen Gehirn verkümmerte und vielen seiner heutigen Nachkommen das gleiche Schicksal droht. Und das 20. Jahrhundert hat uns wieder einmal daran erinnert, welche Grauen kulturelle Mutationen bewirken können. Welches dieser beiden Vererbungssysteme ist dafür verantwortlich, dass Menschen verschiedener Kulturen so unterschiedlich denken und handeln? Vielleicht ist es manchmal keines der beiden, sondern ein Parasit, der unseren Charakter verändert. Dass Parasiten das Verhalten von Tieren verändern können, ist klar erwiesen. Wenn Larven eines Saugwurms den im Pazifik lebenden Killifisch infizieren, wirft dieser seine angeborene Vorsicht über Bord und macht durch wilde Kapriolen und Körperverdrehungen an der Meeresoberfläche Raubvögel auf sich aufmerksam. Diese fressen deshalb im Durchschnitt etwa dreissigmal mehr infizierte als gesunde Fische. Der biologische Sinn dieser Gehirnwäsche gründet im Lebenszyklus des Saugwurms, der drei verschiedene Wirte benötigt. Der Wurm bildet seine Eier im Darm von Vögeln, welche die Eier in Salzsümpfe an der kalifornischen Pazifikküste ausscheiden. Dort frisst sie eine Schnecke, in der sie sich zu Larven entwickeln. Die Larven infizieren einen Killifisch und kehren schliesslich mit diesem zurück in einen Vogeldarm.
Noch eindrücklichere Beispiele liefern intelligente Säugetiere wie Mäuse und Ratten. Wenn das einzellige Tierchen Toxoplasma gondii diese infiziert, bevorzugt es die Gehirnregionen, welche Emotionen und Furcht steuern. Als Folge davon verkehrt sich die angeborene Furcht der Nager vor Katzenduft in ihr Gegenteil: Sie wird zur tödlichen Vorliebe. Dies erhöht natürlich die Chance, dass die infizierten Tiere einer Katze zum Opfer fallen – und der Parasit in eine Katze zurückkehren kann. Toxoplasma gondii kann nämlich nur im Darm von Katzen eierähnliche Oozysten bilden, die dann mit verunreinigter Nahrung in einen warmblütigen Zwischenwirt – zum Beispiel eine Ratte – gelangen. Der Parasit verändert das Verhalten von Mäusen und Ratten höchst präzise, denn er lässt deren angeborene Furcht vor offenen Flächen oder unbekannter Nahrung unverändert.
Auch wir können für Toxoplasma gondii Zwischenwirt sein – und Milliarden von uns sind es auch, weil wir verseuchtes ungewaschenes Gemüse oder rohes Fleisch verzehren oder nicht bedenken, dass auch die geliebte Hauskatze uns den Parasiten schenken kann. Etwa ein Drittel aller Nordamerikaner und fast die Hälfte aller Schweizer tragen in ihrem Blut Antikörper gegen den Parasiten – ein untrügliches Zeichen dafür, dass sie einmal infiziert waren oder es noch immer sind.
Viele Infektionen werden nämlich nicht erkannt und bleiben für den Rest des Lebens bestehen, ohne auffallende Schäden anzurichten. Bei Schwangeren, die gegen den Parasiten noch nicht immun sind, kann eine Infektion allerdings zu Missbildungen des Embryos führen oder diesen töten – und bei einigen Menschen vielleicht sogar Schizophrenie auslösen. Tatsächlich sind einige gegen Schizophrenie eingesetzte Medikamente auch gegen Toxoplasma gondii wirksam. Abbildung 1. Zerebrale Toxoplasmose: Histologischer und immunhistochemischer Nachweis (kleines Bild) von Pseudozysten (Pfeile), Hirnbiopsie eines immungeschwächten Patienten. Bild: http://de.wikipedia.org/wiki/Datei:Toxoplasmose.jpg
Einige Untersuchungen sprechen dafür, dass Toxoplasma unsere Psyche auch auf subtilere Weise verändern kann: Es macht Frauen oft intelligenter, dynamischer und unabhängiger, Männer dagegen eifersüchtiger, konservativer und gruppenhöriger. In beiden Geschlechtern erhöht es die Neigung zu Schuldbewusstsein, was manche Psychologen als negative emotionale Grundhaltung deuten.
Substanzlose Schmarotzer
Haben Parasiten den Charakter menschlicher Kulturen mitgeprägt? Wenn Toxoplasma gondii Männer tatsächlich traditionsbewusster und gruppentreuer macht, könnte es vielleicht dafür mitverantwortlich sein, dass manche Kulturen mehr als andere die herkömmlichen Geschlechterrollen hartnäckig verteidigen oder Ehrgeiz und materiellen Erfolg über Gemütstiefe und menschliche Beziehungen stellen. Und könnte es sein, dass verringerte Offenheit gegenüber Neuem die Innovationskraft ganzer Kulturen geschwächt hat? Ausführliche Befragungen in 39 Staaten sprechen in der Tat dafür, dass die negative emotionale Grundhaltung einer Bevölkerung umso ausgeprägter ist, je stärker diese mit Toxoplasma gondii infiziert ist. Natürlich lässt es sich nicht ganz ausschliessen, dass kulturelle Eigenheiten nicht Folge, sondern Ursache der Infektion sind. Vieles spricht jedoch gegen diese Interpretation, so dass Untersuchungen zur Rolle von Parasiten bei der Entwicklung menschlicher Kulturen noch einige Überraschungen liefern könnten.
Die Vorstellung, dass Parasiten mein Denken und Handeln mitbestimmen könnten, verletzt mein Selbstverständnis und mein Menschenbild. Darf ich das Lied «Die Gedanken sind frei» immer noch mit der gleichen Überzeugung singen, wie ich es als Kind tat? Oder sollte ich versuchen, meine wissenschaftliche Sicht zu überwinden und die Natur als Ganzes zu fühlen, wie Künstler und Mystiker dies vermögen? Aus dieser Sicht wären gedankenverändernde Parasiten nur ein besonders grossartiges Beispiel für die Einheit des Lebensnetzes auf unserem blauen Planeten. Unser Verstand schenkt uns ja auch die Waffen, um solche Parasiten zu erkennen und zu vernichten.
Doch wer schützt uns vor den substanzlosen Parasiten, die sich unserer Gedanken und Emotionen bemächtigen? Es gibt ihrer zuhauf – Rassenwahn, religiöser Fanatismus, Nationalhysterie, Spiritismus und Aberglaube. Sie sind hoch infektiös und entmenschlichen uns mehr, als es Toxoplasma gondii je vermöchte. Solange wir nicht gelernt haben, diese unheimlichen Gäste rechtzeitig zu erkennen und wirksam zu bekämpfen, sind sie unsere grösste Bedrohung.
Weiterführende Links
Gedankenkontrolle — Wie Parasiten ihre Wirte steuern (Die Presse)
Können Parasiten unser Verhalten steuern? (Der Spiegel)
Jaroslav Flegr (2007) Effects of Toxoplasma on Human Behavior. Schizophrenia Bulletin 33 (3):757–760 H
as Your Cat Infected You With a Mind-Controlling Parasite? Probably.
Parasites and the Brain: An Investigation of Toxoplasma Gondii and Schizophrenia. In English, 6:27 min.
Chronische Entzündungen sind Auslöser von Knochenschwund
Chronische Entzündungen sind Auslöser von KnochenschwundDo, 19.07.2012 - 05:20 — Kurt Redlich & Josef Smolen
Knochen sind ein mineralisiertes Gewebe, das einem permanenten Aufbau und Abbau unterworfen ist. Dieser sehr streng regulierte Umbau-Prozeß kann durch viele Faktoren gestört werden, insbesondere durch hormonelle Veränderungen. Ebenso kann aber auch eine chronische Entzündung den Knochen-Metabolismus beeinträchtigen und zu Knochenschwund führen.
Die wichtigsten Aufgaben unseres Skeletts bestehen in seiner Funktion als Stützsystem für den Körper, als Schutzsystem für die inneren Organe und als Ort, an dem im Knochenmark das „Blutkörperchen-bildende System“ (haematopoetic system) lokalisiert ist: Stammzellen, die zu den unterschiedlichen Blutzellen heranreifen. Darüber hinaus ist das Skelett das Depot des für viele Lebensvorgänge essentiellen Calciums.
Knochenumbau – ein kontinuierlichen Prozeß
Die Knochen des Skeletts befinden sich in einem kontinuierlichen Umbau-Prozeß (Remodellierung), der durch zwei wesentliche Arten von Zellen bewirkt wird: Osteoblasten, die Knochen aufbauen und Osteoklasten (Knochenfreßzellen), die Knochen abbauen. Die Entwicklung und Aktivierung dieser beiden Zelltypen sind streng regulierte Prozesse, in welche hochkomplexe Signalübertragungs- Netzwerke involviert sind.
Stark vereinfacht kann die Remodellierung des Knochens in folgender Weise beschrieben werden (Abbildung 1).
Abbildung 1. Remodellierung der Knochenstruktur. Osteoklasten bauen Knochensubstanz ab und die entstehenden Hohlräume (Resorptionslacunen) werden von Osteoblasten mit neuem Matrix-material (türkis) gefüllt, welches anschließend mineralierisiert. In der Knochenmatrix sind Osteozyten eingebettet, die aus Osteoblasten entstanden sind und mit ihren verzweigten Fortsätzen miteinander und mit den Osteoblasten und Osteoklasten interagieren.
Der Prozeß wird damit eingeleitet, daß aktivierte Osteoklasten an der Knochenoberfläche anhaften und dort das mineralisierte Knochengewebe auflösen (resorbieren) indem sie ein saures Milieu erzeugen und Protein-abbauende Enzyme sezernieren. Am Ort der resorbierten Knochenmatrix bleibt ein kleiner Hohlraum zurück - eine sogenannte Resorptionslakune. Darauf folgt eine Aktivierung von Osteoblasten, die den Hohlraum mit neuer Knochenmatrix füllen.
Der Prozeß des Knochenumbaus ist nicht nur erforderlich, um die Knochenstärke an Wachstum und mechanische Belastung anzupassen, sondern auch um mechanische Schäden zu reparieren. Dieser Umbau findet über die gesamte Lebensspanne statt – in der kompakten äußeren (kortikalen) Knochensubstanz ebenso wie in dem aus Knochenbälkchen (Trabekeln) schwammartig aufgebauten inneren Gerüst. (Abbildung 2). Nur in der Kindheit, in der Knochenwachstum- und Modellierung stattfindet, kann Knochenbildung unabhängig von Knochenresorption erfolgen.
Abbildung 2. Architektur eines Knochens. Knochen bestehen aus einer Matrix und darin eingebetteten, aus Osteoblasten entstandenen, funktionellen Knochenzellen (Osteozyten). Die Matrix selbst ist aus Hydroxylapatit (rund 75 % des Trockengewichts) aufgebaut, welches zwischen Kollagenfasern eingelagert wird. Das Osteon ist die funktionelle Einheit der harten äußeren Schicht, der kompakten Knochensubstanz. Im Inneren des Knochens findet sich ein poröses, schwammartig aufgebautes Netzwerk aus Trabekeln, welches Platz für das Knochenmark bietet. (Bild: modifiziert nach https://en.wikipedia.org/wiki/File:Illu_compact_spongy_bone.jpg)
Knochen stellen außerdem das Calcium-Depot im Körper dar, rund 99 % der Gesamtmenge des Calciums liegen dort in mineralischer Form als Hydroxylapatit vor. Neben der Architektur und Festigkeit, die das Calcium-Mineral den Knochen verleiht, spielt Calcium eine essentielle Rolle in einer Vielzahl von physiologischen Prozessen, wie beispielsweise in Signalübertragungs-Kaskaden, in der Kontraktion von Muskelzellen, in der Ausschüttung von Neurotransmittern aus Nervenzellen, in der Aufrechterhaltung von Membranpotentialen und als Kofaktor zahlreicher Enzyme (z.B. in der Blutgerinnung).
Die Aufrechterhaltung eines konstanten Calciumspiegels im Blut wird durch den kontinuierlichen Knochenumbau ermöglicht.. Besteht ein erhöhter Bedarf für Calcium, beispielsweise als Folge des Stillens, auf Grund verringerter körperlicher Aktivität oder bei eingeschränkter Mobilität (z.B.im Alter), hält seine Bereitstellung durch Knochenresorption an und kann schließlich zur Osteoporose führen.
Störungen des Knochenumbaus
Abbau und Neubildung von Knochenmatrix finden permanent an Tausenden Stellen des Skeletts statt und sollten sich die Waage halten. Allerdings kann der Umbauprozeß durch Faktoren gestört werden, die mit der Funktion der Osteoblasten oder der Aktivität der Osteoklasten interferieren. Wenn Osteoklasten übermäßig aktiviert werden oder Osteoblasten zu geringe Aktivität aufweisen um die Resorptionslakunen zu füllen, ist ein Verlust an Knochengewebe die Folge - eine sogenannte Osteopenie, welche schließlich zur Osteoporose und einer erhöhten Brüchigkeit der Knochen führt.
Andererseits kann als Folge intensiven Trainings, d.h. auf Grund wiederholter mechanischer Reize, ein Knochenaufbau erfolgen, der den Abbau überwiegt und zu erhöhter Knochenmasse führt.
Ein Ungleichgewicht von Abbau zu Aufbau kann auf Grund eines gestörten Stoffwechsels auftreten, wie beispielsweise im Falle der Osteomalazie, die zumeist durch einen Mangel an Vitamin D oder Calcium ausgelöst wird. Ein Ungleichgewicht kann auch hormonell bedingt sein: eine vermehrte Bildung des Parathormons der Nebenschilddrüse (Hyperparathyroidismus) führt zum Knochenabbau und damit zu einer gesteigerten Freisetzung von Calcium aus den Knochen . Östrogen Mangel, wie er in der Postmenopause auftritt, ist die häufigste Ursache für eine übermäßige Aktivität von Osteoklasten. Diese führt zu einer Abnahme der Knochenmasse und einer erhöhten Fragilität der Knochen und damit zu einem hohen Risiko für Knochenbrüche und Folgeerkrankungen, die wiederum mit einer gesteigerten Sterblichkeit einhergehen. Postmenopausale Osteoporose befällt mehr als 50 % der Frauen über 60.
Eine Störung des Gleichgewichts zwischen Bildung und Resorption der Knochen tritt auch bei zahlreichen Krankheiten auf, beispielsweise bei chronisch entzündlichen Erkrankungen.
Entzündung – Auswirkungen auf den Knochenumbau
Entzündung ist generell die Antwort des Körpers auf eine durch infektiöse oder nicht-infektiöse Auslöser hervorgerufene Schädigung, mit dem Ziel diese in Grenzen zu halten und zu beheben. Im Entzündungsprozeß werden unterschiedliche Zellpopulationen aus dem Repertoire des angeborenen, unspezifischen Immunsystems und des erworbenen (adaptiven), spezifischen Immunsystems aktiviert, welche mit der Ausschüttung von Botenstoffen (Cytokinen) reagieren.
Cytokine sind Proteine, die Signale von Zelle zu Zelle übertragen: von einer Zelle ausgeschüttet docken sie an der Oberfläche einer anderen Zelle an ein hochspezifisches (Rezeptor-) Protein an und lösen damit im Inneren der Zelle Signalprozesse aus, die das Wachstum und die Differenzierung der Zelle initiieren und regulieren.
Die im Entzündungsprozeß sezernierten Cytokine üben massive Effekte auf das Wachstum von Osteoblasten und Osteoklasten aus und auf deren Differenzierung aus Vorläuferzellen. Diese Signalmoleküle führen nicht nur zum Fortbestehen der Entzündung, sie bewirken auch, daß die Knochenresorption aktiviert und die Knochenbildung inhibiert werden. Tatsächlich konnte gezeigt werden, daß die Stärke der entzündlichen Reaktion mit dem Ausmaß an lokalem und systemischem (d.h. auf das gesamte Skelettsystem sich auswirkendem) Knochenschwund korreliert.
Entzündliche Erkrankungen, die mit systemischer Osteoporose und erhöhter Anfälligkeit für Knochenbrüche einhergehen, können überall in unserem Organismus auftreten. Darunter fallen rheumatologische Krankheiten, wie die rheumatoide Arthritis im Stütz-und Bewegungsapparat, die Autoimmunerkrankung systemischer Lupus erythematodes (SLE), axiale Spondylarthritis und psoriatische Arthritis, ebenso wie die chronisch-entzündliche Darmerkrankung („inflammatory bowel disease“ Abkürzung: IBD), Zoeliakie, cystische Fibrose , chronisch obstruktive Lungenerkrankung („chronic obstructive pulmonary disease“, Abkürzung: COPD) und Parodontitis in der Mundhöhle. Der an Patienten mit diesen Erkrankungen beobachtete Knochenschwund findet seine Bestätigung auch in experimentellen Modellen zu Arthritis und Colitis.
Zwei der beim Menschen am häufigsten auftretenden chronischen entzündlichen Defekte seien als Beispiele kurz beschrieben: Parodontitis, durch Infektionen des Zahnfleisches mit verschiedenen Bakterien ausgelöst, stellt ein erhöhtes Risiko für die Entstehung anderer Krankheiten dar, die mit chronischer Entzündung assoziiert werden, beispielsweise mit koronarer Atherosklerose und systemischer Osteoporose. Zusätzlich erfolgt hier auch lokaler – alveolarer (= hinter den oberen Schneidezähnen) – Knochenschwund. Dieser dürfte zumindest teilweise durch eine bakteriell verursachte Aktivierung von Immunzellen (T-Zellen) hervorgerufen werden, die ihrerseits lokal die Bildung von Osteoklasten stimulieren.
Rheumatoide Arthritis führt zu ähnlichen systemischen Knochenveränderungen wie alle anderen entzündlichen Erkrankungen. Daneben erfaßt die Entzündung lokal alle Bereiche eines Gelenks, wie die Gelenkskapsel mit der zuinnerst liegenden synovialen Membran, Knorpel und gelenksnahe Knochen und führt zu deren Erosion. Unter dem Einfluß von Entzündungsfaktoren (die proinflammatorischen Cytokine IL-6 und TNF-alpha), die in sehr hoher Konzentration in der Gelenkinnenhaut (Synovialmembran) vorliegen, werden aus Vorläuferzellen Osteoklasten gebildet und aktiviert.
Zusammenfassung
Entzündung ist eine wesentliche, allerdings meistens ignorierte Ursache für die Entstehung von lokalem und systemischen Knochenschwund, der schließlich zur starken Einschränkung der Beweglichkeit bis hin zu Invalidität und erhöhter Mortalität führt.
Welche Therapien zur kausalen Bekämpfung des Entzündungsprozeßes zur Verfügung stehen und welche Strategien zur Inhibierung von Differenzierung, Aktivierung und Funktion von Osteoklasten und zur Stimulierung von Osteoblasten erfolgversprechend sind, soll in einem folgenden Beitrag dargestellt werden.
Weiterführende Links
Der 2. Teil des Artikels: Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische Strategien http://scienceblog.at/chronische-entz%C3%BCndungen-als-ausl%C3%B6ser-von-knochenschwund-%E2%80%93-therapeutische-strategien#.
Arthritis. Video 8:1 min. https://medizinmediathek.vielgesundheit.at/filme/krankheitsbilder/filmdetail/video/arthritis.html
Werden Rheuma-Gelenke bald Medizingeschichte? (aerztezeitung.de)
Unzähmbare Neugier, Innovation, Entdeckung und Bastelei
Unzähmbare Neugier, Innovation, Entdeckung und BasteleiDo, 12.07.2012- 00:00 — Peter Schuster
Sind wir dazu verdammt auf dem Weg einer immerzu steigenden Komplexität unserer Welt fortzuschreiten? Unsere Neugier treibt uns an Unbekanntes zu erforschen, Neues zu entdecken und Innovation auf der Basis des bereits Etablierten zu suchen.
Während die technologische Entwicklung auf der Entdeckung neuer Komponenten ebenso wie auf Innovation (das heißt, einer Verknüpfung bereits etablierter Bausteine zu neuen Objekten) beruht, bedient sich die biologische Evolution praktisch ausschließlich der Innovation, verknüpft bastelnd vorhandene Bausteine und gelangt so zu einer immer höheren Komplexität ihrer Schöpfungen.
Ein Trapper des achtzehnten Jahrhunderts benötigte eine Schachtel Zündhölzer, ein Gewehr und ein Messer, vielleicht noch ein Zelt und ein Kanu oder einen Hundeschlitten, um in der Wildnis zu überleben. Heute würde sich in derselben Situation praktisch jeder von uns unbehaglich fühlen, hätte er nicht zusätzlich auch noch GPS, ein Handy mit Internet Zugang, eine Erste-Hilfe Schachtel mit zumindest Aspirin, einem Antibiotikum und einem Serum gegen Schlangenbisse und eine Reihe weiterer Utensilien mit dabei. Im Vergleich zur langen Geschichte des Menschen ist seit den glorreichen Tagen des Trappers nur eine winzige Zeitspanne vergangen, die Komplexität des Lebens hat seitdem aber zweifellos enorm zugenommen.
Wie wird sich die Komplexität des Lebens weiter entwickeln?
Dieser Artikel versucht dazu Aussagen aus drei verschiedenen Quellen zu kombinieren. Diese stammen: (i) aus dem Buch „Unersättliche Neugier. Innovation in einer fragilen Zukunft“ der österreichischen Soziologin und Wissenschaftsforscherin Helga Nowotny (1), (ii) aus einem Artikel des in den USA lebenden irischen Ökonomen Brian Arthur und des Informatikers Wolfgang Polak, die ein einfaches Computer-Modell zur Evolution der Technologie entwickelt haben (2) und (iii) aus dem Konzept des französischen Genetikers und Nobelpreisträgers Francois Jacob über „Evolution and Tinkering“ (Evolution und Herumbasteln) (3), das kürzlich von Wissenschaftern wiederaufgenommen wurde.
Wie Helga Nowotny die Zukunft sieht
Das Buch von Helga Nowotny (1), aus dessen Titel der Begriff der unersättlichen Neugier – variiert in unbezähmbare Neugier - übernommen wurde, zeichnet ein ziemlich unsicheres Bild der Zukunft, das man leicht modifiziert mit den folgenden Sätzen umreißen kann:
- Naturwissenschafter und die Naturwissenschaft ganz allgemein sind von Neugier getrieben, Neugier ist ein nicht zu befriedigender Trieb, der zur Innovation führt.
- Erfolg und Fortschritt in den Naturwissenschaften werden in Termen ihres Innovationspotentials gemessen. Die Zunahme an Innovationen treibt die westliche Welt und - auf Grund der Globalisierung- die gesamte Welt in eine fragile Zukunft, die voll von Risiken und Gefahren ist.
- Zukunftsängste, die sich von den all zu raschen Veränderungen innerhalb der letzten Jahrzehnte herleiten, lassen unsere Gesellschaften am wissenschaftlichen Fortschritt zweifeln, hin- und hergerissen zwischen hoffnungsvoller Akzeptanz und heftigster Ablehnung der Neuerungen.
Auch, wenn man in dem Gesagten den unausgesprochenen Wunsch Nowotnys zu spüren vermeint, diese ganze unheilbringende Entwicklung anhalten zu wollen, akzeptiert sie den Innovationsprozeß als unvermeidbar, plädiert aber für eine neue Synthese, die Naturwissenschaften, Technologie und Humanwissenschaften vereint. Wenn sie in dieser Synthese nun ein kulturelles und moralisches Filter für Neuerungsprozesse vorschlägt, die unsere kollektive Zukunft betreffen, so sollte bedacht werden, daß der naturwissenschaftlich-technologische Wissensstand (eines Großteils) der heutigen Kulturwissenschafter diese wohl kaum dazu befähigt um über Sinn und Bedeutung von Innovationsprozessen ein Urteil abzugeben. Läßt sich unersättliche Neugier durch kulturelle und moralische Filter überhaupt zähmen? Vielleicht in einigen (wenigen) Gesellschaften, sicherlich nicht auf globaler Ebene. Hier wäre dazu anzumerken, daß wir die Neugier ja von unseren Vorgängern, den Primaten und ganz generell von den Säugetieren, geerbt haben und, daß diese – ebenso wie Innovation oder Fortschritt – a priori weder als gut noch als schlecht zu bewerten ist. In anderen Worten: Neugier ist ein genetisch vererbtes Merkmal und keine moralische Kategorie.
Ein Computer-Modell zur Evolution der Technologie
Der Artikel von Arthur und Polak (2) führt ein Computer-Modell der kombinatorischen Evolution ein, welches die Entwicklung der Technologie-Welt recht gut abbildet. Die Grundlage des Modells ist, daß neue Objekte hergestellt werden durch die Kombination von Modulen aus einer Kollektion einfacherer Hilfsmittel. Ein Weiterverbinden von bereits kombinierten Einheiten zu neuen Kombinationen erlaubt so eine praktisch unendliche Zahl an Objekten mit steigender Komplexität zu entwerfen. Dabei führt auch ein wahlloses Kombinieren von einfachen logischen Elementen zu erstaunlich komplexen logischen Operatoren – und dies geschieht in einem Prozeß evolutionärer Selbst-Organisation ohne Eingriff von außen. Wenn auf diese Variation durch Kombination von Kombinationen nun auch noch Selektion durch Ökonomie und Gesellschaft erfolgt, entsteht ein plausibles Modell für die Entwicklung von Technologien. In diesem Zusammenhang ist erwähnenswert, daß bereits Jaques Monod die Evolution von Technologien als einen Fall von Darwin’scher Selektion ansah und sogar als ein besseres Beispiel als die in der Biologie erfolgende Selektion. Eine sehr attraktive Eigenschaft dieses kombinatorischen Evolutions-Modells ist es, daß Technologien wie in der realen Welt beschränkte Lebensdauern haben und ihr Ersatz den gut bekannten Regeln der selbst-organisierten Kritikalität folgt: Viele kleine Änderungen stehen dabei einigen großen Änderungen gegenüber und die Verteilung dieser Ereignisse folgen einer Exponentialfunktion, wie man sie auch für so unterschiedliche Phänomene wie den Abgang von Lawinen, die Stärke von Erdbeben, das Aussterben von Spezies in der Paläontologie oder das allometrisches Skalieren gefunden hat. Infolge der vielfachen Verwendung derselben Bausteine ergeben sich wechselseitige Abhängigkeiten und führen dazu, daß große Gruppen von Objekten gleichzeitig nutzlos werden, wenn ein Schlüssel-Baustein durch eine neue Technologie ersetzt wird. Daraus resultieren „Lawinen des Ersatzes“, wie sie schon von Josef Schumpeter diskutiert und als „Sturm der Zerstörung“ charakterisiert wurden. Dazu gibt es sehr viele Beispiele, unter anderem in der Beleuchtungstechnik, wo die Pechfackel durch die Kerze ersetzt wurde, die Kerze durch den Glühstrumpf und schließlich durch die Glühlampe. In der Elektronik wurden die Röhren nahezu vollständig durch Transistoren ersetzt. Die Einführung einer neuen Technologie führt meistens auch dazu, daß die Größe eines Gerätes, einer Anlage reduziert wird und manchmal auch – zumindest teilweise – deren Komplexität. Ein klares diesbezügliches Beispiel zeigt der Vergleich von mechanischen Rechenmaschinen, den riesigen voll mit Röhren ausgestatteten ersten Computern und den modernen Computern auf Basis der Silizium-Technologie.
Biologische Evolution durch Herumbasteln
Ein dritter, nicht weniger wichtiger Stein, der in das Puzzle der Innovation paßt, kommt aus der Biologie. Die Molekulargenetik und insbesondere die Genom-Forschung haben zahlreiche überzeugende Hinweise geliefert, daß biologische Evolution und Entwicklung als Folge eines Herumbastelns aber nicht auf Grund eines rationalen Designs erfolgen. Die Natur verhält sich nicht wie ein Ingenieur, sie geht nicht von einer Planung aus, sondern baut Neues in der Weise, daß sie Teile aus einem bereits bestehenden und rasch verfügbaren Repertoire von Bausteinen kombiniert. Die über die letzten dreißig Jahre gesammelten molekularen Daten haben zu völlig neuen Einsichten in der evolutionären Entwicklungsbiologie („evo-devo“) geführt. Das genetische Regulationssystem eines Organismus stellt sich als ein äußerst komplexes Netzwerk dar, in dem Genprodukte jeweils mehrere Funktionen erfüllen können, das bedeutet, daß ein- und dasselbe Molekül für verschiedene Zwecke in der Zelle, im Organismus eingesetzt wird. Neue Bauweisen von Körpern, neue phänotypische Anlagen entstehen nicht durch neue Moleküle, sondern durch die Wiederverwendung vorhandener Moleküle in verschiedenen neuen Kombinationen. Zahlreiche Verwendungszwecke einzelner Bausteine, anders als im Fall der Technologien, schaffen Netzwerke steigender Komplexität und erfordern immer kompliziertere Mittel der Regulation. Die besten indirekten Hinweise auf das Basteln der biologischen Evolution sind unsere enormen Schwierigkeiten die molekularen Maschinen der Natur zu durchschauen -- die Evolution hat sie ausschließlich so entwickelt, dass sie funktionieren, und nicht, dass wir ihre Funktionsweise verstehen können.
Biologische Evolution versus technologische Evolution
Es besteht ein wesentlicher Unterschied zwischen biologischer und technologischer Evolution: Sind Lösungen von Problemen einmal etabliert, so werden sie in der Biologie praktisch nie ersetzt. Unsere Zellen nutzen noch dieselben Synthesemaschinen für die Produktion von Biopolymeren wie der letzte gemeinsame Vorfahre allen terrestrischen Lebens (Es wird angenommen, daß dieser hypothetische einzellige Organismus ein Abkömmling der ersten lebenden Zelle , der sogenannten Progenote ist) . Der Innenraum heutiger Zellen, insbesondere das Cytosol spiegelt das Milieu der „Ursuppe“ bezüglich des Sauerstoffdrucks und des Verhältnisses der Kationen von Natrium zu Kalium und Calcium zu Magnesium viel besser wieder, als das Milieu heutiger Ozeane. Die Entwicklung des Auges von Wirbeltieren, Insekten und Mollusken folgt genetisch verfolgbaren, phylogenetischen Routen, die sich von einer einzigen genetisch regulatorischen Einrichtung und vermutlich von einem einzigen frühen lichtempfindlichen Pigment herleiten. Es könnten noch sehr viele weitere Beispiele angeführt werden für das Prinzip der Natur eines „Aufbauen auf dem Vergangenen“. Anders als in der Evolution von Technologien, wurde die Maschinerie, welche die Entwicklung zu höherer Komplexität treibt, niemals durch die Einführung einfacherer, auf neuen Technologien basierender Mittel zurückgefahren. Die Folgen sind ein unerhört komplexes System der genetischen Regulation, der Signalübertragung, des zellulären Metabolismus. Eben dieses unglaublich verwobene Netzwerk ist es, was Zellen und Organismen so schwer verständlich erscheinen läßt.
Entdeckung ist nicht gleich Innovation
Es erscheint hier angebracht den Unterschied zwischen den Begriffen Entdeckung und Innovation klar zu stellen. Eine Entdeckung führt etwas vollkommen Neues in ein bestehendes System ein. Beispielsweise war dies der Halbleiter in der modernen technologischen Entwicklung oder die Entdeckungen der Natur in der Phase der präbiotischen Evolution, wie die Proteinfaltung der alpha-Helix oder die DNA-Doppelhelix. Innovation kann dagegen als Kombination bereits bestehender Elemente in einem neuen Zusammenhang verstanden werden. Die beiden oben erwähnten Publikationen behandeln derartige Innovationen. Entsprechend diesen Definitionen stellt die technologische Entwicklung eine Mischung von beiden, Entdeckung und Innovation dar: Entdeckungen führen neue Technologien ein und ermöglichen die Entwicklung von Einrichtungen von Grund auf, wohingegen Innovation die Konstruktion komplexer Einrichtungen mit Hilfe der kombinatorischen Evolution bewerkstelligt. Dagegen sind in der Evolution der Natur Entdeckungen offensichtlich auf die frühen Phasen der Entwicklung beschränkt – auf die Schaffung neuer hierarchischer Ebenen von Komplexität, die auch als „Perioden großer Übergänge“ bezeichnet werden. Der Rest scheint ein Herumbasteln mittels neuen Kombination zu sein.
Unersättliche Neugier: nach dem Unbekannten forschen, Innovation suchen und Herumbasteln
Schließlich sollten wir eine Synthese der drei unterschiedlichen Begriffe: Entdeckung, Innovation und Bastelei versuchen und über den Ursprung und die Konsequenz der unbezähmbaren Neugier nachzudenken. Nach dem Unbekannten zu forschen und Innovation zu suchen, scheint eine Anlage zu sein, die wir in unterschiedlichem Ausmaß mit allen Säugetieren teilen und die möglicherweise ein Ergebnis der Evolution des Gehirns ist. Ich meine dazu, daß Neugier einen Selektions-Vorteil dar stellt, zumindest solange als dabei nicht ein Großteil der Bevölkerung infolge eines unkontrollierten Fortschreitens in gefährliches Terrain zugrunde geht. Die Vermeidung der Eigenschaften, die zu derartig fatalen Ergebnissen führen können, wird offensichtlich durch die Erziehung der Nachkommenschaft bewirkt, durch Eltern, die ihre Jungen eines zu neugierigen Forschens entwöhnen. Ein Herumbasteln, das zur Innovation führt, steigert die Komplexität, da sie Module zu Netzwerken mit auf allen Ebenen stattfindenden Wechselbeziehungen kombiniert. In der technologischen Evolution läßt sich die „Uhr der Komplexität“ zurückdrehen, wenn Elemente einer neuen Technologie entdeckt werden. In der Natur erscheint dies äußerst schwierig, wenn nicht überhaupt unmöglich zu sein. Soweit die Biologie betrachtet wird, bedeutet eine Reduktion der Komplexität ein Aussterben ganzer Stämme von Lebewesen, denn nur dann kann die Evolution an einer weniger komplexen Wurzel wieder starten. Sind wir also – wie im Titel gefragt - dazu verdammt auf dem Weg einer weiter und weiter steigenden Komplexität fortzuschreiten? Wenn die Evolution der humanen Spezies als Ganzes mehr einer biologischen Evolution entspricht, dann können wir dem Wettlauf nicht entkommen, daß immer komplexere Gesellschaften gebildet werden, mit immer steigendem bürokratischen Mehraufwand. Wenn sich Gesellschaften allerdings eher nach den Mechanismen der technologischen Evolution entwickelten, dann könnte es gelingen durch neue Qualitäten in den zwischenmenschlichen Beziehungen die „Uhr der Komplexität“ zurückzudrehen. Diese optimistische Sicht wird allerdings durch die Realität Lügen gestraft: Hypertrophe staatliche Verwaltungen haben sich noch nie von selbst zu einfacheren Strukturen zurückentwickelt, sie wurden vielmehr nur durch einen Zusammenbruch des Gemeinwesens beseitigt -- Beispiele dafür gibt es von der Antike bis in die jüngste Zeit. Unbezähmbare Neugier, die den Menschen antreibt nach dem Unbekannten zu forschen und dabei über seine Grenzen hinauszugehen? Freie Interpretation des „Holzstichs des Flammarion“ (unbekannter Künstler aus Camille Flammarion, L'Atmosphere: Météorologie Populaire, Paris, 1888; Bild: Wikipedia)
-----------------------------------------------------------------------------------------------
[1] Nowotny, H. Unersättliche Neugier. Innovation in einer fragilen Zukunft. Kulturverlag Kadmos. Berlin 2005. In German. See also H: S. Markl. Fear of the future. Will scientific innovation bring progress and benefits, or just risks and dangers? Nature 437:319-320, 2005.
[2] Arthur, W.B., Polak, W. The evolution of technology within a simple computer model. Complexity 11/5:pp-pp, 2006. See also W. Brian Arthur, The Nature of Technology: What it Is and How it Evolves. The Free Press, a division of Simon and Schuster, New York 2009.
[3] Jacob, F. The possible and the actual. Pantheon Books, New York, 1982. See also: Evolution and tinkering. Science 196:1161-1166, 1977.
Weiterführende links:
Die unter (1) – (3) zitierte Literatur kann auf Anfrage vom Autor erhalten werden.
Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener
Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred WegenerDo, 28.06.2012- 05:20 — Siegfried J. Bauer
Eine historische Betrachtung der Zeitgenossen Wegener und Hess, die zu den bedeutendsten Naturwissenschaftlern gehören, die je an österreichischen akademischen Institutionen wirkten. Aus dem Konzept der Kontinentalverschiebung leitet sich die heutige Theorie der Plattentektonik ab. Die Entdeckung der Kosmischen Strahlung initiierte die Auffindung neuer Elementarteilchen und die Erforschung der in den Sternen ablaufenden Kernreaktionen, die zur Entstehung der Elemente führen und unser heutiges Bild vom Ursprung des Universums prägen.
Alfred Wegener und Viktor Franz Hess gehören gewiß zu den bedeutendsten Naturwissenschaftlern, die je an der Grazer Universität wirkten. In den Zwanzigerjahren des vorigen Jahrhunderts waren sie sogar für einige Jahre zeitgleich „Nachbarn“ am Physikalischen Institut. Beide erlangten Weltberühmtheit durch einfache aber revolutionäre Ideen, bis zu deren Akzeptanz einige Jahrzehnte vergingen.
Im Falle Alfred Wegeners war es seine Theorie der Kontinentalverschiebung, die – im Gegensatz zum damaligen Bild einer statischen Erde – horizontale Bewegungen der Erdoberfläche implizierte.
Bei Viktor Hess war es das Konzept einer von außen kommenden energiereichen Strahlung, die unter anderem für die Leitfähigkeit der Luft verantwortlich ist, aber nicht von der Sonne kommen konnte, da sie auch nachts und bei Sonnenfinsternis beobachtbar war.
Für Hess kam die allgemeine Anerkennung nach 25 Jahren durch die Verleihung des Physik-Nobelpreises im Jahr 1936 für seine Entdeckung der „Kosmischen Strahlung“. Wegener hat die Bestätigung seiner Hypothese von der Wanderung der Kontinente nicht erlebt; sie erfolgte erst 30 Jahre nach seinem Tod in Form des heute erbrachten Beweises der Plattentektonik. Beide, Wegener und Hess, präsentierten ihre revolutionären Ideen als kaum Dreißigjährige.
Ihrer Herkunft nach unterscheiden sich die beiden in hohem Maße, doch ihre wissenschaftliche Karriere weist manche Ähnlichkeit auf. Wegener wurde am 1.11.1880 in Berlin als Sohn eines evangelischen Pastors und Lehrers geboren; Hess geboren am 24.6.1883 auf Schloß Waldstein bei Graz, war der Sohn eines Forstbeamten im Dienste des Fürsten Liechtenstein.
Forscher zwischen Erde und Kosmos
Wegener studierte Astronomie und Meteorologie in Berlin, mit ein paar Semestern in Heidelberg und Innsbruck, und promovierte in Astronomie summa cum laude im Jahre 1905 in Berlin. Hess studierte Physik an der Universität Graz und promovierte hier im Jahre 1906 sub auspiciis imperatoris.
Abbildung 1. Aus A. Wegener: Ursprung der Meere und der Kontinente „A. Wegener hat hingegen neuerdings den kühnen Gedanken aufgeworfen, daß die großen Kontinentalmassen auf der Erdoberfläche selbständige Verschiebungen gegen einander ausführen“ (Bild: Wikipedia)
Für Wegener begann nach seiner Habilitation in Meteorologie und Astronomie an der Universität Marburg an der Lahn ebendort eine Tätigkeit als Privatdozent, wobei er sich mit der Meteorologie befaßte und im Jahre 1911 sein vielbeachtetes Buch Thermodynamik der Atmosphäre veröffentlichte. Im Jahre 1912 präsentierte er erstmals seine Kontinental-verschiebungstheorie vor der Geologischen Vereinigung in Frankfurt am Main. Nach seiner im Jahr 1913 erfolgten Eheschließung mit Else Köppen, der Tochter des berühmten deutschen Klimatologen Wladimir Köppen, leistete er seinen Kriegsdienst im Ersten Weltkrieg, wobei er zweimal verwundet wurde. Während eines Erholungsurlaubes veröffentlichte er 1915 die erste Auflage seines nachmals weltberühmtem Buches Der Ursprung der Meere und der Kontinente.
Viktor F. Hess wiederum wollte seine als Dissertation in Graz begonnenen Arbeiten eigentlich in Berlin fortsetzen, wurde aber durch den plötzlichen Tod von Prof. Paul Drude daran gehindert. Darauf verschaffte ihm sein Lehrer Leopold von Pfaundler, einer der ersten Hausherren des neu erbauten Grazer Physikalischen Instituts, einen Arbeitsplatz am 2. Physikalischen Institut der Universität Wien. Dies wurde für die weitere wissenschaftliche Entwicklung von Hess entscheidend und war letzten Endes auch der Grund für eine große Entdeckung.
Dort hatte Franz S. Exner einen Kreis von hochbegabten Schülern um sich geschart und beschäftigte sich mit zwei neuen gebieten der damaligen Physik: der Radioaktivität und der Luftelektrizität. Hess habilitierte sich im Jahr 1910 auch mit einer Arbeit über die Radioaktivität in der Luft und erhielt im gleichen Jahr die Stelle eines ersten Assistenten am neu gegründeten Radiuminstitut der Akademie der Wissenschaften, dessen Direktor Stefan Meyer war, in welchem er auch einen Freund und großzügigen Förderer seiner Arbeiten fand. Bei mehreren Ballonaufstiegen im Jahr 1912 konnte Hess nachweisen, daß die elektrische Leitfähigkeit der Luft, die auf Grund der Ionisation durch die harte Gammastrahlung von radioaktiven Substanzen am Boden hervorgerufen wird, zuerst mit der Höhe abnimmt, dann aber oberhalb einer Höhe von 1800 m wieder zunimmt, um bei 5000 Metern einen vielfach höheren Wert als am Boden zu erreichen.
Abbildung 2. Ballonfahrt von Viktor F. Hess. Zwischen 1911 und 1913 führte Hess bei Tag und Nacht 10 Ballonaufstiege bis in Höhen von über 5 km durch (Bild: Wikipedia)
Für Hess lag die einzig mögliche Erklärung in einer von außen kommenden „extraterrestrischen“ Strahlung. Die Beobachtungen von Hess wurden im folgenden Jahr von W. Kohlhörster bestätigt, aber es bestanden noch viele Jahre Zweifel an der Existenz der von Hess entdeckten Strahlung, und zwar sowohl in Europa als auch in den USA. Die Zeit war offensichtlich noch nicht reif für eine solch revolutionäre Entdeckung. Erst durch die Verleihung des Nobelpreises im Jahr 1936, den Hess gemeinsam mit dem Amerikaner C.G.Anderson erhielt, fand seine Entdeckung allgemeine Anerkennung. Für den bedeutenden englischen Physiker und ehemaligen Astronomer Royal Sie Arnold Wolfendale waren die Ballonmessungen von Hess im Jahre 1912 gewissermaßen die Geburtsstunde der kosmischen Strahlung (englisch: cosmic rays).
Die Entdeckung von Hess war nur dadurch möglich, daß er ein begeisterter und erfahrener Ballonfahrer war, eine Eigenschaft, die er mit Wegener teilte. Dieser hatte mit einem gemeinsam mit seinem Bruder, dem Meteorologen Kurt Wegener unternommenen, 52-Stunden-Ballonflug im Jahr 1906 einen Weltrekord aufgestellt. Wie Wegener leistete auch Hess Kriegsdienst im Ersten Weltkrieg, und zwar als Leiter der Röntgenabteilung eines Reservelazaretts. Daneben führte er mit einem Engländer namens Lawson, der in Wien vom Kriegsausbruch überrascht worden war, eine Präzisionsbestimmung der vom Radium ausgesandten Alphateilchen (Heliumkerne) durch und wandte als erster den heute wohlbekannten Geiger-Zähler für die Messung von Gammastrahlen an.
Nach dem Ersten Weltkrieg wurde Alfred Wegener als Nachfolger seines Schwiegervaters W. Köppen als Chefmeteorologe an die Universität Hamburg berufen (1919 – 1924). Mitte der Zwanzigerjahre gab es dann auch den ersten Kontakt zwischen Wegener und Hess in Graz. Im Herbst 1920 wurde Hess zum Extraordinarius für Physik an der Universität Graz ernannt, aber fast gleichzeitig erhielt er, als einer der ersten Ausländer nach dem Ersten Weltkrieg einen Ruf in die USA, um dort als Chefphysiker der US Radium Corporation ein Forschungslabor aufzubauen. Er tat dies während einer zweijährigen Beurlaubung von seiner Grazer Position und hielt auch Vorträge an amerikanischen Universitäten; zudem war er auch als beratender Physiker des US Department of Interior tätig. Trotz günstiger Angebote zog es Hess jedoch vor, wieder an seine Grazer Lehrkanzel zurückzukehren, wo er 1925 zum Ordinarius ernannt wurde.
Die „glücklichen Jahre“ Alfred Wegeners in Graz (1924 –1930)
Im April 1924 wurde Alfred Wegener, nachdem sich die Verhandlungen mit dem Unterrichtsministerium wegen Fragen der Besoldung und der Bemessung des Pensionsdienstalters in die Länge gezogen hatten, als ordentlicher Professor für Meteorologie und Geophysik an die Universität Graz berufen. Damit begann Wegeners Grazer Periode, die in der von seiner Frau Else verfaßten Biographie als die „glücklichen Jahre“ bezeichnet wird. Wie wohl sich Wegener hier fühlte, kam in seiner Haltung zum Ausdruck, keinesfalls von Graz weggehen zu wollen und die ihm angebotenen Möglichkeiten von Berufungen nach Berlin und Innsbruck auszuschlagen.
Zusammen mit den Wegeners übersiedelte nach Graz auch Alfred Wegeners Schwiegervater Wladimir Köppen, der, zehn Jahre nach Wegeners Tod in Grönland, im Alter von 93 Jahren in Graz verstarb. Mit ihm verfaßte Wegener im Jahr seiner Berufung nach Graz das Werk „Klimate der geologischen Vorzeit“, mit welchem die beiden Autoren auch den Arbeiten von Milutin Milankovitch über die astronomischen Ursachen der Eiszeiten zu einer weiten Verbreitung verhalfen. Auch dessen Theorie hatte einen gewissen revolutionären Charakter, denn die Periodizitäten in den Schwankungen von Erdachse, Präzession der Äquinoktien und Exzentrizität der Erdbahn wurden von Milankovitch als Ursache der Eis-und –Zwischeneiszeiten im Quartär angesehen.
Heute weiß man, daß diese Theorie zwar nicht die wirklichen Temperaturschwankungen erklären kann, wohl aber, daß die Milankovitch-Zyklen als Zeitgeber in einem nichtlinearen Klimasystem wirken können. Das Buch von Köppen und Wegener war auch dazu angetan, aus Vergleichen des amerikanischen und afrikanischen Kontinents in der Vorzeit Argumente für die einstige Zusammengehörigkeit der beiden, und damit für die Existenz der Kontinentverschiebung zu liefern.
Die Grazer Zeit war für Wegener insgesamt eine wissenschaftlich fruchtbare Periode. Es entstanden in diesen sechs Jahren vor seinem Tod 60 wissenschaftliche Publikationen, die von der ungeheuren Breite der Interessen Wegeners zeugen. Sie umfassen nicht nur neue Auflagen seines bekannten Buches Thermodynamik der Atmosphäre, sondern auch Neubearbeitungen seines magnum opus Entstehung der Kontinente und der Ozeane sowie Arbeiten über Impaktkrater durch Meteoriteneinstürze (Wegener war auch einer der ersten, der diese als Ursache der Mondkrater – statt Vulkanismus – vorschlug). Darüber hinaus befaßte er sich auch mit dem Polarlicht, leuchtenden Nachtwolken, Anfangs- und Endhöhen großer Meteore und beschäftigte sich mit der Atmosphäre in großen Höhen – in einem Bereich oberhalb des Wettergeschehens, der damals oft „Aerologie“ bezeichnet wurde, heute aber „Aeronomie“ genannt wird; diese bildet als Physik und Chemie der hohen Atmosphäre den Kontrast zur Meteorologie Es ist bemerkenswert, daß sich auch die Grazer Nachfolger Wegeners in der zweiten Hälfte des 20.Jahrhunderts (Otto Burkard und Siegfried Bauer) gerade auf dieses Gebiet besonders konzentrierten.
Wegeners letzte Expedition
Nachdem sich Wegener vor dem Ersten Weltkrieg bereits als ausländisches Mitglied der dänischen Grönland-Expedition angeschlossen hatte, nahm er auch an der Inlandeis-Expedition teil, die von seinem dänischen Freund Johann Peter Koch organisiert wurde und in deren Rahmen eine Überquerung der Grönland-Eiskappe von Ost nach West erfolgte. Es ist daher nicht verwunderlich, daß Wegener im Jahre 1928 eingeladen wurde, als Leiter einer kleinen Grönland-Expedition zu fungieren, die von der Notgemeinschaft der Deutschen Wissenschaft (Vorläufer der heutigen DFG) finanziert wurde, um Messungen der Eisdecke mittels Explosions-Seismik durchzuführen.
Diese einzigartige Chance, nach Grönland zurückkehren zu können, benutzte Wegener auch, um meteorologische und glaziologische Untersuchungen vorzuschlagen. Eine Versuchsexpedition wurde 1929 mit den Meteorologen Johannes Gorgi und Fritz Loewe sowie dem Glaziologen Ernst Sorge durchgeführt. Während der im Jahr 1930 durchgeführten und bis 1931 geplant gewesenen Hauptexpedition wurde eine meteorologische Station „Eismitte“ auf 3000 m Höhe installiert.
Auf seinem Wege von dort zurück mit dem Hundeschlitten ist Alfred Wegener kurz nach seinem 50. Geburtstag im November 1930 gestorben. Sein in einem Schlafsack eingenähter Leichnam wurde im Frühjahr 1931 entdeckt; von seinem Begleiter fehlt bis jetzt jede Spur. 30 Jahre nach seinem Tod im Grönlandeis wurde zum Gedenken an Alfred Wegener von österreichischen Bergsteigern eine Relief-Gedenktafel der Karl-Franzens-Universität Graz an einer Felswand im Kamarujukfjord in Grönland angebracht.
Viktor F. Hess in Graz und Innsbruck (1920 – 1938)
Während der „glücklichen Grazer Jahre“ Wegeners war auch Viktor Franz Hess sein Nachbar im Physikalischen Institut geworden. Eine enge persönliche Freundschaft verband Wegener jedoch mit dem damaligen Direktor des Physikalischen Instituts, Hans Benndorf, der ein besonderes Naheverhältnis zur Geophysik hatte. Da es in Graz keine Radiumpräparate gab, begann sich Hess wieder mit dem Problem der elektrischen Leitfähigkeit der Luft und ihren Ursachen zu beschäftigen, was in einem ausführlichen Werk seinen Niederschlag fand. Zur weiteren Erforschung der kosmischen Strahlung unternahm er auch Messungen auf dem Hochobir in Kärnten und organisierte mit Unterstützung der Österreichischen Akademie der Wissenschaften Expeditionen auf den über 3000 m hohen Sonnblick, zum Zwecke der Registrierung der zeitlichen Schwankung dieser Strahlung. Im Jahr 1931 erhielt Hess einen Ruf an die Universität Innsbruck, die ihm die Gelegenheit bot, auf dem mit der Seilbahn leicht erreichbaren Hafelekar ein Laboratorium zur Dauerregistrierung der Kosmischen Strahlung einzurichten. Dort führte er weitere Untersuchungen durch, einschließlich solcher, die sich auf die biologische Wirkung dieser Strahlung beziehen, welche ja auch für Mutationen der Erbmasse verantwortlich ist.
Im Jahr 1937 folgte Hess, nachdem ihm der Nobelpreis verliehen worden war, einem Ruf nach Graz als Nachfolger Hans Benndorfs. Aber schon im darauf folgenden Jahr, nach der Annexion Österreichs, wurde er in den Ruhestand versetzt und ohne Pension entlassen. Sogar sein finanzieller Anteil am Nobelpreis ging verloren, da er gezwungen war, das Kapital gegen deutsche Reichsschatzscheine auszutauschen. Hess war zwar ein überzeugter Katholik und zeigte auch aufgrund seiner Auslandsaufenthalte eine kosmopolitische Einstellung, hatte sich aber politisch nie betätigt. Er empfand daher seine Behandlung durch die neuen Machthaber umso schmerzlicher und verließ im Herbst 1938 seine Heimat, um an der Fordham University in New York seine Arbeiten fortzusetzen, wo er bis zu seiner Emeritierung im Jahr 1956 wirkte.
Viktor F. Hess in den USA (1938 – 1964)
In den USA widmete sich Hess nicht mehr seinen experimentellen Arbeiten über Kosmische Strahlung, sondern der Radioaktivität von Gesteinen, Fragen des Strahlenschutzes und der Radiobiologie – alles Themen, die heute wieder von großer Wichtigkeit geworden sind. Es blieb daher anderen vorbehalten, das große Potential der kosmischen Strahlung auszunutzen. So wurden in der Folge verschiedene Bausteine der Materie, so etwa das Positron, die Mesonen und Hyperonen in der Kosmischen Strahlung entdeckt und diese Strahlung wurde damals überhaupt zum Laboratorium der Hochenergie-Physiker, da die Energien, wie sie die Teilchen der Kosmischen Strahlung besitzen, in irdischen Laboratorien nicht erreicht werden konnten.
Obwohl Hess sich in den USA rasch eingelebt hatte, blieb er in seinem Inneren stets Österreicher. Er war zu wiederholten Malen nach Kriegsende in seiner Heimat und im Jahr 1948 wirkte er sogar als Gastprofessor an der Universität Innsbruck. Auch zu seinem 75. Geburtstag weilte Hess wieder in der Heimat, doch konnte er sich trotz wiederholter Einladungen nicht mehr dazu entschließen, nach Österreich zurückzukehren. Er starb im Dezember 1964 in Mount Vernon, N.Y. im Alter von 81 Jahren.
Hess war allerdings noch vergönnt mitzuerleben, wie seine Entdeckung der Kosmischen Strahlung im Zeitalter der Weltraumforschung immer größere Bedeutung erlangte. So war auch die erste neue Entdeckung, die mit künstlichen Erdsatelliten im Jahr 1959 gemacht wurde, eigentlich das Resultat einer weiteren Erforschung der Kosmischen Strahlung. Prof. James van Allen hatte auf den ersten Explorer-Satelliten der USA Geiger-Zähler eingebaut, um die Kosmische Strahlung in großer Entfernung von der Erde zu messen. Dabei entdeckte er die sogenannten Strahlungsgürtel, die unsere Erde umgeben und heute seinen Namen tragen. Interessanterweise stellte sich heraus, daß diese Strahlungsgürtel durch die Einwirkung der kosmischen Strahlung auf unsere „Erdatmosphäre“ gespeist werden; auch das in der archäologischen Altersbestimmung verwendete radioaktive Kohlenstoffisotop C-14 entsteht auf diese Weise.
Wie alle großen Entdeckungen haben auch die Hess’sche Entdeckung der Kosmischen Strahlung und Wegeners revolutionäre Theorie der Kontinentalverschiebung keine endgültigen Antworten gebracht, sondern neue Fragen für neue Generationen von Forschern aufgeworfen. Die Namen Alfred Wegener und Viktor Franz Hess sind mittlerweile längst in den Annalen der Wissenschaft verewigt.
Weiterührende Links
Zu Viktor F. Hess
Viktor Hess und die Entdeckung der Kosmischen Strahlung, Georg Federmann: Thesis, 2003; http://www.federmann.co.at/vfhess/downloads.html
Nobelpreis: http://www.nobelprize.org/nobel_prizes/physics/laureates/1936/hess-bio.html
Woher kommt die Teilchenstrahlung aus dem Weltall? In: Uni(versum) für alle! (18,4 min) http://www.youtube.com/watch?v=iovpTxto93E
Ausstellung Schloß Pöllau (Hartberg): Strahlung – der ausgesetzte Mensch (15. Mai bis 30. November 2014; Donnerstag bis Sonntag, von 10:00 bis 17:00 Uhr) im Museum echophysics (European Centre for the History of Physics)
Zu Alfred Wegener
Die Entstehung der Kontinente - Alfred Wegener und die Plattentektonik (14,59 min.) http://www.youtube.com/watch?v=mC9MLsenTCk
Ausführliche Darstellung des Curriculums (aus dem Alfred Wegener Institut für Polar-und Meeresforschung): (http://www.awi.de/de/entdecken/geschichte_der_polarforschung/bedeutende_polarforscher/alfred_wegener/
Transkription der handschriftlichen Bemerkungen in Alfred Wegener: Die Entstehung der Kontinente und Ozeane (1. Auflage 1915, 38 Seiten): http://www.awi.de/fileadmin/user_upload/News/2012_1/Transkr_Notizen_Entst_d_Kont_Ozeane.pdf
Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzählt
Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzähltDo, 21.06.2012- 00:00 — Gottfried Schatz
Das Kobalt enthaltende Vitamin B12 ist essentiell für die normale Funktion von Gehirn und Nervensystem spielt eine zentrale Rolle in der Blutbildung. Für die nötige Zufuhr sind wir direkt oder indirekt auf Mikroorganismen- die einzigen Produzenten des Vitamins - angewiesen.
Die Fabelwelt der Alpen war stets reich an Schreckensgestalten. In Winternächten bedrohten Perchten, Habergeissen und Krampusse einsame Wanderer, und tief unter Tag spiegelten die Berggeister Kobold und Nickel in Gestalt gleissender Erze den Knappen Silberadern vor. Anstatt des begehrten Edelmetalls lieferten diese Erze bei der Schmelze jedoch nur unansehnliche Schlacke – und der Kobold dazu noch hochgiftiges Arsenoxid, das unter dem Namen «Hüttrauch» als heimtückisches Mordgift berüchtigt war. Erst als die Silberminen sich erschöpften, lernten schlesische Bergleute auch das einst verachtete Kobolderz schätzen, weil es Gläsern und Glasuren eine tiefblaue Farbe verlieh. Im Jahre 1737 zeigte schliesslich der schwedische Chemiker George Brandt, dass die giftigen Kobolderze neben den bereits bekannten Elementen Arsen und Schwefel ein bis dahin unbekanntes metallisches Element enthielten, das seither unter dem Namen Kobalt den Platz 27 im Periodensystem der Elemente besetzt.
Ein molekularer Käfig
Die schlesischen Bergleute hatten den Wert des Kobalts allerdings nicht als Erste erkannt. Die Ägypter waren ihnen dabei um mindestens drei Jahrtausende zuvorgekommen – und auch sie waren nur späte Epigonen einzelliger Lebewesen, die vor etwa drei Milliarden Jahren die Zauberkräfte des Kobalts für schwierige chemische Reaktionen einsetzten wie die Verknüpfung oder Trennung zweier Kohlenstoffatome. Die Zellen hefteten dazu das Kobalt an bestimmte Proteine an und konnten mit diesen kobalthaltigen «Enzymen» neuartige Stoffwechselprozesse entwickeln. Um einige dieser Enzyme noch wirksamer zu gestalten, umgaben die Zellen das Kobalt mit einem kunstvollen molekularen Käfig.
Abbildung 1: Der molekulare Kobalt-Käfig. Der aus 183 Atomen bestehende Molekülkomplex hat im Zentrum ein Kobalt (Co,gelb), Kohlenstoffatome sind grau, Stickstoffe blau, Sauerstoffe rot, der Phosphor einer Phosphatgruppe ist grün. (Struktur: PDB1D 1DDY)
Dieser Kobalt-Käfig ist eine chemische Glanzleistung des Lebens. Er gleicht einem molekularen Spinnennetz, in dessen Mittelpunkt ein Kobalt-Atom sich wie eine sechsbeinige Spinne mit fünf Beinen festhält und mit dem sechsten chemische Reaktionen vermittelt. Vieles spricht dafür, dass dieser Käfig vor etwa 2,75 bis 3 Milliarden Jahren entstand, als die Urmeere noch kein Sauerstoffgas enthielten. Chemiker tauften den mit Kobalt beladenen Käfig «Cobalamin». Sie versuchten vergeblich, seine Struktur aufzuklären, und mussten mit neidischer Bewunderung zusehen, wie dies der britischen Biophysikerin Dorothy Crowfoot Hodgkin nicht mit chemischen Methoden, sondern mit Röntgenstrahlen gelang. Im Jahre 1972 konnten dann der Schweizer Albert Eschenmoser und der US-Amerikaner Robert B. Woodward den Kobalt-Käfig im Laboratorium herstellen. Diese Synthese beschäftigte über hundert Chemiker elf Jahre lang und gilt als eine der schwierigsten und virtuosesten Totalsynthesen aller Zeiten.
Höhere Lebensformen
In seiner Frühzeit experimentierte das Leben nicht nur mit Kobalt, sondern auch mit Nickel, Eisen und Mangan, weil diese Metalle in den Urmeeren reichlich vorhanden waren. So entstanden metallhaltige Enzyme, die ungewöhnliche chemische Reaktionen ermöglichten und dem Leben immer neue biologische Nischen erschlossen. Als jedoch einige Lebewesen mit Hilfe des Sonnenlichts Sauerstoffgas aus dem Meerwasser freisetzten, liess dieses Gas schwefelhaltige Gesteine verwittern, so dass ihr Schwefel in die Meere spülte und Kobalt, Nickel, Mangan und Eisen als unlösliche Sulfide zum Meeresboden sanken. An ihrer Stelle reicherten sich nun Zink und Kupfer im Meerwasser an.
Die damaligen Lebewesen konnten zwar ihre bereits vorhandenen Metall-Enzyme weiterhin herstellen, ersetzten jedoch deren Metalle allmählich durch Zink oder Kupfer oder entwickelten völlig neue zink- oder kupferhaltige Enzyme. Die höheren Lebensformen, die sich nach dem Auftreten von Sauerstoffgas entwickelten, erfanden kaum noch neue Kobalt-Enzyme, sondern begnügten sich mit denen, die sie von ihren Vorfahren erbten. Allmählich verlernten sie sogar, das lebenswichtige Cobalamin herzustellen. Sie überliessen diese Aufgabe einfachen Bakterien und mussten diese nun essen oder mit ihnen zusammenleben, um nicht zugrunde zu gehen. Nur höhere Pflanzen können heute ohne Cobalamin auskommen. Algen, Protozoen, Tiere und Menschen müssen es jedoch in winzigen Mengen mit ihrer Nahrung zu sich nehmen. Für sie ist es das lebenswichtige Vitamin B 12 – ein Erbe aus dem fernen «Kobaltzeitalter» des Lebens.
Ich muss täglich nur ein bis zwei Millionstel Gramm dieses Vitamins essen, um langfristig zu überleben. Kein anderes Vitamin wirkt in so geringer Menge, vielleicht weil nur zwei der zahllosen chemischen Reaktionen in meinem Körper Vitamin B 12 benötigen. Doch ohne diese zwei Reaktionen wären meine Zellen gegen Sauerstoff überempfindlich und könnten weder genügend Energie noch Erbmaterial für Tochterzellen produzieren. Ich beziehe mein Vitamin B 12 zum Teil von meinen Darmbakterien, hauptsächlich aber von Fleisch, Milch und Eiern. Die Tiere, von denen diese Produkte stammen, bekommen das Vitamin wiederum von den in ihnen lebenden Bakterien oder von Pflanzen, die mit Bakterien oder an Vitamin B 12 reichen Tierexkrementen verunreinigt sind.
Ein Tausendstelgramm
Strikte Vegetarier oder Veganer, die auf alle tierischen Produkte verzichten und auf gut gewaschene Nahrung achten, könnten deshalb an Vitamin B 12 verarmen. Dies kann Jahrzehnte dauern, da die Leber einen mehrjährigen Vorrat speichert und der Dünndarm einen Grossteil des Vitamins vor seiner Ausscheidung in den Körper zurückrettet. Vitamin-B 12 -Mangel schädigt Nerven und Gehirn und verursacht die tödliche Blutarmut «perniziöse Anämie». Ihre Ursache ist meist nicht eine ungenügende Zufuhr des Vitamins, sondern die fehlende Bildung eines Proteins, das von den Zellen der Magenwand in den Magen abgeschieden wird und die Aufnahme des Vitamins im Dünndarm vermittelt. Wir können diesen Proteinmangel zwar nicht heilen, durch Injektion des Vitamins in die Muskeln jedoch wirksam überbrücken und so den betroffenen Menschen ein normales Leben sichern.
Ich trage lediglich ein Tausendstelgramm Kobalt in mir. Sein Anteil an meinem Körpergewicht entspricht dem eines menschlichen Haars auf meinem Auto. Doch dieses Haar ist einer der unzähligen Fäden, die mich in das Netz des Lebens einbinden. Ich wurde Biochemiker, um das chemische Geschehen in mir zu verstehen, und ahnte nicht, dass es mir von meinen fernen Ahnen und der atemberaubenden Geschichte des Lebens erzählen würde. Diese Geschichte lässt mir die Kriege, Krönungen und Reichsgründungen meines Schulunterrichts klein und unwichtig erscheinen. Ist es noch berechtigt, unsere Geschichtsschreibung mit dem Erscheinen von Homo sapiens zu beginnen, da nun das molekulare Palimpsest lebender Materie unseren Zeithorizont um fünf Grössenordnungen erweitert hat? Sollten die Geschichtswissenschaften nicht ihre Scheuklappen ablegen und den Blick viel weiter als bisher in die Vergangenheit wagen?
Weiterführende Links
Vitamin B12 (Gesundheits-Wiki) Foods high in Vitamin B12
Metallverbindungen als Tumortherapeutika
Metallverbindungen als TumortherapeutikaDo, 07.06.2012- 05:20 — Bernhard Keppler
Internationale Pressemeldungen (ots/PRNewswire) berichten über den erfolgreichen Abschluß der klinischen Phase I Studie mit einem neuartigen, auf dem Metall Ruthenium basierten, Tumortherapeutikum, NKP-1339. Diese, an bereits austherapierten Patienten mit soliden, metastasierten Tumoren durchgeführte Studie, zeigte beeindruckende Anti-Tumor-Wirkung bei einem guten Sicherheitsprofil. Bernhard Keppler (Anorganisches Institut der Universität Wien) hat grmeinsam mit der Medizinischen Universität Wien NKP-1339 entwickelt und spricht darüber mit ScienceBlog.at
SB: Der Einsatz von Metallen in der Medizin ist bereits bei antiken Kulturen zu finden – auf Gold und Silber basierende Heilmittel gab es bereits vor mehr als 4000 Jahren im alten China und Indien, Quecksilber und Arsen haltige Arzneien in der griechisch-römischen Antike. Wie diese Metalle wirkten und welche Bedeutung Metalle als Bestandteile der belebten Natur überhaupt haben, war zweifellos unbekannt.
BK: Bis Anfang des 20. Jahrhunderts dachte man, dass Metalle und andere sogenannte anorganische Elemente keine oder nur wenig Bedeutung für die belebte Natur haben. Heute weiß man, dass viele dieser Elemente im Zentrum des Lebens stehen: Metalle sind essentiell für die Funktion von lebenswichtigen Enzymen (in einem 2009 erschienenen Artikel in Nature bezeichnet J. Finkelstein nahezu 50 % unserer Enzyme als Metallproteine) und von Transportproteinen.
Mein hauptsächliches Arbeitsgebiet ist die bioanorganische Chemie, ein interdisziplinärer Forschungszweig der Chemie, der sich nicht nur mit der Erforschung der Rolle von (anorganischen) Elementen in lebendiger Materie beschäftigt, sondern in der letzten Phase der Entwicklung auch neue pharmazeutische Wirkstoffe synthetisiert, wie unter anderem die Therapeutika auf Platinbasis, die heute zu den am meisten angewandten Krebstherapeutika gehören. (Was übrigens das oben erwähnte Arsen betrifft, so wird heute ein auf Arsentrioxyd basiertes Präparat in der Therapie der Promyelozyten-Leukämie eingesetzt.) Darüber hinaus finden Metallverbindungen Anwendungen in Organismen u.a. als Sensoren, Diagnostika und - heute vermutlich am populärsten - in der Form von Endoprothesen als Ersatz für defekte Gelenke.
Platinverbindungen in der Tumortherapie
SB: Kommen wir zu den Anwendungen als Tumortherapeutika: Der Platin-Komplex Cisplatin wird verschiedentlich (beispielsweise in den „Chemical and Engineering News“) auch „Penicillin der Krebserkrankung“ genannt.
BK: Das Antibiotikum Penicillin und das Tumortherapeutikum Cisplatin stellen jeweils das erste große Präparat in ihren Indikationen dar und beide finden nach wie vor breiteste Anwendung.
Abbildung 1: Cisplatin. Das kleine Molekül besteht aus nur 11 Atomen: dem zentralen Platin (lila) um welches 2 Chloratome (grün) und 2 Aminogruppen (Stickstoff: blau, Wasserstoff: weiß) angeordnet sind.
Cisplatin wirkt durch Bindung an die DNA: vor allem, indem es Quervernetzungen innerhalb eines DNA- Stranges hervorruft wird die für die Zell-Teilung (Zellwachstum) essentielle Replikation (Verdopplung der DNA) und Transkription der DNA (Ablesung von Genen) verhindert. Irreparable Schäden an der DNA leiten den programmierten Zelltod (Apoptose) ein. Cisplatin (Abbildung 1) wurde bereits 1844 von Michel Peyron synthetisiert, der ausschließlich an den chemischen Eigenschaften dieses sehr kleinen, Platin-enthaltenden Moleküls interessiert war. Es sollte aber noch mehr als 100 Jahre dauern bis Barnett Rosenberg durch Zufall die Tumor hemmende Wirksamkeit von Cisplatin entdeckte. Als er Bakterien einem elektrischen Feld aussetzte und diese sich nicht mehr teilten, konnte er diesen Effekt auf ein in kleinen Mengen entstandenes Elektrolyseprodukt seiner Platinelektrode mit anschließender photochemischer Umwandlung - Cisplatin - zurückführen.
In Versuchen zur Anti-Tumorwirkung in Tiermodellen wies diese Verbindung hervorragende Aktivität auf. Klinische Studien am Beginn der 70er-Jahre zeigten dann einen ganz erstaunlichen Effekt von Cisplatin auf Hodenkrebs, eine Krankheit, die mehr als 50 von 100 000 jungen Männern erleiden. Diese Krankheit ist heute, Dank des Einsatzes von Cisplatin, zu einer beinahe komplett heilbaren Krebserkrankung geworden. (Beispielsweise konnte der Radrennfahrer Lance Armstrong nach erfolgreicher Therapie eines Hodentumors sieben Mal die Tour de France gewinnen.)
Die Bedeutung von Cisplatin für die Krebspatienten ist enorm. Neben der außerordentlichen Wirkung gegen Hodenkrebs, zeigt Cisplatin hohe Wirksamkeit u.a. gegen das Ovarial-, Zervix-, Harnblasen- und Bronchialkarzinom und gegen Plattenepithelkarzinome an Kopf und Hals. Cisplatin wird heute – auch in Kombination mit anderen Tumortherapeutika - fast in jedem zweiten klinischen Therapieschema der Krebsbehandlung angewandt.
Dieser Erfolg von Cisplatin hat umfangreiche Programme zur Synthese und Entwicklung von Nachfolgeprodukten mit verbesserten Eigenschaften initiiert, insbesondere in Hinblick auf eine Erweiterung des Indikationsspektrums und auf eine Reduktion der schweren Nebenwirkungen und der gravierenden Resistenzprobleme, welche die Cisplatin Therapie begleiten.
In den letzten drei Jahrzehnten wurden mehr als 10 000 Platinverbindungen präklinisch untersucht, etwa 40 Platinverbindungen wurden dann auch klinisch am Patienten auf ihre Tumorwirksamkeit hin geprüft. Schlussendlich sind heute aber nur 3 Platinverbindungen weltweit zugelassen: Cisplatin und seine Nachfolger Carboplatin (das in den 80er-Jahren zugelassen wurde und breit angewandt wird) und Oxaliplatin (das Ende 90er bis Anfang 2000er Jahre zugelassen wurde, bei Colon-Carcinom angewandt wird und einen, zu Cisplatin und Carboplatin unterschiedlichen Wirkmechanismus aufweist); alle drei Verbindungen können schwere Nebenwirkungen hervorrufen – sie unterscheiden praktisch kaum zwischen Tumorzellen und normalen, rasch proliferierenden Zellen
Ruthenium-haltige Verbindungen – ein neuer Durchbruch?
SB: Offensichtlich haben die Bemühungen ein wesentlich verbessertes, „Neues Cisplatin“ auf Basis Platin-haltiger Verbindungen zu finden (noch) nicht den dringend notwendigen Erfolg gebracht. Nach wie vor können sehr viele Krebserkrankungen (beispielsweise Tumoren des Pankreas, der Speiseröhre, des Gehirns) nicht effizient therapiert werden. Laut Statistik Austria sind Krebserkrankungen für ca. 25 % der Todesfälle in unserem Land verantwortlich. Welche Strategien zur Auffindung tumorwirksamer Verbindungen verfolgt Ihre Gruppe?
BK: Neuere, in unserer Arbeitsgruppe intensiv vorangetriebene Entwicklungen betreffen die Nutzbarmachung auch anderer metallhaltiger Verbindungen zur Therapie bösartiger Tumoren. Intensiv vorangetrieben heißt, daß unsere Gruppe ausreichende Größe und Expertise besitzt um eine breite Palette derartiger Verbindungen zu synthetisieren, diese mit analytischen und bioanalytischen Methoden zu charakterisieren, deren Wirkungsmechanismus zu erforschen und Untersuchungen an Zellkulturen durchzuführen.
Eine Zusammenarbeit unseres Instituts mit dem Institut für Krebsforschung der medizinischen Universität Wien im Rahmen der Forschungsplattform „Translational Cancer Therapy Research“ ermöglicht dann die Testung ausgewählter Verbindungen in für Tumorerkrankungen repräsentativen Tiermodellen und schließlich in der Klinik am Patienten. Zu diesen Produkten gehören vor allem Ruthenium- und- Galliumverbindungen, die derzeit in den USA und in England auf ihre klinische Wirksamkeit am Patienten untersucht werden.
SB: Die klinische Testung der aus Ihrem Labor stammenden Rutheniumverbindung NKP-1339 hat ja kürzlich für Schlagzeilen in den internationalen Meldungen gesorgt: Ein neues Tumortherapeutikum, mit einem neuen Wirkungsmechanismus, guter Verträglichkeit und offensichtlicher Wirksamkeit…
BK: Die erste Testphase einer klinischen Studie wurde erfolgreich abgeschlossen und zwar an Patienten mit metastasierten festen Tumoren, die auf frühere Standardbehandlungen und neue experimentelle Therapien nicht mehr angesprochen haben. NKP-1339 wirkt tatsächlich krebshemmend - bei ungefähr der Hälfte der Patienten zeigte sich ein positiver Effekt - und ist außerdem gut verträglich. Im Vergleich zu den schweren Nebenwirkungen üblicher Krebstherapeutika wurden unter NKP-1339 Behandlung relativ milde, Grippe-ähnliche Symptome beobachtet. Besonders vielversprechende Effekte konnten an Neuroendokrinen Tumoren (Karzinoiden) erzielt werden, für die es bis jetzt kaum eine effiziente Therapie gibt.
SB: Wie erklärt man sich die Anti-Tumorwirkung von NKP-1339?
BK: NKP-1339 hat einen völlig neuen Wirkmechanismus mit hoher Selektivität für Tumorzellen (Abbildung 2).
Das Ruthenium-enthaltende Molekül ist klein und kann anstelle des Eisens in Eisentransportproteine eingebaut werden (Ruthenium ist ja ein Element der Eisengruppe). Transferrin, der Eisentransporter im Blut, baut die Ruthenium-Verbindung ein und transportiert sie quasi als Trojanisches Pferd dorthin im Körper, wo Eisen benötigt wird. Das ist vor allem bei rasch wachsenden Zellen der Fall. In vielen Tumorzellen sind nun im Vergleich zu normalen Zellen die spezifischen Rezeptoren für Transferrin an der Zelloberfläche hochreguliert, über welche dann Transferrin mit der Rutheniumverbindung in die Zellen eingeschleust wird. Dort wird NKP-1339 vom Protein gelöst und es kommt ein weiterer spezifischer Effekt solider Tumoren zum Tragen, eine Mangelversorgung der Zellen mit Sauerstoff (Hypoxie), welche zur Reduktion des Rutheniums und damit zu der eigentlich reaktiven Form von NKP-1339 führt.
Vereinfacht dargestellt löst die aktive Form über den sogenannten „mitochondrialen pathway“ den programmierten Zelltod (Apoptose) der Tumorzellen aus. Unter anderem hemmt aktives Ruthenium das Protein GRP78 (ein sogenanntes Chaperon), welches für die Reparatur fehlgefalteter Proteine verantwortlich ist. Damit akkumulieren Abfallprodukte in der Tumorzelle und führen schlußendlich zum Zelltod. Eine Hochregulierung von GRP78 wird mit der chemotherapiebedingten Resistenzentwicklung vieler Tumorarten assoziiert. Abbildung 2. Anti-Tumorwirkung von NKP-1399 (vereinfachte Darstellung). NKP1399 bindet an das im Blut zirkulierende Eisentransportprotein Transferrin, mit diesem an Transferrinrezeptoren der Tumorzelle und wird damit in die Zelle eingeschleust. Dort wird NKP-1339 aus der Proteinbindung freigesetzt und (im zumeist hypoxischen Milieu der Zelle) aktiviert. Die aktive Form reguliert u.a.GRP78 herunter und löst den Zelltod aus.
SB: Ein neues First-in-Class Therapeutikum, welches selektiv zu Tumoren transportiert wird, selektiv in der Tumorzelle aktiviert wird und in einer ersten klinischen Prüfung Wirksamkeit an bereits austherapierten Patienten zeigt und dies bei geringen Nebenwirkungen, ist einfach sensationell! Wie geht es nun weiter?
BK: Die klinische Entwicklung von NKP-1339 wird von Niiki Pharma (http://www.niikipharma.com) geleitet, einem Unternehmen, das seinen Schwerpunkt auf die Entwicklung von First-in-Class-Krebstherapeutika setzt. Die erwähnte, bereits abgeschlossene Studie hat auch das Ziel erreicht, das Dosierungsschema für den Wirkstoff in den nun folgenden Phasen der klinischen Entwicklung festzulegen und sie zeigt Opportunitäten auf, nämlich für Studien in der vielversprechenden Indikation „Neuroendokrine Tumoren“ und auf Grund des guten Sicherheitsprofils auch für Kombinationstherapien.
Über die klinische Prüfung von NKP-1339 hinaus, hat Niiki Pharma im März den Start der klinischen Phase I Prüfung mit einem weiteren Präparat aus unserer Arbeitsgruppe angekündigt: NKP-2235 ist ebenfalls ein First-in-Class Anti-Tumorwirkstoff, allerdings Gallium-basiert, der einen neuen Wirkmechanismus aufweist und vor allem beim Nierenzell-Carcinom Erfolg haben könnte.
Neben diesen beiden, in der Entwicklung bereits am weitesten fortgeschrittenen Verbindungen hat unsere Gruppe weitere, erfolgversprechende Metall-Verbindungen in der pipeline.
SB: Zu diesen Leistungen kann man nur aufrichtigst gratulieren und vor allem viel Erfolg wünschen!
Weiterführende Links
GLOBOCAN: Datenbank der “International Agency for Reseach on Cancer” („provides contemporary estimates of the incidence of, mortality and prevalence from major type of cancers, at national level, for 184 countries of the world”) Ruthenium (Video in Englisch; 2'18") Details über die klinische Studie mit dem Ruthenium-Komplex NKP-1339: Natl. Cancer Institute (NIH, USA)
Die Tragödie des Gemeinguts
Die Tragödie des GemeingutsDo, 31.05.2012- 00:00 — Peter Schuster
Selbst-Reglementierung kommt nicht von selbst. Aus der Übernutzung und Ausbeutung gemeinschaftlicher Güter und Ressourcen entstehen schwerstwiegende Probleme, die technisch unlösbar erscheinen. Modelle der Spieltheorie bieten Lösungsansätze an, die auf Strategien der Kooperation und Selbst-Reglementierung basieren. Reale Beispiele bestätigen die Machbarkeit dieser Ansätze.
Ein von Garett Hardin 1968 im Journal Science veröffentlichter Artikel trägt den Titel „The Tragedy of Commons“ – Die Tragödie des Gemeinguts. Hardin umreißt darin das Problem der Erhaltung gemeinsamen Besitzes oder gemeinsam genutzter Ressourcen in einer ökonomisch orientierten Gesellschaft und folgt damit den Grundzügen der ein Jahrzehnt früher veröffentlichten Theorien zur irreversiblen Ausbeutung von Fischereigewässern (von HS Gordon und A. Scott ).
Die Metapher von der Übernutzung des Weidelands
Zur Illustration benutzt Hardin die Metapher eines Weidelands, das für alle offensteht:
Auf dieser Weide kann jeder Farmer so viele Rinder halten, wie er möchte. Wenn der einzelne Farmer nun rational vorgeht, – so die Argumentation – wird er die Herde vergrößern und mehr und mehr Tiere züchten, um den für ihn maximalen Gewinn zu erzielen. Dieses Problem kann in den Termini der Spieltheorie formuliert werden und folgt – vereinfacht ausgedrückt – der folgenden Kalkulation:
Der Nutzen, der sich aus dem Hinzufügen eines weiteren Rindes zur Herde ergibt, setzt sich aus einer positiven und einer negativen Komponente zusammen. Die Möglichkeit dieses weitere Tier zu verkaufen ergibt einen Profit (+P). Die negative Komponente (-P) resultiert aus dem „Überweiden“ des Weidelands durch das zusätzliche Tier. Freilich wird die, auf Grund der Überweidung erfolgende Abnahme des Profits von allen Farmern mitgetragen. Für den einzelnen Farmer, der nun ein Rind mehr auf die Weide stellt, ist der „negative Nutzen“ daher nur ein Bruchteil von -P und er erzielt insgesamt einen positiven Gewinn.
Nimmt man an, daß alle Farmer rational, in der gleichen Weise wie der einzelne Farmer vorgehen, so ist das Ergebnis augenfällig: Das Land wird völlig überweidet und schlußendlich verwüstet.
„Technisch unlösbare Probleme“ durch Übernutzung von Gemeingut
Die obige Metapher diente Garret Hardin dazu eine ganze Klasse an Problemen zu illustrieren, die aus der unkontrollierten Übernutzung von Gemeingut entstehen und für die es keine technische Lösung gibt. Typische, im Übermaß ausbeutbare Ressourcen, die zu technisch unlösbaren Problemen führen, sind Ressourcen natürlichen Ursprungs - Land, ohne konkreten Besitzer, Meere und die Atmosphäre miteingeschlossen (d.h. Wälder, Weiden, Wasserversorgung, Fischereigewässer, Müllablagerung, Luftverschmutzung,...) - und globale Aspekte, wie beispielsweise die wachsende Weltbevölkerung, das Wettrüsten (insbesondere zur Zeit eines kalten Kriegs) und die globale Erwärmung.
Der Artikel „Tragödie vom Gemeingut“ erregte großes Aufsehen und zahlreiche Veröffentlichungen folgten zu verwandten Fragestellungen. Auf nationaler Ebene erschien als einzige Lösung dieser Fragen eine Regulierung durch zentral angeordnete Maßnahmen und/oder durch Besteuerung der Gewinne, die durch die Ausbeutung des Gemeinguts erzielt wurden. Die Einmischung des Staates schien dabei unvermeidlich. Als Quintessenz derartiger Maßnahmen resultiert freilich, daß für Probleme auf der weltweiten Ebene keine, wie auch immer gearteten, attraktiven Lösungen möglich sind.
Kooperative Strategien zur Lösung „technisch unlösbarer Probleme“ um die Erhaltung von Gemeingut
Die Weiterentwicklung von Ideen um „technisch unlösbare Probleme“ zu verstehen und Strategien zu ihrer Bewältigung zu entwickeln, zeigte jedoch, daß die Situation keineswegs so hoffnungslos ist, wie ursprünglich erwartet. Spieltheoretische Modelle, basierend auf dem „Gefangenen-Dilemma“ (siehe unten), wiesen darauf hin, daß rational vorgehende Spiel-Teilnehmer, die schlußendlich zu kooperativen Strategien greifen, langfristig gesehen, davon profitieren. Modelle der Kooperation und wie sich diese entwickelt, lassen sich mit Hilfe der „Adaptiven Dynamik“ erstellen, Techniken, die eine langfristige Beschreibung phänotypischer Evolutionsprozesse ermöglichen.
Zahlreiche Beispiele für dauerhafte kooperative Strategien existieren. So fanden Ökonomen heraus, daß in unterentwickelten Gesellschaften gemeinsame Ressourcen einer Zerstörung durch exzessive Ausbeutung dadurch entgehen, daß Gewinne in der Gemeinschaft geteilt werden.
Ein anderes Beispiel aus einer bereits höher entwickelten Gesellschaft ist die gemeinsame Nutzung hochgelegener Weiden in den Alpen. Einige dieser Almen werden schon seit viertausend und mehr Jahren genutzt ohne, daß sie durch Überweidung zerstört worden wären.
Repräsentativ für Tausende ähnlicher Beispiele kann das Management der Ressource Wasser im kleinen Maßstab gelten: dieses erfolgt selbst-reglementiert in dem Sinn, daß die Nutzer ihre eigenen Regeln aufgestellt haben, ohne Einmischung des Staates und ohne Bezug zu formaler Gesetzgebung.
Ein aktuelles High-Tech Beispiel der Nutzung gemeinsamer Ressourcen durch eine selbst-organisierte Gemeinschaft, ist der freie Zugang und die freie Software im Internet. Die LINUX-Community stellt hier ein besonders gut untersuchtes Exempel dar. Diese wurde auch als „Bazar an der Grenze zum Chaos“ bezeichnet.
Neuere Untersuchungen zur Ökonomie basierend auf dem Konzept des Nash-Gleichgewichts (einem zentralen Konzept der mathematischen Spieltheorie) und auf Simulationen von Multi-Agenten Systemen (= Systemen aus mehreren gleichartigen oder unterschiedlich spezialisierten handelnden Einheiten/Individuen), beschäftigen sich mit Art und Entwicklung selbst-reglementierter Strukturen, welche in autonomer Weise die nachhaltige Nutzung gemeinsamer Ressourcen erlauben können. Das Resultat derartiger Studien: Um Gemeingut erhalten zu können, müssen einzelne Altruisten vorhanden sein, die bereit sind einen Teil ihres „Gewinns“ zu opfern um damit steigende Bedürfnisse zu kompensieren. Wenn diese Individuen gegenseitig günstige Übereinkommen treffen können, lassen sich die zu kompensierenden Bedürfnisse reduzieren und die Gemeinschaft kann der Katastrophe (Tragödie des Gemeingutes) entrinnen.
Diese Übereinkommen sind auch eine Art gegenseitiger Überwachung – eine Form von Selbst-Reglementierung, welche die Aneignung ungebührlicher Anteile am Nutzen verhindert. Kooperation, hier in Form von Übereinkommen, ist - wie im Gefangenen-Dilemma - der Schlüssel, zur Verhinderung des Ruins.
Das Ergebnis stimmt optimistisch: nicht nur, daß es in der Ökonomie nun eine Theorie gibt, die als Lösung für „technisch unlösbare Probleme“ die Strategie der Kooperation anbietet, es existieren in der Realität ja bereits Tausende praktische Beispiele – in früheren und modernen Gesellschaften - wie die „Tragödie des Gemeinguts“ verhindert werden kann.
Probleme von Gemeingut auf globaler Ebene
Der Optimismus wird aber radikal gedämpft oder verwandelt sich sogar in Pessimismus, wenn wir, wie eingangs erwähnt, Probleme von Gemeingut auf globaler Ebene betrachten. In der Realität sind ja die meisten kooperativen Systeme, die sich selbst reglementieren, von kleinem Ausmaß. Menschen kooperieren wesentlich leichter in Gruppen, wo jeder jeden oder fast jeden kennt und das Entlarven von Betrügern und anderen kriminellen Elementen ungleich einfacher ist, als in großen Gesellschaften.
Einer der interessantesten Fälle auf der globalen Ebene, aber nicht unbedingt ein Gegenbeispiel zu der oberen Feststellung, ist die Internet-Gemeinde, speziell die bereits erwähnte LINUX-Gemeinde. Hier erfolgt der Zugang weitestgehend anonym und die Zahl der Individuen in der Community ist offensichtlich sehr groß. Eine funktionierende sehr große, globale Gemeinde also? Näher betrachtet zeigt sich ein verändertes Bild, da nur sehr wenige Personen aktiv zu der weiteren Entwicklung des LINUX-Systems beitragen und bestimmen, wohin die LINUX-Gemeinde gehen wird. Unter diesen wenigen Personen kann dann auch unschwer eine Hierarchie der Entscheidungsträger ausgemacht werden. Die überwiegende Mehrheit in dieser Community sind aber bloß Anwender, die Material herunterladen und kaum zusätzliche Kosten verursachen (ganz im Gegensatz zu den anfangs zitierten überzähligen Kühen auf der Gemeinschafts-Weide).
So hübsch erfolgreiche Beispiele von Selbst-Reglementierung sich auch darstellen mögen, man sollte doch nicht auf die vielen Fälle vergessen, in denen bis jetzt Selbstorganisation/-Reglementierung kläglich versagt hat. Dazu erwähne ich hier nur die zahlreichen (fruchtlosen) Anstrengungen das Entscheidungssystem an den Universitäten des europäischen Festlands, insbesondere in den deutschsprachigen Ländern, umzugestalten.
Schlussendlich sehe ich nur wenig Hoffnung, dass sich die Einstellung der „Global Players“ zu den wirklich großen, globalen Problemen ändern wird: zum Bevölkerungswachstum, zur Ausbeutung allgemeiner globaler Ressourcen und zur Umweltverschmutzung, unter anderem auch durch Abgase aus der Verbrennung fossiler Brennstoffe.
Wo immer Bevölkerungswachstum erfolgreich reduziert werden konnte, war dies auf Grund anderer Faktoren als der einer Selbst-Reglementierung. In den entwickelten Ländern haben Sozialversicherungssysteme Kinder zur Absicherung der finanziellen Bedürfnisse im Alter entbehrlich gemacht (Interessanterweise haben die Menschen in den USA mit einem weniger weitgreifenden Sozialversicherungssystem als am europäischen Festland mehr Kinder). In anderen Ländern wie China als bestem Beispiel, wurde die Geburtsrate von zentraler Stelle aus gesetzlich kontrolliert.
Internationale Übereinkommen zur Beschränkung des Fischfangs waren nur teilweise erfolgreich, auf der Suche nach Profit werden sie weiter gebrochen. Ein noch heute gültiges Moratorium, das den kommerziellen Walfang und die Fanggebiete auf Null gesetzt hat, wird umgangen und durch eine Reihe von Ausnahmebestimmungen für Länder wie Japan, Norwegen und Island konterkariert.
Die atmosphärische Verschmutzung ist geradezu ein ideales Bespiel für die „Tragödie des Gemeinguts“. Nach langen, zähen Verhandlungen wurde das sogenannte Kyoto-Protokoll zu völkerrechtlich verbindlichen Zielwerten der Emission von Treibhausgasen erstellt und bis jetzt von mehr als 190 Staaten ratifiziert. Die großen Schwellenländer China und Indien, die (pro Kopf zwar wenig) zusammen mehr als ein Drittel der gesamten Emissionen produzieren, haben aufgrund des Prinzips "gemeinsamer, aber differenzierter Verantwortung" bislang keine verbindlichen Emissionsminderungspflichten übernommen, die USA, als größter Emittent unter den Industrieländern (rund 1/5 der atmosphärischen Treibhausgase), haben den Vertrag noch nicht unterschrieben und Kanada ist kürzlich aus dem Vertrag wieder ausgetreten. Der Großteil der anderen Staaten betreibt einen quasi Ablasshandel mit Emissionen, indem nicht verbrauchte Quoten gehandelt werden. Eben dieses, der aktuellen Realität entnommene Beispiel zeigt, wie sich die „Tragödie des Gemeinguts“ entwickelt, ironischerweise auf einem Niveau, das große Gefahren mit sich bringen kann.
Als Schlussfolgerung kann man wohl nur feststellen: der einzige Mechanismus, welcher ein vernünftiges Management globalen Gemeinguts ermöglichen könnte, ist - auf Grund der Tragikomödie von menschlichen Fehlern und Schwächen - auf globaler Ebene wohl nicht leicht gangbar; der Weg zur Selbst-Reglementierung noch zu wenig verstanden.
Weiterführende Links
Gefangenen-Dilemma: eine gute Beschreibung des Beispiels aus der Spieltheorie ist unter http://en.wikipedia.org/wiki/Prisoner's_dilemma zu finden.
Weiterführende Fachliteratur kann vom Autor erhalten werden:
Hardin, G. The tragedy of the commons. Science 1968, 162, 1243-1248.
Gordon, H.S. The economic theory of common property resource: The fishery. J. Political Economy 1954, 62, 124-142.
Scott, A. The fishery: The objectives of sole ownership. J. Political Economy 1955, 63, 116-124.
Ostrom, E.; Gardner, R.; Walker, J. Rules, games and common pool resources. University of Michigan Press 1994, Ann Arbor, MI.
Nowak, M.A.; May, R.M.; Sigmund, K. The arithmetics of mutual help. Sci.Am. 1995, 272 (6), 50-55.
Mandl, F. Dachstein – 4 Jahrtausende Almen im Hochgebirge. Band 1. Verein ANISA 1996, Gröbming, AT (In German).
Monsees, J. The German water and soil associations – Self-governance for small and medium scale water and land resources management. J. of Applied Irrigation Science 2001, 39, 5-22.
Kuwabara, K. Linux: A bazaar at the edge of chaos. First Monday 2000, 5(3).
Bedrohtes Erbe — Wie unbeständige Datenspeicher unsere Kultur gefährden
Bedrohtes Erbe — Wie unbeständige Datenspeicher unsere Kultur gefährdenDo, 24.05.2012- 00:00 — Gottfried Schatz
Die digitale Revolution lässt uns mit der exponentiell steigenden Informationsflut scheinbar mühelos Schritt halten. Auch wenn wir gigantische Datenmengen blitzschnell speichern, verbreiten, ordnen und untersuchen können, sind diese Informationen keineswegs langfristig gesichert, da die heutigen digitalen Speicher nicht beständig sind.
«This is a present from a small, distant world, a token of our sounds, our science, our images, our music, our thoughts and our feelings. We are attempting to survive our time, so we may live into yours.» – «Dies ist ein Geschenk einer kleinen und fernen Welt, ein Zeugnis unserer Klänge und Geräusche, unserer Wissenschaft, unserer Bilder, unserer Musik, unserer Gedanken und unserer Gefühle. Wir versuchen, unsere Zeit zu überdauern, um in der euren fortzuleben.»
Diese bewegende Botschaft, in englischer Sprache in eine vergoldete Kupferscheibe geritzt, trug die Raumsonde Voyager 1 mit sich ins All, als sie am 5. September 1977 die Erde verließ (Abbildung 1).
Abbildung 1. Goldene Platte der Voyager-2-Sonde. Hülle mit Anweisungen zur Dekodierung der Datenplatte.
Die Sonde sollte den äussersten Rand unseres Sonnensystems erkunden und sich dann auf einer Reise ohne Wiederkehr in den Tiefen des Universums verlieren. Vielleicht würde sie nach Jahrmillionen lichtloser Einsamkeit dem Lockruf der Schwere einer Planeten-umringten fernen Sonne folgen und intelligenten Wesen von uns Menschen künden.
Die vergoldete Scheibe könnte im Weltraum einige hundert Millionen Jahre überdauern. Sie trägt eine Datenspur mit hundertfünfzehn Bildern sowie Klang-, Musik- und Sprachproben, zeigt den Abstand unserer Erde vom Zentrum unserer Milchstrasse sowie von vierzehn weit sichtbaren pulsierenden Sternen; und sie enthält eine Hülle mit Anweisungen, wie die Botschaften der Platte zu entziffern sind. Dass dies je geschieht, ist höchst unwahrscheinlich – und dennoch ist diese kleine Scheibe eines der erhebendsten Werke von Menschenhand.
Hyperbolisches Wachstum
Dem Genius unserer Spezies wird sie allerdings kaum gerecht: Ungezählte Scheiben wären nötig, um unser gesamtes geistiges Erbe aufzuzeichnen. Demetrius von Phaleron hat dies im 3. Jahrhundert vor unserer Zeitrechnung im Auftrag des ägyptischen Königs Ptolemäus I. versucht, als er in Alexandrien einen gewaltigen Bibliothekskomplex gründete. Doch obwohl dieses «Mouseion» zuletzt eine halbe Million Papyri beherbergte, konnte es – mit wenigen Ausnahmen – nur Werke in griechischer Sprache berücksichtigen. Und die unersetzlichen Verluste, die es in Grossbränden erlitt, erinnern noch heute daran, wie schwer sich geistiges Erbe sichern lässt.
Heute, da sich dieses Erbe gewaltig vergrössert hat, ist dies noch um vieles schwieriger. Vor allem naturwissenschaftlich-technologische Informationen begannen um die Mitte des 18. Jahrhunderts exponentiell, ab der zweiten Hälfte des 20. Jahrhunderts sogar hyperbolisch anzuwachsen und würden um die Mitte dieses Jahrhunderts ins Unendliche explodieren, müsste nicht ihr Anwachsen, wie jedes nichtlineare Wachstum, schon vorher an seine Grenzen stossen und sich verlangsamen.
Die digitale Revolution lässt uns mit dieser steigenden Informationsflut scheinbar mühelos Schritt halten und gigantische Datenmengen blitzschnell speichern, verbreiten, ordnen und untersuchen. Die Zahl der Transistoren in den Gehirnen unserer Computer hat sich in den letzten vier Jahrzehnten alle achtzehn Monate verdoppelt, und dieser exponentielle Anstieg dürfte sich noch jahrzehntelang fortsetzen.
Ähnliches gilt für das Fassungsvermögen elektronischer Speicher, die heute auf wenigen Quadratzentimetern ganzen Bibliotheken Platz bieten.
Und obwohl elektronische Gehirne und Speicher sich derzeit ihren physikalischen Grenzen nähern, werden sich diese mit neuen Erfindungen überwinden lassen. Licht anstatt Elektrizität, einzelne Moleküle anstatt Transistoren oder genau positionierte einzelne Atome anstatt optisch oder magnetisch markierter Flächen sind nicht mehr Träume, sondern bereits weit fortgeschrittene Forschungsprojekte. Dank immer leistungsfähigeren digitalen Werkzeugen werden wir die unaufhörlich anschwellende Informationsflut auch in Zukunft beherrschen können.
Damit sind diese Informationen jedoch keineswegs gesichert, denn die heutigen digitalen Speicher sind nicht beständig. Magnetbänder, Festplatten und optische Medien können je nach Hersteller, Lagerung und Anwendung schon nach einigen Monaten oder Jahren einen Teil ihrer mechanischen Festigkeit, ihrer Magnetisierung oder ihrer optischen Markierungen verlieren, so dass sie die ihnen anvertraute Information nur selten länger als einige Jahrzehnte sicher bewahren.
Abbildung 2. Eine Seite aus dem Domesday Book von 1085.
Das «Domesday Book», ein 1085 von Wilhelm dem Eroberer in Auftrag gegebenes Reichsgrundbuch, kann in seiner sorgfältig klimatisierten Museumsvitrine in Kew noch heute bewundert werden (Abbildung 2), doch seine digitalisierte Version aus dem Jahre 1986 überdauerte nur zwei Jahrzehnte.
Sinkende Schiffe
Bedrucktes säurefreies Papier oder herkömmliche Mikrofilme können zwar Jahrhunderten trotzen, sind jedoch für die Speicherung, Übertragung und Analyse digitaler Informationen wenig geeignet. Auf der Suche nach beständigen Speichern versucht man derzeit, analoge oder digitale Daten mit einem feinen Strahl elektrisch geladener Atome auf hochbeständige Metalloberflächen zu gravieren, als winzige Eisenkristalle in ebenso winzigen Röhrchen aus reinem Kohlenstoff zu fixieren oder in Form geordneter Silberkörner auf neuartigen Mikrofilmen zu speichern.
Doch bis diese Technologien ausgereift sind, müssen wir unsere gespeicherten Informationen unablässig durch Umkopieren «auffrischen» – und so gleichsam von einem sinkenden Schiff auf ein anderes umladen, das ebenfalls bald sinken wird. Doch selbst beständige Speicher würden Informationen nicht langfristig sichern, da zukünftige Computer sie nicht mehr lesen könnten. Schon heute wissen unsere Computer mit zehn bis zwanzig Jahre alten Datenträgern nichts mehr anzufangen. Sollen wir gespeicherte Daten laufend in die neuesten Formate umschreiben, jeweils in das für sie gültige Betriebs- und Leseprogramm «verpacken» oder gar Archive alter Computer, Lesegeräte und Betriebssysteme anlegen? Und welche Bibliothek könnte sich dies wohl leisten?
Auch der wachsende Energiehunger unserer Speichersysteme gibt Anlass zur Sorge. Das Ausmass dieses Problems ist noch umstritten, denn die Betreiber grosser Datenspeicher halten Typ und Energieverbrauch ihrer Geräte streng geheim. In den USA verbrauchen solche Speicher mit Kühlung und Beleuchtung heute etwa ein Prozent der gesamten Elektrizität; und Computer, Bildschirme sowie das Internet dürften diesen Anteil auf das Mehrfache erhöhen. Vielleicht ist dies nur ein Anfang – schliesslich beansprucht unser Gehirn nicht weniger als ein Fünftel unserer Körperenergie. Allerdings liefert es sich diese selbst und atmet deshalb intensiver als andere Gewebe unseres Körpers.
Wissen erschafft uns
Information bereichert uns jedoch nur, wenn wir sie zu Wissen veredeln und dieses an kommende Generationen weitergeben. Um die Zukunft unserer Kultur zu sichern, genügt es also nicht, zukunftssichere Speicher zu entwickeln. Es gilt vor allem, immer wieder schöpferische Menschen zu suchen und zu fördern, die das Gemeinsame scheinbar zusammenhangloser Informationen intuitiv erkennen und so neues Wissen schaffen oder überliefertes Wissen als falsch erkennen. Dank ihnen schlummert gespeichertes Wissen nie friedlich, sondern entwickelt sich unablässig nach Gesetzen, die sich unserem Einfluss entziehen.
Wohin wird dieses Wissen uns noch treiben?
Was Jean-Paul Sartre über den Krieg sagte, gilt auch für Wissen: Nicht wir erschaffen Wissen – Wissen erschafft uns. Könnte dies der Grund sein, weshalb heute eine vergoldete Scheibe in sechzehn Milliarden Kilometern Ferne durch die Weiten des Universums zieht?
Weiterführende Links
Die Webseite der NASA - Voyager-Mission (englisch)
Wissenschaft: Fortschritt aus Tradition
Wissenschaft: Fortschritt aus TraditionDo, 17.05.2012- 05:20 — Helmut Denk
Zur Rolle der österreichischen Akademie der Wissenschaften (ÖAW) als größter außeruniversitärer Forschungsträger unseres Landes und als Plattform für wissenschaftsbasierte Gesellschaftsberatung und Wissenschaftserziehung. Rede des Präsidenten der ÖAW, Helmut Denk, anläßlich der Feierlichen Sitzung am 9. Mai 2012 (leicht gekürzt).
Die Akademie blickt auf ein schwieriges Jahr zurück, geprägt von Bestandsaufnahme, Strategiediskussion und Kontroversen, von Reform, Sparmaßnahmen und Neuorientierung, aber auch von beachtlichen wissenschaftlichen Erfolgen unserer Forschungseinrichtungen. (Auf letztere sind die Klassenpräsidenten eingegangen.)
Reform und Entwicklung
Auf Basis des im April 2011 beschlossenen Entwicklungsplanes für die Jahre 2012 bis 2014 wurde im November die Leistungsvereinbarung mit dem Bundesministerium für Wissenschaft und Forschung unterzeichnet, in der die Akademie ihre für diese Periode geplanten Leistungen darlegt und im Gegenzug dreijährige Finanzierungs- und Planungssicherheit erhält.
Zentrale Wissenschaftsfelder
Die Leistungsvereinbarung konkretisiert die im Zentrum stehenden Wissenschaftsfelder; nämlich:
- Europäische Identitäten sowie Wahrung und Interpretation des kulturellen Erbes
- Demographischer Wandel, Migration und Integration von Menschen in heterogenen Gesellschaften
- Biomedizinische Grundlagenforschung auf Basis molekularbiologischer und molekulargenetischer Erkenntnisse
- Molekulare Pflanzenbiologie als Grundlage für agrarische Ressourcennutzung
- Angewandte Mathematik
- Quantenphysik, Hochenergiephysik, Weltraum- und Materialforschung
Inhalte und Umsetzung der Leistungsvereinbarung, aber auch die Budgetknappheit, die durchaus drastische Strukturmaßnahmen erfordert, haben zu Verunsicherung von Mitarbeiterinnen und Mitarbeitern und Kritik aus dem In- und Ausland geführt. Dabei ging aber weitgehend unter, dass eine Reform der Akademie zur Erfüllung ihrer Mission als moderner außeruniversitärer Forschungsträger grundsätzlich notwendig und nicht nur durch die finanzielle Krise aufgezwungen ist. Eine lebendige Akademie muss Forschungsfelder und Organisationsformen immer wieder kritisch hinterfragen und für Erneuerung offen sein.
Es gibt keine traditionelle oder progressive Wissenschaft, sondern nur Wissenschaft auf der Höhe der Zeit mit ihren Voraussetzungen, das sind: kluge Köpfe, Budget und Planungssicherheit.
Die österreichische Forschungspolitik hat zunehmend nicht einzelne Akteure, sondern die gesamte Wissenschaftslandschaft im Blick. Die Akademie identifiziert sich angesichts des zunehmend harten, globalen wissenschaftlichen Wettbewerbs und der beschränkten Mittel mit dieser Strategie der Bündelung der Kräfte; wir erwarten aber Gleichbehandlung aller exzellenten österreichischen Forschungsträger. Für die ÖAW gilt es, wissenschaftliche Fächer mit hochqualifizierten Arbeitsplätzen zu sichern – und zwar dort, wo die besten Entfaltungsmöglichkeiten bestehen. Wir danken Herrn Bundesminister Professor Töchterle und unseren Partnern im Bundesministerium für Wissenschaft und Forschung für die produktive Zusammenarbeit, aber auch den Universitäten für ihre Unterstützung.
Leistungsvereinbarung
Lassen Sie mich einige Überlegungen zur Leistungsvereinbarung anstellen:
1. Was bedeutet Leistungsvereinbarung?
Kann man Leistung in von Neugierde getriebener Grundlagenforschung überhaupt vereinbaren, einfordern und deren Erbringung und Qualität objektiv erfassen?
Die meisten grundlegend neuen Ideen stammen von einigen begabten Menschen, die sehen und zu deuten verstehen, was vielen anderen nicht gelingt. Der Versuch, Forschung zu regulieren und in ein enges Korsett zu zwängen, hemmt die Innovation; die gescheiterten Diktaturen Europas haben dies hinlänglich gezeigt. Der innovative Forscher muss, wie Werner Heisenberg einmal gesagt hat, immer wieder „festen Grund verlassen und ins Leere springen“.
Es liegt im Wesen der Grundlagenforschung, dass sie Wissen schafft, aber gleichzeitig neue Fragen aufwirft und sich damit neue Ziele steckt. Wie misst man die Qualität des Erreichten? Bemühungen um Objektivität führen oft (nach dem Prinzip: nur was man zählen kann, zählt) zu Überbewertung quantitativer Indikatoren, die aber die wirkliche Leistung, wie sie der wissenschaftliche Sachverstand sieht, nur unzureichend erfassen.
Somit ist eine Balance zwischen der wissenschaftlichen Freiheit und der für die Zuteilung der Ressourcen notwendigen Steuerung zu finden. Der Konflikt zwischen Autonomie und Selbstverantwortung der Forschung einerseits und der Kontrolle durch den Geldgeber andererseits lässt sich mit dem Instrument der Leistungsvereinbarung nur unzureichend lösen.
2. Profilschärfung der ÖAW als Forschungsträger
Zur weiteren Profilierung der Akademie als Forschungsträger werden international höchst kompetitive Forschungseinrichtungen schwerpunktmäßig gefördert. Die Vernetzung fachnaher Bereiche und das Zusammenwirken von Disziplinen begünstigen die gesamthafte Bewältigung komplexer Themen.
Von der Zusammenfassung kleiner thematisch verwandter Forschungsrichtungen in größeren Instituten erwarten wir neben Synergien verbesserte internationale Sichtbarkeit, effizientere Leitung und Administration und optimierten Mitteleinsatz.
Die Übertragung von Forschungseinheiten oder Arbeitsgruppen an Universitäten sichert den Fortbestand und stärkt die aufnehmende Universität in Forschung und Lehre. Das dadurch freiwerdende Budget steht der ÖAW weiter zur Verfügung, sodass sie ihrer Mission, nämlich Kristallisationskeime für innovative, durchaus auch risikoreiche Forschung zu bilden, besser gerecht werden kann. Ich möchte allerdings nicht verschweigen, dass einige wegen des Budgetmangels erforderliche Übertragungen für die ÖAW durchaus schmerzhaft sind.
Die weitere Steigerung der Drittmittelquote ist ein wichtiges Ziel. Die Höhe der Drittmittel ist in vielen Wissenschaftsdisziplinen ein brauchbarer Leistungsindikator. Bezüglich kompetitiver Drittmitteleinwerbung (z.B. Grants des European Research Council) sind die ÖAW Mitarbeiterinnen und Mitarbeiter in Relation zum Basisbudget und zur Mitarbeiterzahl schon jetzt klare Spitzenreiter in Österreich. Wir erhoffen uns die Anerkennung der Bundesregierung durch Verdoppelung der eingeworbenen Mittel.
3. Neue Wege der Nachwuchsförderung
Die Zahl der in der Forschung Tätigen liegt in Österreich unter dem europäischen Durchschnitt. Eine selektive Karrierestruktur, die den besten Talenten in unseren Forschungseinheiten einerseits optimale Förderung und andererseits schon früh wissenschaftliche Eigenständigkeit und Freiheit bietet, ist der beste Weg zum wissenschaftlichen Erfolg. Der Akademie wurden zusätzliche Mittel aus der Nationalstiftung für Forschung, Technologie und Entwicklung in Höhe von 8 Mio. Euro für fünf Jahre für innovative Vorhaben zuerkannt. Für die tatkräftige Unterstützung möchte ich Frau Sektionschefin Barbara Weitgruber vom Bundesministerium für Wissenschaft und Forschung sehr herzlich danken.
Somit können im Rahmen unseres neuen Exzellenzprogramms „New Frontiers Groups“ neue Wege beschritten werden: hoch qualifizierte, im internationalen Wettbewerb bewährte Wissenschaftler(innen) aus dem In- und Ausland werden bei freier Themenwahl unabhängige Forschergruppen an einem ÖAW-Institut aufbauen und damit frischen Wind in unser Forschungsportfolio bringen. Wir hoffen, dass dieses Programm auch derzeit im Ausland tätige österreichische Wissenschaftlerinnen und Wissenschaftler zu selbständiger Tätigkeit in Österreich motiviert.
4. Wissenschaftsbasierte Gesellschaftsberatung und Wissenschaftserziehung
Was muss man über die Zusammenhänge zwischen Natur- und Technikwissenschaften, Geistes- und Sozialwissenschaften, Wissenschaftsethik, eigene und fremde Kulturen wissen, um sich ein Bild von der Welt zu machen? Wie jede andere Wissenschaftsinstitution hat die Akademie als Teil der Gesellschaft heute nicht nur dem wissenschaftlichen Fortschritt zu dienen, sondern muss auch als Aufklärer, Übersetzer und Vermittler wirken.
Trotz erfreulicher Signale, wie z.B. der gute Besuch der Veranstaltungen im Rahmen der „Langen Nacht der Forschung“, ist der Stellenwert von Wissenschaft und Forschung in Österreich in der öffentlichen Wahrnehmung noch unzureichend. Abbildung 2. Laut einer von der Europäischen Kommission 2010 in Auftrag gegebenen Umfrage in allen EU-Ländern erklären 57 Prozent der Österreicherinnen und Österreicher, dass Informationen über Wissenschaft und Forschung für ihr tägliches Leben keine oder nur untergeordnete Bedeutung haben. Warum sind es fast doppelt so viele wie im EU-Durchschnitt? Ist es unter diesen Umständen wirklich verwunderlich, dass die Wissenschaftsförderung in der österreichischen Politik – im Unterschied zu so manchem Nachbarland – einen eher untergeordneten Rang einnimmt? Halbwissen und Nicht-Wissen führen zwangsläufig zu Unsicherheit, Verständnislosigkeit und mangelnder Unterstützung.
Hier liegt eine Bringschuld der Wissenschaft vor.
Jede Wissenschaft ist anwendungsoffen im weitesten Sinn; eines ihrer Ziele muss sein, in einer erkenntnisoffenen Gesellschaft zu agieren.
Es ist daher ein Gebot der Stunde, dass sich die Akademie intensiver mit Wissenschaftskommunikation beschäftigt.
Die Gesellschaft hat nur in selektiven Bereichen die Möglichkeit, eigene Erfahrung zu sammeln, und bezieht ihre Kenntnisse vor allem aus den diversen Medien. Welche Medieninhalte interessieren die österreichische Bevölkerung am meisten? Laut einer EU-weiten Umfrage und Untersuchungen unserer Kommission für vergleichende Medien- und Kommunikationsforschung steht Unterhaltung an erster Stelle, dicht gefolgt von Sport. Damit liegt Österreich deutlich über dem EU-Durchschnitt. Mit großem Abstand folgen Politik und Kunst. Wirtschaft und Wissenschaft bilden das Schlusslicht.
Umfragen verweisen auf eine weitere prekäre Situation: Wissenschaftler können scheinbar nur selten die richtigen Worte finden, um mit einem breiteren Publikum zu kommunizieren.
Dem Konzept einer wissenschaftszentrierten „Aufklärung“ der Öffentlichkeit lässt sich ein Modell entgegen setzen, das nicht mehr auf der bloßen Vermittlung, sondern auf der kommunikativen Einbettung wissenschaftlich fundierten Wissens in den Lebenszusammenhang der Menschen beruht.
Die Österreichische Akademie der Wissenschaften sieht ihren Beitrag darin, eine Plattform für den Diskurs über gesellschaftlich relevante Problemstellungen zu bieten.
5. Was wollen wir zur Wissenschaftserziehung beitragen
Wissenschaftserziehung muss ein integraler Teil der Bildungsstrategie für alle sein; und dies unabhängig von Schultyp, Alter, Geschlecht oder Intelligenzgrad. Ziel ist, das natürliche Interesse von Kindern an Wissen und Wissensproduktion zu fördern und damit das Fundament für die Weiterbildung im späteren Leben zu schaffen. Sie sollen verstehen, was Wissenschaft ist und wie viel sie zur Kultur beiträgt.
Wissenschaftserziehung ist also komplex und bezieht sich auf Fakten, Prozesse und Modelle; sie fordert körperlichen und geistigen Einsatz, heute heißt das „Minds on and hands on“. Sie funktioniert nur mit hoch qualifizierten Lehrern. Schon seit Jahren unterstützt die ÖAW verschiedene Initiativen des Bundes, der Bundesländer und privater Organisationen. Sie will zukünftig eine noch aktivere und koordinierende Rolle spielen.
Fortschritt aus Tradition!
Mit ihren Aktivitäten investiert die ÖAW in die Zukunft und setzt auf Neues, ohne Bewährtes und Bewahrungswürdiges aus den Augen zu verlieren. Mehr als die Vergangenheit interessiert mich die Zukunft. Denn in ihr gedenke ich den Rest meines Lebens zu verbringen. Albert Einstein (1879-1955)
Weiterführende Links
Special Eurobarometer: Science and Technology, June 2010”: Die in Abbildung 2 zitierte Quelle zeigt ein verheerendes Bild unseres Landes in Hinblick auf Akzeptanz und Interesse an Wissenschaft: Führend in Wissenschaftsignoranz, uninformiert und desinteressiert an wissenschaftlichen/technischen Neuerungen, besonders misstrauisch hinsichtlich der Ehrlichkeit von Wissenschaftern, allerdings aufgeschlossen, wenn die Forschung in Richtung Gesundheit geht, jedoch Tierversuche ausschließt, usw. Die kritische Lektüre des Eurobarometers ist dringendst zu empfehlen!
Vitamin D — Allheilmittel oder Hype?
Vitamin D — Allheilmittel oder Hype?Do, 10.05.2012 - 00:00 — Inge Schuster
„Stellen Sie sich eine Behandlung vor, welche Knochen aufbauen, das Immunsystem stärken und das Risiko für Krankheiten wie Diabetes, Herz-und Nieren Erkrankungen, Hypertonie und Krebs senken kann“.... Welches Potential hat Vitamin D für die Stärkung der Gesundheit? (Tara Parker-Pope, New York Times, Feb. 1. 2010)
„Das ist gut gegen Rachitis“ hieß es in meiner Kindheit, wenn zwangsweise ein Löffel mit Lebertran in meinen Mund geschoben wurde und diesen mit widerwärtigem, tranigem Geschmack füllte. Rachitis, eine Krankheit, die sich bei Kindern durch Knochendeformationen manifestiert und unbehandelt zu lebenslangen Verkrüppelungen führt, ebenso wie das entsprechende Krankheitsbild im Erwachsenenalter, die Osteomalazie (Knochenerweichung), waren in der Zeit nach dem zweiten Weltkrieg noch häufig anzutreffen und dementsprechend gefürchtet.
Rachitis ist eine schon seit der Antike bekannte Erkrankung, deren Symptome u.a. bereits von Galen beschrieben wurden. Mit der Industrialisierung, der damit einhergehenden Luftverschmutzung und den veränderten Arbeits- und Lebensbedingungen nahm die Rachitis dann in den dicht bevölkerten Städten der nördlicher gelegenen Regionen Europas und Amerikas überhand. Über sehr lange Zeit gab es für die – nach dem endemischem Auftreten in Teilen Englands benannte – „Englische Krankheit“ keine effiziente Therapie. Erst im 19. Jahrhundert wurde Lebertran, ein altes Hausmittel von Küstenbewohnern gegen alle möglichen Beschwerden, als wirksam gegen Rachitis erkannt und Mangel an Sonnenlicht als deren möglicher Auslöser.
Der antirachitische Faktor
Welcher Zusammenhang zwischen dem im Lebertran vermuteten und dem in Folge von Sonnenbestrahlung entstehenden „antirachitischen Faktor“ besteht, wurde vor rund 90 Jahren geklärt:
Aus Lebertran konnte eine fettlösliche organische Verbindung isoliert werden, die sich in Versuchen an rachitischen Tiermodellen als hochwirksam erwies. In der Annahme, der menschliche Organismus könne diese Verbindung nicht selbst bedarfsdeckend herstellen, wurde sie in die Stoffklasse der damals gerade entdeckten Vitamine (A, B und C) eingereiht und der alphabetischen Reihenfolge entsprechend mit „Vitamin D“ bezeichnet. Die Bezeichnung „Vitamin“ blieb bestehen, auch als nachgewiesen wurde, daß eben diese Verbindung in der Haut nach Bestrahlung mit Sonnenlicht, resp. dem darin enthaltenen Anteil an Ultaviolett-Strahlung (UVB: Wellenlänge 290 – 315 nm) entstand und der Organismus damit nicht auf Supplementation (Zufuhr) von außen angewiesen war.
Die chemische Struktur von Vitamin D und woraus es in der Haut gebildet wird, wurde ein Jahrzehnt später aufgeklärt. Demnach entsteht Vitamin D durch eine UVB-induzierte photochemische Reaktion aus der unmittelbaren Vorstufe von Cholesterin (dem 7-Dehydro-Cholesterin), einem Steroidmolekül, welches in der Haut in hohem Maße gebildet wird. Das aus der Haut in den Organismus gelangende Vitamin D ist aber noch nicht die eigentlich wirksame Form. Diese wurde vor rund 40 Jahren entdeckt und resultiert aus zwei aufeinanderfolgenden Reaktionen am Vitamin D Molekül (Abbildung 1): über das – noch inaktive – 25-Hydroxyvitamin D, das als Depotform im Blut zirkuliert, führt der zweite Schritt zum aktiven 1,25-Dihydroxyvitamin D (Calcitriol). Die an diesen Reaktionen beteiligten Enzyme wurden erst vor wenigen Jahren identifiziert.
Abbildung 1. Biosynthese von Vitamin D in der Haut als Folge der UVB-Strahlung und Aktivierung zum Hormon. Vereinfachte Darstellung.
Vitamin D ist ein Prohormon, aus dem in zwei aufeinanderfolgenden Schritten das hormonell aktive Calcitriol synthetisiert wird. Die aktivierenden Enzyme sind in den meisten Zellen unseres Organismus vorhanden, ebenso wie der Vitamin D-Rezeptor, über den das Hormon seine spezifischen Wirkungen entfaltet.
Aktives Vitamin D: Funktion und mögliche Rolle im Organismus?
Calcitriol – zur Zeit als die wichtigste aktive Form von Vitamin D angesehen – ist ein Hormon. Es wirkt in analoger Weise wie die strukturell nahe verwandten Steroidhormone (Androgene, Östrogene, Gestagene, Corticoide), die – assoziiert an ihre spezifischen Rezeptorproteine – an DNA-Abschnitte hormonsensitiver Gene binden und deren Transkription regulieren.
Der spezifische Rezeptor für Calcitriol (Vitamin D Rezeptor) findet sich in praktisch allen Körperzellen; dementsprechend kann das Hormon in allen diesen Zellen seine Wirkung entfalten. Untersuchungen, welche Gene durch Calcitriol an oder abgeschaltet werden können, haben eine Vielzahl an Genen – rund 4 % des humanen Genoms – als mögliche Targets (Angriffspunkte) aufgezeigt. Damit erscheint eine Beeinflussung verschiedenartigster Signalkaskaden und Stoffwechselvorgänge durch das Hormon plausibel. Abbildung 2.
Die klassische – antirachitische – Rolle der hormonell aktiven Vitamin D-Form in der Mineralisierung des Skeletts, im Wachstum und Umbau der Knochen, manifestiert sich in der Regulierung zahlreicher Gene, welche den Calciumhaushalt – d.h. die Konstanthaltung des Calcium-Spiegels im Blut – kontrollieren.
Abbildung 2. Einfluß von aktivem Vitamin D auf physiologische Funktionen. Das Hormon (gelb) ist in die Regulation einer Vielfalt an Genen involviert, welche essentielle Rollen in den dargestellten Funktionen spielen. Es limitiert selbst seine Wirkdauer, indem es sehr rasch die Produktion eines Enzyms stimuliert, welchen seinen Metabolismus zu inaktiven Produkten bewirkt.
Unabhängig von dieser Funktion hat aktives Vitamin D einen massiven Effekt auf die Bildung von Proteinen, die als Regulatoren des Zellwachstums und der Zell-Differenzierung fungieren. Damit wird (zumindest teilweise) der therapeutische Effekt von Calcitriol (und Analoga) auf proliferierende (sich exzessiv vermehrende) Zellen z.B. in der Psoriasis erklärt. Versuche an Tiermodellen, aber auch klinische und epidemiologische Studien, weisen auf einen direkten Zusammenhang zwischen der Konzentration von Vitamin D im Blut und der Prävention und Prognose verschiedener maligner Tumorerkrankungen – u.a. Darmkrebs, Prostatakrebs oder Brustkrebs – hin.
Aktives Vitamin D moduliert die Immunantwort, wirkt stimulierend auf das Monozyten/Makrophagen-System und damit unterstützend auf dessen antimikrobielle, antitumorale Funktionen, dagegen supprimierend (unterdrückend) auf Lymphozyten und dendritische Zellen. Tiermodelle und epidemiologische Studien sehen einen direkten Zusammenhang zwischen Vitamin D-Mangel und Anfälligkeit für Autoimmunerkrankungen, wie beispielsweise multiple Sklerose, entzündliche Darmerkrankungen (Morbus Crohn), Lupus, Diabetes mellitus (Typ 1) und rheumatische Erkrankungen.
Im Nervensystem reguliert aktives Vitamin D die Expression zahlreicher Genprodukte, die essentiell für das Wachstum von Nervenzellen und die Synthese von Neurotransmittern sind. Studien an einer großen Zahl älterer Probanden (University Cambridge, UK) zeigten, daß kognitive Leistungsfähigkeit der Probanden mit der Höhe ihrer Vitamin D-Spiegel korrelierten.
Die Liste an vielversprechenden potentiellen Aktivitäten von aktivem Vitamin D ließe sich noch weiter fortsetzen. Das Hormon erscheint dabei quasi als Wundermittel, das bei richtiger Einstellung den Erhalt der Gesundheit und die Prävention physischer und psychischer Defekte verspricht.
Supplementierung von Vitamin D
Unsere primäre Quelle für Vitamin D, die Vorstufe des Hormons, ist die dem Sonnenlicht ausgesetzte Haut. Eine ausreichende Zufuhr über normale Nahrung ist dagegen kaum möglich: abgesehen von fetten Fischen, wie beispielsweise Lachs oder Hering, enthalten Nahrungsmittel zu wenig Vitamin D, um einigermaßen „normale“ Konzentrationen im Organismus erzeugen zu können. Supplementierung erfolgt daher häufig über Vitamin D-Präparate (Vorstufen des Hormons), in einigen Ländern, wie beispielsweise den USA und Finnland wird Vitamin D der Milch und Milchprodukten zugesetzt. Calcitriol selbst kann nur in kontrollierten, therapeutischen Anwendungen eingesetzt werden, da mögliche Überdosierungen des bereits in sehr niedriger – subnanomolarer1 - Konzentration wirksamen Hormons zu schwerwiegendsten Störungen des Calciumhaushalts führen und daher sorgfältigst vermieden werden müssen.
Ob und wieviel Vitamin D die Sonne in der Haut erzeugt, hängt entscheidend von der geographischen Lage und dem Sonnenstand ab. Nördlich des 35. Breitengrades reicht der UVB-Anteil nur von Ende März bis Oktober und dann nur bei hohem Sonnenstand von 10 h bis 15 h aus um Vitamin D zu produzieren. Während dieser Zeit genügt ein relativ kurzes Sonnenbad mit nackten Armen und Beinen (5 – 30 min; gerade genug um eine geringe Rötung der Haut festzustellen) um bereits 25 – 50 mal so viel Vitamin D zu erzeugen, wie in üblichen Vitaminpillen enthalten ist. Aus der Haut in den Organismus gelangendes Vitamin D wird dann zum großen Teil im Fettgewebe gespeichert und aus diesen Depots über Monate hin langsam abgegeben. So reicht ein wöchentlich mehrmaliges „Sonne tanken“ aus um aus den Depots noch in den „sonnenlosen“ Wintermonaten mit Vitamin D versorgt zu werden.
Der Eintritt von UVB-Licht in die Haut kann allerdings auch bei Sonnenhochstand durch viele Faktoren reduziert werden: Bewölkung, Luftverschmutzung, dunkle Hautfarbe, ausgiebige Verwendung von Sonnencremen mit hohem Lichtschutzfaktor und insbesondere Bekleidung reduzieren die Vitamin D Synthese. Wie umfangreiche Untersuchungen an Migrantinnen aus dem (Nahen) Osten zeigen, führt Ganzkörperverhüllung zu besonders niedrigen Vitamin D-Spiegeln. Damit verbunden sind ein hohes Risiko an Osteoporose und Osteomalazie zu erkranken und für die Säuglinge der verschleierten Mütter an Rachitis zu leiden.
Vitamin D Mangel – eine Pandemie?
In den letzten Jahren ist ein geradezu lawinenartiger Anstieg an Berichten zu verzeichnen, die Vitamin D-Mangel als einen wesentlichen Risikofaktor für die Entstehung unterschiedlichster Erkrankungen beschreiben. Diesen Befunden liegen zumeist großangelegte, über viele Jahre laufende epidemiologische Studien zugrunde – sogenannte Kohortenstudien mit jeweils mehreren tausend Probanden – deren Vitamin D-Status mit der Inzidenz (Anzahl von Neuerkrankungen) an Krankheiten korreliert wird. Auf einige dieser Korrelationen wurde schon früher hingewiesen (siehe auch weiterführende Links).
Zur Feststellung des Vitamin D-Status im Organismus wird die Konzentration von 25-Hydroxyvitamin D (siehe oben) im Blutserum als aussagekräftiger Indikator herangezogen. Konzentrationen unter 12 nanogram/ml (30 nanomol/l) stellen eine „Defizienz“ (schweren Mangel) dar und führen zu Rachitis bei Kindern und Osteomalazie bei Erwachsenen. Werte unter 20 nanogram/ml (50 nanomol/l) werden als nicht adäquat zur Erhaltung der Gesundheit angesehen und als Vitamin D-„Insuffizienz“ (Mangel) definiert. Metaanalysen2 zufolge dürften derartig niedrige Spiegel auf rund 50 % der „westlichen Weltbevölkerung“ zutreffen.
Niedrige Vitamin D-Spiegel sind natürlich auch eine direkte Folge der Lebensbedingungen in unserer modernen Welt. Sie sind bedingt durch zunehmende Urbanisierung und Berufe, die uns mehr und mehr ins Innere von Gebäuden verbannen (durch die Fensterscheiben eines noch so sonnigen Büros dringt halt eben kein UV-Licht). Sie sind Folge einer stark gestiegene Lebenserwartung (die Fähigkeit, Vitamin D in der Haut zu erzeugen, nimmt mit steigendem Lebensalter ab und kann bei Menschen über 70 Jahren bereits weniger als 25 % der Kapazität eines Kindes betragen). Auch befindet sich eine zunehmende Zahl chronisch kranker und pflegebeürftiger (alter) Menschen jahrelang in Heimen ohne „ins Freie“ zu gelangen und ohne entsprechende Supplementation von Vitamin D.
Dazu kommt die Vermeidung von Sonnenlicht aus Furcht vor ernstzunehmenden, negativen Auswirkungen, insbesondere dem Risiko, an Hautkrebs zu erkranken. Es ist die „American Academy of Dermatology“, die empfiehlt, Sonnenlicht gerade dann zu meiden, wenn optimale Bedingungen für die Vitamin D Synthese bestehen. Dagegen plädieren die meisten Experten im Vitamin D-Gebiet – darunter sehr viele exzellente Dermatologen – aufgrund augenscheinlicher Vorteile für ein maßvolles „Sonnetanken“.
Für Sonnenlicht gilt – wie für vieles anderes, das mit unserem Körper in intensiven Kontakt kommt: es kann beides, die Gesundheit stärken – beispielsweise durch die Synthese von Vitamin D – und die Gesundheit schädigen. Im zweiten Fall führt längeres Braten in voller Sonne sowohl zu kurzfristigen Schädigungen (Sonnenbrand, Immunsuppression) als auch zu langfristigen Folgen, vor allem zu Hautalterung und Schädigungen der DNA, die zur Entstehung von Hauttumoren (im wesentlichen „weißem Hautkrebs“) führen können.
Sollte Vitamin D-Mangel demnach als Pandemie angesehen werden? Auch bei kritischer Sicht sprechen sehr viele Befunde dafür, daß ein verbesserter Vitamin D-Status beträchtlich zur Stärkung der allgemeinen Gesundheit beitragen würde. Aber, wieviel Vitamin D braucht der Mensch dafür? Wenn zur Zeit auch generelle Übereinstimmung bezüglich des unteren Grenzwerts der 25-Hydroxyvitamin D-Konzentration besteht, so gibt es bis jetzt kaum aussagekräftige Studien, die Abschätzungen von optimalen Vitamin D-Konzentrationen zur Prävention diverser Krankheiten erlauben würden. Ebenso wenig weiß man über Langzeit-Folgen und mögliche toxische Effekte von Vitamin D-Supplementierung in höheren Dosierungen Bescheid.
In Anbetracht der Bedeutung einer adäquaten Vitamin D-Supplementierung für Bevölkerung und Gesundheitssystem soll diese Fragen nun eine umfassende neue randomisierte klinische Studie an prinzipiell gesunden Menschen beantworten: Diese VITAL (VITamin D and OmegA-3 Trial) genannte Studie wurde vom amerikanischen National Institutes of Health (NIH) initiiert und an der Harvard Medical School (Boston, MA) ausgeführt. Bis Ende 2012 werden dazu 20 000 gesunde Männer (ab 50 Jahren) und Frauen (ab 55 Jahren) rekrutiert, welche placebokontrolliert täglich eine relativ hohe Dosis an Vitamin D (50 Microgramm) und/oder Fischöl (1 Gramm) erhalten. Jedes Jahr wird dann der Gesundheitszustand der Probanden detailliert erhoben, wobei primär die Häufigkeit von Krebserkrankungen, Herz-Kreislauferkrankungen sowie Schlaganfällen untersucht wird, aber auch von Diabetes, kognitiven Fähigkeiten, Autoimmunerkrankungen, Infektionen u.v.a.
Ergebnisse aus dieser Langzeitstudie werden zweifellos zeigen, ob und in welchem Umfang man Vitamin D als ein „Wundermittel“ sehen kann – allerdings ist bis zum Ende der Studie noch viel Geduld erforderlich.
Abbildung 3. Links: Der Sonnengott Ra mit Amentit, der Göttin des Okzidents (Grabkammer der Nefertari 1255 v Chr). Rechts: Der vedische Sonnengott Surya wird vom Volk angebetet (19. Jh.) |
Werden dann hochdosierte Vitamin D-Präparate das Sonnetanken ersetzen (können)? Immerhin hat die Sonne unsere Kulturen geprägt, sie war quasi das Ursymbol der göttlichen Verehrung und wurde als segensbringend erachtet (Abbildung 3). Zu den Gaben, die der indische Sonnengott Surya seinen Gläubigen gewährt(e), gehör(t)en hohe Lebenserwartung, Gesundheit, Erfolg, Sieg über Gegner und Erleuchtung – eigentlich alles Konsequenzen, die man auch mit dem Vitamin D-Status heutiger „Sonnenanbeter“ assoziiert.
Anmerkungen der Redaktion
Weiterführende links
MF. Holick 2009. Sonne, UV-Strahlen, Vitamin D und Gesundheit. (Interview, 9 min.) NIH, Office of Dietary Supplements; US. 2011. Dietary Supplement Health Sheet: Vitamin D.
MF. Holick 2006. Resurrection of vitamin D deficiency and rickets J.Clin.Invest 116:2062-2072 (PDF Download) F. Dellanna, 2012 Aktuelle Stunde - Vitamin-D Mangel - WDR Fernsehen (3,1 min) H. Dobnig (Med Uni Graz) 2009, Vitamin D Mangel ist ein großes Problem in Deutschland (5,4 min) (Achtung: Vitamin D Gehalte in Nahrungsmittel sind nicht Milligramm sondern Microgramm!!!)
Comments
Wissenschaft: Notwendigkeit oder Luxus?
Wissenschaft: Notwendigkeit oder Luxus?Do, 03.05.2012- 00:00 — Peter Skalicky
Universitäten sind dazu da, das Wissen der Zeit zu erhalten, durch Forschung weiter zu entwickeln und es in der forschungsgeleiteten Lehre der Bildung und Ausbildung anzubieten. Wissenschaft, oft unkritisch mit Luxus assoziiert, muß sich Forderungen nach Nachhaltigkeit stellen, der Bringschuld, den Transfer von Wissen und wissenschaftlicher Methodik in die Gesellschaft zu gewährleisten, aber auch einer ausufernden Wissenschaftsorganisation Einhalt gebieten.
Wissenschaft ist lebensnotwendiger (immaterieller) Luxus (immateriell: lt. Lexikon etwas stofflich nicht Existentes). Immateriell können Liebe, Gesundheit, Freizeit, aber vor allem auch „materiell absichtsloser Erkenntnisgewinn“ sein. Für viele Menschen sind diese immateriellen Faktoren sogar der wahre Luxus. Sie sind in der Regel nicht zu kaufen, gehören aber zu den höchsten Gütern der Menschen.
Die Wissenschaft, nahezu ausschließlich an Universitäten und wissenschaftlichen Instituten betrieben, zählt zu diesen Luxus-Gütern. Derartige Einrichtungen gehören, wenn man von der Kirche absieht, zu den ältesten, stabilen Institutionen, bestehen seit nahezu tausend Jahren nach den ersten Gründungen in Bologna, Paris und Oxford. und sind älter als die Nationalstaaten. Das Modell wissenschaftlicher Institutionen hat sich im Laufe der Zeit natürlich verändert,aber keineswegs bis zur Unkenntlichkeit.
Die Gründungsabsicht der Institutionen war in erster Linie dem reinen Erkenntnisgewinn gewidmet. In den letzten beiden Jahrhunderten sind jedoch zwei wesentliche, neue Einfluß-Faktoren hinzugekommen:
- der Triumph der modernen Naturwissenschaften und
- die massenhafte Nachfrage nach wissenschaftlicher Bildung und Ausbildung.
Man wagt es heute kaum mehr, Physik zu betreiben, ohne an der Entwicklung eines Quantencomputers zu arbeiten, oder Genetik ohne Bezug zu medizinischen Anwendungen. Die wissenschaftlichen Institutionen sind so etwas wie ein Teil des nationalen Innovationssystems geworden.
Von Luxus kann nun nicht mehr die Rede sein, dafür aber von der Ökonomisierung der Bildung. Aber was ist mit der Predigtliteratur des Mittelalters? Auch das ist kein (materieller) Luxus.
Die Universitäten und wissenschaftlichen Institute sind dazu da, das Wissen der Zeit zu erhalten, durch Forschung weiter zu entwickeln und es in der forschungsgeleiteten Lehre der Bildung und Ausbildung anzubieten. Der Erfolg besteht darin, sich zumindest einmal im Leben etwas wirklich ordentlich überlegen zu müssen und zur wissenschaftlichen Weiterentwicklung beizutragen. Im Zeitalter der Massenuniversität ist dies schwer zu realisieren, wie nicht zuletzt die Plagiatsaffären im Zusammenhang mit wissenschaftlichen Arbeiten zeigen. Wissenschaft ist eben zwar kein Luxus, aber nur bedingt als Massensport geeignet. Dennoch sind mehrheitlich alle Wissenschaftler, die je gelebt haben, unsere Zeitgenossen.
Die Spannungsfelder, in denen sich die Wissenschaft bewegt, nehmen allerdings zu
Die manchmal unkritische Assoziation von Wissenschaft mit Luxus gehört dazu. Materieller Luxus (v. lat.: luxus = Verschwendung, Liederlichkeit, eigentlich „üppige Fruchtbarkeit“) bezeichnet Verhaltensweisen, Aufwendungen oder Ausstattungen, welche über das in einer Gesellschaft als notwendig oder sinnvoll erachtete Maß hinausgehen. Dies wird daher manchmal missverständlich auf die moderne Großforschung bezogen, deren größte Anomalie in der Tat ein sehr hoher Geldbedarf ist. Es wird argumentiert: die Menschheit lechze eben nicht danach, mit Milliardenaufwand endlich den Nachweis für Higgs-Bosonen am CERN zu erleben, während Probleme des Klimaschutzes oder der Welternährung dagegen scheinbar unlösbar seien.
Dies ist jedoch ein Missverständnis und nicht eine Frage luxuriöser oder frivoler Geldverschwendung. Die erforderliche Infrastruktur, wie Beschleuniger, Radioteleskope und dgl. sind ja nicht Selbstzweck, sondern dienen der Grundlagenforschung und sind billiger eben nicht zu haben. Die Alternative bestünde daher nur darin, es bleiben zu lassen. Das liefe jedoch auf ein wissenschaftliches Paradigma der Enthaltung hinaus, eine fatale Fehlentwicklung.
Abgesehen von dieser „Luxus“-Diskussion muss sich die Wissenschaft noch weiteren Herausforderungen stellen, die auch zu Krisenerscheinungen führen. Sie betreffen die Paradigmen-Problematik, die Bringschuld der Wissenschaft in der Gesellschaft und die Forschungs- und Wissenschaftsorganisation.
Paradigma: nachhaltige Entwicklung
Thomas Kuhn hat Mitte des vergangenen Jahrhunderts die These aufgestellt, wissenschaftliche Revolutionen und letztlich die Weiterentwicklung der Wissenschaften würden durch Paradigmenwechsel herbeigeführt. Das derzeit (vor allem für die Angewandten Wissenschaften) meistzitierte Paradigma ist die „Nachhaltigkeit“ oder die „Nachhaltige Entwicklung“. Im Sinne von Generationengerechtigtkeit und globaler Gerechtigkeit, als Entwicklungsmodell ein hervorragender Fortschritt und ein ehrgeiziges Programm. Bei näherem Hinsehen handelt es sich jedoch eigentlich nicht um ein wissenschaftliches Paradigma, sondern eben um ein politisches Enwicklungsmodell.
Die Forderung nach Nachhaltigkeit basiert auf einem Zitat von Saint Exupery, der meinte, „wir hätten die Welt eben nur von unseren Nachfahren geliehen“. Ein eleganter Satz, aber problematisch, wenn man ihn auf mehrere aufeinanderfolgende Generationen bezieht. „Nachhaltigkeit“ ist ein „Gummibegriff“, der zu Fehlinterpretationen und Missverständnissen einlädt. Vor allem im Zusammenhang mit dem Energiehaushalt.
Natürlich ist hoher Energieverbrauch allein kein Zeichen von Intelligenz, die Senkung des Energieverbrauches allein macht aber aus der Menschheit noch keine nachhaltige Menschheit.
Sieben Milliarden Menschen auf dem Planeten Erde mit ihren Ansprüchen sind nicht im thermodynamischen Gleichgewicht und werden es auch nie sein. Strenggenommen ist nichts wirklich nachhaltig (nicht einmal das Universum) wenngleich natürlich die Betrachtungszeiträume eine entscheidende Rolle spielen. Unser ganzes Leben ist ein Kampf gegen die Zunahme der Entropie, schlampig gesagt ein Maß für die Zunahme der Unordnung in irreversiblen Prozessen (noch schlampiger ausgedrückt: das Dilemma besteht darin, dass man aus einem Aquarium zwar eine Fischsuppe machen kann, die Umkehrung ist allerdings schwer möglich)
Aus einem wissenschaftlichen Paradigma sollen ja auch Handlungsanleitungen und Herausforderungen im Einklang mit wissenschaftlicher Ethik sein. Im „Ethik-Dreieck“ „Ich will – Ich kann – ich darf“ sollte das Ergebnis nicht in der Regel in „ich darf nicht“ münden. Es ist zu bedenken, dass Ethik nicht unter ihrem Wert arbeitet, wenn sie sich auf eine Güter- und Übelabwägung einlässt. Auch gibt es keine konfliktfreie Moral und keine folgenlose Enthaltung. Wissenschaftliche „Paradigmen“, die als Handlungsanleitung in Enthaltung oder sogar im Zurückdrehen von Erfindungen und Entwicklungen münden, sind nicht nützlich. Sie führen zur Forderung an die Wissenschaft, ausschließlich rasch Lösungen für die angeblich von ihr selbstverschuldeten Probleme zu finden (Alternativenergie), oder, wenn das nicht geht, notfalls etwas „wegzuerfinden“ Kernenergie, Gentechnik). Diese Vorgangsweise ist jedoch zur Lösung realer Probleme ungeeignet. (Und mit Schuldzuweisungen kommen wir auch nicht weiter.)
Es wäre daher angezeigt, unter Berücksichtigung des Entwicklungsprogramms der Nachhaltigkeit ein Paradigma zu entwickeln, das diese Ziele unterstützt. Es bietet sich der Ostwald’sche Imperativ an. Wilhelm Ostwald (Nobelpreis 1909) hat diesen Imperativ, der auf den Prinzipien der Thermodynamik beruht, ausführlich begründet. Kurz – aber durchaus richtig – gefasst lautet er: „Vergeude keine (freie) Energie, verwerte sie!“ Es geht darum, bei jedem Prozess die nicht nutzbare Energie, die letztlich als Abwärme, als Reibungsverlust u.dgl. „verloren“ geht – sehr vereinfacht ausgedrückt - so gering wie möglich zu halten. Die Begründungen und Anwendungen in der Original- und Sekundärliteratur Ostwalds nachzulesen ist hoch interessant und aufschlussreich (wie jede Beschäftigung mit der Thermodynamik). „Das Paradigma lautet also: die vom Menschen angestoßenen und verwendeten Prozesse müssen so gestaltet sein, dass der damit verbundene, unvermeidliche Zuwachs der Entropie möglichst gering ausfällt und keine freie Energie vergeudet wird“. Die Orientierung an diesem Paradigma ist auch viel leichter überprüfbar, als der zu weit gefasste Begriff der „Nachhaltigkeit“.
Der Ostwald’sche Imperativ ist so etwas ist wie „Nachhaltige Entwicklung“ minus der utopischen Hoffnung auf ein thermodynamisches Gleichwicht.
Erfreulicherweise kann man einen solchen Paradigmenwechsel auch schon erkennen, zum Beispiel im Zusammenhang mit Recycling und Stoffwandel, durch Einbeziehung der Überlegungen der Effizienzsteigerung, der Vermeidung von Energieverschwendung und der Minimierung des Entropiezuwachses.
Bringschuld der Wissenschaft – Holschuld der Gesellschaft
Wissenschaft, wie sie eben an Universitäten und wissenschaftlichen Instituten stattfindet, hat noch mit anderen problematischen Entwicklungen zu tun, nämlich mit der Forderung, den Transfer des Wissens und der wissenschaftlichen Methodik in die Gesellschaft sicherzustellen.
Es liegt im ureigensten Interesse der Wissenschaftler, die Öffentlichkeit zu informieren, schließlich ist die Wissenschaft sehr teuer und wird nach wie vor hauptsächlich aus öffentlichen Mitteln finanziert. Die Frage ist jedoch, kommt diese Information auch an, wollen die Menschen das auch wirklich wissen?
Hier gibt es das ewige Holschuld/Bringschuld Problem. Die Information wird in zunehmenden Maß als Bringschuld der Wissenschaft betrachtet. Das kann auf die Dauer nicht gutgehen, denn Information läuft in die Leere, wenn mangelndes Interesse daran besteht. Dann taucht auch erklärlicherweise das Luxus Argument auf. (Dafür wird Geld ausgegeben?)
Der Bringschuld der Wissenschaftler muss also auch eine Holschuld der Gesellschaft, sich zu informieren und zu verstehen, gegenüberstehen. Das kann aber nur durch die Schule stattfinden, in der wissenschaftliche Methodik (und Wissen!) eine wichtigere Rolle spielen müssen als bisher.
Eine unaufgeklärte Öffentlichkeit reagiert sonst wie jeder Uninformierte reagieren muss, mit Angst und wachsendem Misstrauen gegenüber Wissenschaft und Wirtschaft. Die Medien greifen diese Angststimmung auf und artikulieren sie, was rückgekoppelt das Misstrauen verstärkt. So entsteht eine wachsende innere Spannung in der Gesellschaft, die auf der einen Seite die Vorteile wissenschaftlicher Entwicklungen rücksichtslos nutzt und ihre Nutzung sogar einfordert (z.B. Gesundheitstechnologien), auf der anderen Seite mit wachsender Angst auf die möglichen negativen Folgen dieser selbst betriebenen Nutzung reagiert und diese Angst als Misstrauen und Aggressivität auf die Erzeuger dieser Nutzungsmöglichkeiten, Wissenschaft und Technik, ablädt. Auf der einen Seite wird dann die Grundlagenforschung in der Tat zunehmend als Luxus angesehen, weil sie scheinbar nicht ausreichend rasch zur Lösung der Probleme der Menschheit beiträgt und die Anwendungen der Angewandten Wissenschaften werden als Verursacher dieser Probleme hingestellt. Das führt zu einer Verteidigungshaltung der Wissenschaft, und das bringt uns nicht weiter.
Es genügt daher auch nicht, wie das viele Wissenschaftspolitiker gerne tun, die Wissenschaftler in die ethische Pflicht zu nehmen, die Wertediskussion also zu privatisieren und damit auf die Ebene der allgemeinen Bürgerpflicht abzuschieben. Gefordert ist der ernsthafte, professionelle, offene und andauernde Dialog der Wissenschaften mit der Gesellschaft.
Forschungs- und Wissenschaftsorganisation
Zuletzt sei noch ein existentielles Problem der wissenschaftlichen Institutionen, vor allem der Universtäten angesprochen, nämlich der Ausbildungsaspekt. Wenn die Universitäten vorrangig als Schulen angesehen werden, können sie ihr Alleinstellungsmerkmal, das der forschungsgeleiteten Lehre nicht halten. Die Universitäten können den Anspruch, als flächendeckende Diplomverleihungsanstalten zu dienen, nicht einlösen. Dieser kommt daher, dass als Folge fehlinterpretierter Statistiken die Meinung entstanden ist, ein Universitätsdiplom würde vor Arbeitslosigkeit schützen und daher würde eine möglichst hohe „Akademikerquote“ die Arbeitslosigkeit senken. Die beste Förderung der Wissenschaft besteht jedoch in der Erhaltung verlässlich etatisierter wissenschaftlicher Institute und Universitäten, die Lehre und Forschung durchaus unter einen Hut bringen. Selbstverständlich unter demokratischer Kontrolle, da es sich um öffentliche Mittel handelt und entsprechender Evaluation. Diese muss aber so effizient organsiert werden, dass noch Luft für die Wissenschaft bleibt.
Leider steigt das Volumen dieses Betriebs der Wissenschaftsorganisation und -politik ständig und teilweise stärker als die Wissenschaft selbst. Es gibt offensichtlich einen Punkt, an dem lähmender Gleichstand eintreten kann: wenn hinter jedem Wissenschaftler jemand steht, der beauftragt ist, ihn unaufhörlich auf seine Verantwortung einem Paradigma gegenüber, auf den richtigen Gebrauch seiner Werkzeuge, auf seine Forschungsanträge und seinen Rechtfertigungsauftrag hinzuweisen. Diese Gefahr ist derzeit gegeben. Wenn man alle Wissenschafts- und forschungspolitischen Programme, Programmlinien, Schwerpunkts-Konzepte, Profilbildungsmaßnahmen, Forschungsförderungskonzepte, gesetzliche Vorschriften und deren Interdependenz gleichzeitig zur Grundlage wissenschaftlicher Tätigkeit machen will, tritt Stillstand ein. Nichts geht mehr.
Sonst geht’s der Wissenschaft gut, danke! Sie bringt nach wie vor höchst spannende neue Erkenntnisse und auch deren Umsetzung und Anwendung hervor. Wer es nicht glaubt, soll daran beim nächsten Zahnarztbesuch denken.
Die Faszination der Biologie
Die Faszination der BiologieDo, 26.04.2012- 05:20 — Eva Sinner
Eva-Kathrin Sinner, o.Prof. für Nanobiotechnologie an der Universität für Bodenkultur in Wien, im Gespräch mit dem ScienceBlog. Die renommierte Biowissenschafterin erzählt über ihren Werdegang und von Möglichkeiten, das allgemeine Interesse an Naturwissenschaften zu stimulieren.
SB: Biologie wird als Leitwissenschaft des ausgehenden 20. Jahrhunderts bezeichnet. Was bedeutet Biologie für Sie, Frau Professor Sinner?
Logo v. Eva Sinner & ihrer Tochter (symbolisiert die Wissenschaftlerin mit ihrer Tochter)
E-K S: Biologie ist die Lehre des Lebens. Es ist faszinierend, dass wir heute bereits in das „ganz Kleine“ schauen können: Die Bausteine des Lebens sind ja um Größenordnungen kleiner, als wir mit dem Auge erkennen können. Wir leben in einer Welt, in der wir üblicherweise Dimensionen von Millimetern bis zu Kilometern wahrnehmen. Darunter – d.h. für unsere Augen bereits unsichtbar - liegt aber die Welt der Bakterien und Mikroorganismen und noch weiter darunter befindet sich die Welt der „Nano (= Zwergen) Einheit“. Als Biologe arbeitet man mittlerweile eng mit anderen Naturwissenschaftlern und Medizinern zusammen.
Es ist faszinierend in der gemeinsamen Perspektive auf Mechanismen, Strukturen und möglichen (technischen) Anwendungen die Natur zu erforschen.
SB: Der Untersuchung von Strukturen und Mechanismen haftet häufig der Geruch einer Forschung im Elfenbeinturm an....
E-K S: Forschung ist kein abstrakter Begriff für mich und ich wünsche mir auch, daß die Gesellschaft dafür Interesse bekundet und daran teilhat.
Es gibt ja Fragestellungen, welche die Natur bereits in Perfektion gelöst hat - die Natur kann uns „vorsagen“, wie wir beispielsweise nachhaltig mit Energiefragen umgehen können; hier ist die Photosynthese ungeschlagen in ihrem Wirkungsgrad. Oder die medizinische Seite, wenn es etwa um die Diagnostik von Krebserkrankungen geht, auch hier gibt es Parameter, wie Markerproteine, die wir in einen neuen Kontext stellen können– nämlich in den einer Früherkennungsstrategie.
So sind es sicherlich Fragen aus dem „hier und jetzt“, die wir „in der Biologie“ untersuchen und das universitäre Umfeld erlaubt es, sowohl die Basis der Wissenschaft im Auge zu behalten, als auch die Sinnhaftigkeit und Relevanz für die Gesellschaft.
Ich freue mich, wenn Studenten der Biowissenschaften immer breitere Perspektiven haben, in denen ihr Wissenshorizont eine Rolle spielen kann - von einem Pflanzenforscher bis zu einem Firmengründer, von einem Bürgermeister bis hin zu einem Anarchisten.
SB: Kommen wir zu Ihrem eigenen Werdegang. Wenn Sie in Ihre Kindheit zurückschauen - wann haben Sie begonnen sich für Biologie zu interessieren und wie hat sich dies geäussert?
Volvox aureus (R.Wagner, Wikipedia)
E-K S: Ich denke mal, ich war ‚ganz normal’ begeistert von allem, was lebte. Ich denke, es sind Orientierungen, die jedes Kind sucht, wenn die Welt der Erwachsenen zu kompliziert und zu fremd erscheint – dann gibt es den inneren Rückzug. Bei mir half ein Kindermikroskop, das mich den Gartenteich meiner Eltern hat tröpfchenweise „durchmikroskopieren“ lassen. Die Abbildung der kleinen Lebewesen in J.J. Grandville, “Volvox” aus dem Buch „Un Autre Monde“ – und ein Biologielehrer, der gleichzeitig Tierarzt war, taten ein Übriges.
SB: Wahrscheinlich teilen auch heute die meisten Kinder Ihr Interesse und Ihre Begeisterung am Lebendigen. Warum gehen diese Anlagen dann verloren? Kamen Ihnen persönlich jemals Zweifel auf, daß Biologie für Sie die richtige Wahl war?
E-K S: Mein Studium war nicht geradlinig. Nach einem nicht gerade grossartigen Abschluß eines humanistischen Gymnasiums, auf dem ich sicherlich aus Versehen gelandet war, hatte ich keine Ahnung von der Chemie. Eine durchgefallene Klausur in der Lebensmittelchemie der Universität Hannover bescherte mir ein Jahr Pause, da ich ohne diese Prüfung bestanden zu haben, nicht das nächste Praktikum machen durfte, welches für das Vordiplom Voraussetzung war. Für mich war damals genau die Frage erreicht, ob ich überhaupt in der Biologie „zuhause“ sein konnte.
Dann habe ich aber in Herrn Prof. Klaus Kloppstech aus der Botanik einen Lehrer gefunden, bei dem ich im Labor mitarbeiten durfte. In der Zwischenzeit inskribierte ich mich bei der Chemie und hatte dann zurück in der Biologie die nötigen Grundlagen um in einer exzellenten Naturstoffvorlesung von Herrn Prof. Habermehl die Anwendung meines neuerworbenen Wissens zu sehen.
Aus dieser Erfahrung kann ich nur raten: Die direkte Interaktion mit Universitäten und die Nutzung von Angeboten der direkten Besichtigung und Kontaktaufnahme – und das in jeder Lebensphase in dem einem „danach ist“ - nur so kann die Initialzündung erfolgen.
SB: Ihr Studium hatte also interdisziplinären Charakter - Biologie, Chemie, Naturstoffe – ebenso Ihr weiterer Werdegang in der biophysikalischen Forschung, in der Sie ja sehr schnell Karriere gemacht haben.
E-K S: Es sind immer Inspirationen, die zu den „roten Fäden“ führen in einem Lebenslauf. Ich erlaube mir, Herrn Prof. Helmut Ringsdorf sinngemäß zu zitieren „Wissenschaft passiert nie logisch, höchstens chronologisch“. Es ist weichenstellend für mich gewesen im Arbeitskreis von Herrn Prof. Knoll am Max Planck Institut für Polymerforschung in Mainz, Doktorarbeit machen zu können – als erste Biologin an einem Polymerforschungsinstitut. Mit 37 Jahren hatte ich meinen ersten Ruf an die Universität Regensburg, mit 39 die Berufung auf die Professur für Nanobiotechnologie hier an der Universität für Bodenkultur in Wien (und damit meinen ersten unbefristeten Arbeitsvertrag). Dazwischen lagen Japan und Singapur. Orte, an denen die Inhalte mich bewegten, dort lernen, bzw. forschen zu wollen. Die Max Planck Gesellschaft war lange Zeit meine wissenschaftliche Heimat gewesen und ich hatte das Glück bei Herrn Prof. Oesterhelt in Martinsried habilitieren zu können. Nach wie vor ist die Proteinbiochemie mein Hauptfach in Forschung und Lehre.
SB: Also ein äußerst erfolgreicher Werdegang.
E-K S: So würde ich meinen Werdegang nicht bezeichnen – mit dem „Elitemaßstab“ bin ich nie in Berührung gekommen, es war mehr das Glück und meine Offenheit, zu hören und irgendwann auch gehört zu werden. Diesbezüglich war beispielsweise die Einladung von Herrn Prof. Wegner an einer „exploratory round table conference“ der Max Planck Gesellschaft teilzuhaben, wo es um die Thematik „synthetische Biologie“ ging, ein Erfolgserlebnis, ebenso wie die Preisverleihung durch Frau Traudl Engelhorn-Vecciato für eine gute Idee in der Herstellung von „schwierigen“ Proteinen anlässlich der Winterschule von Herrn Prof. Manfred Eigen.
SB: Um den von Ihnen oben zitierten Satz „Wissenschaft passiert chronologisch“ Ihrer Biographie entsprechend zu ergänzen, muß man hinzufügen „und verbunden mit hoher Mobilität“.
E-K S: Mobilität ist Vorteil und Problem gleichzeitig. Es sind viele Faktoren und Orte an denen Forschung, Erfahrung und Lehre stattfinden. Die Wurzellosigkeit ist ein negativer Aspekt der Forschung und das Unverständnis der Umwelt für die Unvorhersehbarkeit von Forschungsergebnissen macht es nicht besser. Ich persönlich bin kein Weltenbummler, aber nolens volens ist es so geworden. Acht berufsbedingte Umzüge zähle ich in meinem Leben, keiner davon passierte „weil ich so gerne umziehe“.
SB: Wenn man Ihre Biographie betrachtet, so findet man kaum Anhaltspunkte dafür, daß Sie als Frau vor dem Problem gestanden wären die vielzitierte „gläserne Decke“ durchstoßen zu müssen.
E-K S: Zur Frage nach der „Geschlechterspezifität“ in meiner Wahrnehmung in Forschung und Lehre habe ich viele Erfahrungen gemacht, bzw. vieles berichtet bekommen. Ich wünschte, es wäre einfach kein Thema mehr, ob es sich um Männer oder Frauen handelt und habe mir vorgenommen, dass es mir schlicht egal ist. Mit meiner Ignoranz gegenüber den immer noch herrschenden Vorurteilen in jede Richtung bin ich gut gefahren, zumindest habe ich mich selten ärgern müssen.
Ich möchte dabei gleich vorwegnehmen, dass für mich sowohl weibliche, als auch männliche Studenten Menschen sind, die natürlicherweise als „Studenten“ beschrieben werden können. Meine Privatmeinung dazu stelle ich gerne zur Diskussion: ich halte die „–Innen“ Lösung für schlicht „sprachlich mühsam“ und möchte daher auf die besondere Verwendung einer weiblichen Wortform verzichten.
SB: Forschung und Lehre - Was versuchen Sie Ihren Studenten zu vermitteln?
E-K S: Es geht mir um die Weitergabe des Wissens ‚um das Leben’. Auch wenn durch die Breite der Fächer es nur Facetten sind, auf die sich ein Forscher beziehen kann – so entwickelt sie oder er eine Kompetenz, die es gilt, weiterzugeben. Dazu gehören Studenten, die sich nicht abschrecken lassen von „Elite“ oder „Studienzeitenlimitierung“, sondern die standhalten, wenn es um Inhalte geht, auch wenn sie zunächst fast lebensfeindlich klingen mögen, wie die „Nanotechnologie“. Mein Eingang in die Thematik ist dazu, dass ein Verständnis der Möglichkeiten, zum Beispiel der Möglichkeiten der Gentechnik, erst überhaupt eine Mitsprache und Mitgestaltung ermöglicht – glaubt denn wirklich jemand ernsthaft, dass die Beschäftigung mit einer Wissenschaft überflüssig ist, um sie kritisch beurteilen zu können? Wer weiss denn schon, was eigentlich ein „Gen“ ist?
Die sogenannte ‚Medienreligion’ ist nicht dienlich, wenn es um Vermittlung von Inhalten geht, die nicht auf der populistischen Skala ganz oben stehen – ich denke, die Grundlage für eine inhaltliche Diskussion schwieriger Themen, wie der Gentechnik, fehlt in der Gesellschaft.
SB: Damit sprechen Sie ein enorm wichtiges Problem an: unserer Gesellschaft fehlt die Grundlage für eine inhaltliche Diskussion schwieriger naturwissenschaftlicher Themen, wie sie jedoch immer dringlicher werden. Wie sollte man Ihrer Meinung nach vorgehen um generell das Interesse an Naturwissenschaften zu stimulieren? Um unseren Jungen naturwissenschaftliche Berufe erstrebenswert erscheinen zu lassen?
E-K S: Bei den Jungen gilt es die Scherben aufzukehren, welche die Schulzeit bei Vielen erzeugt hat. In erster Linie geht es darum bei weiblichen Studenten ein Selbstbewusstsein zu erzeugen, das schlicht fehlt - beginnend von der früh installierten Phobie vor Zahlen und analytischen Betrachtungsweisen, bis hin zu einer Bestärkung der Machbarkeit in der Vereinigung von Familie und Beruf. Auf der anderen Seite, sollten männliche Studenten bestärkt werden, ihre Väterrolle ebenfalls vereinbar mit einer beruflichen Perspektive in den Naturwissenschaften zu sehen: ein Studium ist zwar keine Berufsausbildung, aber steht dahinter ein Arbeitsmarkt, welcher langfristig vorausschaubar für Naturwissenschaftler Bedarf hat, dann ist das eine große Beruhigung. Wenn es auch ein internationaler Arbeitsmarkt sein kann, dann gibt es auch einen positiven Aspekt der oft zitierten Globalisierung, denn: die Welt ist gross!
Persönlich gesehen, finde ich es befremdlich, dass auch ‚Väterstudenten’ ziemlich „schräg“ beäugt werden und noch weniger in die heute vorgegebenen Strukturen zu passen scheinen, als es für die als normal betrachteten jungen Mütter der Fall ist. Das macht es nicht leicht, zu behaupten, dass Naturwissenschaften in jedem Fall zu einer optimalen Lebensplanung gehören. Ich bin jedoch ein Optimist und glaube an eine positive Entwicklung der Gesellschaft in Bezug ihrer Akzeptanz gegenüber „unkonventionellen“ Lebensmodellen und einem gelebten Respekt gegenüber einer geschlechtsneutralen Elternrolle. Ich habe ja selber versucht, Beruf und Familie zu verbinden und habe es nicht geschafft.
Auf die Gesellschaft übertragen meine ich, daß man durch das Aufzeigen realistischer Perspektiven die Begeisterung an den Naturwissenschaften wecken kann. „Lebenslängliches lernen“ ist für mich keine Worthülse.
Ich habe die Gelegenheit gehabt, durchaus gestandene Forscher im hohen Alter erleben zu dürfen und das enorme Potential der soliden Basis verknüpft mit der legendären Neugier, die Herr Albert Einstein so einprägsam als Kriterium eines ‚Forschercharakters’ formulierte, zu sehen.
Nur wer viel gesehen und verstanden hat, kann assoziieren und damit neue Strategien entwickeln - in meinen Augen eine wichtige Art des Forschens.
SB: Wir danken für das Gespräch!
Anmerkungen der Redaktion
Forschungsprojekt: Schnüffeln für die Wissenschaft (Video, 7'30)
Die lange Sicht — Wie Unwissen unsere Energiezukunft bedroht
Die lange Sicht — Wie Unwissen unsere Energiezukunft bedrohtDo, 19.04.2012- 00:00 — Gottfried Schatz
Elektrizität ist für unsere Technologie die vielseitigste Energieform. Um sie nachhaltig in ausreichender Menge bereitzustellen, braucht es den Mut zur langfristigen Forschung.
Im Jahre 1850 zeigte der englische Physiker Michael Faraday dem Schatzkanzler seines Landes, wie die Bewegung eines Magneten durch eine Drahtspule elektrischen Strom erzeugt. Auf die skeptische Frage des Staatsmannes, wozu dies gut sei, antwortete Faraday: «Eines Tages, Sir, werden Sie es besteuern können . » Obwohl Faraday die zukünftige Bedeutung dieser neuartigen Energieform voraussah, ahnte er wohl nicht, dass ihre Produktion einmal hitzige politische Debatten auslösen und die Gesellschaft vieler Staaten in unversöhnliche Lager spalten sollte.
Drohende Unordnung
Energie ist die Fähigkeit, Arbeit zu leisten. Ohne sie verliert jedes dynamische System seine Ordnung – sei dies ein Kinderzimmer, eine lebende Zelle oder ein moderner Staat. Energie ist deshalb ein Grundpfeiler von Zivilisation und Kultur. Sie lässt sich weder erzeugen noch vernichten, sondern nur von einer Form in eine andere umwandeln. Der gebräuchliche Ausdruck «Energiegewinnung» bedeutet also in Wahrheit Energieumwandlung. Etwa achtzig Prozent der weltweit erzeugten Elektrizität entstammen der Verbrennung von fossilen Ressourcen. Erdöl und Erdgas werden zwar in einigen Jahrzehnten erschöpft sein, doch die bekannten Kohle- und Ölschieferlager würden noch für einige Jahrhunderte reichen. Dennoch wäre es töricht, wie bisher weiterzufahren: Der weltweite Elektrizitätsbedarf dürfte sich bis zum Jahre 2050 mindestens verdoppeln und würde damit eine gewaltige Zerstörung der Umwelt heraufbeschwören. Vor allem gilt dies für das Verbrennungsprodukt Kohlendioxid, das sich in der Atmosphäre anreichert und als «Treibhausgas» wirkt. Der Erdboden verwandelt Sonnenlicht in langwellige Wärmestrahlen, die in den Weltraum zurückstrahlen würden – wenn unsere Atmosphäre kein Kohlendioxid enthielte. Dieses verschluckt sie jedoch und erwärmt so die Atmosphäre. Die meisten Klimaforscher sind sich heute einig, dass Kohlendioxid, welches bei der Verbrennung von Fossilbrennstoffen frei wird, die gegenwärtige Klimaerwärmung bewirkt.
Welche Kraft soll in Zukunft die Magnete und Drahtspulen unserer Dynamos gegeneinander bewegen, um uns mit elektrischem Strom zu versorgen? Sicher nicht die aus der Verbrennung fossiler Ressourcen gewonnene, die unseren Planeten mit Kohlendioxid und Erdölkriegen belastet. Wohl auch nicht die herkömmliche Kernspaltung, selbst wenn wir mittelfristig auf sie noch nicht verzichten können. Wasserenergie ist zumindest in der Schweiz bereits weitgehend ausgeschöpft, Strom aus Sonnenkollektoren noch viel zu teuer, und Windturbinen sind in kleinen und gebirgigen Ländern nur beschränkt einsetzbar. Wollen wir die Verwüstung unserer Welt verhindern, müssen wir unseren Stromhunger mit neuartigen Technologien stillen, die weder begrenzte Ressourcen vernichten noch die Atmosphäre mit Kohlendioxid verschmutzen.
Jede Technologie der Energieumwandlung – und sei sie noch so «grün» – belastet die Umwelt, und mittelfristig kann keine von ihnen für sich allein den weltweiten Strombedarf decken. Doch welche Technologie-Mischung wollen wir verwenden? Die Debatte zu diesem Thema ist längst zu einem Religionskrieg verkommen und konzentriert sich fast ausschliesslich auf bereits bekannte Technologien wie Windräder, Wasserkraft, Sonnenkollektoren – und «Bioenergie». Die klassische Form der «Bioenergie» erzeugt aus Kohlendioxid, Wasser und Sonnenlicht pflanzliche «Biomasse» und verwandelt diese in «Biogas» oder Treibstoffe wie Alkohol oder «Biodiesel». Das land- und sonnenreiche Brasilien hat bewiesen, dass dies mit schnell wachsendem Zuckerrohr kostengünstig möglich ist, wenn der Zucker mit Hefe zu Alkohol vergoren wird. Brasilien verwendet dafür ein Zehntel seiner Anbaufläche und hat erreicht, dass sein «Bioalkohol» ohne staatliche Subvention mit Benzin wetteifern kann und so die Abhängigkeit des Landes von ausländischem Erdöl drastisch senkt.
Unterentwickelte «Bioenergie»
In den kühleren USA ist das wichtigste Ausgangsprodukt für Bioalkohol die in Maiskörnern gespeicherte Stärke. In ihr liegt Traubenzucker in Form leicht vergärbarer Ketten vor. Europa setzt vorwiegend auf Biodiesel aus ölhaltigen Kulturpflanzen. Solche Biotreibstoffe werden als umweltfreundliche Lösung angepriesen, da sie aus erneuerbaren Rohstoffen stammen und bei ihrer Verbrennung gleich viel Kohlendioxid freisetzen, wie es die Pflanzen der Atmosphäre ursprünglich entnommen hatten.
Diese Technologie ist jedoch keineswegs so «grün», wie man sie oft schildert. Pflanzen wollen nicht Energie horten, sondern möglichst robust sein und selbst unter extremen Bedingungen überleben. Sie speichern deshalb meist nur weniger als ein Prozent des einfallenden Sonnenlichts als Biomasse. Zuckerrohr ist einer der effizientesten Lichtverwerter, die wir kennen, und dennoch liefert eine Zuckerrohrplantage selbst unter besten Bedingungen jährlich weniger als einen Liter Alkohol pro Quadratmeter. In kühleren und weniger besonnten Regionen wie der Schweiz wäre die Ausbeute noch viel geringer. Der intensive Anbau von Kulturpflanzen erfordert zudem gewaltige Wassermengen, verseucht das Grundwasser mit Pestiziden und verstärkt die Bodenerosion, welche langfristig die Umwelt ebenso bedroht wie eine Klimaerwärmung. Und schliesslich setzen die unerlässlichen Düngerstoffe stickstoffhaltige Treibhausgase frei, die den Gewinn einer Kohlendioxid-Einsparung weitgehend zunichtemachen.
Diese Nachteile mögen für die Deckung unseres Nahrungsbedarfs vertretbar sein, machen jedoch Biotreibstoff aus pflanzlicher Nahrung zu einem ökologisch und ethisch verwerflichen Produkt. Viel besser wäre es, Baumstämme, Halme oder Kleinholz zu Alkohol zu vergären. Diese Pflanzenteile enthalten Zucker jedoch in Form von Zellulose, die vor der Vergärung erst unter grossem Zeit- und Energieaufwand zerlegt werden muss. Genetisch veränderte Kulturpflanzen, die nach der Fruchtreife die Zellulose ihrer Halme selber abbauen, könnten dieses Problem lösen, wären im heutigen Europa aber politisch untragbar.
Obwohl «Bioenergie» derzeit nur einen bescheidenen Beitrag zur weltweiten Elektrizitätsversorgung leistet, müssen wir sie mit hoher Dringlichkeit weiterentwickeln. Grösste Hoffnungsträger sind derzeit ein- oder vielzellige Algen, die Sonnenlicht viel wirksamer als herkömmliche Kulturpflanzen verwerten, viel schneller als diese wachsen und den Boden kaum belasten, weil sie sich in grossen Teichen oder Bioreaktoren züchten lassen. Ihre Biomasse könnte nach Vergärung oder Vergasung zukünftig unsere Dynamos antreiben und uns so nachhaltig mit elektrischer Energie versorgen. Um jedoch diese und andere Zukunftsträume zu erfüllen, braucht es langfristige Grundlagenforschung.
Unser Unwissen über Umwandlung, Speicherung und Transport von Energie ist nämlich viel grösser, als man allgemein annimmt. Um elektrischen Strom ohne grosse Verluste zu übertragen, in Licht zu verwandeln oder direkt aus Sonnenlicht zu gewinnen, müssen wir mehr darüber wissen, wie feste Materie mit Elektrizität und Licht zusammenspielt. Um grosse Mengen elektrischer Energie zu speichern, müssen wir besser verstehen, wie Sauerstoff und andere Elemente mit Elektroden reagieren. Um mithilfe von Sonnenlicht Wasserstoffgas aus Wasser auf rein chemischem Wege herzustellen, fehlen uns wirksame Katalysatoren – und um diese gezielt zu entwickeln, müssen wir mehr darüber wissen, wie Katalysatoren grundsätzlich wirken. Um gar die gewaltigen Energiemengen aus verschmelzenden Atomkernen zu zähmen, müssen wir noch eine Unzahl von Problemen lösen, deren wir uns zum Teil wohl noch gar nicht bewusst sind. Und schliesslich werden wir die weltweite Energieversorgung nur dann in den Griff bekommen, wenn wir die fast unvorstellbare Komplexität grossflächiger Stromnetze mit neuartigen mathematischen Ansätzen verstehen und steuern können.
Notwendige Grundlagenforschung
In unserer kurzfristig denkenden Zeit braucht es Weisheit und Mut, um die lange Sicht zu wagen und der Grundlagenforschung das Wort zu sprechen. Wer sie vernachlässigt und nur eng fokussierte «angewandte» Forschung betreibt, wird bald nichts mehr anzuwenden haben. Allzu oft erliegen wir der Versuchung, die Mängel des bereits Verfügbaren mit staatlichen Subventionen zu übertünchen. Sie aber schotten Technologien ebenso vom Wettbewerb ab, wie Importzölle dies für Inlandsprodukte tun. Auf kurze Sicht mögen Subventionen und Importzölle nützlich sein – langfristig verhindern sie unweigerlich die Geburt des Neuen. Wissen ist ein Kind der Vergangenheit; in einer stetig sich wandelnden Welt sichert es weder die Gegenwart noch die Zukunft. Dies vermag nur innovative Forschung, die in allem Gegenwärtigen die Hypothese der Zukunft sucht. Die Erdölkriege der letzten Jahrzehnte haben es gezeigt: Energieforschung ist auch Friedensforschung. Ich vermute, Michael Faraday hätte dem zugestimmt.
Weiterführende Links
ZeitNews.de Dokumentation - Folge 2: Algen und was sie alles können (Video; 5'10")
Wie universell ist das Darwinsche Prinzip?
Wie universell ist das Darwinsche Prinzip?Do, 12.04.2012- 00:00 — Peter Schuster
Das Darwinsche Prinzip der natürlichen Selektion kann als nahezu universell geltend angesehen werden, es ist wirksam in präzellulären Systemen und ebenso auf der Ebene der Einzeller und der Vielzeller. Die Selektion kann jedoch durch funktionelle Kopplung andernfalls konkurrierender Partner – konkretisiert am Modell des Hyperzyklus – aufgehoben werden.
Charles Darwin hat sein Prinzip der natürlichen Selektion, bestehend aus dem Zusammenspiel von Reproduktion mit Vererbung und Variation, und begrenzten Ressourcen, von Beobachtungen hergeleitet, welche er einerseits in Großbritannien und andrerseits als Naturforscher auf den Erkundungsfahrten an Bord der HMS Beagle machte. Alle seine Schlußfolgerungen hat er dabei ausschließlich aus Untersuchungen an höheren Organismen, Tieren und Pflanzen gewonnen (1). Dennoch läßt sich sein Prinzip ebenso gut auf einzellige Organismen anwenden: auf Protisten, Eubakterien und Archebakterien. Es gilt auch für die Evolution von Viren und Viroiden bis hin zur „Züchtung“ von Makromolekülen im Reagenzglas Für das Darwinsche Prinzip gibt es keine einfach erkennbare Grenze der Anwendbarkeit, sogar konkurrierende Computerprogramme und andere nicht der Biologie zuzuordnende Objekte folgen den Gesetzen der „natürlichen“ Selektion.
Der Darwinsche Mechanismus wird also immer schlagend, wenn Biomoleküle, Zellen, Organismen, Gesellschaften, Wirtschaftssystems aber ebenso Computerprogramme oder andere Elemente auftreten, die sich vermehren und bei der Reproduktion verändern können und um Ressourcen konkurrieren.
Warum läßt sich das Darwinsche Prinzip praktisch universell anwenden?
Die Antwort ist einfach: Es spielen weder die Details der Vermehrung eine Rolle noch die Art der sich reproduzierenden Spezies. Ausschlaggebend ist einzig und allein die Zahl der „Nachkommen“ in den folgenden Generationen. Es bedurfte aber des Genies eines Charles Darwins um dieses Faktum zu erkennen, um es aus der ungeheuren Fülle an Details zu abstrahieren, die er in Anpassung der Spezies an natürliche Gegebenheiten beobachtete.
Wäre dies nicht so, und würden die Details der Mechanismen von Reproduktion und Vererbung in das Prinzip der natürlichen Auslese eingehen, dann hätte Darwin keine Chancen auf Erfolg gehabt: Seine Vorstellungen über Vererbung waren nach unserem heutigen Wissensstand schlicht und einfach falsch.
Der Mechanismus, welcher dem Vorgang der Reproduktion lebender Spezies zugrunde liegt, wurde erst vor rund 60 Jahren entdeckt und basiert auf der Aufklärung der räumlichen Struktur der Desoxyribonukleinsäure (DNA) durch James Watson und Francis Crick, die damit als nahezu universaler Träger der Erbinformation identifiziert werden konnte (2). Die Einzelstränge dieses in Form einer Doppelhelix – einer schraubenförmigen Doppelwendeltreppe – vorliegenden Makromoleküls sind aus vier unterschiedlichen Bausteinen - Nukleotiden – aufgebaut; durch spezifische Paarbindung zwischen jeweils zwei Nukleotiden wird, wie in Abbildung 1 schematisch dargestellt, der Doppelstrang zusammengehalten.
Abbildung 1. Eine schematische Darstellung der Doppelhelix. Die Nukleotide bestehen aus jeweils einem Phosphatrest, der zusammen mit dem Zuckerrest (Desoxyribose) das nach außen gerichtete „Rückgrat“ der Doppelhelix bildet (türkis), und einer der vier Basen: Adenin (A, weiß), Thymin (T, rosa), Guanin (G, grün), Cytosin (C, gelb). Spezifische Paarbildung zwischen A und T und zwischen G und C hält die beiden Einzelstränge zusammen. Darin besteht die Besonderheit der DNA-Struktur: Nur AT oder TA und GC oder CG Basenpaare passen in die Doppelhelix hinein und, kennt man die Basenfolge an einem Strang, dann lässt sich der zweite eindeutig ergänzen – dies ist das molekulare Prinzip der Replikation von DNA und auch von RNA. (RNA – Ribonukleinsäure ist ein der DNA ähnliches Molekül, welches üblicherweise als Einzelstrang vorliegt und anstelle des Thymins als 4. Base Uracil enthält.) (Bild: DOE Human Genome Project)
Die Doppelhelix lässt sich - vereinfacht ausgedrückt - wie ein Reißverschluß öffnen und repliziert sich – insofern die zum Aufbau nötigen Nukleotide ausreichend vorhanden sind, indem die Einzelstränge als Kopiervorlage verwendet, und an diesen, die Komplementarität der Basenpaare ausnutzend, Nukleotide anlagert und mittels geeigneter Enzyme zu neuen Strängen verknüpft werden. Diese fundamentale Grundlage der modernen Biologie wurde in dem berühmten ‚Letter‘ an die Zeitschrift Nature (1953; 177:737) geradezu in typisch Englischem Understatemenz dargestellt: „It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.“ (2)
Das Experiment des Sol Spiegelman (3)
Mit dem Verstehen des Replikationsvorgangs konnte dieser seit den 1960-er Jahren des vergangenen Jahrhunderts auch in in vitro Systemen „im Reagenzglas“ nachvollzogen werden. Sol Spiegelmans „dream experiment“ bestand aus der seriellen Verdünnung einer Ausgangslösung, die nur eine sich in Gegenwart eines geeigneten Enzyms – einer Replikase – replizierende virale Ribonukleinsäure (RNA des Bakteriophagen Qbeta, isoliert aus infizierten Escherichia coli Bakterienzellen) und die dazu notwendigen niedermolekularen Nukleotide enthielt. Nach entsprechender (z.B. 10-facher) Vermehrung der Ribonukleinsäure wurde ein Anteil (z.B. 1/10) auf ein nächstes Reagenzglas übertragen (das ausreichend niedermolekulare Bausteine und Replikase enthielt), nach der wiederholten Vermehrung wieder ein Anteil auf das folgende Reagenzglas. Nach 15 derartigen Transfer-Schritten war im letzten Reagenzglas praktisch keines der ursprünglichen Nukleinsäuremoleküle mehr vorhanden, die neu entstandenen Moleküle waren auch nicht mehr infektiös, vermehrten sich aber rascher als die ursprüngliche Phagen-RNA.
Über die hohe Multiplikationsrate der ursprünglichen Moleküle hinaus, konnte Spiegelman in diesem in vitro Experiment erstmals Evolution an einzelnen Molekülen beobachten, die auf fehlerhafter Kopierung des Templates durch das Enzym und daraus resultierend auf Mutationen des Erbmaterials zurückzuführen war. Abhängig von den Versuchsbedingungen konnten sich dann die Kopien durchsetzen, welche an die jeweiligen Bedingungen besser angepaßt waren. Beispielsweise verkürzte sich das ursprünglich einige tausend Nukleotide lange Molekül auf ein paar Hundert Nukleotide, da unter anderem die für den Infektionsvorgang in Zellen kodierende Information im Reagenzglas obsolet war, ebenso wie die Versorgung mit den nötigen Bausteinen. Wenn Spiegelman einen Inhibitor der Replikation einsetzte, so führte der entstehende Selektionsdruck zu Formen, die sich nicht nur trotzdem vermehrten, sondern dies auch noch viel effizienter vermochten. Damit nahmen Extrapolationen des Darwinschen Prinzips auf präzelluläres Leben ihren Ausgang – der Vorstellung einer Welt von Biomolekülen, die im Sinne Darwins ihre Reproduktion optimieren können (4).
Das Quasispecies-Modell (5)
Für die Evolution neuer Spezies spielt die Balance von Mutation und Selektion eine entscheidende Rolle. Ist die Fehlerrate, mit welcher die Replikation erfolgt, gering, so besteht der Großteil der Nachkommen einer Spezies aus exakten Kopien, d.h. einem einzigen definierten Genotyp. Bei höheren Fehlerraten – wie insbesondere bei Viren aber generell bei allen natürlichen Organismen – weisen viele der Nachkommen eine oder mehrere Mutationen auf, es entsteht eine „Wolke“ ähnlicher Spezies, eine sogenannte Quasispezies. Deren „Nachkommen“ sind ebenfalls keine exakten Kopien und können sich durch Vor- und-Rückmutation immer wieder ineinander umwandeln. Die momentane Selektion der sich am raschesten vermehrenden Form einer Generation kann somit in der nächsten Generation wieder annulliert werden. Über einem scharf definierten Grenzwert der Fehlerrate bricht dann die „Vererbung“ völlig zusammen, man spricht von einer Fehlerkatastrophe, und es kann sich keine stationäre Population mehr ausbilden.
Die Möglichkeit mit der Erhöhung der Fehlerrate einen Zusammenbruch weiterer Replikation auszulösen, ist vor allem von Virologen aktiv aufgenommen worden, verspricht diese Strategie doch einen Paradigmenwechsel im Kampf gegen virale Infektionen. Das Arzneimittel Ribavirin, ein synthetisches Nucleosid-Analog wird in die RNA von RNA-Viren eingebaut und wirkt dort als starkes Mutagen. Die erfolgreiche Anwendung gegen eine weite Palette viraler Infektionen, u.a. gegen Hepatitis-C-Virus, Respiratory-Syncytial-Virus, Influenza-Viren und vor allem gegen verschiedene haemorrhagisches Fieber erzeugende RNA-Viren dürfte zumindest zum großen Teil auf die Erhöhung der Mutationsrate zurückzuführen sein.
Der Hyperzyklus (4, 5)
Nukleinsäuren, deren spezifische Nukleotidsequenzen in Form der Gene – in ihrer Gesamtheit bei einem Organismus als Genotyp oder Genom bezeichnet – weiter vererbt werden, kodieren für Proteine und andere regulatorische Moleküle, die den Phänotyp ausmachen und das Weiterbestehen in der jeweiligen Umgebung möglichst effizient gestatten sollen. Wie kann die Integration einzelner Gene ohne einen Organismus erfolgen?
Abbildung 2. Der Hyperzyklus (Beschreibung siehe Text)
Dazu wurde 1971 von Manfred Eigen erstmals eine kinetische Theorie der Reproduktion von Nukleinsäuren formuliert, ein sogenannter Hyperzyklus, wie er stark vereinfacht in Abbildung 2 dargestellt ist (4). Dieser Hyperzyklus weist eine zyklische Folge von Rückkopplungen auf, in welcher Nukleinsäuren (I1 – I5) die Bildung von Enzymen (E1- E5) durch Übersetzung (Translation) katalysieren, welche wiederum die Replikation der Nukleinsäuren katalysieren.
Derartige Hyperzyklen umgehen die oberhalb genannte Fehlerkatastrophe, denn für die Fehlerakkumulation ist nur die Länge der einzelnen freien Gene entscheidend aber nicht das gesamte kodierende Genom (I1+I2+I3+I4+I5). Dieses Modell wurde unter anderem für die frühe Phase der Evolution in einer „RNA-Welt“ postuliert. Hier soll es als Beispiel für die Grenzen des Darwinschen Prinzips genannt werden. Natürliche Selektion würde unter den freien Genen das sich am schnellsten vermehrende auswählen und die anderen Gene würden verschwinden. Da jedoch alle Enzyme (E1, E2, …) für die Vermehrung gebraucht würden, müsste das System aussterben. Die dynamische Kopplung in Abbildung 2 führt aber zu einem anderen Resultat: Das Darwinsche Prinzip wird nicht realisiert, es tritt keine Selektion ein und der Hyperzyklus wächst als ein organisches Ganzes.
Grenzen der Universalität des Darwinschen Prinzips
Das Modell des Hyperzyklus wurde als ein Beispiel genannt, in dem Selektion durch funktionelle Kopplung andernfalls konkurrierender Partner aufgehoben wird. Gibt es derartige Beispiele in der Natur? Der Biologe kennt eine Vielzahl von Symbiosen und diese stellen eine Form von Hyperzyklen auf der Ebene von Organismen dar. In tierischen und menschlichen Gesellschaften finden wir eine wahre Fülle von Beispielen anscheinenden und scheinbaren altruistischen Verhaltens, bei welchen einzelne Individuen auf kurzfristige Erlöse verzichten, um langfristig größere Vorteile gewinnen zu können. Auch dies ist im Darwinschen Prinzip nicht vorgesehen, denn natürliche Selektion operiert hic et nunc und ist blind und taub für langfristige Entwicklungen.
Die Entstehung und Entwicklung des Lebens kennt eine Fülle von Phasen, die so genannten ‚major transitions‘, in welchen die Selektion durch verschiedene Mechanismen außer Kraft gesetzt wurde. Diese Übergänge führen von einer Komplexitätsebene auf die nächst höhere. Nur ein Beispiel sei explizit genannt: der Übergang von den Einzellern zum Vielzellerorganismus. Auf der Ebene der Einzeller ist das Darwinschen Prinzip wirksam und ebenso auf der Ebene der Vielzeller, wo die einzelne Zelle nicht mehr nach Belieben wachsen kann wohl aber der Gesamtorganismus, der in der Population der Selektion unterworfen ist. Eine ‚Erinnerung‘ an ihre historische Freiheit ist den Körperzellen aber noch geblieben und sie entkommen im Fall von Tumoren auch mintunter der Kontrolle zum Schaden des Gesamtorganismus.
Fazit
Das Darwinsche Prinzip hat einen überaus großen Grad der Universalität, aber immer gilt es nicht, wie nichts auf dieser Welt.
Literatur
(1) C. Darwin (1859). The origin of species by means of natural selection or the preservation of favoured races in the struggle for life. J. Mussay, London.
(2) JD Watson, FH Crick (1953) Molecular Structure of Nucleic Acids: A Structure for Deoxyribose Nucleic Acid
(3) S. Spiegelman (1971) An approach to the exoperimental analysis of precellular evolution. Quart.Rev.Biophys. 4:213-253
(4) M. Eigen (1971) Selforganization of matter and the evolution of macromolecules. Naturwissenschaften 58:465-523
(5) M. Eigen, P. Schuster (1979).The Hypercycle - A Principle of Natural Self-Organization. Springer-Verlag, Berlin 1979.
Weiterführende Links
Howard Hughes Medical Institute (“plays a powerful role in advancing biomedical research and science education in the United States”): Vorlesungen von Spitzenwissenschaftern, Videos, Animationen zu einem breiten Spektrum an Naturwissenschaften und Medizin; speziell zu Evolution und =24143">DNA.
The DNA Learning Center: (“the world's first science center devoted entirely to genetics education and is an operating unit of Cold Spring Harbor Laboratory, an important center for molecular genetics research”):
Zahlreiche, hervorragende interaktive Websites. Publikationen und Vorträge von Peter Schuster
Artikel zu verwandten Themen im Science-Blog
Gibt es Rezepte zur Bewältigung von Komplexität
Die Welt steht auf kein’ Fall mehr lang…
Die Welt steht auf kein’ Fall mehr lang…Do, 29.03.2012- 05:20 — Franz Kerschbaum
Echte - leider - ebenso wie frei erfundene Ereignisse und Katastrophen beschäftigen seit jeher den Menschen. Das ist auch gut so, zeugt es doch vom prinzipiell vorhandenen Interesse an der Natur der Dinge und dem Verständnis des eigenen Platz in der Welt. Doch was unterscheidet wahre Sachverhalte von sensationsgieriger Auflagentreiberei?
So singt Knieriem in Nestroys „Lumpazivagabundus“ und trifft damit punktgenau die zeitlose Grundeinstellung vieler Menschen. Unglücke, Katastrophen – angekündigte und wirklich stattgefundene – finden große mediale Verbreitung. Eine besondere Kategorie dieser „beliebten“ Katastrophen bilden die regelmäßig wiederkehrend angekündigten Weltuntergänge mit per Definition geradezu kosmischer Bedeutung. Hier kommt nun endlich meine Profession als Astronom ist Spiel. Kaum steht in Zeitungen etwas über erhöhte Sonnenaktivität, einen schönen Kometen am Abendhimmel, Mond in Erdnähe oder gar einen Kleinplaneten auf (vermeintlichem) Erdkurs, glühen bei uns an der Universitätssternwarte die Telefone und neuerdings auch die elektronischen Postfächer…
Der Sonn’ ihr G’schundheit ist jetzt a schon weg,
Durch’n Tubus sieht man’s klar, sie hat die Fleck’; …
Wie schon zu Nestroys Zeiten geht’s mit der Aktivität unserer Sonne ziemlich regelmäßig auf und ab. In einem zirka zweimal elf Jahre langen Zyklus zeigen sich mehr oder weniger Sonnenflecken - kühlere Stellen auf der Sonnenoberfläche. Auch spektakulärere Phänomene wie koronale Massenauswürfe korrelieren damit und so ist es nicht verwunderlich, dass nach einem langen Sonnenfleckenminimum nun im ersten Halbjahr 2012 wieder öfters hochverdünnte Sonnenmaterie Richtung Erde geschleudert wird, die wunderschöne Polarlichter in die Hochatmosphäre zaubert. Natürlich gibt es dabei auch ein gewisses Gefährdungspotential – in der Vergangenheit gab es schon Stromausfälle oder Satellitenschäden – doch man hat daraus gelernt und ist durch die dauernde Überwachung der Sonne gut vorgewarnt. Also keine Panik; das Leben auf der Erde und damit auch wir Menschen halten das schon recht lange aus!
Am Himmel is die Sonn’ jetzt voll Capriz,
Mitten in die Hundstag’ gibt s’ kein´ Hitz’;
Auf scheinbar ausschließlich schneelose Winter folgen heute durchgehend verregnete Sommer – so ganz anders als es noch in unserer Kindheit war, als in der Erinnerung endlose, winterliche Rodelpartien mit sommerlichen Badefreuden wechselten! Als Astronom werde ich mich nicht näher mit der teils panischen Klimadebatte auseinandersetzen und verweise gerne auf den ScienceBlog Beitrag „Erdfieber. Das Unbehagen der Wissenschaft bei der Klimadebatte“. Doch zu einer Katastrophenprognose fühle ich mich ausreichend kompetent: Unsere Sonne wird das Erdklima langfristig zu unseren Ungunsten beeinflussen und spätestens, wenn in einigen 100 Millionen Jahren die Durchschnittstemperatur auf der Erdoberfläche die 100 Grad Celsius Marke durchstößt, die Volksseele sprichwörtlich und real zum Überkochen bringen.
Es is kein’ Ordnung mehr jetzt in die Stern’,
D’ Kometen müßten sonst verboten wer’n.
Ein Komet reist ohne Unterlaß um
am Firmament und hat kein’ Paß;
Buchdeckel: Littrow, Weiss, 1885; Foto: Franz Kerschbaum
Schon immer faszinieren Kometen! Wie in Nestroys Kometenlied fürchten sich schon seit den Zeiten der Saurier Erdlinge vor den potentiell wirklich katastrophalen Folgen auf der Erde einschlagender Kometen und Kleinplaneten. Den möglichen globalen Schäden steht aber zum Glück die extreme Seltenheit solch fataler Ereignisse gegenüber. Während sternschnuppengroße Körper fast ununterbrochen auf die Erde oder besser die Erdatmosphäre treffen sind etwas größere (bis 10m) schon deutlich seltener: nur etwa 500 erreichen jährlich in kleinen Bruchstücken den Erdboden. Ein Tod durch Blitzschlag ist viel wahrscheinlicher als von diesen letztlich vielleicht faustgroßen Brocken erschlagen zu werden. Bei den wirklich gefährlichen Größeren wird es deutlich seltener: Körper größer als 50m treffen die Erde alle 1000 Jahre, größer 1km alle 500.000 Jahre, größer 5km alle 10 Mill. Jahre und der Einschlag des etwa 10km großen „Saurierkillers“ liegt schon 65 Mill. Jahre zurück!
Heute wird diese Gefährdung von Forschung aber auch internationalen Organisationen sehr ernst genommen und eine Reihe von Himmelsüberwachungsprogrammen suchen Nacht für Nacht potentiell der Erde in ferner Zukunft nahekommende Objekte. Mittlerweile gehen dabei selbst größere Sternschnuppen VOR dem Eindringen in die Erdatmosphäre ins Netz! Im Jahr 2008 wurde erstmals ein kleiner Asteroid 20 Stunden vor dem Einschlag angekündigt und niedergegangene Fragmente von zusammen gut 10kg im Sudan gefunden.
Auf Grund all dieser umfangreichen Beobachtungsprogramme lassen sich Einschläge globalen Ausmaßes über für uns heutige Menschen relevante Zeiten so gut wie ausschließen. Bei neu gefundenen Körpern kann es wegen der anfangs noch schlecht bekannten Bahndaten zur Vorhersage von sehr unwahrscheinlichen Kollisionen mit der Erde kommen. In den letzten Jahren gab es aber immer innerhalb von wenigen Wochen völlige Entwarnung!
Die Millichstraßen, die verliert ihr’n Glanz,
Die Milliweiber ob’n verpantschen s’ ganz;
Eine Kombination aller möglichen Katastrophenszenarien findet man beim zur Zeit aktuellen Weltuntergangstag knapp vor Weihnachten 2012. Durch eine Unzahl von Publikationen kommerziell begleitet wird dann, angeblich von den Mayas mit dem Ende ihres Kalenders vorhergesagt ein Zusammentreffen einer Vielzahl von kosmischen Ereignissen unsere Welt sprichwörtlich auf den Kopf stellen: Milchstraßenstrahlung(?), Sonneneruptionen, Erdpolsprünge, Planetenkollisionen, Überschwemmungen und mehr werden uns wieder einmal den Garaus machen. Natürlich ist astronomisch genauso wie an allen in der Vergangenheit befürchteten Weltuntergängen nichts dran. Die Erde wird sich weiterdrehen und die Propheten des Untergangs werden mit neuen Büchern und neuen Vorhersagen kommerziell genauso erfolgreich sein wie immer. Besonders „runde“ Kalendertermine wie eben im Falle der Maya oder zuletzt im Jahr 2000 werden immer wieder die Kreativität der Apokalyptiker beflügeln.
…’s bringt jetzt der allerbeste Astronom
Kein’ saub’re Sonnenfinsternis mehr z’amm’…
Dass selbst anerkannte Wissenschaftler nicht davor gefeit sind, solcher Apokalyptik zu verfallen soll noch durch das Beispiel eines der Gründerväter der Grünbewegung in Österreich, dem 2007 verstorbenen Geologen Alexander Tollmann verdeutlicht werden. Nach seiner Wissenschaftskarriere folgte eine kurze in der Politik Anfang der 1980er Jahre. Darauf wandte er sich mehr und mehr der „Sintflutforschung“ zu, die ihn letztlich zur Prophezeiung einer weltweiten Katastrophe anlässlich der auch in Österreich beobachtbaren totalen Sonnenfinsternis am 11. August 1999 führte. Dieses Ereignis versuchte er in seinem Waldviertler Bunker zu überleben…
Und jetzt richt´t a so a Vagabund
Und die Welt bei Butz und Stingel z’grund;
Wenn es wirklich Gefahren für Welt und Menschheit gibt, dann gehen sie wohl eher von uns selbst aus – oder um es frei mit Falco zu sagen:
…der Komet kommt zu spät, frag nicht!
Zwei aktuelle Buchempfehlungen, zu Werken, die sich mit (möglichen) astronomischen Katastrophen kompetent und unaufgeregt auseinandersetzen sowie der Feder österreichischer Autoren entstammen, sollen auch genannt werden:
Arnold Hanslmeier: Kosmische Katastrophen: Weltuntergänge. Was sagt die Wissenschaft dazu?, Vehling Verlag, 2011, ISBN-13: 978-3853332009
Florian Freistetter: Krawumm!: Ein Plädoyer für den Weltuntergang, Ecowin Verlag, 2012, ISBN-13: 978-3711000255
Weiterführende Links
Eine hervorragende Seite, die sich auch explizit dem Kampf gegen die pseudowissenschaftliche Sensationsmacherei widmet, betreibt - nein nicht Don Quichote, sondern - der Österreicher Florian Freistetter (siehe die Buchempfehlung des Autors "Krawumm!") mit seinem Blog Astrodictium simplex
Die grosse Frage — Die Suche nach ausserirdischem Leben
Die grosse Frage — Die Suche nach ausserirdischem LebenFr, 22.03.2012- 01:00 — Gottfried Schatz
Leben wurde bisher nur auf unserer Erde gefunden. Die Entdeckung ferner Planetensysteme sowie neue Erkenntnisse über unser eigenes Sonnensystem nähren jedoch die Vermutung, dass auch andere Himmelskörper Leben tragen.
Sind wir allein – oder regt sich Leben auch anderswo im Universum? Nichts würde unser Menschenbild so tiefgreifend verändern wie das Wissen um Leben auf anderen Himmelskörpern. Doch wie könnten wir es finden? Wie wäre es beschaffen? Und wie könnten wir es erkennen? Bereits im Altertum sprachen Denker von den «vielen Welten» des Universums, und das aus dem 10. Jahrhundert stammende japanische Märchen «Die Geschichte vom Bambusschneider» berichtet, wie die Prinzessin der Mondmenschen die Erde besucht. Doch als im frühen 17. Jahrhundert das Fernrohr die schier unendlichen Weiten des Universums offenbarte, schien die Suche nach ausserirdischem Leben ein hoffnungsloses Unterfangen.
Ein Urexperiment
Was ist «Leben»? Wissenschafter sind sich über eine Definition noch nicht einig, doch im weitesten Sinne ist es ein chemisches System, das sich reproduziert und durch zufällige Variation und Selektion immer komplexer wird. Doch welche ordnende Kraft schuf die komplexen Moleküle, aus denen irdisches Leben entstand?
Am 27. Dezember 1984 fanden Forscher im antarktischen Eis einen 1,93 Kilogramm schweren Meteoriten, dessen chemische Zusammensetzung ihn als eines der ältesten Teile unseres Sonnensystems auswies. Ein gewaltiger Meteor hatte ihn offenbar vor etwa 4 Milliarden Jahren aus dem Gestein des jungen Planeten Mars herausgeschlagen. Er war dann an der Marsoberfläche liegengeblieben, bis ihn ein anderer Meteor vor 15 Millionen Jahren auf eine lange Irrfahrt durch das Sonnensystem schleuderte, die erst vor 13 000 Jahren im antarktischen Eis unseres Planeten endete. Am 6. August 1996 liess dieser «ALH-84001-Meteor» dann die Welt aufhorchen: Forscher der US-Raumfahrtbehörde hatten in ihm komplexe organische Moleküle, darunter sogar Bausteine von Proteinen, nachgewiesen. Ja noch mehr – im Elektronenmikroskop glaubten sie Strukturen zu sehen, die versteinerten Bakterien glichen. Handelte es sich um Zeugen einstigen Lebens auf dem Mars?
Diese Strukturen sind jedoch wahrscheinlich keine Bakterienfossilien, sondern rein mineralogische Formationen. Die reiche Palette komplexer organischer Moleküle bewies jedoch, dass sich solche Moleküle bald nach der Geburt unseres Sonnensystems gebildet hatten. Dass dies chemisch plausibel ist, hatte der damals 23-jährige Student Stanley L. Miller bereits im Jahre 1952 in einem legendären Vortrag an der Universität Chicago verkündet: Er hatte eine Gasmischung, die der frühen Erdatmosphäre glich, tagelang mit elektrischen Entladungen bombardiert und dabei komplexe organische Moleküle erzeugt – darunter auch Bausteine von Proteinen. Einer der prominenten Zuhörer, die Millers Worten gebannt lauschten, war der Physiker Enrico Fermi. Auf dessen skeptische Frage «Wissen Sie, ob sich so etwas auch auf der jungen Erde abgespielt hat?» antwortete Stanleys Doktorvater Harold C. Urey schlagfertig: «Wenn Gott es nicht so tat, vergab er eine einmalige Chance.»
Später zeigte es sich, dass in derartigen Versuchen Millionen verschiedener Moleküle, darunter auch die Bausteine der Erbsubstanz DNA, entstehen. Das Gasgemisch muss jedoch – ähnlich wie die frühe Erdatmosphäre – frei von Sauerstoffgas sein, da sonst die gebildeten organischen Moleküle durch Oxidation wieder zerstört würden. Unsere heutige Erdatmosphäre, die zu einem Fünftel aus Sauerstoffgas besteht, würde deshalb die Bildung komplexer Moleküle aus einfachen Gasen – und damit wohl auch die Entstehung von Leben – wirksam unterbinden.
Auf unserer Suche nach ausserirdischem Leben beschränkten wir uns lange darauf, die Planeten und Monde unseres Sonnensystems mit immer leistungsfähigeren Fernrohren zu beobachten, Meteoriten zu untersuchen, im elektromagnetischen Rauschen des Universums nach «intelligenten» Signalen zu lauschen – und solche Signale unsererseits aus gewaltigen Antennen in die Tiefen des Weltalls zu senden. Nun aber sind unsere schärfsten Späher unbemannte Raumsonden, die wir in unser Sonnensystem entsenden. Sie umkreisen ferne Planeten und Monde, vermessen und fotografieren sie und landen manchmal sogar auf ihnen. Die Daten und Bilder, die sie uns zur Erde senden, zählen zu den erhebendsten, welche die Wissenschaft uns je bescherte. Sie berichten von Jahreszeiten, Sandstürmen und ausgetrockneten Flüssen auf dem Planeten Mars sowie von Geysiren, Seen aus flüssigem Methan, Gasausbrüchen, gewaltigen Gebirgen und erloschenen Vulkanen auf den Monden der Planeten Jupiter und Saturn. Ihre vielleicht wichtigste Botschaft ist, dass viele dieser Himmelskörper genügend Wasser tragen, um erdähnliches Leben zu ermöglichen. Und einige von ihnen besitzen auch eine Atmosphäre, in der Wasserstoffgas, Äthan und Acetylen unter Freisetzung von Energie Methan bilden und dem Leben Energie liefern könnten.
Keine dieser fremden Welten ist geheimnisvoller als der Saturnmond Titan, auf dem die Raumsonde «Huygens» am 14. Januar 2005 landete und den die Sonde «Cassini» seither immer wieder umkreist. Diese Sonden zeigten uns, dass Titan nicht nur einen eisenhaltigen Kern, Seen aus flüssigem Methan sowie unterirdische Becken aus flüssigen Ammoniak-Wasser-Gemischen, sondern auch eine eindrückliche Atmosphäre besitzt. Sie enthält hauptsächlich Stickstoff und Methan sowie Spuren komplexer Moleküle und ist so dicht, dass in ihr Menschen dank der geringen Schwerkraft dieses Mondes mit angeschnallten Flügeln wie Fledermäuse fliegen könnten. Zudem ist sie reich an bräunlichen organischen Stoffen, die frappant jenen gleichen, die der Meteor ALH 84001 mit sich trug und Stanley L. Miller in seinen elektrisch bombardierten Gasgemischen vorfand.
Sie sorgen auf Titan für einen derart dichten Smog, dass die Oberfläche dieses Mondes selbst bei Tag einem asphaltierten Parkplatz bei Abenddämmerung gleicht. Auf Titan ist es zwar mit minus 179 Grad Celsius sehr, sehr kalt, doch in tieferen Schichten könnte der radioaktive Zerfall instabiler Elemente für wesentlich mildere Temperaturen sorgen. Ist Titan eine kosmische Retorte, in der sich Leben zusammenbraut? Oder regt sich in dieser Retorte bereits Leben, das wir noch nicht erkannt haben? Verglichen mit diesem wundersam unruhigen Mond ist der rote Planet Mars ein kosmischer Greis. Das Wasser, das einst reichlich auf ihm floss, ist längst zum Eis der Polkappen oder zu Permafrost erstarrt, und auch seine Atmosphäre aus Kohlendioxid und Stickstoff ist dünn geworden wie das Haar eines alten Mannes. Anders als die Atmosphäre des Titan enthält sie jedoch auch etwas Sauerstoff. Stammt dieses Gas von Lebewesen? Der Nachweis unterirdischer Wasserreservoire und die relativ hohe Oberflächentemperatur von bis zu minus 5 Grad Celsius lassen vermuten, dass es auf Mars einst Leben gab oder noch immer gibt, doch die unbemannten Sonden, die auf dem Planeten landeten, konnten dies bisher nicht bestätigen.
Selbst wenn Leben in unserem Sonnensystem sich auf unsere Erde beschränkte, könnte es dennoch auf Planeten ferner Sonnen vorkommen. Solche fernen Planeten senden zwar nur sehr wenig Licht aus, verdunkeln jedoch beim Umlauf um ihre Sonne deren Licht. Wir können diese winzigen periodischen Lichtschwankungen vermessen und aus ihnen und anderen Daten nicht nur die Umlaufzeit und die Masse des fernen Planeten, sondern sogar auch die Eigenschaften seiner Atmosphäre ableiten. Astronomen haben bisher mehr als fünfhundert solcher «Exoplaneten» entdeckt. Einige von ihnen könnten Leben tragen, weil sie weder zu weit noch zu nahe um ihre Sonne kreisen. Dies gilt in besonderem Masse für einen der sechs Planeten des roten Zwergsterns Gliese 581. Er ist mehr als 20 Lichtjahre von uns entfernt, so dass unsere derzeitigen Raumfähren ihn erst in etwa 800 000 Jahren erreichen könnten. Da nach heutigem Wissen weder ein Körper noch ein Signal schneller als das Licht reisen können, werden wir derart fernes Leben wohl kaum eindeutig nachweisen können.
Eine einfache Rechnung
Das Wort «nie» ist jedoch der Wissenschaft ebenso fremd wie das Wort «immer». Für die Existenz ausserirdischen Lebens spricht allein schon die immense Zahl ferner Planeten: Wenn unsere Annahmen zutreffen, dass in den uns bekannten 125 Milliarden Galaxien etwa ein Zehntel der Sterne von Planeten umringt ist, gäbe es im Universum etwa 6 mal 10 hoch 18 Planetensysteme – eine Zahl mit 18 Nullen! Sollte auch nur ein Milliardstel dieser Systeme Leben ermöglichen, wären es immer noch 6 Milliarden. Dass die Natur aus ungeordneter Materie Leben schafft, mag unendlich unwahrscheinlich sein, doch wenn sie es unendlich oft versucht, wird dies nicht nur möglich, sondern sogar wahrscheinlich. Es braucht ja nur einen einzigen Erfolg, um den Siegeszug des Lebens zu sichern – und Meteore könnten das Leben dann in den Weiten des Alls verbreiten.
Stammt irdisches Leben von einem anderen Himmelskörper? Wir werden dies wohl erst erfahren, wenn wir es mit ausserirdischem Leben verglichen haben. Ich bin davon überzeugt, dass viele Planeten und Monde des Universums Leben tragen. Ob es sich um komplexe Vielzeller mit überragender Intelligenz, bakterienähnliche Einzeller, Systeme mit exotischen chemischen Eigenschaften oder gar um nichtchemische Systeme handelt, spielt für mich dabei keine Rolle. Für mich wäre der Nachweis ausserirdischen Lebens die aufwühlendste wissenschaftliche Entdeckung aller Zeiten.
Anmerkungen der Redaktion
Weiterführende Links
Diese beiden Videos ( 7' und 9'25") erklären die Techniken, mit der Exoplaneten (Planeten in anderen Sternsystemen) aufgespürt werden und beschreiben die Suche nach extraterrestrischem Leben: Millions of Earths - Exoplaneten und außerirdisches Leben (OmU) Exoplaneten - Die Suche nach der zweiten Erde (deutsch)
Ist Gerechtigkeit eine Kategorie in der Forschungspolitik?
Ist Gerechtigkeit eine Kategorie in der Forschungspolitik?Fr, 15.03.2012- 01:00 — Christoph Kratky
Vor rund zwei Wochen wurde eine langfristige Finanzierung für das Institute of Science and Technology (IST) Austria in Milliarden € Höhe vereinbart. Dies hat einen Sturm der Entrüstung bei anderen, im internationalen Vergleich als exzellent eingestuften Institutionen hervorgerufen, deren Budget reduziert wurde.
Christoph Kratky, Präsident des Fonds zur Förderung der wissenschaftlichen Forschung (FWF), d.i. der zentralen Einrichtung zur Förderung der Grundlagenforschung Österreichs, nimmt dazu Stellung und schreibt über:„Wie sieht eine gerechte Verteilung von Fördermitteln aus? Kann und/oder muss ein Forschungssystem überhaupt „gerecht“ sein?
Wir erleben zurzeit eine heftige Debatte um die Finanzierungszusage für das IST Austria. 1,4 Milliarden Euro für 10 Jahre, und dies zu einer Zeit, in der die Unis darben (trotz fast einer Milliarde Euro mehr für die kommende 3-Jahres-Periode der Leistungsvereinbarungen – aber das System ist bekanntlich unterfinanziert) und in der die Österreichische Akademie der Wissenschaften (ÖAW) mit einem stagnierenden Budget auskommen muss, mit dem nicht einmal die laufenden Kosten aller ihrer Institute abgedeckt sind. Der Chef der Universitärenkonferenz „freut sich für das IST Austria über die Finanzierungszusage, findet aber auch, dass jede Forschungseinrichtung prinzipiell die gleichen finanziellen Möglichkeiten bekommen sollte.“
Die Österreichische Akademie der Wissenschaften (ÖAW) „sieht darin eine völlig ungerechtfertigte Bevorzugung des IST Austria … offensichtlich wird hier mit zweierlei Maß gemessen“ und “wir protestieren nicht aus Neid oder Eifersucht, wir wehren uns gegen die eklatante Ungleichbehandlung und Diskriminierung der Akademie wie jeder anderen Forschungseinrichtung in Österreich, die Spitzenforschung betreibt.“ Man fordert Gleichbehandlung, was für die ÖAW 25 Millionen Euro mehr pro Jahr vom Staat bedeutet.
Auch die weltbekannten Quantenphysiker von der Universität Innsbruck haben sich zu Wort gemeldet: Die Labor-Infrastruktur in Innsbruck leidet eklatant unter dem Zustand der Gebäude. Es gebe keine Räume mehr für den wissenschaftlichen NachwucAhs und von langfristiger Planungssicherheit könne keine Rede sein. Angesichts dessen seien die 1,4 Mrd. Euro für das IST eine dramatische Schieflage in der österreichischen Forschungslandschaft.
Kurzum: der Vertrag zwischen Bund und Land Niederösterreich über den Finanzrahmen für das IST Austria wird von vielen als Provokation empfunden. Man spricht von Ungleichbehandlung und Schieflage. Der Ärger ist verständlich, und die Forderungen sind nachvollziehbar. Unbestreitbar ist auch, dass der Zeitpunkt der Bekanntgabe der Vereinbarung unglücklich gewählt war.
Die Finanzierungszusage an das IST Austria gilt für die Jahre 2017 bis 2026, d.h. für einen Zeitraum, zu dem möglicherweise keiner der zurzeit politisch Verantwortlichen noch im selben Amt sein wird. Bis dahin werden – wenn man den politischen Ankündigungen Glauben schenken darf – 2% des BIP für die tertiäre Bildung und 1% des BIP für die Grundlagenforschung aufgewandt werden. Zurzeit sind die Kassen leider leer, aber 2020 werden Dank umsichtiger Budgetpolitik hier und jetzt Milch und Honig für Bildung und Forschung fließen, und zwar für alle ...
Für sich alleine betrachtet würden vermutlich die meisten – wenn auch zähneknirschend – darin übereinstimmen, dass es richtig sei, eine neu gegründete Forschungseinrichtung dieses Zuschnitts mit einer Finanzperspektive auszustatten, die es ihr ermöglicht, den von Anfang an geplanten Aufbau durchzuziehen. Und auch bei sehr kritischer Betrachtung ist die bisherige Performance des IST Austria – beispielsweise 7 ERC Grants – beeindruckend. Der erste Schwung in der Pionierphase ist ermutigend – ein Versprechen für zukünftige Spitzenleistungen im Bereich der Grundlagenforschung.
Relativierend könnte außerdem hinzugefügt werden, dass der jetzt geschlossene Staatsvertrag zwischen dem Bund und dem Land Niederösterreich lediglich den Finanzrahmen für die Entwicklung des IST Austria festlegt (andernfalls würde sich das Land Niederösterreich kaum darauf einlassen, hunderte Millionen Euro in Neubauten zu investieren). Er beinhaltet noch keine über die laufende Finanzierungsperiode hinausgehenden Finanzzusagen an das IST Austria. Diese werden zur gegebenen Zeit im Rahmen von Leistungsvereinbarungen – nach entsprechenden Evaluierungen – getätigt (kein Mensch zweifelt allerdings daran, dass das Geld am Ende des Tages beim IST Austria landen wird). „Für sich alleine betrachtet“ ist also alles Paletti, wäre da nicht die Sache mit der Gerechtigkeit, beziehungsweise mit der von vielen wahrgenommenen Ungerechtigkeit. Das IST Austria ist ein Wagnis der schwarzblauen Regierung, ursprünglich war von einer „Eliteuniversität“ die Rede, weshalb es von Beginn an mit besonderem Argwohn beäugt wurde. Dennoch sind die von den Quantenoptikern ins Treffen geführte „Schieflage“ und die von der ÖAW beklagte „Ungleichbehandlung“ zweifellos gegeben. Allerdings stellt sich für mich eine Reihe von Fragen, wie beispielsweise:
- Was bedeutet „Gerechtigkeit“? Ist Gerechtigkeit überhaupt eine relevante Kategorie in der Forschungspolitik? Kann und/oder muss ein Forschungssystem „gerecht“ sein?
- Wie sähe es denn aus, so ein (selbst-)gerechtes Forschungssystem? Gibt es im Ausland besonders herausragende Beispiele für „gerechte“ und „ungerechte“ Forschungssysteme?
- Wenn man für Österreich unterstellt, dass irgendeine Form von „Gerechtigkeit“ anzustreben sei, ist es tatsächlich so, dass die „Schieflage“ erst durch die Finanzierungszusage an das IST A entstanden ist?
Es gibt sicher nur wenige Stimmen in der Wissenschaft, die ein Forschungsfinanzierungssystem als „gerecht“ bezeichnen würden, in dem jede Institution (anteilig) gleich viel Geld für Forschung erhält – die berüchtigte „Gießkanne“. Vermutlich wird ein System eher als gerecht erlebt, wenn die Finanzierung von der erbrachten oder erwartbaren Leistung abhängig gemacht wird.
Wie lässt sich Grundlagenforschung bewerten?
Dies führt zwangsläufig zur Frage, worin denn eine „Leistung“ in der Grundlagenforschung (und von ausschließlich dieser schreibe ich hier) besteht. Zweifellos in allererster Linie sind hier Veröffentlichungen in renommierten Fachzeitschriften bzw. deren Zitierungen durch Fachkolleginnen und –kollegen zu nennen. Das ist bibliometrisch einigermaßen erfassbar, allerdings ist ein Vergleich über Disziplinengrenzen hinweg schwierig. Ein oft verwendetes und weniger disziplinen-abhängiges Maß für die Leistungsfähigkeit einer Forschungseinrichtung ist der Erfolg bei der Einwerbung kompetitiv vergebener Drittmittel, etwa von Institutionen wie dem Fonds zur Förderung der wissenschaftlichen Forschung (FWF) oder dem European Research Council (ERC). Beide Fördergeber wenden ein striktes Verfahren zur Qualitätssicherung durch Peer Review an – so vergibt der FWF pro Jahr ca. 170 Millionen Euro auf Basis von etwa 5000 Fachgutachten.
Die österreichischen Universitäten haben für die dreijährige Finanzierungsperiode 2010-2012 gemäß Hochschulbericht ein Grundbudget von 7,888 Milliarden Euro bekommen, 46% davon werden gemäß OECD-Norm als forschungswirksam ausgewiesen. Das sind pro Jahr immerhin gut 1,2 Milliarden Euro für die Forschung an den Universitäten. Dazu kommen als größere Posten noch knapp 100 Millionen für die ÖAW. Wurde dieses Geld in der Vergangenheit „gerecht“ (d.h. abhängig von der erbrachten Forschungsleistung) verteilt? Nimmt man die Einwerbung von FWF-Mitteln als Indikator für die wissenschaftliche Produktivität unserer Forschungsträgereinrichtungen (und es kann natürlich nur ein sehr grobes Maß sein), so stellt man erstaunliche Unterschiede fest. Die Universität Wien hat in den Jahren 2007-2009 ca. 30% ihres für Forschung vorgesehenen Budgetanteils zusätzlich in Form von FWF-Projekten eingeworben, und ist damit absoluter Spitzenreiter. Bei der schwächsten der Forschungsuniversitäten (aus Diskretion nenne ich sie nicht) beträgt dieser Anteil 5%, der Durchschnittswert aller Universitäten liegt bei 16 %. Interessant ist der Vergleich mit der ÖAW: Bei der ÖAW ist selbstredend das gesamte Budget als forschungsrelevant einzustufen (weil sie als Institution keine Lehraufgaben erfüllt), Forscherinnen und Forscher der Akademie haben im zuvor genannten Zeitraum ca. 14% des ÖAW-Grundbudgets zusätzlich beim FWF eingeworben.
Schieflaqen in der Forschungsförderung
Um es auf den Punkt zu bringen: In meinen Augen bestand auch schon in der Vergangenheit eine erhebliche Schieflage in der Zuweisung von Forschungsmitteln an staatlich finanzierte Institutionen im Rahmen der jeweiligen Grundbudgets, welche nicht mit Parametern der Forschungsproduktivität korrespondieren – und kaum jemand hat sich echauffiert. Selbst die ÖAW mit ihrem expliziten Exzellenzanspruch wird diesem – zumindest wenn man die Einwerbung von FWF-Mitteln als Parameter akzeptiert – im Vergleich zu den Universitäten – kaum gerecht, obwohl die von der ÖAW beschäftigten Forscherinnen und Forscher in der Vergangenheit gegenüber ihren Kolleginnen und Kollegen an den Universitäten durchaus privilegierte Rahmenbedingungen hatten (sie mussten und müssen ja keine Lehraufgaben erfüllen). Wohlgemerkt: ich rede von der Forschungsproduktivität der Institutionen insgesamt, natürlich gibt es sowohl an den Universitäten wie an der ÖAW Personen mit herausragenden Forschungsleistungen.
Also: Schieflagen, wohin man sieht. Es scheint, dass wir geneigt sind, den Status quo zu akzeptieren; Änderungen desselben werden aber augenblicklich auf „Gerechtigkeitsgehalt“ analysiert.
Ich gestatte mir eine Randbemerkung in eigener Sache zum Thema Gerechtigkeit: der FWF vergibt zurzeit ca 170 Millionen Euro pro Jahr an Forscherinnen und Forscher an den Universitäten, der ÖAW, dem IST Austria und vielen anderen Einrichtungen. Die Verteilung des Geldes ist – wie oben aufgezeigt – extrem ungleich. Da die Vergabe von FWF-Projekten an eine strenge Qualitätssicherung geknüpft ist und nur die am besten evaluierten Projekte zum Zug kommen, werden die FWF-Mitteln in unserer Wahrnehmung sehr „gerecht“ verteilt. Ein richtiger Schritt in die Richtung „mehr Verteilungsgerechtigkeit“ wäre daher in der Tat eine Erhöhung des kompetitiven Anteils der Forschungsfinanzierung. Dieser ist bei uns im internationalen Vergleich extrem niedrig, und seine Erhöhung ist in der FTI-Strategie der Bundesregierung („Forschung, Technologie und Innovation für Österreich“) auch vorgesehen. Mit Genugtuung konnten wir überdies feststellen, dass auch im Zuge der laufenden Debatte über das IST Austria immer wieder der FWF ins Spiel gebracht wurde; insbesondere die Implementierung des von uns vor einigen Jahren vorgeschlagenen Exzellenzcluster-Programms wurde nachdrücklich eingefordert.
Spitzenforschungseinrichtungen brauchen immens viel Geld, in Österreich und anderswo. Bei begrenzten Mitteln braucht es politischen Mut, einzelne Institutionen finanziell zu privilegieren. Das Beispiel IST Austria zeigt uns aktuell, wie schwierig es ist, diese Debatte zu führen. Ein Vergleich mit unseren beiden Nachbarländern Deutschland und Schweiz ist in diesem Zusammenhang erhellend: In beiden Ländern gibt es Spitzenforschungseinrichtungen, welche finanziell ungleich besser gestellt sind als das übrige Hochschulsystem. In der Schweiz sind dies die beiden Eidgenössischen Technischen Hochschulen (ETHs), in Deutschland u.a. die Institute der Max Planck Gesellschaft (MPG). Es ist kein Zufall, dass sowohl die ETHs als auch die MPG Bundeseinrichtungen sind, wohingegen die Universitäten in beiden Ländern von den Kantonen bzw. den Bundesländern finanziert werden. Natürlich gibt es in beiden Ländern auch eine Gerechtigkeitsdebatte, aber die Finanzierung von Spitzenforschungseinrichtungen aus einem „separaten Topf“ scheint Ungleichheiten erträglicher und politisch leichter vermittelbar zu machen.
Anmerkungen der Redaktion
Der FWF - Fonds zur Förderung der wissenschaftlichen Forschung http://www.fwf.ac.at/- ist Österreichs zentrale Einrichtung zur Förderung der Grundlagenforschung. Er ist allen Wissenschaften in gleicher Weise verpflichtet und orientiert sich in seiner Tätigkeit ausschließlich an den Maßstäben der internationalen Scientific Community. Evaluierung von Projekten durch „internationalen Peer-Review“ - Meinung von einschlägig ausgewiesenen ExpertInnen - bildet die Basis der Qualitätssicherung in allen Förderprogrammen.
Die FFG – Die österreichische Forschungsförderungsgesellschaft http://www.ffg.at/ Ist die nationale Förderstelle für wirtschaftsnahe Forschung ERC - European Research Council
http://erc.europa.eu/ ist eine Institution zur Finanzierung von Grundlagenforschung, die 2006 von der Europäischen Kommission als Teil des spezifischen Programms Ideen im 7. Forschungsrahmenprogramm gegründet wurde. Förderungen werden an junge innovative Forscher, ebenso wie an etablierte Spitzenforscher vergeben, wobei über einen Zeitraum von fünf Jahren insgesamt 670 Millionen Euro zur Verfügung stehen
ÖAW - Österreichische Akademie der Wissenschaften http://www.oeaw.ac.at/ ist die führende Trägerin außeruniversitärer akademischer Forschung mit mehr als 1100 Mitarbeitern. Sie betreibt anwendungsoffene Grundlagenforschung und greift neue, zukunftweisende Forschungsbereiche auf. Als Centers of Excellence müssen sich die Forschungseinrichtungen der ÖAW im internationalen Wettbewerb anhand regelmäßiger Evaluationen bewähren.
IST-Austria- Institute of Science and Technology Austria http://ist.ac.at/de/ ist ein 2009 eröffnetes, nahe Klosterneuburg gelegenes Institut, welches naturwissenschaftliche Grundlagenforschung und Postgraduiertenausbildung betreibt und anstrebt sich zu einem erstklassigen Forschungszentrum zu entwickeln.
Zum Ursprung des Lebens — Konzepte und Diskussionen
Zum Ursprung des Lebens — Konzepte und DiskussionenFr, 16.02.2012- 04:20 — Peter Schuster
Diskussionen über den Ursprung des Lebens – präziser ausgedrückt über den des terrestrischen Lebens – ebenso wie über jenen des Universums, werden in allen unseren Gesellschaften mit großem Interesse verfolgt. Für das letztere Problem existiert ein Standard-Modell, die Urknalltheorie (Big-Bang-Theorie), die sich von einer Extrapolation der Elementarteilchen-Physik auf den Beginn des Universums herleitet.
Nichts Vergleichbares gibt es hingegen, wenn man nach der Entstehung des Lebens fragt. Es konkurrieren zwar viele unterschiedliche Ideen, jedoch bietet keine von ihnen eine ausreichend plausible Erklärung dafür, wie die ersten lebenden Organismen entstanden sein könnten. Es ist ja nicht einmal klar, was unter dem Begriff „Leben“ zu verstehen ist, und mögliche Definitionen sind heftig umstritten.
Wo ist die Grenzlinie zwischen Unbelebtem und Belebtem zu ziehen?
Eine Liste von Kriterien zur Unterscheidung was noch nicht und was schon Leben bedeutet, könnte beispielsweise enthalten
i) Vermehrung und Vererbung
ii) Variation infolge fehlerhafter Reproduktion und Rekombination
iv) Individualisierung durch Einschließen in Kompartimente
v) Selbsterschaffung (Autopoiese) und Selbsterhaltung (Homöostase)
vi) Organisierte Zellteilung (Mitose)
vii) Sexuelle Reproduktion und Reduktions-Zellteilung (Meiose)
viii) Zelldifferenzierung in Zellen der Keimbahn und somatische Zellen
Zur Illustrierung sind in Abbildung 1 einige Beispiele angeführt: Viroide (Krankheitserreger, die aus nur einer ringförmig geschlossenen, einzelsträngigen Ribonukleinsäure bestehen) erfüllen bloß Kriterien i) und ii), Viren nur i), ii) und iv), Bakterien dagegen alle Kriterien von i) bis vi).
An Hand dieser Liste lassen sich sogar Artefakte klassifizieren: Computerviren erfüllen nur Kriterium i), Computerwürmer i) und iv). Interessanterweise genügen die Artefakte mit denen die aktuellen Angriffe auf unsere Computer erfolgen, nicht dem Kriterium ii) – deren Evolution liegt also völlig in der Hand der sie erschaffenden Hacker.
Abbildung 1. Vom Unbelebten zum Belebten
Biologische Evolution – chemische Evolution
Zum Verständnis des Lebens, wie es sich heute darstellt, hat die biologische Evolution immer zwei Aspekte zu berücksichtigen: i) den historischen Aspekt der Entwicklung heutiger Lebensformen aus früheren Spezies und ii) den mechanistischen Aspekt, der erklärt wie der Evolutionsprozeß vor sich geht.
Der geschichtliche Aspekt der Evolution ist gleichzusetzen mit dem Bestand an Fossilien und wie diese interpretiert werden. Dieser Bestand an Fossilien erweist sich allerdings als wertlos, wenn die Frage gestellt wird, wo der Beginn des Lebens anzusetzen ist. Die ältesten Fossilien, deren Ursprung mit höchster Wahrscheinlichkeit ein biologischer ist, sind etwa 3,5 Milliarden Jahre alt und Überbleibsel von Organismen, die den von heutigen Cyanobakterien geformten Stromatolithen entsprechen. Diese ältesten Zeugen des Lebens können jedoch – zumindest nach dem heutigen Wissenstand - keinen Hinweis auf die Wege geben, welche eine vorgelagerte chemische Evolution eingeschlagen hat. Eine historische Beschreibung der Straße, die vom Unbelebten zum Belebten führt, liegt im Bereich der Spekulation und wird es vermutlich auch immer bleiben. Untersuchungen zu Reaktions-Mechanismen, die für Fragen nach dem Ursprung des Lebens als wichtig erachtet werden, können weder falsifiziert noch bestätigt werden, sondern nur als unwahrscheinlich oder plausibel eingestuft werden.
Was war zuerst?
Seit dem 19. Jahrhundert als Alexander Oparin kleine Tröpfchen, die sich spontan aus Fettsäuren und Proteinen im wäßrigen Milieu bilden und sich in weitere Tröpfchen spalten können („coacervates“), als mögliche Vorläufer primitiver Zellen betrachtete, haben Wissenschafter eine beträchtliche Anzahl an Szenarien als mögliche Vorläufer der belebten Welt erstellt. Heute existiert praktisch generelle Übereinstimmung darüber, daß schon primitive Zellen drei essentielle Komponenten aufweisen mußten: Ribonukleinsäuren (RNA oder DNA) als molekulare Basis der Genetik, das Vorhandensein von Stoffwechsel und eine Strukturierung in abgrenzbare Kompartimente. Im wesentlichen wird aber darüber diskutiert, in welcher (zeitlichen) Reihenfolge diese Komponenten entstanden sind. Vereinfacht lassen sich diese Szenarien in drei Klassen einteilen:
i) primär waren genetische Szenarien,
ii) primär waren Szenarien des Stoffwechsels (Metabolismus) und
iii) primär waren Szenarien der räumlichen Abgrenzung (Kompartimentierung)
Alle drei Szenarien weisen Mankos auf in der Erklärung wichtiger Details, wenige Aspekte betreffend den Übergang von einer präbiotischen Chemie zu frühen Lebensformen sind zweifelsfrei. Ein wesentlicher Unterschied in den Szenarien betrifft die Frage, ob der Übergang unbelebt zu belebt autotroph war, das heißt, daß bereits ein präbiotischer Stoffwechsel vorhanden war, der die nötigen Bausteine zur Verfügung stellen konnte oder heterotroph. Im letzteren Fall muß angenommen werden, daß die benötigten Materialien vorerst aus der „Umgebung“ stammten und ein der modernen Biochemie entsprechender Stoffwechsel erst später in frühen Urformen des Lebens entwickelt wurde um von zufälligen Umweltsbedingungen unabhängig zu werden.
Modelle, welche der Genetik die primäre Rolle zuschreiben
Diese Modelle gehen davon aus, daß eine RNA-Welt der gegenwärtigen DNA-RNA-Protein-Welt vorangegangen sein muß. Wie allerdings die ersten RNA-Moleküle unter präbiotischen Bedingungen entstanden sind, ist trotz aktueller Fortschritte in diesem Gebiet noch nicht bekannt. Eine massive Unterstützung erhält die RNA-Welt Hypothese durch die Entdeckung von katalytisch aktiven RNA-Molekülen („Ribozymen“), welche wie Enzyme Reaktionen katalysieren, sich selbst replizieren und dabei der Selektion unterworfen sind. Damit kann in einer RNA-Welt eine Darwin’sche Evolution auch ohne Proteine ihren Anfang nehmen. Ribozyme sind nicht selten und eine breite Palette mit unterschiedlichen katalytischen Funktionen findet sich in unseren Zellen; von besonderem Interesse sind Formen, die in der Prozessierung von Nukleinsäuren und Proteinen eine essentielle Rolle spielen.
Modelle, die eine primäre Rolle dem Vorhandensein eines Metabolismus zuschreiben
Entsprechende Modelle erscheinen sehr attraktiv, da sie vielleicht erklären können, auf welchen Wegen präbiotische Chemie imstande war ein ausreichendes, passendes Reservoir für die abiotische Synthese von Biomolekülen bereitzustellen. Metabolismus, der innerhalb eines abgegrenzten Raums (Kompartiments) stattfindet, anorganische Materialien umsetzt und von einer Energiequelle außerhalb des Raums angetrieben wird, könnte alle notwendigen Bausteine für das Wachstum und die Vermehrung einer Proto-Zelle produzieren und somit autotroph sein.
Die meisten der aktuellen Metabolismus-Modelle basieren auf dem einleuchtenden Argument, daß aus dem enorm vielfältigen Repertoire organischer Moleküle, die unter präbiotischen Bedingungen entstanden sein konnten, in katalytischen Kreisläufen Verlauf Teilmengen von Verbindungen selektiert wurden. Leider fehlen für diese Annahmen experimentelle Beweise und die Existenz größerer katalytischer Zyklen erscheint zumindest fragwürdig. Dies ist insbesondere der Fall bei Zyklen mit vielen Komponenten (wie z.B. dem Citronensäure Zyklus), die offensichtlich ohne katalytisch aktive Proteine nicht auskommen, da ihre einzelnen Schritte mit hoher Spezifität und Effizienz verlaufen müssen um Endprodukte in ausreichender Menge zu produzieren. (Ein Zyklus mit 10 Einzelschritten, von denen jeder mit einer hohen Ausbeute von 80 % erfolgt, bringt eine Ausbeute von nur 11 %!)
Modelle der räumlichen Abgrenzung (Kompartimentierung) an primärer Stelle
Diese Modelle basieren auf der Tatsache, daß amphiphile Moleküle (Moleküle, die wasserabstoßende – hydrophobe – Teile und mit Wasser interagierende – hydrophile – Gruppen besitzen) unter präbiotischen Bedingungen existierten. Derartige Moleküle aggregieren im wäßrigen Milieu, wobei unterschiedliche Aggregate entstehen können: von Micellen, welche die die hydrophoben Teile ins Innere, die hydrophilen Teile an der Grenzfläche mit Wasser ausrichten, bis hin zu Vesikeln, kugelförmige Gestalten, deren wäßriges Inneres durch eine Membran – eine Doppelschicht aus amphiphilen Molekülen- von dem umgebenden wäßrigen Milieu abgetrennt wird. Diese Membranen sind von speziellem Interesse, da sie grundlegende Eigenschaften von Zellmembranen besitzen.
Auf der Basis relativ einfacherer Micellen-artiger Aggregate (Composomen) wurde ein Konzept entwickelt, das deren selbst-verstärkende Bildung und Evolution zum Thema hat (GARD-Modell). Eine Analyse der Composomen-Theorie ergab allerdings, daß derartige Partikel nur beschränkt evolvierbar sind und zwischen Formen iterieren, die bereits unter anfänglichen Bedingungen vorhanden waren.
Auf dem Weg zu künstlichen Zellen
Vor rund einem Jahrzehnt wurde von der Gruppe um Jack Szostak ein Programm zur Synthese artifizieller Zellen (Protocells) vorgeschlagen, welche die wesentlichen Eigenschaften die „Leben“ charakterisieren, besitzen sollten. Die grundlegende Idee war, genetisches Material in Vesikel einzuschließen, welches die Replikation ermöglichen und zur damit assoziierten Teilung der Vesikel führen sollte (entsprechend der am Beginn des Artikels angeführten Kriterien würden Protocells i), ii) und iv) erfüllen). Inzwischen wurde eine breite Palette an Protocells erzeugt, die erfolgreich unterschiedliche Funktionen des „frühen Lebens“ simulieren. In Lipidvesikeln lassen sich zunehmend kompliziertere Prozesse ausführen, wie die Umschreibung (Translation) von RNA in Proteine oder cyclisch ablaufende Stoffwechselvorgänge (entsprechend Kriterium iii)). Die kürzlich gezeigte Aufnahme von Nukleotiden (Bausteinen der Nuleinsäuren) in derartige Lipidvesikel und deren dort erfolgender Einbau in genetische Polymere stellt einen ‘proof of concept’ dar für die Vorstellung eines heterotrophen Ursprungs der ersten Zellen.
Evolution des Metabolismus
Information darüber, wie sich nach einem Beginn über eine RNA-Welt der Metabolismus entwickelt hat, kann auf einfachere Weise erhalten werden. Ein aktueller Ansatz beruht auf der vergleichenden Analyse der Genome („comparative genomics“) und Strukturen von Proteinen: Die Prüfung evolutionärer Verwandschaften („Phylogenomics“) von Protein-Architekturen zeigt die zeitliche Reihenfolge auf, in welcher die in heutigen Metabolismus-Netzwerken agierenden Module aufgetreten sind. Aus diesen Untersuchungen kann geschlossen werden, daß die erste „Übernahme“ präbiotischer Chemie durch enzymatische Katalyse mit der Synthese der Nukleotide für die RNA-Welt erfolgte. Weitere „Übernahmen“ betrafen Stoffwechselwege, die zu Aminosäuren, Kohlehydraten und zu Lipiden führten. Auf diese Anfangsphasen folgte eine schnelle Entwicklung zu den Proteinen der drei großen Reiche der Lebewesen (kingdoms of life): der Eubakterien, Archäbakterien und Eukaryoten.
Befunde aus den phylogenomischen Untersuchungen sprechen (ebenso wie die oben erwähnten Protocell-Vesikel-Modelle) für einen Ursprung des Lebens auf heterotropher Basis: molekulare Bausteine dürften ja auf der prebiotischen Erde vorhanden gewesen sein, und Urzellen konnten diese inkorporieren. Es scheint auch einfacher zu sein, Selektivität für die Inkorporierung der „richtigen“ Moleküle aufzuweisen als die präbiotische Chemie so zu lenken, daß nur benötigte Moleküle entstehen. In jedem Falls mußten aber die „richtigen“ Moleküle in der „Ursuppe“ angereichert vorliegen.
Ausblick
Den pessimististischen Äußerungen von Gegnern eines natürlichen Ursprungs des Lebens zum Trotz, existiert bereits eine eindrucksvolle Sammlung von Befunden, die alle für eine konkrete Reihenfolge von präbiotischen Ereignissen sprechen und von Prozessen, die über Netzwerke dynamisch verknüpfter kleiner Moleküle und amphiphiler Moleküle zu biologischen Makromolekülen führten, zu Kompartiments und schließlich zur Urzelle. Wie die lebende Urzelle entstanden ist, kann zwar keines der vorgeschlagenen Szenarien für sich allein erklären, wohl ist dies aber bei deren Kombination plausibel.
Beginnend von einer RNA-Welt, die sich im Inneren von Vesikeln befand und der Darwinschen Evolution unterworfen war, vermochte sehr wohl eine Entwicklung zu starten hin zu moderner Biochemie, welche auf DNA, RNA und Protein basiert, ebenso wie auf dem bekannten Protein-katalysierten Metabolismus. Zur Zeit stellt dieses Konzept noch ein unvollständiges Puzzle dar mit einer Reihe fehlender Teile. Zur Vervollständigung bedarf es außer experimentellen Untersuchungen auch einer neuen umfassenden Theorie chemischer Systeme, welche eine direkte Analyse dynamischer Netzwerke (Netzwerke, die sich zeitlich verändern) erlaubt.
Anmerkungen der Redaktion
Anstelle eines Glossars und detaillierter Literaturangaben (die für die meisten Leser wohl kaum zugänglich sind):
- VIDEO: Entstehung des Lebens – Abiogenese (10 minütige Diashow in deutsch; dies ist eine Übersetzung von The Origin of Life - Abiogenesis - (darunter) Dr. Jack Szostak und der erste Teil der “Origin Series“, von der es weitere Folgen gibt u.a. zu „Origin of the Genetic Code“, „Origin of Intelligence“, „Origin of the Brain“)
- Webseite von Jack Szostak (Nobelpreis für Physiologie/Medizin 2009). Auf dieser Seite gibt es sehr einfache, hübsche Beschreibungen der Vesikel, die zur Protocell führen sollen, dazu einige kurze Movies und insbesondere den link auf ExploringOrigins.org, welcher eine Serie weiterführender links bietet (origins of life, RNA World, und insbesondere Building a protocell)
Zur Krise der Pharmazeutischen Industrie
Zur Krise der Pharmazeutischen IndustrieFr, 08.03.2012 - 00:00 — Inge Schuster
Die Pharmazeutische Industrie ist zunehmend mit Problemen konfrontiert, für deren Lösung sie (noch) keine adäquaten Strategien entwickelt hat; vor allem ist es der Umstand, daß trotz enorm steigender Aufwendungen die Produktivität - d.h. die jährlich registrierte Zahl an neuen Medikamenten - sinkt.
Wo steht die Pharmazeutische Industrie?
Die Pharmazeutische Industrie (kurz: Pharma) zählt zu den weltweit größten, innovativsten und erfolgreichsten Branchen. Im letzten Jahrzehnt konnte sie ihren globalen Umsatz mehr als verdoppeln – von 423 Mrd $ im Jahr 2002 auf 856 Mrd $ im Jahr 2010 – und weiteres Wachstum auf 1,1 Billionen $ wird bis 2014 erwartet. Im Jahr 2010 wurden rund 42 % des Umsatzes in Nord-Amerika erzielt, etwa 29 % in Europa.
Weltweit ist Pharma Arbeitgeber für mehrere Millionen Menschen – davon finden sich bereits rund eine Million in den Top 10 Pharma-Konzernen – und ein Mehrfaches an zusätzlichen JAAobs hängt indirekt von Pharma ab. In Europa bietet Pharma Beschäftigung für 640 000 Personen, wobei ein überdurchschnittlich hoher Anteil aus Wissenschaftern verschiedenster Disziplinen und technischem Fachkräften besteht. Der Bedarf an hochqualifizierten Beschäftigten spiegelt sich in den Ausgaben für Forschung und Entwicklung (F&E) wider: Mit rund 27 Milliarden € – d.s. im Schnitt 15,9 % des Nettogewinns – rangiert Pharma in Europa weit vor allen anderen forschungsintensiven Sparten; für die an zweiter Stelle gereihte Computer-Branche werden 9,9 % des Nettogewinns aufgewandt.
Die hohen Investitionen in F&E haben sich bis jetzt als besonders gewinnbringend erwiesen: Verglichen mit anderen Hochtechnologie-Sparten liegt Pharma auch in Hinblick auf den positiven Beitrag zur EU27-Handelsbilanz mit rund 47 Milliarden € an der Spitze.
Der wirtschaftliche Erfolg von Pharma ist unmittelbares Ergebnis von auf Forschung basierender Innovation. Seit den Anfängen pharmazeutischer Forschung vor rund 100 Jahren wurden unbestreitbare Durchbrüche in der Therapie vieler ehemals fatal ausgehender Erkrankungen erzielt und damit entscheidend zu besserer Lebensqualität und einer beinahe verdoppelten Lebenserwartung beigetragen. Krankheiten, die noch in der Mitte des vorigen Jahrhunderts viele Opfer forderten, wie beispielsweise Tuberkulose, Kinderlähmung, Diphterie, Scharlach sind bei uns sehr selten geworden, chronische Krankheiten (z.B.Herz-Kreislauferkrankungen, metabolische Erkrankungen, etc.) führen nicht mehr zu einer verkürzten Lebenserwartung, Fortschritte wurden auch bei einer Reihe maligner Tumorerkrankungen erzielt (vor allem bei Brustkrebs, Prostatakrebs und einigen Leukämieformen).
Wenn zur Zeit bei uns auch bereits mehr als 10 000 Medikamente zugelassen sind, so besteht doch ein enormer Bedarf an neuen Wirkstoffen für ein sehr weites Spektrum von noch überhaupt nicht oder nur unzureichend behandelbaren, schweren Erkrankungen. Für maligne Tumoren beispielsweise der Lunge, der Bauchspeicheldrüse, der Speiseröhre oder des Gehirns gibt es bis jetzt gibt es keine effiziente Therapie, ebensowenig für degenerative Erkrankungen des Nervensystems (z.B. Alzheimer-, Parkinson-Krankheit) oder für viele Defekte des Immunsystems. Es kann also auf weitergehende Forschung und Entwicklung in Pharma nicht verzichtet werden.
Wieso kommt es zu einer Krise in Pharma?
Bei oberflächlicher Betrachtung erfüllt die Pharma-Branche alle Kriterien, welche erfolgreichste Unternehmungen aufweisen: sie ist privat-finanziert, hoch innovativ, weist über Dekaden solidestes wirtschaftliches Wachstum auf und – vor allem – sie erzeugt Produkte, die für Gesundheit und Wohlergehen der gesamten Menschheit essentiell sind und für welche daher ein enormer Bedarf und ein geradezu gigantischer Markt besteht.
Dennoch steht Pharma nun weltweit vor einer der größten Herausforderungen seit ihrem Bestehen. Diese Herausforderung ist nur zum Teil durch die aktuelle Wirtschaftskrise bedingt. Wesentlich wichtiger erscheint die Frage, ob und durch welche Maßnahmen die zur Zeit sehr niedrige Effizienz des Forschungs- und Entwicklungsprozesses gesteigert werden kann.
Der Forschungs- und- Entwicklungsprozeß – langdauernd, sehr riskant, extrem teuer
Während der letzten Jahrzehnte ist der zu neuen Medikamenten führende F&E-Pozeß immer riskanter und teurer geworden und dauert immer länger. Während 1975, 1987, und 2001 die Kosten rund 138, 318 und 802 Millionen $ betrugen, müssen heute bereits bis zu 1,9 Milliarden $ aufgewandt werden. Um heute ein neuartiges Medikament auf den Markt zu bringen, ist vom Beginn der Untersuchungen an eine Zeitspanne von 13 – 15 Jahren einzukalkulieren, von mehr als 10 000 eingangs geprüften Verbindungen erreicht vielleicht eine den Markt. Um zu verdeutlichen, warum der F&E-Prozeß so lange dauert und derartig hohe Kosten verursacht, soll dieser in seinen Abschnitten kurz beschrieben werden:
- Der F&E Prozeß beginnt mit der präklinischen Phase. Diese dauert rund 6 Jahre, benötigt eine Reihe von biologischen und chemischen Laborkapazitäten und verschlingt rund ein Viertel der Gesamtkosten. Im ersten Abschnitt, der Forschungsphase, werden vorerst für eine zu behandelnde Krankheit Ansatzpunkte („Targets“) gesucht, deren Modulierung eine Besserung/Heilung des Krankheitsbildes verspricht. (Diese Targets sind zumeist Proteine, welche häufig auf Grund der unterschiedlichen Expression von Genen und/oder Proteinen in gesundem versus krankem Gewebe eruiert werden.) Kann ein geeignetes Target ermittelt werden, so erfolgt die Suche nach spezifischen Modulatoren für dieses Target durch Austesten von sehr großen Ensembles unterschiedlicher chemischer Verbindungen. Eine darauffolgende Optimierung passender Moleküle hinsichtlich angestrebter Wirkung und voraussichtlichem Verhalten im menschlichen Organismus resultiert schließlich in Entwicklungskandidaten. Diese treten in die präklinische Entwicklungsphase, in welcher in geeigneten Tiermodellen auf Wirksamkeit und Fehlen von toxischen Nebenerscheinungen geprüft wird. Kandidaten, die diese Phase erfolgreich bestehen, treten in die
- Klinische Entwicklung. Diese Phase besteht aus drei Abschnitten: i) Testung des Entwicklungs-Kandidaten an einer kleinen Gruppe gesunder Freiwilliger, ii) Testung an mehreren hundert Patienten, iii) Multi-Center Studien an bis zu 10 000 Patienten. Die klinische Entwicklung benötigt bis zu sieben Jahre und rund 60 % der Gesamtkosten. Falls diese Phase erfolgreich verläuft, d.h erwünschte Wirksamkeit an Patienten gezeigt werden kann und im Vergleich dazu vernachlässigbare Nebenwirkungen, gelangt das Präparat in die
- Registrierungsphase. Hier wird die sehr umfangreiche Dokumentation über ein erfolgreiches Präparat bei den Behörden eingereicht. Die Evaluierung, die im Schnitt rund 1,5 Jahre dauert, schließt im günstigen Fall mit der Registrierung des Produkts ab.
Allerdings schaffen es nur die wenigsten Kandidaten bis zu diesem Ziel. Bereits in der Präklinik werden die meisten Projekte wieder aufgegeben. Von Kandidaten, die es bis in die Klinik schaffen, fallen bis zu 95 % durch, der Großteil davon im zweiten Abschnitt, wenn das Präparat erstmals an einer größeren Zahl an Patienten geprüft wird und es sich dabei als zu wenig wirksam und/oder als zu toxisch herausstellt. Zu diesem Zeitpunkt sind dann bereits mehrere 100 Millionen $ erfolglos aufgewendet worden.
Blockbuster und Generika
Wenn nun ein neues Medikament nach rund 13 – 15 Jahren F&E den Markt erreicht, bleibt nur noch eine kurze Zeitspanne, in der es gewinnbringend verkauft werden kann: Patente erlöschen nach 20 Jahren und dann können beliebige Hersteller recht billig Kopien des Medikaments – sogenannte Generika – herstellen und verkaufen, da sie nicht den extrem teuren F&E Prozeß durchlaufen müssen. Mit den stark zunehmenden Kosten der Gesundheitssysteme aller Länder steigt die Attraktivität der Generika; diese nehmen in vielen Ländern bereits ein beträchtliches Volumen der insgesamt verschriebenen Medikamente ein.
Es erscheint verständlich, daß sich der Preis eines neuen Medikaments an der durch das Patent noch geschützten Zeitspanne und der geschätzten Zahl an Patienten orientiert. Um in der verhältnismäßig kurzen Zeitspanne die F&E Kosten zu lukrieren, waren Firmen bestrebt sogenannte Blockbuster zu kreieren, d.h. Medikamente, die jährlich mehr als 1 Milliarde $ einbringen. Dies sind auf der einen Seite Medikamente – wie z.B. für Indikationen von Herz-Kreislauferkrankungen oder Lipidstoffwechsel-Störungen – für die es mehrere Millionen „Kunden“ gibt, aber auch Medikamente für sehr seltene Erkrankungen mit nur wenigen tausend Patienten, deren Anwendung dann bis zu 409 000 $ im Jahr (Soliris; 8000 Patienten mit paroxysmal nocturnal hemoglobinuria) kostet. Allerdings können 7 - 8 von 10 neu eingeführten Medikamenten die Gestehungskosten bei weitem nicht einbringen und ihre Entwicklung muß daher von den Blockbustern getragen werden.
Probleme in Pharma
Eines der wichtigsten ungelösten Probleme: Während - wie bereits erwähnt - die Ausgaben für F&E seit den 70er Jahren auf das mehr als 10-fache gestiegen sind, ist die Produktivität, d.h. die jährliche Ausbeute an neuen Medikamenten gesunken. Gemessen am Pool präklinischer Kandidaten, die in die klinische Prüfung eintreten, sind die „pipelines“ zwar voller geworden, jedoch stiegen die Ausfallsraten in den klinischen Phasen noch wesentlich stärker. Die Wahrscheinlichkeit eines Präparats, das am Anfang der klinischen Prüfung steht, zur Marktreife zu kommen, ist von 10 % im Jahr 2002 auf 5 % im Jahr 2008 gesunken.
Ein weiteres Problem: das Ende der Blockbuster Ära? Im Jahr 2009 gab es 125 Blockbuster, die rund 300 Milliarden $ einbrachten (d.i. mehr als 1/3 des globalen Medikamenten-Umsatzes). Bei einer Reihe gerade der gewinnträchtigsten Blockbuster erlöschen nun die Patente und sie werden durch billige Generika ersetzt. Entsprechende Umsatzrückgänge bis 2016 werden mit rund 130 Milliarden $ eingeschätzt. Bei Pharma-Giganten wie z.B. Pfizer oder AstraZeneca sind rund 40 % des Umsatzes von diesem Rückgang betroffen. Ein entsprechender Ersatz durch neue Blockbuster ist (noch) nicht in Sicht.
Wie reagieren nun die Konzerne: Sie fusionieren, vergrößern damit die pipeline der Substanzen, lassen weniger erfolgversprechende Gebiete auf und reduzieren Duplizitäten. Im letzten Jahrzehnt entstanden aus insgesamt rund 50 großen Pharma-Firmen 10 Pharma-Multis, gleichzeitig wurden zahlreiche durchaus erfolgreiche Institutionen geschlossen und es gingen 300.000 Jobs verloren. Das Schließen von Einrichtungen in Europa und zum Teil auch in den USA wurde kompensiert durch die Verlagerung von Einrichtungen nach China, Indien, Süd-Korea – Länder, die in den letzten Jahren höchstes Wachstum am Pharma-Markt aufwiesen, hochqualifiziertes Personal bereitstellen, dabei aber billig produzieren.
Was noch dazu kommt: Infolge der Wirtschaftskrise und der Sparmaßnahmen in Europa wird nicht nur bei den Medikamentenkosten gespart und verstärkt auf Generika umgestellt, einige Länder schulden der Pharmaindustrie für Medikamentenlieferungen insgesamt 13 - 15 Milliarden € (Spanien als größter Schuldner 6,34 Milliarden € ). Es wächst die Besorgnis, daß diese Schulden nicht mehr bezahlt werden können.
Pharma ist zur Zeit mit diesen und weiteren Problemen konfrontiert und hat wenige erfolgversprechende Strategien zu deren Lösung aufzuweisen.
Anmerkungen der Redaktion
Weiterführende Information
Wesentliche Informationen und Daten in diesem Artikel stammen aus frei zugänglichen Quellen:
Pharmaceuticals & Biotech Industry Global Report — 2011 Transformation of the Pharmaceutical industry –mergers, acquisitions, outsourcing, patent expiration, price cuts, growing regulatory pressures . . . (PDF Download)
The Big Pharma Recession Survey 2011 “Recently a number of high profile pharmaceutical companies have announced significant job cuts and many pharmaceutical professionals feel uncertain about their job stability in 2012”
EFPIA - The Pharmaceutical Industry in Figures. Key data – 2011 update Global trends and the European market.
(Eurostat, External and intra-European Union trade, Monthly statistics – Link derzeit broken)
sowie dieses Video der VFA: MISSION MEDIKAMENT: Forscher im Einsatz für die beste Medizin
Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen Nase
Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen NaseFr, 09.02.2012- 04:20 — Wolfgang Knoll
Im Teil 2 „Aufbau und Funktion physiologischer Geruchssensoren“ (Science-Blog, 26. Jänner 2012) wurde ein Bild der biologischen Vorgänge bei der Geruchsempfindung beschrieben, vor allem die molekularen Prozesse der Erkennung und Bindung der Geruchsstoffe und Pheromone, sowie die nachgeschalteten enzymatischen Verstärkungskaskaden. Auf dieser Basis definiert sich der Raum, in dem die Ansätze für eine biomimetische Geruchs- (und Geschmacks-) Sensorik angesiedelt werden müssen.
Komponenten einer biomimetischen Nase
Zentrales Element ist offensichtlich eine Membran nach dem Vorbild der natürlichen Lipid Doppelschicht (lipid bilayer) der Zellmembran. Diese Membran muß
i) für technische Anwendungen robust sein,
ii) durch eine Reihe unterschiedlicher funktioneller Komponenten, also mittels Einbau von Membranproteinen für die verschiedenen Schritte im Reaktionsablauf bei der Geruchserkennung (olfaktorische Sensorik) fit gemacht werden und
iii) es letztendlich erlauben, bei Bindung eines Duftstoffes ein entsprechend ausgelöstes, elektrisches Signal zu detektieren. Auch wenn im Moment kein Labor der Welt in der Lage ist, auch nur annähernd die Komplexität der Riechzellen- Membran, sei es auch nur in der vereinfachten, in Teil 2 (Abb. 4) diskutierten Version, nachzubauen, so sind bereits einzelne Schritte der Reaktionskaskade realisiert worden. Auf Basis dieser im Folgenden beschriebenen Ergebnisse erscheint es durchaus vorstellbar, dass wir das Ziel einer künstlichen biomimetischen Nase erreichen können.
Die einfachste biomimetische Architektur, die als zentrales Matrix-Element die Reaktionskette bei der Geruchsrezeption nachzustellen erlaubt, ist eine immobilisierte Lipid Doppelschicht Membran („tethered Bilayer Lipid Membran“: tBLM). Eine der verschiedenen, in der Literatur beschriebenen Ausführungsformen ist eine auf einem Polymer-Kissen, einem weichen Hydrogel, immobilisierte Lipid-Doppelschicht, welche durch den Einbau eines Geruchsrezeptors für die Erkennung und Bindung eines Geruchsstoffes funktionalisiert wurde (Abbildung 5). (Geruchsrezeptoren sind GPCR-Proteine, die mit 7 durch die Membran reichenden helikalen Peptidsequenzen charakterisiert sind. Beschreibung: ScienceBlog, 5. Jänner 2012, „Wie wir die Welt um uns herum wahrnehmen“)
Abbildung 5: Auf einem festen Substrat, welches auch als Transducer/ Elektrode fungiert, wird über einen Abstandshalter/Verknüpfer (Spacer/Tether) eine sog. tethered Lipid Bilayer Membrane (tBLM) immobilisiert und durch den Einbau eines Geruchsrezeptors funktionalisiert, was die Bindung eines Duftstoffes, hier: Lilial, zu detektieren erlauben muß.
Diese Grund-Architektur kann tatsächlich sehr einfach, reproduzierbar und robust hergestellt werden (Abbildung 6): Ein fester Träger, in diesem Fall ein mit Gold (Au) beschichtetes Glassubstrat, wird in eine Lösung eines Thiol-Lipid Derivats (siehe Glossar) getaucht, was zur spontanen Bildung einer über einen Abstandshalter immobilisierten Lipid-Monoschicht (Lipid-Monolayer) führt. Taucht man nun diesen mit einer Lipid-Monolage beschichteten Träger in eine wässrige Dispersion von Lipid-Vesikeln (kleine geschlossene Lipid-Doppelschicht-Kugeln), kommt es wieder zu einem spontanen Prozess, nämlich der Fusion einiger Vesikel mit der immobilisierten Lipid Monolayer, der zu einer zuverlässigen Präparation der gewünschten tBLMs führt.
Abbildung 6: Aufbau einer tBLM durch Self-Assembly eines Thiol-Lipid-Derivates, welches spontan zur Bildung einer tethered Lipid-Monoschicht am Gold (Au)-Substrat führt. Diese Monolage wird durch Vesikel Fusion aus einer wässrigen Dispersion zur tethered Lipid-Doppelschicht, einer Festkörper-gestützten Membran erweitert, welche durch den Einbau von Proteinen funktionalisiert werden kann.
Qualitätskriterien der immobilisierten Lipid Doppelschicht Membran
Die erhaltenen Membranen erweisen sich als sehr stabil (in einer Flüssigkeitszelle in wässriger Lösung liegt unser persönlicher Rekord bei einer Stabilität von über 7 Monaten). Wichtige Qualitätskriterien bei der Bewertung ihrer Tauglichkeit für sensorische Anwendungen allgemein, besonders aber für den Einbau und die elektrische Auslesbarkeit von Ionen–Kanälen, sind die Fluidität und die elektrische Dichtigkeit der Membranen.
Fluidität (genauer: die laterale Beweglichkeit der die Membran aufbauenden Lipide): Messungen mit einer aus der Membran-Biophysik bekannten Methode, dem „Fluorescence Recovery after Photobleaching“ (FRAP), zeigten eine fluide Membran an, wenn auch - abhängig von der Dichte an Anker-Lipiden (welche für die Immobilisierung an das Substrat verantwortlich sind) - eine Reduktion der lateralen Beweglichkeit gegenüber der freien lateralen Diffusion der Lipide in einem Vesikel gefunden wurde. Die Fluidität der Membran wurde auch durch Daten mit einem Ionen-Carrier, Valinomycin, bestätigt, dessen molekularer Mechanismus für den Ionentransports über die Membran - als bewegliches Shuttle - eine entsprechende Fluidität der Lipid Matrix voraussetzt.
Elektrische Dichtigkeit (Permeabilität für Ionen). Mindestens ebenso wichtig wie die Beobachtung, dass wir mit unserer Methode eine stabile und fluide Membran aufbauen können, war der Befund, dass diese Festkörper-gestützten Membranen in Hinblick auf die elektrische Dichtigkeit das beste bisher bekannte Modell-Membran System, die Black Lipid Membranes, sogar noch übertreffen. (Man kann spekulieren, dass diese geringe Permeabilität für Ionen direkt mit der Fluidität der Membran korreliert: ein dünner Flüssigkeitsfilm hat per Definition keine Löcher (aber natürlich laterale Dichtefluktuationen…)). Die gefundenen Werte für die elektrische Dichtigkeit der reinen Lipid-Doppelschicht mit einem spezifischen Widerstand besser als 10 Megaohm x cm² erlauben die Beobachtung des Öffnens und Schließens von einzelnen Kanal-Proteinen mit Strom-Inkrementen von 10 pA (s.u.).
Funktionalisieren der immobilisierten Lipid Doppelschicht Membran
Durch den Einbau von Membranproteinen wird eine solche Lipid Matrix für die verschiedenen grundlegenden Untersuchungen im Rahmen biophysikalischer Fragestellungen funktionalisiert und damit auch für praktische Anwendungen in der Bio-Medizin oder eben in der Sensorik fit gemacht. Im Prinzip laufen auch diese Prozesse spontan ab, jedoch gibt es Prozess-bedingte Barrieren. Das manifestiert sich schon bei einfacheren Membran-Proteinen, die im Normalfall aus einer biologischen Membran herausgelöst (solubilisiert) werden müssen, um dann aufgereinigt wieder in die künstliche Membran eingebaut (rekonstituiert) zu werden. Auch wenn man bei diesen Prozessen auf eine jahrzehntelange Erfahrung aus der Membran-Biophysik zurückgreifen kann, ist doch ein Element der Magie oder zumindest eine künstlerische Komponente dabei. Dennoch gelang es im Laufe der Jahre eine ganze Reihe von Proteinen selbst oder in Kooperation mit biologisch arbeitenden Gruppen einzubauen und zu charakterisieren.
Die Quantifizierung der Eigenschaften der Lipid-Protein-Verbundmatrix geht immer dann besonders gut, wenn es sich um elektrogene (elektrische Spannung erzeugende) Prozesse handelt. Neben fast trivialen Experimenten mit Ionen-Carriern, wie z.B. Valinomycin (s.o.), seien hier einige Beispiele von in unserer Gruppe bearbeiteten Systemen angesprochen:
A0A1-ATPase - Membran: in Zusammenarbeit mit Prof. Peter Gräber (Albert-Ludwigs-Universität, Freiburg/Breisgau) konnte gezeigt werden, dass das System in der Lage ist, nach Zugabe von ATP als Energie-Quelle Protonen über die (tethered) Membran zu pumpen. Die enzymatische Aktivität der eingebauten ATPase konnte durch die anschließende elektrochemische Reduktion der transportierten Protonen quantifiziert werden.
Redox-Proteine – Membran: Der Einbau der Cytochrom c Oxidase erlaubte mit Hilfe elektrochemischer Methoden eine äußerst detaillierte Analyse der heterogenen Elektronen-Transfer-Prozesse von der Elektrode (als welche das Gold-beschichtete Substrat eingesetzt werden konnte) zu den vier Redox-Zentren des Proteins (heme a, heme a3, CuA, CuB) durchzuführen, und zwar als Funktion von pH und Temperatur, sowie unter aeroben als auch unter anaeroben Bedingungen. (Cytochrom C Oxidase wurde von den Forschungsgruppen um Prof. Robert B. Gennis, University of Illinois/Urbana und Prof. Shelagh M. Ferguson-Miller, Michigan State University/East Lansing zur Verfügung gestellt.)
Geruchsrezeptor – Membran: Eine Spezialität unserer Gruppe sind spektroskopische Methoden, die es erlauben wichtige Aussagen zur Korrelation von Struktur und Funktion von Membran-integrierten Proteinen zu erarbeiten (die höchst-auflösende sog. surface-enhanced infrared reflection-absorption spectroscopy (SEIRRAS) und die surface-enhanced resonance Raman spectroscopy (SERRS), stationär oder zeitaufgelöst (mit einer Zeitauflösung von besser als 100 µs)). Dies ist vor allem auch bei Systemen und Prozessen, wie z.B. der Bindung eines Geruchsstoffes an einen Membranrezeptor, von Bedeutung, die nicht unmittelbar zu einer elektrogenen Antwort - also dem Transfer von Ladungen über die Membran - führen (welcher elektrochemisch mittels Impedanzspektroskopie beobachtbar wäre). Ein Beispiel ist in Abbildung 7 gezeigt. In Zusammenarbeit mit Prof. Eva Sinner und ihrem Team konnten wir die Bindung des Geruchsstoffes Lilial, einem kleinen hydrophoben Molekül, an seinen Rezeptor, eingebaut in eine tethered Membran verfolgen und quantifizieren (dies durch die Aufnahme der zeitlichen Änderung einiger Banden). Abbildung 7: Zeitliche Abfolge der Infrarot-Spektren im Spektralbereich der Amide I und Amide II Banden (SEIRRAS Daten), aufgenommen in Abständen von einer Minute nach Zugabe einer 1 µM Lösung des Duftstoffes Lilial zu einer mit einem Geruchsrezeptor (OR5 der Ratte) funktionalisierten tethered membrane (Zusammenarbeit mit Prof. Eva Sinner, Universität für Bodenkultur/Wien, früher MPI für Polymerforschung/Mainz).
Mit den beschriebenen Untersuchungen hat man also einen ersten direkten experimentellen Zugang zur Quantifizierung bislang unbekannter Prozess-Parameter von Membranrezeptoren und ihren aus Lösung bindenden Liganden in der Hand, wie der Geschwindigkeit von Bindung und Loslösung (Assoziations- und Dissoziationsraten), der Festigkeit der Bindung (Affinitätskonstante),etc Dies ist ein wichtiger Schritt für die physikalisch-chemische Charakterisierung der Elementarprozesse bei der Geruchsrezeption, es ist aber auch ein Schritt hin zum Design von künstlichen Geruchssensoren auf der Basis biomimetischer Prozesse.
Eine Strukturänderung, aber auch eine bloße Umorientierung des Membranproteins infolge der Bindung des Duftstoffs an seinen Rezeptor kann sowohl zu einer Zunahme als auch zu einer Abnahme der Intensität einzelner Banden führen. Die signifikante Änderung von Infrarot-Banden im Beispiel der Bindung von Lilial an den Geruchs-Rezeptor OR5 (Abb. 7), könnte darauf hinweisen, dass sich bei der Reaktion (auch) einige der transmembranen Helizes des Rezeptors in ihrer Orientierung ändern und damit die gemessene IR- Bandensignatur beeinflussen. (Eine damit einhergehende und experimentell elektrochemisch nachweisbare Änderung der entsprechenden Dipolmomente steht zur Zeit noch aus.)
Ein nächster Schritt zum Design von Geruchssensoren
Die Konstruktion der tBLM und das damit erreichte und dokumentierte Eigenschaftsprofil sollten es erlauben, die Möglichkeit der elektrischen/elektrochemischen Detektion der Bindung von Geruchsstoffen an ihren Membran-Rezeptor im Hinblick auf die Entwicklung von Sensoren auszuloten und zu validieren. Die bereits angesprochene hervorragende elektrische Dichtigkeit der tBLMs - die Grundlage dafür, dass wir nur Hintergrundströme im Bereich von pA vorliegen haben - ermöglicht es alle sonstigen elektrogenen Prozesse mit hoher Empfindlichkeit zu detektieren. Dies ist am Beispiel des muscarinischen Acetylcholin-Rezeptors demonstriert (Abbildungen 8 und 9). Abbildung 8: Experimenteller Aufbau zur empfindlichen Messung elektrischer/elektrochemischer Prozesse an tBLMs. Die einzelnen Gold- beschichteten Sensor- Pads (100x100 µm²) sind die Basis- (Working-) Elektroden, auf denen die Lipid-Doppelschichten präpariert wurden. Hier sind sie mit einigen wenigen Poren, dem inneren Kanal-Fragment des Acetylcholine-Rezeptors, funktionalisiert worden. In die darüber liegende Elektrolytschicht taucht die Gegen-Elektrode (Ag/AgCl- Silber/Silberchlorid) ein. Diese ist an einen Patch-clamp Verstärker zur rauscharmen Messung der Stromfluktuationen, welche durch die stochastisch öffnenden Kanäle verursacht wird, angeschlossen.
Hier kann das statistische Öffnen und Schließen eines einzelnen Kanal-Protein- Fragmentes des M2 muscarinischen Acetylcholine Rezeptors gezeigt werden (Abbildung 9). Nachdem das an die Gold(Au)-Basiselektrode angelegte Potential von 0 auf + 100 mV geschaltet wurde, zeigt der abnehmende Strom die Umverteilung der positiven und negativen Ionen im räumlich sehr beschränkten wässrigen Spalt zwischen der Elektrode und der Membran (Spacer/Tether Schicht: siehe Abb. 5 und 6): Wie Simulationsrechnungen gezeigt haben, wird dabei z.B die Kaliumionen Konzentration von zunächst 100 mM im Spalt auf 85 mM im stationären Zustand erniedrigt. Das sich dabei aufbauende elektrochemische Gegenpotential reduziert die an der Membran anliegende Spannung von 100 mV bis auf wenige 10 mV, was zu der beobachteten Abnahme des Stromes über die Membran führt. Entscheidend ist aber, dass diesem sehr niedrigen Hintergrund Fluktuationen von spontanen Stromänderungen im Bereich von wenigen pA überlagert sind, die dem stochastischen Öffnen und Schließen einzelner Kanalproteine zugeordnet werden können. Um es noch einmal hervorzuheben: diese Stromfluktuationen können wir nur detektieren, weil wir Membranen präparieren können, die einen so geringen Hintergrundstrom führen und damit die Fluktuationen klar detektierbar sind. Abbildung 9: Stromverlauf durch eine mit einem Kanal-Protein-Fragment der M2 Isoform des muscarinischen Acetylcholine Rezeptors funktionalisierte tBLM nach Anlegen eines Spannungssprunges von 100 mV. Dem durch Ladungs- Umverteilungsprozesse kontinuierlich abnehmenden Basisstrom überlagert sind die Strom-Fluktuationen, welche durch das stochastische Öffnen und Schließen des Protein- Kanals verursacht werden.
Mit diesem Ergebnis haben wir einen weiteren Meilenstein in Richtung Entwicklung eines biomimetischen Geruchssensor erreicht: Wie in Abb. 4 (Teil 2: science-blog, 26. Jänner 2012) schematisch gezeigt wurde, steht am Ende einer Reaktionskaskade, die mit der Bindung eines Geruchsstoffes an seinen Membran-ständigen Rezeptor beginnt, das Öffnen (und Schließen) von Ionen-Kanälen, die mit ihrem intrinsischen Verstärkungsfaktor (ein einzelner bindender Ligand erlaubt durch das Öffnen des Kanals den Durchtritt von 10 – 100 Millionen Ionen durch die Membran) letztendliche die hohe Empfindlichkeit von Nasen und Insekten-Antennen für Geruchsstoffe bestimmen.
Die biomimetische künstliche Nase – Ausblick
Man sollte das bisher Erreichte auf keinen Fall überbewerten. Auf der einen Seite sind wir noch sehr weit davon entfernt, auch nur annähernd die Komplexität der Reaktionskaskaden in einem Modellsystem nachbilden zu können. Der gesamte Verstärkungsmechanismus, der durch die G-Protein-Fragment-induzierte Aktivierung der Adenylat-Zyklase erreicht wird, hat bislang noch keine modellmäßige, biomimetische Realisierung erfahren. Insofern haben wir keine Ahnung, wie weit wir eigentlich noch vom natürlichen System und seinen unglaublichen Empfindlichkeiten bei unseren künstlichen Nasen entfernt sind.
Aber selbst wenn wir es in absehbarer Zeit schaffen sollten, für einen Rezeptor und damit für einen Geruchsstoff oder eine Klasse von Gerüchen einen Sensor bauen zu können, der den Vergleich mit der Nase eines Hundes nicht zu scheuen braucht, sind wir vom Endziel doch noch sehr, sehr weit entfernt.
Anders als bei der optischen Kommunikation, wo wir die Entstehung eines künstlichen Farb-Bildes auf einem Bildschirm und die Detektion eines Bildes mit einer hochempfindlichen Kamera auf die drei Grundfarben rot, grün, blau als den digitalen Informationsträgern reduzieren können, lebt die Geruchswelt nicht nur von einer Vielzahl von Rezeptoren (der Mensch hat etwa 350 davon, der Hund das Vierfache), die Sinneseindrücke, die wir beim Riechen erleben, werden von einer nahezu unüberschaubaren Vielfalt von Geruchsstoffen als den Informationsträgern bestimmt. Eine kleine Auswahl davon, klassifiziert nach Größe und Gestalt der Moleküle, ist in Abbildung 10 gegeben. Abbildung 10: Zur Komplexität der Geruchssensorik: Klassifizierung von Gerüchen nach ihren zugrunde liegenden molekularen Strukturen und deren Parameter: Größe und Gestalt.
Zwar gibt es fast schon „klassische“ Beispiele, welchen Einfluss ein einzelner Geruchsstoff, wie etwa der Maiglöckchenduft (Bourgeonal und Zyklamal) auf uns (bzw. unsere Spermien) haben, aber in der Regel setzt sich unser Geruchseindruck aus vielen (Kombinationen von) Duftstoffen zusammen. Damit haben wir nicht nur das Problem der enormen Empfindlichkeiten, welche die Natur realisieren kann und unsere biomimetischen Nasen mindestens in etwa auch so zeigen müssen, wir werden auch lernen müssen, mit der Kombinatorik von Dufteindrücken umzugehen.
Gemessen an der Komplexität der molekularen Grundprozesse und ihrer biomimetischen Nachbildung im künstlichen Sensor scheint dieses Problem aber eher lösbar zu sein: wenn wir erst das System für einen Rezeptor optimiert haben, sollte es möglich sein auf dem Membran-Chip eine Vielzahl von Rezeptoren mit ihren unterschiedlichen Spezifitäten unterzubringen, parallel auszulesen und über Bioinformatik den kombinatorischen Zugang zu komplexeren Mischungen zu finden. Immerhin war das ja die Basis der - was die Identifikation von Geruchsmischungen angeht - relativ erfolgreichen Versuche, eine elektronische Nase zu realisieren:
eine Reihe von unterschiedlichen Polymeren oder anderen organischen Matrizen, die alle auf einen einzelnen Geruchsstoff relativ unspezifisch reagierten, konnten in der Kombinatorik der Muster-Erkennung tatsächlich einen Bourbon von einem Scotch oder Irish Wiskey unterscheiden. (Nur was die Empfindlichkeiten anlangte, waren die Ergebnisse absolut unbefriedigend und nährten den Wusch, über einen biomimetischen Weg verstärkt nachzudenken).
Abbildung 11: Die (nicht ganz ernst gemeinte) Vision von der künstlichen Nase auf einem elektronischen Chip.
Es ist also noch ein weiter Weg bis zur künstlichen biomimetischen Nase, aber ein Anfang ist gemacht. Wie dieser Sensor am Ende aussehen wird, weiß heute noch niemand (Abbildung 11 - ein nicht ganz ernst gemeinter Vorschlag). Aber, um mit Goethe, der ja ein ausgewiesener Kenner der (Geruchs-) Welt war (Zitat:“...man möchte zum Maikäfer werden, um im Meer von Wohlgerüchen herumschweben zu können…“) zu enden: „…wer immer strebend sich bemüht…“ wir werden es weiter versuchen - und irgendwann müssen wir dann nicht mehr selbst „unsere Nase in alles stecken“!
Anmerkungen der Redaktion
Glossar
1 µm (mikrometer): 1 millionstel Meter, 1 nm (nanometer): 1 milliardstel Meter Amphiphil: Moleküle besitzen hydrophile (polare) und hydrophobe (lipophile) Bereiche; z.B. Emulgatoren, Tenside; vor allem aber Phospholipide , die essentielle Komponenten von Biomembranen sind
Adenosintriphosphat (ATP): Universeller Energielieferant für zelluläre Prozesse. Bei (enzymatischer) Spaltung der Phosphatbindungen wird Energie freigesetzt, die u.a. zur Synthese von Biomolekülen, zum Stofftransport durch Membranen, zur Muskeltätigkeit,.. benötigt wird. Daneben spielt ATP auch eine bedeutende Rolle im Signaltransfer
Biomembranen: trennen wässrige Kompartments von der Umgebung (Zellmembranen, intrazelluläre Membranen); in die Lipid-Doppelschicht sind verschiedene Arten von Membranproteinen eingelagert, u.a. (im Text erwähnt):
Black Lipid Membrane: über einen kleinen Spalt eines hydrophoben Materials (Teflon) spannt sich eine künstliche Lipid-Doppelschicht
Cytochrom c Oxidase: in der inneren Mitochondrienmembran lokalisiertes essentielles Enzym der „Atmungskette“, welches Sauerstoff zu Wasser reduziert. Die dabei freiwerdende Energie wird zur Synthese von ATP (aus ADP und Phosphat) verwendet.
„Fluorescence Recovery after Photobleaching“ (FRAP): Methode mit der die Geschwindigkeit der Diffusion eines bestimmten Moleküls in der Membran bestimmt wird. Dazu wird das Molekül mit einem fluoreszierenden Marker versehen, seine Fluoreszenzintensität in der Membran (mittle Fluoreszenzmikroskop) gemessen, dann die Fluoreszenz mittels eines kurzen Laserimpulses „gebleicht“ und die Zeit bestimmt mit der fluoreszierende Moleküle aus der Umgebung einwandern (diffundieren).
G-Protein gekoppelte Rezeptoren: Sehr große Familie von Transmembranproteinen (u.a. Geruchsrezeptoren), die mit 7 helikalen Segmenten die Zell-Membran durchqueren und Signale von außerhalb in die Zelle leiten (siehe Beitrag vom 5.1.2012)
Hydrophil: starke Wechselwirkungen mit Wasser („polare“ Wechselwirkungen), häufig wasserlösliche Stoffe.
Hydrophob: wasserabstoßende, fettlösliche (lipophile) Eigenschaften (z.B. Fette, Wachse)
Ionenkanäle: bilden Poren durch die Membran hindurch, durch welche elektrisch geladene Teilchen die Membran durchqueren können
Ionenpumpen: Transmembran-Proteine, die bestimmte Ionen „aktiv“ durch eine Biomembran transportieren. Aktiver Transport erhält seine Energie aus der enzymatischen Spaltung (durch ATPasen) von Adenosintriphosphat (ATP).
Lipid-Doppelschicht: Struktur, die sich aus amphiphilen Lipiden in wässriger (polarer) Lösung ausbildet. Der hydrophile Teil der Lipide ist nach aussen, der wässrigen Lösung zugewandt, der hydrophobe Teil der Lipide (Fettsäureketten) weist ins Innere der Doppelschicht (siehe Abbildungen 6, 8). Die Lipid-Doppelschicht ist rund 5 namometer dünn und für geladene Teilchen praktisch undurchlässig.
Ligand (Biologie): Molekül/Atom, das an ein Ziel-(Target-) Protein bindet; in den meisten Fällen ist die Bindung reversibel, d.h. der Ligand löst sich (dissoziiert) vom Target. Irreversible (kovalente) Bindung kann erfolgen, wenn der Ligand durch eine chemische Reaktion mit dem Target verknüpft wird.
Patch-clamp Technik: Methode nach dem Prinzip der Spannungsklemme mit der sich der durch einzelne Ionenkanäle in der Zellmembran fließende Strom messen lässt.
pH-Wert: Maß für den sauren oder basischen Charakter einer wässrigen Lösung; definiert durch den negativen (dekadischen) Logarithmus der Wasserstoffionenkonzentration (-aktivität). Wasser mit üblicherweise neutralem Charakter hat einen pH-Wert um etwa 7.0. Lösungen mit pH-Werten unter 7 werden als sauer bezeichnet, über 7 als basisch.
Thiol-Lipid Derivat: Lipide mit einer Thioalkohol (-SH)-Gruppe, die zur sehr festen Bindung des (Tether-)Lipids an das Gold-Substrat führt
Weiterführende Links
In diesem Video (7½ min.) des Max-Planck-Institut für Polymerforschung erläutert Professor Eva-Kathrin Sinner (siehe SB-Beitrag vom 15. Dezember 2011), wie es gelang, einen Sensor für den Duftstoff Lilial herzustellen:
Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspüren
Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspürenFr, 02.02.2012- 04:20 — Gottfried Schatz
Nichts adelt uns Menschen mehr als die Fähigkeit zur Sprache. Sie fehlt selbst unserem nächsten biologischen Verwandten, dem Schimpansen, dessen Laute stereotyp und angeboren sind.Manche Singvögel lernen zwar ihren Gesang von den Eltern und können ihn sogar individuell gestalten, doch nichts spricht dafür, dass sie mit ihm komplexe oder gar abstrakte Gedanken vermitteln. Auf unserem Weg zur Menschwerdung war das Werden von Sprache der bisher letzte und grossartigste Höhepunkt.
Ein Dorf und eine Schule
Doch wie begannen wir zu sprechen? Lange schien es unmöglich, diese Frage zu beantworten, da Sprachen meist vor Jahrtausenden entstanden und keine versteinerten Fossilien hinterliessen. Viele Forscher vermuten seit langem, dass Sprache ein Kind der Gestik ist, die mit Arm- und Handzeichen begann, dann das Gesicht mit einbezog und schliesslich Gesichtsausdrücke durch Mund- und Kehlkopflaute «verinnerlichte». Diese Vermutung wird nun durch Beobachtungen gestützt, die unterschiedlicher nicht sein könnten und eindrücklich die Einheit aller Wissenschaft zeigen.
Kinder im Gazastreifen lernen Gebärdensprache (Bild: Reuters)
Einer dieser Hinweise kam aus einem Beduinendorf in der Negevwüste Israels. Fast alle der etwa dreitausendfünfhundert Dorfbewohner entstammen einer einheimischen Al-Sayyid-Beduinin und einem ägyptischen Zuwanderer, die vor zweihundert Jahren die Dorfgemeinschaft gründeten und ihr eine Erbanlage für Gehörlosigkeit bescherten. Und da Inzucht im Dorf die Regel war, gab es nach etwa vier Generationen bereits viele Gehörlose. Heute, nach drei weiteren Generationen, sind etwa hundertfünfzig Dorfbewohner gehörlos und verständigen sich nicht nur untereinander, sondern auch mit ihren anderen Dorfgenossen in einer Gebärdensprache, die jeder im Dorf beherrscht und Gehörlose vollwertige Mitglieder der Gemeinschaft sein lässt.
Die «Al-Sayyid-Gebärdensprache» entstand also vor etwa siebzig Jahren und entwickelte im Verlauf von nur einer Generation einen reichen Wortschatz und eine eigene Grammatik, die sich von der Grammatik der in Israel gelehrten Gebärdensprache und der Regionalsprachen Arabisch und Hebräisch unterscheidet. Da aber für Menschen Sprache nicht nur Werk-, sondern auch Spielzeug ist, verändern die Dorfbewohner ihre Gebärdensprache ohne Unterlass, wobei vor allem Kinder als treibende Kraft wirken. Jede der drei noch lebenden Generationen «spricht» die Gebärdensprache also leicht anders – und die jüngste Generation spricht sie doppelt so schnell wie die älteste und verwendet auch komplexere Sätze. Die Geburt und die Entwicklungsstufen dieser jungen Sprache sind also wie in einer freiliegenden geologischen Verwerfung klar erkennbar.
Ein normal intelligentes Menschenkind erlernt mühelos selbst mehrere Sprachen. Und wenn einem gehörlosen Kind Lehrmeister fehlen, erfindet es seine eigene Gebärdensprache, um sich anderen mitzuteilen. Diese individuellen Gebärdensprachen sind jedoch nicht entwicklungsfähig, da ihnen die Wechselwirkung mit einer «gleichsprachigen» Gemeinschaft fehlt. Als jedoch Nicaragua nach der Revolution von 1979 Hunderte von gehörlosen Kindern zum ersten Mal in eigenen Schulen zusammenführte, erfanden die Kinder in nur wenigen Jahren ihre eigene Gebärdensprache. Sie entwickelte sich ohne Zutun der Lehrer gewissermassen aus dem Nichts und gewann laufend an Komplexität, weil die Kinder sie von ihren älteren Kameraden lernten und dann auch später untereinander verkehrten. Lokale Gebärdensprachen haben sich in mehreren isolierten afrikanischen und asiatischen Dörfern entwickelt, in denen Gehörlosigkeit endemisch war. Sie sind Fenster, die uns die Geburt einer Sprache beobachten lassen. – Welche Gene steuern eine solche Geburt, und wie haben sich diese Gene während der Entwicklung des modernen Menschen verändert? Erste Antworten lieferten Untersuchungen an einer britisch-pakistanischen Familie, in der jedes zweite Mitglied grosse Mühe hat, verständlich zu sprechen, Gesprochenes zu verstehen oder nachzuahmen und den Gesichtsausdruck zu kontrollieren.
Ein Gen
Der Erbgang dieser Krankheit sprach dafür, dass sie den Ausfall eines einzigen Gens widerspiegelte. Forscher spürten dieses Gen auf und tauften es «FOXP2». Obwohl jede Körperzelle von ihm zwei Kopien besitzt, genügt der Ausfall von nur einer, um die Krankheit auszulösen. Das Gen koordiniert die Aktivität von Hunderten, vielleicht sogar von Tausenden anderer Gene und sichert so die geordnete Entwicklung komplexer Lebewesen.
FOXP2 findet sich in fast identischer Form auch in Affen und Mäusen, hat sich also im Verlauf von vielen hundert Millionen Jahren nur sehr wenig verändert. Doch nachdem vor etwa sechs bis sieben Millionen Jahren in Afrika unsere ersten menschenähnlichen Vorfahren aufgetreten waren, veränderte sich deren FOXP2-Gen an zwei wichtigen Stellen und gewann so wahrscheinlich zusätzliche Funktionen.
Vor einer halben Million Jahren war diese neue Genvariante bereits fester Bestandteil des Erbgutes aller modernen Menschen. Könnte es sein, dass diese ihren beispiellosen Erfolg auch ihrem veränderten FOXP2-Gen und der von ihm geförderten Entwicklung einer komplexen Sprache verdanken? Das Gen ist besonders in den Hirnregionen aktiv, die Sprache, Grammatik, Kontrolle der Gesichts- und Mundmuskeln und die Fähigkeit zu Nachahmung betreuen. Es ist für die Entwicklung des Sprechens zwar unerlässlich, aber dennoch kein spezifisches «Sprachgen», da es auch für die Entwicklung von Lunge, Darm oder Herz wichtig ist. Wahrscheinlich ist es nur eines von vielen Genen, die uns die anatomischen und neurologischen Voraussetzungen für Sprechfähigkeit und Sprache schenken. Leider wissen wir noch nicht, ob es auch für die spontane Entwicklung oder Beherrschung einer Gebärdensprache notwendig ist. Untersuchungen zur Rolle dieses Gens und zur Entwicklung neuer Gebärdensprachen versprechen uns faszinierende Einblicke in das Werden menschlicher Sprache.
Ich fühle das Wunder dieses Werdens, wenn ich meinem kleinen Enkel das Wort «Opa» vorspreche, er mit höchster Anspannung zuhört – und dann mit einem Baby-Gurgeln antwortet, das jede Woche mehr wie «Opa» klingt. Wann wird er wohl den ersten Kinderreim nachsprechen? Diese Momente zeigen mir ebenso eindrücklich wie die spontane Entwicklung einer Gebärdensprache in den Sonderschulen Nicaraguas, wie wichtig menschliche Gemeinschaft für die Entwicklung einer differenzierten Sprache ist.
Eine solche Sprache ist aber auch Voraussetzung für jede dauerhafte menschliche Gemeinschaft, weil sie uns abstrakt denken und Wissen und Wertvorstellungen an nachfolgende Generation weitergeben lässt. So gesehen sind selbst die Werke unserer Dichter und Philosophen letztlich Gemeinschaftswerke. Das komplexe Band, das mich mit meinem Enkel im Drang nach Sprache und Gemeinsamkeit vereint, ist aus den Fäden unserer Gene gewirkt. FOXP2 ist nur eines von vielen. Wenn wir einmal alle diese Gene kennen, werden wir vor der grossen Frage stehen, wie dieser Drang in ihnen verschlüsselt ist.
Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren
Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer GeruchssensorenFr, 26.01.2012- 04:20 — Wolfgang Knoll
Fortsetzung von Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne, erschienen am 12.Jänner 2012).Einige heute bekannte Details über den Aufbau der Geruchssensoren, und zwar sowohl für Wirbeltiere als auch für Wirbellose, also z.B. den Insekten, sind stark vereinfacht in Abbildung 3 gegeben.
Bei den Wirbeltieren, also auch bei der Ratte, dem Hund und beim Menschen befinden sich die meisten Nervenzellen im Riech-Epithel (Riechschleimhaut) im Dach der Nasenhaupthöhle. Hier sitzen Millionen von Riechzellen. Die Signale werden von dort über den Riechnerv direkt an das Gehirn weitergeleitet. Die Riechzellen (Olfactory Sensory Neurons) reichen mit ihren Riechhaaren (Ciliae) bis in die Nasenschleimhaut (Mucosa), die mit ihrem Sekret (Mucus) die Zellen und ihre Membranen vor dem Austrocknen schützen müssen, da diese im direkten Kontakt mit der eingeatmeten Luft mit den mitgeführten zu detektierenden Duftstoffen und Pheromonen steht.
Abbildung 3: Zum Aufbau der Geruchssensoren von Wirbeltieren (Mensch, rechte Bilder) und Wirbellosen (Insekten, linker Cartoon) mit dem zentralen Element einer durch Geruchs- Rezeptoren funktionalisierten Membran im Zentrum (im Kreis).
Bei Wirbellosen wird der Riechnerv in den Sensillen der Antennen durch die sogenannte Cuticula (selbsttragende „Körperdecke“) mechanisch geschützt und vor dem Austrocknen bewahrt. Die durch die vorbei streichende Luft antransportierten Duftstoffe können durch Poren in der Cuticula den Riechnerv erreichen, welcher von der Lymphe umgeben ist und bei Bindung eines Duftstoffes oder eines (Art-) spezifischen Pheromons ein bestimmtes elektrisches Signal, die Spikes, generiert.
Wie erreichen Duftstoffe ihre Geruchssensoren?
Da die über Geruchssensoren ablaufenden molekularen Prozesse die Basis für jede Überlegung zum Konzept und Bau einer künstlichen biomimetischen Nase darstellen, sollen sie im Folgenden noch etwas genauer, wenn auch nach wie vor sehr schematisch dargestellt werden. Dazu betrachten wir die Abbildung 4:
Abbildung 4: Die wesentlichen molekularen Einzelschritte, die bei Erkennung und Bindung eines Duftstoffes (Odorants) zu einem elektrischen Signal führen. Geruchsstoffrezeptor ist ein G-Protein gekoppelter Rezeptor (GPCR), G: G-Protein, AC: Adenylat-Cyclase
Geruchsstoffe (Odorants) aus der Luft müssen an irgendeiner Stelle den Übergang in die wässrige Phase schaffen. Bei den Wirbellosen passiert dies beim Durchtritt durch die Poren in der Cuticula, während der in Abbildung 4 dargestellte Fall eher typisch für Wirbeltiere ist, wo dieser Übergang in der Grenzfläche der Mucosa zur Luft geschieht. Da es sich bei vielen Duftstoffen um kleine und vor allem hydrophobe (d.h. wasserabweisende) Moleküle handelt, sorgen die Geruchsstoff-bindenden Proteine (Odorant Binding Proteins - OBPs) oder Pheromon-bindende Proteine (PBPs), welche mit den Duftstoffen einen Komplex bilden, nicht nur für eine erhöhte Löslichkeit, sie „shutteln“ die Duftstoffe zu den in der Membran sitzenden Duftstoff-Rezeptoren (Odorant Receptors, ORs). Ob dies allein durch freie Diffusion geht ist noch unklar; bei den Wirbellosen wird wegen der hohen OBP Konzentration in der Lymphe auch ein gerichteter Transport entlang perkolierender Protein- Aggregate diskutiert.
Bindung von Duftstoffen an den Rezeptor und Signaltransfer
Weiterhin auch nicht völlig klar ist, ob die OBPs auch an der entscheidenden Bindung der Duftstoffe an den Rezeptor beteiligt sind oder einfach nur ihr Cargo abgeben. Als gesichert gilt aber, dass die Bindung der Odorants eher weniger spezifisch ist, allerdings die der Pheromone an ihre entsprechenden hochspezifischen Rezeptoren, eine Reaktionskaskade auslöst, die die wesentlichen Verstärkungsmechanismen für die hohe Empfindlichkeit beim Riechen ausmacht. Hier sollte man darauf hinweisen, dass die gegenüber dem Menschen deutlich höhere „Riechleistung“ des Hundes nicht auf einem anderen Mechanismus beruht, sondern lediglich vor allem Ausdruck der Tatsache ist, dass wir Menschen in Summe nur etwa 5 cm2 aktive Fläche mit Riechzellen haben, während der Hund auf das Fünffache kommt. Aber auch beim Weltmeister der Riechchampions, dem Seidenspinner Bombyx Mori, der nur ganz wenige Moleküle des von den Weibchen ausgesandten Pheromones Bombycol benötigt, um die Angebetete zu finden, sind die molekularen Mechanismen der Duftstofferkennung sehr ähnlich.
Die Bindung von Odorants an der einen Seite der Membran an transmembrane, also Membran-überspannende ORs, die alle zur großen Klasse der G-Protein gekoppelten Rezeptoren (G-Protein Coupled Receptors, GPCRs) gehören, führt auf der anderen Seite der Membran zur Dissoziation des G-Proteins als Trigger des Signal-Übertragungsmechanismus.* Die ?-Untereinheit de G-Proteins bindet an die Adenylat-Cyclase, einem integralen Membran-Enzym, das aus Adenosintriphosphat (ATP) die Synthese eines sogenannten second Messenger – des cyclischen Adenosine Monophosphat (cAMP) - katalysiert. Da die Bindung eines einzigen Duftmoleküls zur Synthese von über 1000 cAMP Molekülen führt, ist damit ein erster Verstärkungsmechanismus identifiziert.
In weiterer Vereinfachung der biologischen Komplexität fasst dann Abb. 4 zusammen, dass der second messenger cAMP Ionen-Kanäle in ihrer Permeabilität beeinflusst: so wirkt das cAMP direkt auf einen Ionen-Kanal, der bei Bindung von einem cAMP Molekül geöffnet wird. Durch diesen Kanal passieren dann zwischen einer Million und 100 Millionen Calcium- und Natrium-Ionen die Membran von außen nach innen, während Kalium-Ionen ausströmen können – eine weitere enorme Verstärkung eines einzelnen molekularen Ereignisses. Die damit verbundenen transienten, elektrischen Signale sind die Basis der Informationsverarbeitung beim Riechen in den Glomeruli und dann letztendlich im Gehirn.
Anmerkungen der Redaktion
Aufbau und Funktion von G-Protein Coupled Receptors (GPCRs) und G-Proteinen sind beschrieben in dem einleitenden Artikel „Wie wir die Welt um uns herum wahrnehmen“ (erschienen am 5.1.2011)
Glossar
Adenosintriphosphat (ATP): Universeller Energielieferant für zelluläre Prozesse. Bei (enzymatischer) Spaltung der Phosphatbindungen wird Energie freigesetzt, die u.a. zur Synthese von Biomolekülen, zum Stofftransport durch Membranen, zur Muskeltätigkeit,.. benötigt wird. Daneben spielt ATP auch eine bedeutende Rolle im Signaltransfer.
Adenylatcyclase: katalysiert die Bildung des second messenger cyclo-AMP (c-AMP) aus ATP unter Abspaltung des Pyrophosphatrestes.
Glomeruli: kugelige Gebilde im Riechkolben in denen sich die Nerven aller Riechzellen sammeln (jeweils ein Glomerulus je Typ Riechzelle); Abb. 3.
Pheromone: Flüchtige Substanzen, die Information zwischen Mitgliedern derselben Spezies vermitteln. Sie werden von einem Individuum sezerniert und wirken auf das Verhalten eines anderen Individuums
Second Messenger: sekundärer Botenstoff; intrazelluläre Verbindung, deren Konzentration sich als Antwort auf ein von außen kommendes primäres Signal (ausgelöst z.B. durch Andocken eines Duftstoffs am Rezeptor) ändert und, die damit ein von außen kommendes Signal in der Zelle weiterleitet.
Signal to noise — Betrachtungen zur Klimawandeldiskussion
Signal to noise — Betrachtungen zur KlimawandeldiskussionFr, 19.1.2012- 04:20 — Reinhard Böhm
Als im 19. Jahrhundert das erste Unterseekabel verlegt worden war, konnten die an der Ostküste Amerika abgegebenen Morsesignale bei Ihrer Ankunft an der Westküste Irlands kaum noch vom störenden Rauschen unterschieden werden. Im analogen Zeitalter der Phonotechnik waren hohe „signal to noise ratios“ ein Qualitätsmerkmal einer HiFi Anlage.
Heute ersparen uns die digitalen Speichermedien, die immer ein „Entweder oder“ bzw. ein „0 oder 1“ zur Grundlage haben, die Schwierigkeiten, aus einem Grundrauschen ein Signal herauszuhören oder zu sehen.
Vielleicht trägt unterbewusst diese Fixierung auf klar Unterscheidbares dazu bei, dass auch in der Diskussion über den Klimawandel – sei es in der Öffentlichkeit, den Medien aber auch in der Wissenschaft selbst, meist ebenfalls die klaren und einfachen Aussagen dominieren. Dies obwohl uns einerseits die Gesetze der Statistik nahelegen, einen Trend, oder anders ausgedrückt ein „Klimasignal“, immer zunächst auf seine Signifikanz gegenüber dem „weißen Rauschen“ der Zufälligkeit zu prüfen. Auf einer anderen Ebene, jener der Modellergebnisse über die Klimazukunft, ist das auch der Fall, obwohl gerade sie Aussagen sehr unterschiedlicher Härtegrade liefern.
Letzteres ein Gräuel offenbar speziell für Physiker, die es gewohnt sind, in ihren Experimenten zunächst ganz klare „Laborverhältnisse“ zu schaffen um auf ihre Fragestellungen auch ganz klar definierte Antworten zu bekommen. Nicht zuletzt deshalb gibt es unter denen, die der Diskussion über den Klimawandel skeptisch gegenüberstehen, nicht wenige auch renommierte Physiker, die offenbar die Klimatologie für eine weiche Wissenschaft halten.
Der Wissenschaft vom Wetter und Klima ist ja, bis auf wenige Ausnahmen, der Weg über das klar definierte Experiment versperrt. Das vernetzte Klimasystem der Erde in verkleinertem Maßstab ins Labor zu holen ist nicht möglich. Die Nachprüfung von postulierten Zusammenhängen ist, wenn es ums Klima geht, nur über „in situ“ Messreihen möglich. Und diese müssen in hoher räumlicher und zeitlicher Auflösung und mit möglichst einheitlich definierten Messanordnungen stattfinden.
Diese zunächst als Nachteil zu empfindende Notwendigkeit hat allerdings in der Meteorologie zu einem in anderen Wissenschaften selten gegebenen global vernetzten Beobachtungs- und Messnetz geführt, dessen Daten ohne gröbere Probleme frei zugänglich sind. Spätestens seit der Gründung der Meteorlogischen Weltorganisation im Jahr 1873 in Wien (heute als WMO eine Teilorganisation der UNO) geschieht dies auch für einen genau definierten Kanon an Messgrößen und nach genormten Bedingungen, was die Instrumente betrifft, deren Aufstellung, deren Kalibrierung, die Messtermine u.a.m.
Das alles macht die Wissenschaft vom Klima sehr wohl zu einer Naturwissenschaft im strengen Sinn, deren Messbefunde allerdings in einem räumlich und zeitlich chaotischen System erhoben werden, in dem es vor Nichtlinearitäten, Rückkopplungen und anderen unangenehmen Dingen nur so wimmelt. Genau deshalb ist in unserer Wissenschaft bei Messbefunden die strenge statistische Betrachtungsweise notwendig, auf die ich im Titel hinweisen wollte. Und genau deshalb können auch noch so aufwändig konstruierte Modellsimulationen immer nur Aussagen unterschiedlicher Härtegrade liefern. Diese werden dann von den „Klimawandelleugnern“ oder „Klimaskeptikern“ als „weich“ bis „unbrauchbar“ bezeichnet, für die „Klimabewegten“ oder „Alarmisten“ sind sie in der Regel so etwas wie heilige und damit nicht in Frage zu stellende Glaubenswahrheiten – eine wunderbare Ausgangssituation also für all den überflüssigen Streit, die gegenseitigen Unterstellungen wie wir sie in der öffentlichen Abhandlung des Themas Klimawandel vorfinden. Die emotionslose und rationale Zugangsweise steht eher im Hintergrund.
Gerade in jüngster Zeit kann das mit einigen praktischen Beispielen belegt werden, die aus unserem Haus, der Zentralanstalt für Meteorologie und Geodynamik, stammen, die das Basismessnetz für Wetter und Klima in Österreich betreibt. Gerade das Jahr 2011 eignet sich dazu, da es einige „Rekordwerte“ geliefert hat, die sofort – von uns Datenlieferanten kaum noch beeinflussbar – die ebenso übliche und für das Klimawandelmarketing zu schnellem Erfolg führende Zuordnung „Klimawandel = Zunahme der Extremereignisse“ gefunden haben.
Beispiel 1: Das warme Rekordjahr 2011 auf Österreichs Bergen
(und seine beinahe korrekte Auslegung in den Medien):
Das Jahr 2011 war an den österreichischen Hochgebirgsstationen das wärmste bisher gemessene (Reihenbeginn 1851). Das Mittel der Gipfelobservatorien lag um 4.5°C über dem des 20. Jahrhunderts. Das zweitwärmste Jahr (1938) war nur um 3.7°C zu warm. Der Rekordwert 2011 liegt auch im statistisch signifikanten Erwärmungstrend, der seit dem 19. Jahrhundert in Österreich beinahe 2°C betragen hat.
Diese Aussage war eine statistisch harte Aussage, die von den Medien auch mit Freuden aufgenommen wurde. Im Überschwang der Sensationsberichterstattung wurde aus den Österreichischen Bergstationen gern auch ganz Österreich, was dann nicht mehr stimmte, da im Tiefland das Jahr 2011 zwar ebenfalls ein warmes, aber kein Rekordjahr war.
Beispiel 2: Der trockene Rekordnovember 2011
(und seine statistisch falsch interpretierte Weitergabe in den Medien):
Der November 2011 war, über alle österreichischen Langzeitstationen gemittelt, der mit Abstand trockenste November seit Beginn der Messreihe (1820). Es wurden nur 2% des langjährigen Niederschlagsmittels des 20. Jahrhunderts gemessen. Der zweittrockenste November (im Jahr 1920) war mit 13% deutlich feuchter. Der November 2011 war jedoch ein extremer statistischer Ausreißer und lag nicht in irgendeinem Trend. Ein Zusammenhang mit dem anthropogenen Klimawandel ist nicht ersichtlich, wie auch das Diagramm der Novemberzeitreihe zeigt.
Der vom Moderator der ORF ZIB-1 am Abend unserer entsprechenden Aussendung offenbar „aus dem Bauch heraus“ formulierte Zusammenhang mit dem gängigen Klimawandelklischee „es wird immer trockener“ war leider ebenso populär wie er falsch war. Der Ausreißer 2011 war eben zufällig und entsprach gar keinem Trend und war schon gar nicht durch „den Klimawandel“ verursacht (worunter üblicherweise der menschlich verursachte Klimawandel verstanden wird).
Beispiel 3: „UNO warnt: Bis zu 50 Grad Celsius auch in Österreich“
Eine neue Veröffentlichung des IPCC (Intergovernmental Panel on Climate Change) wird offenbar ohne irgendetwas davon zu lesen sofort ins übliche Klischee „Klimawandel = Zunahme der Extremwerte“ gerückt. Dieses Beispiel zeigt besonders gut, wie dabei ein beinahe schon automatisch ablaufender Vorgang wie von selbst stattfindet – ich will ihm daher mehr Raum geben (der Abschnitt stammt aus einer von mir verfassten Stellungnahme der ZAMG vom 23.11.2011):
„Am 18.11.2011 gab das IPCC (Intergovernmental Panel on Climate Change) die politische Kurzfassung (Summary for Policymakers) eines neuen Berichts heraus, der sich mit den Möglichkeiten befasst, durch Anpassungsmaßnahmen die Schäden, die extreme Wetter- und Klimaereignisse verursachen, gering zu begrenzen bzw. zu vermeiden. Der Bericht heißt im englischen Original (Deutsch ist keine offizielle UN-Sprache) „Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation“ – kurz SREX.
Da unserer Ansicht nach die starke Präsenz des Themas der Extremwerte und Katastrophen vor allem in der öffentlichen Debatte über „den Klimawandel“ nicht in Relation dazu steht, was dazu mit gut abgesicherten Fakten seitens der Wissenschaft auf rationale Art zu sagen ist, stellt die politische Zusammenfassung von SREX eine wohltuende Überraschung dar. Sie diskutiert sehr rational den Wissensstand, versucht eine Abwägung zwischen dem, was gut abgesichertes Wissen darstellt und dem was weniger bis gar nicht verstanden, durch Daten beweisbar oder durch Modellierung für die Zukunft vorhersehbar ist.
Leider begeht IPCC wieder den Fehler, aus Aktualitätsgründen mit der politischen Kurzfassung Monate vor der Publikation der ausführlichen Langfassung herauszukommen, die für das Frühjahr 2012 angekündigt ist. Das macht es schwer, den angeführten Aussagen nachzugehen und sie zu überprüfen. Sie müssen „geglaubt“ werden, und glauben ist in der Wissenschaft nie eine gute Basis. Wir empfehlen trotzdem, diese geringe Mühe auf sich zu nehmen und die weniger als 20 Seiten englischen Originaltext zu lesen. Offenbar ist jedoch das in der schnelllebigen Welt unserer Medien noch zuviel verlangt, sonst wäre der sofort entstandene Minihype nicht erklärlich, der bereits am Tag der Veröffentlichung und davor unter folgender Überschrift in Österreich die Runde machte: „UNO warnt: Bis zu 50 Grad Celsius auch in Österreich“ (http://www.krone.at)
Einen Tag später war es auch in der Schweiz soweit:
„Der Schweiz droht Extremhitze bis 50 Grad“ (http://www.blick.ch)
Und auch in Medien wie der Frankfurter Rundschau (http://www.fr-online.de) wurde gemeldet, „Klimaforscher der UN … prophezeien Europa extreme Hitzesommer und Temperaturen bis 50 Grad“.
Die Welt (http://www.welt.de) hatte es schon vor der Freigabe des IPCC-Berichtes gewusst , dass laut Klimaforscher Mojib Latif im Deutschlandfunk (http://www.dradio.de) „Temperaturen bis 50 Grad möglich seien“ wobei aus dem Zusammenhang klar Deutschland angesprochen war.
Es ist offenbar nutzlos zu betonen, dass von diesen 50°C im veröffentlichten Originaldokument des IPCC nirgends die Rede war. Anscheinend genügt es bereits, wenn ein IPCC Bericht in einem Titel etwas wie „Extremwerte“ führt, dass sofort die selbstverstärkenden Rückkopplungsprozesse des modernen Medienzirkus darauf anspringen. Es braucht lediglich den Hauch der Beteiligung eines „Experten“, wie in diesem Fall des allgegenwärtigen Kollegen aus Kiel, und aus einem seriösen und ernst zu nehmenden Bericht wird in Windeseile einer dieser hochgradig entbehrlichen Hypes, die auf lange Sicht gesehen der Glaubwürdigkeit der Wissenschaft nur abträglich sein können.
Daher zum Schluss zur Sicherheit nochmals in aller Deutlichkeit:
1. es drohen weder Österreich noch Deutschland Temperaturen von 50°C
2. Nichts von dieser Behauptung ist in dem gerade erschienenen SREX Bericht des IPCC enthalten“
Soweit unsere Stellungnahme vom vergangenen November. Das Medienecho auf diese Zurechtrückung war endenwollend, genau genommen Null. Gegen den gängigen Grusel-Mainstream schwimmt es sich eben nicht leicht.
Was können wir daraus ableiten?
Seitens der Öffentlichkeit:
Wenn man das Thema Klimawandel für ein wichtiges Thema hält – und der Verfasser dieser Zeilen tut dies aus verschiedenen Gründen sehr wohl – dann muss man dem auch einen gewissen Teil seiner Zeit und Aufmerksamkeit widmen. Lediglich Schlagzeilen zu konsumieren führt in vielen Fällen dazu, den Alarmisten auf den Leim zu gehen. Gewarnt sei vor allem vor den verdächtig runden Sensationszahlen wie z.B. die oben genannten 50 °C. Sie sind das spiegelbildliche Gegenstück zu den Preisen mit der Kommastelle .9 oder .99, die uns ebenfalls für dumm verkaufen wollen.
Was man auch ohne spezielles Expertenwissen als Laie tun kann und sollte, ist Fragen zu stellen. Etwa die an einen Experten, der gerade hochtrabend die Welt als Ganzes erklärt, auf welchem Gebiet genau er denn seine Spezialexpertise hat. Man wird sich wundern, wie wenige tatsächliche Klimatologen dann als „Klimaexperten“ übrig bleiben.
Gerade in einer demokratischen Gesellschaft sollten wir es uns nicht nehmen lassen, bei wichtigen Fragen uns unsere Meinung selbstständig zu bilden. Das mag zwar nicht der bequemste Weg sein, die Alternative jedoch ist der Verzicht auf rationale Mitbestimmung.
Wie heißt es doch so richtig im Buchtitel der „Science Busters“ Gruber, Oberhummer und Puntigam: „Wer nichts weiß muss alles glauben“ – wer will das schon?
Seitens der (Klima)Wissenschaft:
Es ist höchste Zeit, unser gestörtes Verhältnis zur Öffentlichkeit zu korrigieren. Wir gehen in der Mehrzahl ebenfalls den bequemen Weg, den des problemlosen Mitschwimmens mit dem Mainstream. Das bringt zwar kurzzeitig Erfolg, Forschungsgelder fließen leichter, man wird von den Medien eher beachtet. Gerade das von mir in diesem Beitrag aufgegriffene Thema „Klimawandel und Extremwerte“ ist da besonders verführerisch. Gerade der langfristige Klimatrend, um den es ja in der Frage des anthropogenen Klimawandels eigentlich geht, versteckt sich perfekt hinter dem Zufallsrauschen der hochfrequenten Klimavariabilität. Auch „spürt“ niemand einen Langfristtrend in der Größenordnung von sagen wir 2°C pro Jahrhundert. Da kann man besser „Aufmerksamkeit erregen“, wenn man mit Katastrophenmeldungen „aufrüttelt“. Auf längere Sicht hingegen - gebrauchen wir jetzt endlich das Modewort „nachhaltig“ - werden wir mit Übertreibungen „um der guten Sache zu dienen“ nicht Erfolg haben. Früher oder später fliegt das auf und das Thema ist tot.
Oberstes Ziel seitens der Wissenschaft kann nur höchstmögliche Rationalität sein. Nur sie kann langfristig unsere Glaubwürdigkeit absichern.
Weiterführende und vertiefende Hinweise
zur rationalen naturwissenschaftlichen Information über den Klimawandel sind in der Informationsplattform Klimawandel der ZAMG populärwissenschaftlich aufbereitet: http://www.zamg.ac.at/klimawandel.
Eine empfehlenswerte Plattform für die soziologisch-philosophisch-politische Abhandlung des Themas ist der Blog http://klimazwiebel.blogspot.com in dem Hans von Storch und seine Freunde mit viel Freude und Engagement die Zwiebel „Klimawandel“ Schicht für Schicht schälen.
Manchmal schadet auch ein gutes Buch nicht. 3000 Seiten wissenschaftliche Klimainformation und unglaublich viele Literaturzitate findet man frei zugänglich im Internet in dem IPCC-Reports (http://www.ipcc.ch) . Ich meine übrigens die vollständigen Reports, die zuletzt 2007 erschienen sind. Fragwürdig, weil auch politisch beeinflusst, sind die diversen Kurzfassungen („summaries for policymakers“), von denen ich abrate. Wen die 3000 Seiten (auf Englisch) abschrecken, dem gebe ich zu bedenken, dass er wahrscheinlich auch ein Lexikon daheim stehen haben. Auch das muss man nicht zur Gänze lesen, aber als Nachschlagwerk kann es gar nicht umfangreich genug sein.
http://www.zamg.ac.at/klimawandel http://klimazwiebel.blogspot.com http://www.ipcc.ch
Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne
Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf SinneFr, 12.01.2012- 04:20 — Wolfgang Knoll
Wenn wir uns unsere fünf Sinne vergegenwärtigen (allegorische Darstellung in Abbildung 1) und uns fragen, welche dieser Sinne eigentlich eine technische Umsetzung im Sinne der Entwicklung von künstlichen Sensoren in den letzten Jahrzehnten erfahren hat, so fällt uns sofort ein, dass wir mit physikalischen Transducern, basierend auf der sehr weit entwickelten Halbleitertechnik, heute was das Sehen angeht sogar das menschliche Auge übertreffen können
Wir sind in der Lage, einzelne Photonen nachzuweisen und zu zählen. Vergleichbare Empfindlichkeiten bei der Detektion von Schall erreichen wir mit höchst-sensitiven Mikrophonen, deren technische Leistungsfähigkeit, z.B. beim Abhören von Gesprächen über weite Distanzen, uns sogar ein wenig erschaudern lässt.
Abbildung 1: Die fünf Sinne, Gemälde von Hans Makart aus den Jahren 1872–1879: Tastsinn, Hören, Sehen, Riechen, Schmecken
Schmecken und Tasten
Das Schmecken (der Geschmackssinn) im engeren physiologischen Sinne als gustatorische Wahrnehmung muss etwas differenzierter betrachtet werden: Der Geschmack ist der komplexe Sinneseindruck bei der Nahrungsaufnahme. Er entsteht durch das Zusammenspiel von Geschmackssinn, Geruchssinn und Tastsinn (der Lippen, der Zunge und der Mundhöhle).
Etwa 80 Prozent des empfundenen Geschmacks sind in Wirklichkeit die Aromen einer Speise, die vom Geruchssinn wahrgenommen werden, nur rund 20 Prozent entstehen auf der Zunge. Die Haptik von Speisen, die den Sinneseindruck beim Ertasten von Nahrungsmitteln im Mund bestimmt, ist in der Nahrungsmittelindustrie längst ein ganz wichtiger Faktor bei Produktion und Vermarktung von Nahrungs- und Genussmitteln. (Und wer jemals Mayonnaise selbst gemacht und nicht aufgepasst hat, das Produkt aber dennoch gekostet hat, weiß, wovon hier die Rede ist…). Nicht nur bei der Haptik von Speisen, auch beim Beispiel vom Makart, wo es um das Ertasten eines Gegenstandes oder Körpers mit den Händen geht, haben wir technisch rein gar nichts vorzuweisen: wir schaffen es gerade mal in der Robotik ein Ei von künstlichen Greifarmen so aufheben zu lassen, dass die Eierschale nicht bricht - einen Tasteindruck durch entsprechend eingebaute Sensoren können wir bei diesem Vorgang nicht nachbauen.
Der Vollständigkeit halber wollen wir kurz erwähnen, dass derzeit fünf Geschmacks-qualitäten als allgemein wissenschaftlich anerkannt gelten: süß, sauer, salzig, bitter und umami. Für sie sind eigene Geschmacksrezeptoren auf der Zunge nachgewiesen. Die generell weniger vertraute Geschmacksqualität “umami” wurde vom japanische Forscher Kikunae Ikeda 1908 beschrieben. Er fand heraus, dass es eine Geschmacksqualität abseits der üblichen Einteilung in süß, sauer, salzig und bitter gibt, welche besonders proteinreiche Nahrungsmittel anzeigt. Der Träger des Umami-Geschmacks ist die freie, aus den Proteinen stammende Aminosäure Glutaminsäure.
Die entsprechende künstliche Sensorik für diese Geschmacksqualitäten ist sehr unterschiedlich entwickelt. Sauer und salzig sind – entsprechend ihrer einfachen physikalisch-chemischen Definition als pH-Wert einer Lösung oder der Konzentration an gelösten Ionen - sehr präzise und schon seit langem mit entsprechenden technischen Sensoren bestimmbar. Ähnliches gilt für die Bestimmung der Zuckerkonzentration einer Lösung, denken wir nur an den Glucose-Sensor für die Bestimmung des Blutzuckerspiegels. Allerdings sollten wir auch hier die Komplexität des Problems für die Sensorik, gegeben durch die Vielzahl von chemisch unterscheidbaren Zuckern und ihrer physiologischen Wirkung auf unseren Geschmack, nicht unterschätzen.
Und schließlich sollte auch erwähnt werden, dass wir bei der Entwicklung eines Sensors für die Geschmacksrichtung „bitter“ noch ganz am Anfang stehen, was damit zu tun hat, dass die entsprechende Forschung noch sehr jung ist: so haben Forscher der TU München erst 2009 Nierenzellen gezüchtet, in denen jeweils einer der 25 menschlichen Bitterrezeptoren zur Expression gebracht wurde. Diese Spezialzellen dienten im Laborversuch als Biergeschmacks-Sensor – ein Anfang ist also gemacht…
Riechen
Ganz ähnlich ist die Situation beim Riechen, der Sinneswahrnehmung und ihrer technischen Implementierung in einem Geruchssensor, von denen dieser Beitrag eigentlich handeln soll. Wie wohl eines der ältesten sensorischen Elemente und aus der archaischen, schon beim Einzeller entwickelten Chemotaxis entwickelt, sind wesentliche wissenschaftliche Erkenntnisse erst in jüngerer Zeit erarbeitet worden. Abbildung 2 gibt den zeitlichen Ablauf einiger wichtiger Meilensteine in der Erforschung des Geruchssinns wider. Besonders das Jahr 1991 – also erst vor gerade mal 20 Jahren – markiert einen wissenschaftlichen Durchbruch durch die Arbeiten von Linda Buck vom Fred Hutchinson Cancer Research Center in Seattle und Richard Axel vom Howard Hughes Medical Institute und der Columbia University in New York, in denen sie die Entdeckung der olfaktorischen Rezeptoren (Geruchsrezeptoren) in Wirbeltieren, also im Hund und auch beim Menschen beschreiben. Die Bedeutung, die man diesen Ergebnissen beimisst, kann man daran erkennen, dass beiden Wissenschaftlern dafür 2004 der Nobel-Preis für Medizin zuerkannt wurde.
Abbildung 2: Wichtige Erfolge und ihre zeitliche Abfolge in der Forschung zum Thema Geruchssinn.
Dieser enorm späte Aufbruch in das Zeitalter der Geruchsforschung ist umso erstaunlicher, wenn man bedenkt, welche Bedeutung der Geruchssinn und damit die chemische Kommunikation auch zwischen Menschen hat (wer eine kabarettistische Aufarbeitung dieses Themas bevorzugt, sollte sich die entsprechenden Kapitel in "Die Leber wächst mit ihren Aufgaben: Komisches aus der Medizin, von Eckart von Hirschhausen" gönnen…).
So sehr wir bemüht sind, unsere natürlichen Geruchssignale an unsere Umwelt durch entsprechende Hygiene und Beträufeln mit zum Teil penetranten Duftstoffen wie Parfum, Rasierwasser oder Deodorant zu verschleiern, werden wir doch täglich in ungeahnter und einer im Wesentlichen völlig un(ter)bewussten Art und Weise durch Gerüche erheblich manipuliert: An verschiedenen Stellen im Supermarkt muss es in ganz bestimmter Weise riechen, damit wir das gewünschte Kaufverhalten austoben (und wir tun es!); manche Airlines geben ihrer Frischluft in der Business Klasse einen bestimmten Duftstoff bei, der diesen (wichtigen) Kunden dort auch das (unbewusste) Gefühl vermittelt, in der Business Klasse zu fliegen (wofür sie schließlich viel Geld bezahlt haben); wir alle lieben den Geruch von Weichmachern, die für die Fertigung von Plastikteilen unerlässlich ist – schließlich sind sie es, die uns durch ihr ständiges Ausdünsten aus frisch gefertigten Armaturenbrettern bestätigen, dass wir in einem brandneuen schicken Wagen fahren. Wer noch nicht überzeugt ist, wie wichtig Gerüche und chemische Kommunikation in unserem Leben sind, sollte mal seinen eigenen Wortschatz durchforsten („mir stinkt’s“, „ich kann den Kerl nicht riechen“, „jemandem etwas auf die Nase binden“, etc) oder sollte sich die historisch-literarische Aufarbeitung der Themas in Patrick Süskind’s Buch Das Parfum gönnen.
Ernster gemeint ist der Hinweis, dass neuere Forschungen zur chemischen Kommunikation zwischen Menschen über den Austausch von Pheromonen einen faszinierenden Einblick in menschliches Sozialverhalten, auch und gerade bei der Partnerwahl geben: neben den optischen und akustischen sind es vor allem die chemischen Signale, die den entscheidenden Einfluss auf unsere Entscheidung haben.
Es geht aber noch weiter: Duftstoff und Rezeptor sind ein wichtiges Instrument der Arterhaltung. Dies kann man einer Notiz aus Zeit Online vom 7.10.2004 aus Anlass der Verleihung des Nobel Preises an Axel und Buck entnehmen: “… Drum prüfe, wer sich ewig bindet, empfiehlt Friedrich Schiller Brautpaaren in seinem Klassiker. Dem prüfenden Paar können Molekularbiologen nun einen neuen Tipp geben: mit der Nase testen, ob künftig seine Spermien den Weg zu ihrem Ei finden. Der Fruchtbarkeitstest geht so: Sie lässt ihn an Maiglöckchenduft schnuppern. Riecht der Bräutigam nichts, dann hat er sehr wahrscheinlich ein Problem. Nicht nur in seiner Nase fehlt der funktionierende Riechrezeptor für den Maiglöckchenduft, sondern auch auf seinen Spermien. Normalerweise schwimmen diese, quasi immer nur der Nase nach, zum Maiglöckchenduft verströmenden Ei. Ist der Duftrezeptor der Spermien defekt, dann geht es ihnen wie einem Radio ohne Antenne – sie rauschen nur sinnlos herum.….“ (Anm.: diese Forschung geht auf Hanns Hatt von der Ruhr Universität Bochum zurück).
Es ist wohl vor allem der bereits angedeuteten Komplexität des Geruchsvorgangs zuzuschreiben, dass wir erst so langsam verstehen, wie die zugrunde liegenden Prozesse ablaufen und wie sie in der Natur durch entsprechende Strukturen realisiert sind. Und ohne diese Kenntnis der Baupläne und ihrer Funktionsbeschreibung war es natürlich nur unzureichend möglich, über einen biomimetischen Geruchssensor nachzudenken.
Anmerkungen der Redaktion
Glossar
Chemotaxis: Bewegung von Zellen (Organismen) in Richtung des Konzentrationsgradienten einer chemischen Substanz
Glucose: einfacher Zucker, der Lebewesen als primäre Energiequelle dient und Lieferant wichtiger Zwischenprodukte im Stoffwechsel ist. Hauptprodukt der Photosynthese, kann aber auch von allen Lebewesen selbst hergestellt werden.
pH-Wert: Maß für den sauren oder basischen Charakter einer wässrigen Lösung; definiert durch den negativen (dekadischen) Logarithmus der Wasserstoffionenkonzentration (-aktivität). Wasser mit üblicherweise neutralem Charakter hat einen pH-Wert um etwa 7.0. Lösungen mit pH-Werten unter 7 werden als sauer bezeichnet, über 7 als basisch.
Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren
Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische SensorenFr, 05.01.2012 - 04:20 — Inge Schuster
Dieser Beitrag dient als Einleitung zum Artikel von Wolfgang Knoll: „Die biomimetische künstliche Nase – wie weit sind wir?“, der in mehreren Teilen in den nächsten Wochen erscheinen wird.
Der letzte Beitrag von Gottfried Schatz im Science-Blog „Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen“ hat sich mit der Kommunikation von Nervenzellen beschäftigt. Diese erfolgt mit Hilfe kleiner chemischer Moleküle – Botenstoffen – die von einer elektrisch angeregten Senderzelle ausgestoßen werden, an spezifische Rezeptoren von Empfängerzellen andocken und mittels dieser Rezeptoren die Auslösung elektrischer Signale bewirken. Der Signaltransfer hängt von Art, Eigenschaften und individuellen Varianten der Rezeptoren ab, ebenso wie von denen der Proteine, die Synthese und Metabolismus der Botenstoffe bewirken.
Rezeptoren finden sich nicht nur auf Nervenzellen. Alle Zellen, von Einzellern bis zu den Zellen hochkomplexer Organismen, sind auf ihrer Oberfläche mit einer Vielfalt derartiger, hochspezifischer Sensoren ausgestattet, mit deren Hilfe sie miteinander kommunizieren und ebenso. unterschiedlichste Informationen aus ihrer Umgebung aufnehmen und auf deren Reize reagieren. Rezeptoren kontrollieren praktisch alle unsere physiologischen Funktionen, beginnend bei unseren Sinnesempfindungen, indem sie optische und akustische Reize, Reize des Riechens, Schmeckens und Tastens verarbeiten, Temperatur, Druck und räumliche Orientierung wahrnehmen -, bis hin zu komplexen, für die Entwicklung und Homöostase (= Aufrechterhalten eines ausgeglichenen, relativ konstanten Zustand) unseres Organismus essentiellen regulatorischen Netzwerken.
G-Protein gekoppelte Rezeptoren („GPCR“s) – die größte und vielseitigste Familie an Membranrezeptoren
GPCRs sind eine bereits in frühen Lebensformen vorhandene Familie von Membran-Proteinen, deren räumliche Struktur ebenso wie ihr Mechanismus des Signaltransfers über die Evolution konserviert geblieben sind. GPCRs sind offensichtliche Erfolgsmodelle. Seit ihrem ersten Auftreten hat die Natur daraus tausende Isoformen für das „Empfangen und Verarbeiten“ unterschiedlichster Signale entwickelt und damit eine der größten und vielseitigsten Protein-Superfamilien geschaffen. In den meisten Tierspezies stellen GPCRs die größte Proteinfamilie dar: Im menschlichen Genom gibt es beispielsweise mehr als 800 verschiedene Gene – das sind nahezu 4 % des Genoms -, die für unterschiedliche GPCRs kodieren.
GPCRs leiten Informationen von außerhalb ins Innere der Zelle weiter. Diese Informationen werden durch ein sehr weites Spektrum an Signalen ausgelöst: durch körpereigene Signale wie z.B. Kationen, Hormone, Lipide, Zucker, Neurotransmitter, Wachstumsfaktoren, ebenso wie durch sensorische Signale aus der Umwelt wie z.B. Photonen (Licht), Geruchs- und Geschmacksstoffe. Daraus resultiert eine Schlüsselrolle der GPCRs im Großteil aller unserer physiologischen Funktionen und ebenso in der Wahrnehmung unserer Umwelt.
Folgerichtig sind inadäquate Expression und/oder Dysfunktion des einen oder anderen Rezeptors auch mit einer Vielzahl an Krankheiten assoziiert. Es verwundert nicht, daß GPCRs zu den erfolgreichsten Zielstrukturen für wirksame Therapeutika wurden: Bis zu 50 % aller heute verschriebenen Arzneimittel wirken über GPCRs, darunter fallen so bekannte Klassen wie z.B. Beta-Blocker, Antihistaminika, Antipsychotika, zahlreiche Schmerzmittel u.v.a.m.
Als Sensoren für die Umwelt kommt unseren Geruchsrezeptoren offensichtlich besondere Bedeutung zu: Nahezu 400 GPCRs – d.i. die Hälfte aller humanen GPCRs – sind Rezeptoren für Geruchsstoffe, 28 GPCRs vermitteln Geschmacksempfindungen, 4 Rezeptoren optische Signale.
Wie funktionieren GPCRs?
GPCR’s sind in der Zellmembran eingebettet, durchdringen diese von der Außenseite bis ins Zellinnere und leiten Signale von außerhalb der Zelle ins Zellinnere weiter. Vereinfacht dargestellt: Jeder GPCR besitzt in seinem zur Außenseite orientierten Teil eine für ein bestimmtes Molekül (Ligand) hochspezifische „Bindungstasche“. Wenn ein Ligand in diese Tasche genau hineinpaßt, bewirkt dies eine Konformationsänderung des Rezeptors, auch in seinem innerhalb der Zelle befindlichen Teil. An dieses intrazelluläre Ende koppelt ein sogenanntes G-Protein, welches durch die Strukturänderung des Rezeptors aktiviert wird, seinerseits nun Effektorproteine aktiviert und damit eine spezifische, vielfach verstärkte Kaskade von Signalen auslöst, die schließlich zur zellulären Antwort führen (Abbildung 1).
Abbildung 1: Struktur eines GPCR und Signaltransfer
Sensoren nach dem Vorbild der Natur
Weltweite Grundlagenforschung an einer Vielzahl an GPCRs hat deren essentielle Rolle in physiologischen Funktionen nachgewiesen und die wichtigsten Schritte in den von GPCRs ausgelösten Signalkaskaden auf molekularer Ebene aufgeklärt. Die Ergebnisse dieser Forschungen haben u.a. zu zahlreichen neuen, hochspezifischen und hochwirksamen Arzneimitteln geführt (siehe oben) und zu innovativen therapeutischen Konzepten.
Aufbauend auf den Erkenntnissen zur Funktionsweise von GPCRs lassen sich diese Prinzipien biomimetisch – d.i. die Natur nachahmend – auch in technische Anwendungen umsetzen. Besondere Bedeutung kommt hier Sensoren zu, die nach dem Vorbild der Photosynthese Lichtenergie in elektrische Energie umwandeln können – etwa die „elektrochemische Farbstoff-Solarzelle“ von Michael Graetzel (http://www.heise.de/tr/artikel/31-Prozent-Wirkungsgrad-sind-mit-intensiver-Forschung-drin-1027456.html) – oder nach dem Vorbild des Riechvorgangs als „künstliche Nase“ unterschiedlichste Gerüche erkennen. Die Anwendungsmöglichkeiten derartiger künstlicher Nasen sind enorm: von der Qualitätskontrolle unterschiedlichster Produkte, Erkennung von Schadstoffen in der Umwelt, Diagnostik von Krankheiten bis hin zu kriminaltechnischen Anwendungen (Aufspüren von Drogen, explosiven Stoffen).
Zu diesem neuen und innovativen Gebiet biomimetischer Anwendungen erscheint, wie schon eingangs angekündigt, ein detaillierter Bericht über die Grundlagen zur Schaffung künstlicher Nasen und den Status der technischen Umsetzung von Wolfgang Knoll (wissenschaftlicher Geschäftsführer des Austrian Institutes of Technology (AIT)) ab nächster Woche.
Glossar
- GPCR
- G-Protein gekoppelter Rezeptor
- G-protein
- Guanin-Nukleotid (G) bindendes Protein. Ein aus drei unterschiedlichen Untereinheiten bestehendes Protein, welches in seinem „Ruhezustand“ Guanosindiphosphat (GDP) bindet, in der aktivierten Form GDP durch Guanosintriphosphat (GTP) austauscht. Dieser Austausch führt zur Dissoziation der α-GTP-Untereinheit vom Rest des G-Proteins, die dann auf (membrangebundene) Effektoren stößt – Proteine und diese anschaltet.
- GTP
- Guanosintriphosphat, energiereiches Molekül, das aus der Purinbase Guanin, dem Zucker Ribose und drei Molekülen Phosphat zusammengesetzt ist. Hydrolyse eines Phosphatrestes zu GDP setzt Energie frei. GTP wird im Citrat-Cyclus erzeugt und findet als Energieüberträger Anwendung u.a. im Signaltransfer via G-Proteine, in der Protein Biosynthese, in der Polymerisierung von Tubuli, etc.
Comments
Der Zoolhafen Mainz erhält…
Der Zoolhafen Mainz erhält ein 12-stöckiges, als Holzkonstruktion ausgeführtes Bürogebäude ›Timber Peak‹.