2019

2019 Redaktion Wed, 20.03.2019 - 01:05

Die Klimadiskussion – eine, die nirgendwo hinführt.

Die Klimadiskussion – eine, die nirgendwo hinführt.

Do, 26.12.2019 — Matthias Wolf

Matthias WolfIcon Politik & GesellschaftDie Klimadiskussion wird, nicht zuletzt befeuert durch die FFF- (Fridays for Future) Bewegung, immer hitziger. Zwei ›Lager‹ haben sich gebildet, die einander gegenseitig unterstellen, in allem, was sie sagen, daneben zu liegen; Wörter wie ›Grabenkampf‹ und ›Gesellschaftsspaltung‹ drängen sich auf. Exemplarisch für die gesamte öffentliche Debatte kann eine jüngst auf ServusTV geführte Diskussion im Talk im Hangar-7 stehen, die hier besprochen wird. Was keiner Seite in den Sinn kommt: sie können durchaus beide recht haben mit ihren Vorhaltungen, denn beide können daneben liegen – was nach Meinung des Autors der Fall ist und hier nachzuweisen versucht werden soll. Der folgende Text nimmt Bezug auf die Fernsehdiskussion, die man hier nachschauen kann (aber nicht unbedingt muss, um folgen zu können).

Der jüngste Talk im Hangar-7 unter dem Titel ›Politik verschläft Klimaschutz: Wachstum um jeden Preis?‹, hatte eine Gruppe von Klimabewegten auf der einen sowie Vertreter von Liberalismus und Wirtschaft auf der anderen Seite geladen; er kann stellvertretend für die gesamte gesellschaftliche Debatte als mahnendes Beispiel dienen: sie führt nirgendwohin.

Kurzzusammenfassung: Die Fraktion der Klimabewegten argumentiert immer wieder, dass wir das Gesellschaftssystem ›umbauen‹ müssten – und zwar rasch! – und insbesondere, dass der Kapitalismus an der Misere schuld sei. Die (selbstgefühlten) ›Realos‹ halten dagegen, dass einzig der Kapitalismus in der Lage wäre, das Problem zu lösen.

Spoiler: Beide Lager vermengen unterm Strich im Eifer des Gefechts munter Richtiges mit Halbrichtigem und Falschem und greifen letztendlich zu kurz.

Die Argumente

Analysieren wir zuerst, wo die Argumentationslinien richtig liegen und wo nicht.

Die Klimabewegten

Insbesondere eine junge Jus-Studentin argumentiert mit Herzblut für die Demokratie, die allerdings Lösungen hervorbringen müsse. Die vom Moderator immer wieder gestellte Frage, was, wenn sich keine Mehrheiten fänden, scheint ihr so unvorstellbar, dass sie ihr völlig sinn- und inhaltsleeres Ausweichen bzw. die dann doch von ihr angedeutete Entsorgung eben jener von ihr selbst hochgelobten Demokratie selbst nicht erkennt. Bei aller Sympathie: Studenten sind eben keine erfahrenen Krisenmanager mit Überblick und Sachkenntnis. Leuchtmittel und Staubsauger leistungszubegrenzen, um den Stromverbrauch zu senken, aber gleichzeitig die Gesellschaft ins E-Auto Abbildung 1: Prognose des weltweiten Energieverbrauchs. (Quelle: Energy Information Administration) setzen zu wollen, ist ein Widerspruch in sich, auch wenn das als nur scheinbar hingestellt werden soll. (Abbildung 1)

Durchaus richtig liegt sie mit dem Appell, eigenes Zögern nicht mit der Inaktivität anderer begründen zu können. Allein, sie zieht die falschen Schlüsse daraus: es geht nicht darum (und ist dem Planeten völlig egal!), aktiv zu werden um des aktiv Werdens Willen – es muss schon auch das Richtige getan werden!

Gänzlich falsch ist die Forderung nach einem Umbau der Gesellschaft: So etwas würde – selbst, wenn man Erfolgsaussichten unterstellte! – Jahrzehnte dauern. Zeit, die wir nicht haben; somit stellt sich die Frage auch nicht. Die Situation ist vergleichbar mit der eines Kapitäns, der feststellt, dass er mit seinem Containerfrachter 100sm von der Kurslinie abgekommen ist: Er kann nicht dorthin ›springen‹, wo er sein müsste. Er kann nur eine Kurskorrektur anordnen, damit das Ziel von der jetzigen Position aus noch erreicht wird. Ähnlich geht es uns: den ›entwickelten‹ Gesellschaften einen Totalumbau bis, bildlich gesprochen, 31.12. verordnen zu wollen ist nichts anderes als der Versuch, den Frachter 100sm zu versetzen. Vielleicht sogar aus der richtigen Motivation, das mag schon sein, aber nichtsdestotrotz völlig sinnlos, weil es aus prinzipiellen Gründen nicht einmal ansatzweise gelingen kann. Und schlimmer noch: schon der Versuch würde dringend benötigte Kapazitäten binden.

Die Gegenseite

Die Vertreter von Wirtschaft und Liberalismus halten dagegen, die Erfahrung lehre, dass nur der Kapitalismus in der Lage sei, derartige Probleme überhaupt zu stemmen. Insoweit liegen sie richtig: alles Oktroyierte führte in der Vergangenheit auf die eine oder andere Weise letztendlich ins Desaster. Und zwar egal, wie ›edel‹ die jeweilige Anfangsidee auch war. Völlig richtig ist, dass so oder so in die Bewältigung des Klimawandels gewaltige Summen fließen werden müssen, die jemand erwirtschaften muss, was ausschließlich und nur dem Kapitalismus überhaupt zugetraut werden kann. So weit, so stimmig.

Wo sie nicht richtig liegen, ist, den Vorschlag einer CO₂-Besteuerung als ›Planwirtschaft‹ zu bezeichnen. Eine CO₂-Steuer hat mit Planwirtschaft, wo Produktionsmengen und Preise bis auf Betriebsebene hinunter von oben dekretiert werden, nicht einmal in Ansätzen zu tun und die Vorhaltung soll lediglich das Konzept schon im Vorfeld diskreditieren. Leider eine zutiefst unseriöse Argumentattrappe.

Ebenfalls falsch (das ist jetzt weniger auf die Fernsehdiskussion als auf die allgemeine Debatte bezogen) liegt die gesamte Fraktion damit, ständig den wissenschaftlichen Erkenntnisstand in Zweifel zu ziehen. Es ist, im Gegenteil, sogar bestürzend ›schlicht‹, weltweite Jahrzehnte-Verschwörungen 100 000er zu unterstellen, Ergebnisse zu leugnen und/oder völlig Irrelevantes ins Treffen zu führen. (Um ein Beispiel zu nennen: ›Klimawandel gab es immer; er hat natürliche Ursachen.‹ Ja, und? Selbst wenn, was würde das am aktuellen Problem ändern? Aber ich kann Sie beunruhigen: die aktuelle Erwärmung ist, nach allem, was wir sagen können, von uns Menschen verursacht.)

Persönlich stimmt es mich zutiefst traurig, dass insbesondere Liberale – die sich selbst, sprechen wir's doch aus, intellektuell und an Informationsbereitschaft und -fähigkeit für überlegen halten – auch den dümmsten Schmonzes unhinterfragt weiterverbreiten, ohne irgendetwas dabei zu merken. Es ist geradezu verblüffend, in welch simpel gestrickte Konstruktionen sie sich mitunter versteigen, wenn man in Diskussionen beginnt, ihre Antithesen wissenschaftlich zu zerlegen. Motto: Es kann nicht sein, was nicht sein darf.

Und das bringt mich zum Hauptkritikpunkt: Dass von allen Pfeilen im Köcher nur der Kapitalismus das Problem erfolgreich angehen kann, stimmt. Was aber nicht stimmt, ist, dass sich die angesprochene Klimaproblematik im Kapitalismus bzw. seiner Wirtschaftsform ›Markt‹ sozusagen ›von selbst‹ regeln würde – es kann gar nicht stimmen.

Was leistet der Markt – und was nicht?

Und zwar, weil es das Wesen des Marktes in seinem Kern verkennt: Markt ist geeignet, ein Wirtschaften unter dem Diktat der ›knappen Ressource‹1 zu gewährleisten, weil sich ein Preis bildet, der sicherstellt, dass die zu einem Zeitpunkt zur Verfügung stehenden Ressourcen jeweils den ›höchstwertigen‹ Verwendungen zugeführt werden.

Nash-Gleichgewichte

Definiert von John Forbes Nash jr. (dessen Leben in ›A Beautiful Mind‹ verfilmt wurde. Sehenswert!)

Nash-Gleichgewichte, ein Begriff aus der Spieletheorie, stellen sich ein, wenn Gleichgestellte Eigeninteressen verfolgen. Es handelt sich um selbststabilisierende, suboptimale Gleichgewichtszustände, die nur noch schwer oder gar nicht verlassen werden können. Die Wikipedia nennt das ›Gefangenen-Dilemma‹ als Beispiel, aber ein anderes ist vielleicht viel griffiger:

Szenario: ein Strand, zwei Eisverkäufer. Optimal für alle wäre, wenn ein Verkäufer bei ¼ der Strandlänge stünde, der andere bei ¾. Abbildung 2a: Optimale Konstellation. (Bild: Autor) Dann würden beide gleich viel ver­kau­fen, kein Weg wäre für einen Eis­käufer länger als ¼ der Strandlänge.

Schnell kommt einer auf die Idee, sich 2m nä­her zur Mitte zu stellen, weil er da­durch dem anderen etwas von seinem ›Einzugsgebiet‹ abzwackt. Der andere merkt das, denkt sich ›nicht mit mir‹ und rückt 4m näher zur Mitte. Ende vom Lied: Abbildung 2b: Konstellation nach Erreichen des Nash-Gleichgewichts. (Bild: Autor)beide stehen Rücken an Rücken in der ½ des Strandes und verkaufen wieder gleich viel Eis (selbststabilisierend). Aber weniger als vorher, weil vielen Gästen an den Enden des Strandes der Weg jetzt zu lang wurde und sie lieber auf das Eis verzichten (suboptimal).

Für diese Entdeckung erhielt Nash 1994 den Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften3. Er erklärt spieletheoretisch, wieso eine Allmende (Gemeinschaftsalm) unausweichlich zur Übernutzung bis zur Zerstörung führt: weil jeder Spieler sein Ergebnis optimieren muss und keiner das Gesamtergebnis ›auf dem Schirm‹ hat.

Ist eine Ressource aber nicht ›knapp‹ – oder scheint es nicht zu sein – kann das Regelinstrument Markt nur versagen, weil die unbegrenzte (›freie‹) Ressource keinen Preis hat; sie ist gratis. Ohne hier allzusehr ins Detail gehen zu wollen: dieses Versagen wird in der ›Tragödie der Allmende‹ [1] sichtbar. Was sich einstellt – einstellen muss! – sind so genannte ›Nash-Gleichgewichte‹, die selbststabilisierend aber suboptimal sind. (Siehe Kasten.) Das ist, was wir auf oberster Ebene, jener der Staaten, beobachten und der Grund, warum ein Klimagipfel nach dem anderen scheitert.

Was wäre das Richtige?

Weder kann noch will der Autor versuchen, die Frage endrichtig zu beantworten. Aber ein paar Punkte seien skizzenhaft genannt – frei angelehnt an das ›Pareto-Prinzip‹ [2], nach dem man mit 20% des Aufwandes 80% des Effekts erzielt.

Es kann nicht darum gehen, die Gesellschaft zu verändern. Gesellschaften verändern sich zwar, aber jeder Eingriff von oben oder außen kann nur zu sozialen Unruhen führen – die sofort alles lähmen und so wieder das Ergebnis gefährden würden. (Aktuelles Beispiel: die ›gilets jaunes2 in Frankreich.) Es muss darum gehen, der Gesellschaft ihre materiellen Grundlagen auf nachhaltige Weise bereitzustellen – selbst, wenn das für Manche ein Reizwort ist. Bildlich gesprochen müssen wir die Bobbahn umbauen, nicht den Bob.

Der Ansatzpunkt

Der Hebel wäre also, die Atmosphäre von einer freien in eine knappe Ressource zu verwandeln. Übersetzt auf das Kapitalismus-Instrument Markt: sie muss einen Preis bekommen!

Das wurde in der Vergangenheit bereits mit der Etablierung eines Marktes von CO₂-Zertifikaten (leider handwerklich kurz gegriffen) versucht [3]; in diesem Punkt liegen die Klimabewegten also grundsätzlich richtig. Aktuell wird eine Erhöhung der Preise angestrebt [4] (was natürlich wieder ein Eingriff ist und somit aus liberaler Sicht eine Niederlage. Allein, a) mir fällt auch nichts Besseres ein und b) müssen wirtschaftlich Berufenere beurteilen, ob das in der angedachten Weise funktionieren kann. Ich bin da überfragt; ich kann nur sagen: grundsätzlich halte ich den Gedanken für richtig.)

Raus aus Kohlenstoff – und zwar mit oberster Priorität.

Insbesondere heißt Klimaschutz CO₂-Emissionen abzusenken. Zuerst müssten die Kohlekraftwerke vom Netz (siehe Abbildung 3), dann Gaskraftwerke. Wenn das bedeutet, dass wir Kernkraftwerke laufen lassen müssen, um die Grundlast bereit zu stellen, dann ist das zur Kenntnis zu nehmen [5]. Das verschafft uns die Zeit, die wir benötigen, um den Ausbau der Erneuerbaren, der Netze, der Speicher und der dezentralen Versorgung vorzunehmen. Abbildung 3: Absolute und relative Anteile der einzelnen Energieerzeugungsarten. (Bild: Wikimedia)(Natürlich spricht nichts dagegen, den Ausbau sofort anzugehen. Aber die Hoffnung, in wenigen Jahren 75 oder so Prozent der (weiter wachsen müssenden! – siehe Abbildungen 1 & 3) Energieversorgung so bereitstellen zu können, ist völlig unbetamt und von Sachkenntnis ungetrübt.)

Energie

Andere Energiequellen müssen erschlossen werden, wie Fusion und/oder alternative Kernkraftkonzepte (langfristig). Selbstverständlich auch völlig dezentrale Energieerzeugung, wie beispielsweise, dass alle neu errichteten Gebäude sich so weit es geht selbst mit Energie versorgen und sich intelligent mit einander vernetzen.

Obwohl das Meiste davon natürlich nur langfristig wirkt, würde es uns insgesamt in die Lage versetzen, Schwellenländern dann fertige Technologien in die Hand zu geben, wenn diese sie brauchen. Wer, außer uns, die ›1. Welt‹, hätte denn die Kapazitäten dazu? Denn ein weiterer, in der öffentlichen Debatte gern übersehener Punkt ist ja, dass aufstrebende Gesellschaften auch einen geradezu unersättlichen Energiehunger entwickeln. Auch das ist eine tickende Bombe, die es zu entschärfen gilt. Und am Beispiel Indien, wo sich aktuell 370 Kohlekraftwerke in Planung oder Bau befinden  [6], sieht man, dass das Hemd immer noch das ist, was es immer war: näher als der Rock.

Verkehr

Ein Spezialfall ist der Sektor Verkehr (bei uns immerhin verantwortlich für 25% der Emissionen): Viel sinnvoller als nur auf E-Autos (die schmutziger sind, als die Befürworter das wahrhaben wollen) zu setzen wäre es, CO₂-neutrale Kraftstoffe Abbildung 4: Klimarelevante Auswirkungen von C.A.R.E Diesel. Allerdings sind nicht alle Auswirkungen gleich. Zum Beispiel geht man davon aus, dass Aerosole (Feinstaub) kühlend auf die Atmosphäre wirken. (Bild: Toolfuel GmbH)zu entwickeln (was das atmosphärische CO₂ zwar nicht senken, aber wenigstens nicht noch weiter befeuern würde) und so den gesamten Verkehr zu neutralisieren. Das sollte für Schiff / Straße / Flugverkehr gleichermaßen in relativ kurzer Zeit machbar sein (was immer noch eher ›Jahrzehnte‹ als ›Jahre‹ heißt, denn so etwas will erst einmal im großen Maßstab ausgerollt werden). Das würde, nebenbei erwähnt, auch die Transport-Bombe entschärfen, die die Globalisierung im Kofferraum liegen hat.

Entwicklung alternativer Techniken sind mit Hochdruck voranzutreiben, aber man darf dabei nicht auf den Überblick vergessen! Das batteriegestützte E-Auto wird vermutlich seinen Platz haben (bei der aktuellen Akku-Technik habe ich Zweifel daran, dass es das sollte. Aber auch hier wird die Technik nicht stehenbleiben.) Aber auf diese einzige Karte zu setzen scheint mir mit an Sicherheit grenzender Wahrscheinlichkeit kontraproduktiv. Zu begrenzt ist (wenigstens derzeit) der sinnvolle Einsatzbereich. Auch Wasserstoff wird seinen Platz haben – wobei ich nicht der Meinung bin, dass ausschließlich elektrolytische Herstellung infrage kommt. Vielmehr gilt es, CO₂-Abscheidetechniken zu entwickeln, sodass wir auch katalytisch aus fossilen Trägern Wasserstoff gewinnen können (Das würde auch schlagartig H₂ von einer reinen, verlustbehafteten Speicherform in eine Energiequelle verwandeln. Das dabei – ebenso wie bei anderen Prozessen! – entstehende CO₂ können wir abzuscheiden und im Boden einzulagern lernen.)

Fazit

Die Liste möglicher und sinnvoller Ansatzpunkte ließe sich schier endlos fortsetzen. Leider zeigt bereits diese kurze auf, wie verengt der Blick der Spitzenpolitik, aber auch der Interessensvertreter zu sein scheint, die sich darin gefallen, operative Hektik vorzutäuschen und sich auf punktuelle Maßnahmen konzentrieren. Im guten Fall bringen sie wenig (E-Auto), im schlechten sind sie dem Ziel abträglich (Energiewende – jedenfalls so, wie von Deutschland auf Schiene gesetzt). Oft sind sie einfach auch nur ein Schwindeletikett: Stichwort ›Klimanotstand‹ in der EU – einer der gar nicht so vielen Regionen weltweit, in denen es mit an Sicherheit grenzender Wahrscheinlichkeit gar keinen geben können wird.

Trotz alledem bin ich bin unerschütterlicher Optimist und behaupte, wir stecken mitten im Lösungsprozess – es sieht nur nicht für alle danach aus. Für völlig verkehrt halte ich das Panikschüren von beiden Seiten: Die Einen, die behaupten, dass nichts getan würde und in den Raum stellen, dass wir in 10 Jahren gegrillt würden ebenso wie die Anderen, die business as usual fordern und den Rückfall ins Mittelalter an die Wand malen.

Was wir brauchen, ist Aufbruchsstimmung, nicht Resignation. Und schon gar nicht eine weitere Gesellschaftsspaltung.


Endnoten

1 Von einer ›knappen Ressource‹ spricht der Wirtschafter, wenn zu einem Zeiptunkt nicht genügend einer Ressouce zur Verfügung steht, um alle Anfragen gleichzeitig zu bedienen.

2 Die ›Gelbwesten-Bewegung‹ in Frankreich, die nach massiven Treibstoffpreiserhöhungen begann, das Land durch Demonstrationen und Streiks regelrecht ins Chaos zu stürzen.

3 Landläufig ›Wirtschaftsnobelpreis‹.


Nachweise und weiterführende Links

[1] Peter Schuster: Die Tragödie des Gemeinguts

[2] Peter Schuster: Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle Heuristik

[3] Wikipedia: Emmissionsrechtehandel

[4] t-online – AFP: Ein Preis für CO2 – was kostet uns das Klima?

[5] Helmut Rauch: Ist die Kernenergie böse?

[6] natur.de – Nadja Podbregar: Setzt Indien weiter auf Kohle?


 

mat Wed, 25.12.2019 - 08:55

Comments

Alternsforschung: Proteine im Blut zeigen Ihr Alter an

Alternsforschung: Proteine im Blut zeigen Ihr Alter an

Do, 19.12.2019 — Francis S. Collins

Francis S. CollinsIcon MedizinAltern dominiert als Risikofaktor für eine Reihe chronischer Krankheiten, welche verkürzend auf die Lebenszeit wirken. Die an Mäusen erhobene Hypothese, dass Proteine im Blut auf den Alterungsprozess einwirken, wurde in einer neuen Studie an Blutproben von mehr als 4 200 Personen im Alter von 18 - 95 Jahren untersucht und charakteristische altersabhängige, in Schüben erfolgende Veränderungen im Proteom (d.i die Gesamtheit der Proteine im Blut) beobachtet. Auf Basis von 373 (von insgesamt 3000) altersabhängigen Proteinen wurde eine Proteom-Uhr erstellt , die eine genaue Altersbestimmung von Testpersonen erlaubt. Francis S. Collins - Pionier der Genforschung und seit 10 Jahren Direktor der US-National Institutes of Health ( NIH) - berichtet über diese NIH-unterstützte Studie.*

Wie verändern sich im Alterungsprozess die Spiegel der Proteine im Blut?

Wie lässt sich feststellen, wie alt jemand ist?

Natürlich kann man in dessen Führerschein nachsehen oder nach Anzeichen von Gesichtsfalten und grauem Haar suchen. Wie allerdings Forscher in einer eben veröffentlichten neuen Studie herausgefunden haben, kann man der richtigen Antwort auch durch eine Blutuntersuchung ziemlich nahe kommen.

Das mag überraschend erscheinen. In einer kürzlich durchgeführten Studie, die im Journal Nature Medicine veröffentlicht wurde [1], gelang es einem NIH-geförderten Forscherteam jedoch, das Alter von Personen recht zuverlässig zu bestimmen, indem sie Blutproben auf die Konzentration von einigen hundert Proteinen untersuchten. Die Ergebnisse bieten wichtige neue Einblicke in das, was geschieht, wenn wir älter werden. Beispielsweise weist das Team darauf hin, dass der biologische Alterungsprozess nicht gleichförmig verläuft, sondern sich zeitweise zu beschleunigen scheint - wobei die größten Schübe im Durchschnitt im Alter um die 34, 60 und 78 Jahre auftreten.

Diese Ergebnisse deuten darauf hin, dass es eines Tages könnte möglich werden könnte mit Hilfe einer Blutuntersuchung Personen zu identifizieren, die biologisch schneller altern als andere (Abbildung 1). Solche Menschen wären bereits in jüngeren Jahren einem Risiko für Herz-Kreislauf-Erkrankungen, für Alzheimer-Krankheit, degenerative Gelenksveränderungen und andere altersbedingte Gesundheitsprobleme ausgesetzt.

Abbildung 1. Aus einer Blutprobe das Alter bestimmen. (Credit: Adapted from iStock/jarun011)

Darüber hinaus erweckt diese Studie die Hoffnung auf Behandlungen, welche die Proteom-Uhr (Proteom bedeutet hier die Gesamtheit der Proteine im Blut; Anm. Redn.) verlangsamen und Menschen helfen biologisch vielleicht jünger zu sein als es ihrem chronologischen Alter entspricht. Ein solches Szenario mag sich wie reine Phantasie anhören, aber die Forschergruppe der derzeitigen Studie hat schon vor einigen Jahren gezeigt, dass es tatsächlich möglich ist, eine ältere Maus zu verjüngen, wenn man ihr Blut von einer viel jüngeren Maus infundiert.

Die Proteom-Uhr

Diese und frühere Ergebnisse aus dem Labor von Tony Wyss-Coray (Stanford School of Medicine;(Palo Alto, Kalifornien), hatten auf die reizvolle Möglichkeit hingedeutet, dass im Blut junger Individuen bestimmte Substanzen vorhanden sind, die das alternde Gehirn und andere Körperteile verjüngen können. Auf der Suche nach weiteren Hinweisen untersuchte das Wyss-Coray-Team nun, wie sich die Zusammensetzung der Proteine im Blut mit steigendem Alter der Menschen ändert.

Zu diesem Zweck isolierten sie Plasma von mehr als 4.200 gesunden Personen im Alter von 18 bis 95 Jahren. Die Daten von mehr als der Hälfte der Teilnehmer verwendeten die Forscher dann, um eine Proteom-Uhr des Alterns zu erstellen. Diese Uhr konnte das chronologische Alter der verbleibenden 1.446 Studienteilnehmer innerhalb gewisser Grenzen genau vorhersagen. Die besten Vorhersagen basierten dabei auf nur 373 der insgesamt fast 3.000 mit der Uhr korrelierten Proteine.

Als weitere Validierung konnte die Proteom-Uhr auch das korrekte chronologische Alter von vier Personengruppen zuverlässig vorhersagen, die nicht an der Studie teilgenommen hatten. Interessanterweise war es möglich, eine vernünftige Aussage über das Alter bereits auf Grundlage von nur neun der aussagekräftigsten Proteine ​​der Uhr zu treffen.

Rolle im Alterungsprozess

Die Ergebnisse zeigen, dass mit dem Alter charakteristische Veränderungen im Proteom auftreten und wahrscheinlich wichtige und bisher unbekannte Auswirkungen auf die Gesundheit haben. Die im Blutkreislauf zirkulierenden Proteine stammen ​​schließlich nicht nur aus Blutzellen, sondern auch aus Zellen im gesamten Körper. Interessanterweise berichten die Forscher, dass Menschen, die aufgrund ihrer Blutproteine ​​biologisch jünger als ihr tatsächliches chronologisches Alter erschienen, auch bei kognitiven und physischen Tests bessere Ergebnisse erzielten.

Die meisten von uns betrachten das Altern als einen graduellen, linearen Prozess. Die Ergebnisse der Proteomstudie legen jedoch nahe, dass biologisch gesehen das Altern einem komplexeren Muster folgt. Einige Proteine ​​stiegen mit der Zeit allmählich auf fast lineare Weise an oder nahmen ab. Aber die Spiegel vieler anderer Proteine ​​veränderten sich mit der Zeit wesentlich stärker. Beispielsweise blieb ein neuronales Protein im Blut bis zum Alter von etwa 60 Jahren konstant und stieg dann an. Warum das so ist, muss noch geklärt werden.

Wie bereits erwähnt, konnten die Forscher zeigen, dass der Alterungsprozess in einer Reihenfolge von drei Schüben abläuft. Wyss-Coray sagte, es sei besonders interessant, dass der erste Schub in der frühen Lebensmitte um das 34. Lebensjahr stattfindet, noch lange bevor sich die üblichen Anzeichen des Alterns und die damit verbundenen Gesundheitsprobleme bemerkbar machen.

Dass Männer und Frauen unterschiedlich altern, ist allgemein bekannt; die Proteomstudie ergänzt die diesbezüglichen Beweise. Rund zwei Drittel der Proteine, die sich mit dem Alter veränderten, zeigten auch Geschlechtsunterschiede. Der Effekt des Alterns auf die wichtigsten Proteine ​​der Uhr ist jedoch viel stärker ist als die geschlechtsspezifischen Unterschiede, daher kann die proteomische Uhr das Alter bei allen Menschen genau vorhersagen.

Fazit

Insgesamt zeigen die Ergebnisse, dass Proteine im Blut ein brauchbares Maß für das chronologische und biologische Alter einer Person darstellen können und dass - zusammen mit früheren Studien von Wyss-Coray - diese Proteine eine aktive Rolle im Alterungsprozess spielen können. Wie Wyss-Coray sagt, will sich sein Team nun intensiver mit den Befunden befassen, um mehr über die Herkunft bestimmter Proteine ​​im Blutkreislauf zu erfahren, darüber was sie für unsere Gesundheit bedeuten und wie man die Proteom-Uhr möglicherweise zurückdrehen kann.


[1] Lehallier B, et al., Undulating changes in human plasma proteome profiles across the lifespan. Nat Med. 2019 Dec;25(12):1843-1850. (Das Paper ist nicht frei zugänglich; Anm. Redn.)


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 17. Dezember 2019) im NIH Director’s Blog unter dem Titel: "Aging Research: Blood Proteins Show Your Age" https://directorsblog.nih.gov/2019/12/17/aging-research-plasma-proteins-show-your-age/ und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

Die Horvath'sche Uhr zur Altersbestimmung: Norbert Bischofberger, 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft.


 

Redaktion Thu, 19.12.2019 - 05:51

Transhumanismus - der Mensch steuert selbst seine Evolution

Transhumanismus - der Mensch steuert selbst seine Evolution

Do, 12.12.2019 — Inge Schuster

vIcon Gehirn

Unter der Bezeichnung Transhumanismus sind In den letzten Jahrzehnten mehrere, von einander nicht scharf abgegrenzte weltanschauliche Strömungen vor allem im angelsächsischem Raum entstanden, die mit Hilfe von Wissenschaft und Technologie die Grenzen des biologischen Menschen überwinden und seine Fähigkeiten erweitern möchten. Alle diese Ideologien verbindet die Erwartung, dass damit die Chancen auf ein erfülltes Leben erhöht werden. Dies reicht von Gen-Verbesserung, Umkehrung des Alterungsprozess bis zur Verschmelzung von Mensch und Maschine (Cyborg) und darüber hinaus zu einer nichtbiologischen neuen posthumanen Spezies. Der folgende Überblick gibt meine Sicht als Biowissenschafter - jedoch ohne ethische Wertung - wieder.*

Im Verlauf der Evolution hat der Mensch großartige physische und geistige Fähigkeiten erworben - dass diese noch verbesserbar sind, ist unbestritten. Unter dem Begriff "Transhumanismus" sind In den letzten Jahrzehnten vor allem im angelsächsischem Raum mehrere, von einander nicht scharf abgegrenzte weltanschauliche Strömungen entstanden, die - an die Antike und später an den Renaissance-Humanismus und die Aufklärung anknüpfend - in Summe die Verbesserung des Menschen - das Human Enhancement - zum Ziel haben.

Nach Meinung der Transhumanisten ist der Mensch die erste Spezies, welche die eigene Evolution nicht mehr dem Zufall zu überlassen braucht, sondern - quasi im Zeitraffer - selbst planen und steuern kann.

Ziele der selbstgesteuerten Evolution

Basierend auf den Erkenntnissen der modernen (Natur)Wissenschaften und unter Einsatz bereits etablierter, noch zu realisierender oder auch erst in Zukunft denkbarer Technologien sollen die Grenzen der physischen und intellektuellen Möglichkeiten des Menschen erweitert und damit seine Chancen auf ein erfülltes Leben erhöht werden. Es geht um das Erreichen

  • einer höchstmöglichen Intelligenz,
  • einer höchstmöglichen Lebensdauer und
  • eines größtmöglichen Wohlbefindens.

Für eine derartige Optimierung und - nach eigenen Vorstellungen erfolgenden - Umformung des menschlichen Organismus, sehen Transhumanisten gezielte technische und genetische Eingriffe vor. Sie wollen damit den Alterungsprozess stoppen, degenerative Krankheiten ausmerzen, die mentale Leistungsfähigkeit steigern und insgesamt das Leben verbessern und verlängern. Das sind Vorhaben, welche zweifellos weitgehende Zustimmung finden; die weltweite Forschung hat dazu bereits eine Fülle neuer Erkenntnisse, Konzepte und Anwendungsmöglichkeiten geliefert.

Dubioser sind Pläne der sogenannten Kryoniker:

Menschen, die nicht auf lebensverlängernde Praktiken warten können, weil sie vorher an heute noch nicht heilbaren Krankheiten sterben, wird eine Zwischenlösung in Aussicht gestellt. Nach Meinung der Kryoniker tritt der Tod ja nicht mit dem Aufhören von Herzschlag und Gehirntod ein, sondern erst dann, wenn die Zellen des Körpers bereits irreversibel geschädigt sind. Um dies zu verhindern, werden "Patienten" unmittelbar nach ihrem klinischen Tod in flüssigem Stickstoff bei -196 °C (vitrifiziert) gelagert, mit der Zusage wieder "geweckt" zu werden, wenn der Fortschritt der Wissenschaft eine Heilung von der einst tödlichen Krankheit verspricht. Für dieses Verfahren existieren bereits mehrere Anbieter. Im größten dieser Unternehmen, der bereits 1972 in Arizona gegründeten Alcor Life Extension Foundation, lagern aktuell 171 solcher "Patienten" und 1269 Personen haben die legalen und finanziellen Vorkehrungen für den - nach ihrer Überzeugung - Zwischenzustand "nicht lebendig - nicht tot" getroffen.

Völlig utopisch

muten Visionen an, wohin sich der Mensch schließlich entwickeln soll. Insgesamt soll die Natur des Menschen - sein störungsanfälliger Körper, sein verbesserungsfähiges Gehirn - technisch überwunden werden, Mensch und Maschine zum hybriden Mensch-Maschine Wesen, einem sogenannten Cyborg (cybernetic organism) verschmelzen (Abbildung 1).

Abbildung1. Die Verschmelzung von Mensch und Maschine (Bild: pixabay, gemeinfrei)

Mit dem sich exponentiell beschleunigendem technologischen Fortschritt soll - optimistischen Schätzungen führender Transhumanisten zufolge - Künstliche Intelligenz in wenigen Jahren/Jahrzehnten die Leistungsfähigkeit der menschlichen Intelligenz erreicht haben und mit dieser dann zur Super-Intelligenz fusionieren. Ab diesem, als Singularity bezeichneten Zeitpunkt wird sich das menschliche Leben unvorhersehbar, irreversibel verändern. Radikale Transhumanisten gehen davon aus, dass das Gehirn dann in all seinen Funktionen samt dem emergenten Bewusstsein erforscht sein wird, alle seine Inhalte gescannt werden können und mittels eines sogenannten Mind-Upload auf einen anderen, nicht-biologischen Träger (z.B. ein elektronisches Netzwerk) hochgeladen werden können. Am Ende dieser Transformation steht dann ein posthumanes Wesen, eine digitale Kopie, die -losgelöst vom Körper - virtuell praktisch "ewig" weiterexistieren kann.

Das Transhumanismus Manifest

Die unterschiedlichen Strömungen moderater bis radikaler Transhumanisten haben schließlich zu einer gemeinsamen Deklaration zusammengefunden. Der britische Philosoph Nick Bostrom verfasste 1999 zusammen mit dem schwedischen Informatiker und Neurowissenschafter Anders Sandberg das Transhumanistische Manifest, welches von weltweiten Transhumanisten-Gruppen mehrmals umformuliert und in letzter Fassung 2009 von Humanity+ - dem Dachverband der Transhumanisten (siehe nächstes Kapitel) - angenommen wurde. Darin wird die Wahlfreiheit des Einzelnen betont sein Leben nach seinen Vorstellungen zu optimieren, aber auch die Risiken angesprochen, die neue Technologien mit sich bringen können und die moralische Verantwortung gegenüber künftigen Generationen berücksichtigt [1].

Wer sind die Akteure des Transhumanismus?

Den Traum die Grenzen der menschlichen Natur mittels innovativer Technologien zu überschreiten dürfte es seit Anbeginn der Menschheit gegeben haben. Mythen erzählen von Daidalos, der für seine Flucht ein - zumindest für ihn selbst - funktionierendes Fluggerät gebaut hat, vom Titanen Prometheus der das - für die Menschheitsentwicklung essentielle - Feuer zur Erde brachte. Im Mittelalter träumte man vom Jungbrunnen, der dem Altern ein Ende machen sollte, in der Renaissance hat Leonardo da Vinci eine unglaubliche Vielfalt neuartiger Maschinen zur Erweiterung der Tätigkeitsfelder des Menschen entworfen. Die Liste ließe sich noch sehr lange fortsetzen.

Den Begriff Transhumanismus selbst hat der Evolutionsbiologe, Eugeniker und Philosoph Julian Huxley, (Bruder von Aldous Huxley, dem Verfasser der "Brave New World") 1957 in seinem Buch "New Bottles for New Wine" geprägt. Er versteht darunter den Menschen,

"der Mensch bleibt, aber seine Grenzen überschreitet, indem er neue Möglichkeiten seiner menschlichen Natur und für diese Natur realisiert" [2].

Transhumanistische Vorstellungen blieben lange Spielplatz von Philosophen und Science-Fiction Autoren. Mit den bahnbrechenden Erkenntnissen der Molekularbiologie, mit neuen Technologien der Biotechnologie, bildgebenden Verfahren, neuen Methoden der regenerativen Medizin und insbesondere mit der exponentiellen Steigerung von Computerleistung und immer aussagekräftigeren Algorithmen setzte in den frühen 1980er Jahren die eigentliche Entwicklung des Transhumanismus ein. Kalifornien war das Zentrum, der Einzugsbereich der University of Los Angeles und des Hotspots für Innovationen und Startups, Silicon Valley.

Daraus sind weltweite, sehr einflussreiche ideologische Strömungen geworden; die Zahl der Aktivisten - eine heterogene Mischung u.a. aus Mathematikern, IT-Experten, Physikern, Technologen, Biowissenschaftern und Medizinern ebenso wie aus Philosophen, Ethikern, Ökonomen und auch Journalisten und Science-Fiction Autoren - ist stark gewachsen. (Details dazu in [3]).

Der Dachverband der Transhumanisten,

die World Transhumanist Association (WTA) wurde 1998 von den britischen Philosophen Nick Bostrom und David Pearce gegründet mit dem Ziel: i) die Öffentlichkeit mit neu aufkommenden Technologien vertraut zu machen, ii) die Rechte derer zu verteidigen, die solche Technologien für ihr Human Enhancement in Anspruch nehmen wollen und iii) mögliche Konsequenzen von aufkommenden Technologien vorweg zu nehmen und Lösungen vorzuschlagen. Diese rasch wachsende Einrichtung wurde später in Humanity+ umbenannt und zählt heute rund 6000 Mitglieder. Geschäftsführerin ist derzeit Natasha Vita- More, die Künstlerin, Designerin und Alternsforscherin, Pionierin des Transhumanismus und Professorin an der University of Advancing Technology ist. In ihrer Forschung an dem Modellorganismus Caenorhabditis elegans hat sie kürzlich ein für das Kryonik-Gebiet aufregendes Ergebnis gefunden: die Erinnerung des mikroskopisch kleinen Wurms an antrainiertes Verhalten blieb nach dem Kryokonservieren (Vitrifizieren) und Wiederauftauen erhalten.

Singularity University

Zu den prominentesten und schillerndsten Vertretern der Szene gehört der IT-Experte Ray Kurzweil, der durch Dutzende Erfindungen - u.a. des Flachbett-Scanners, des ersten Sprach-Synthesizers, von Lesegeräten für Blindenschrift und von Bilderkennungssoftware - berühmt und reich geworden ist. Als einer der radikalsten Transhumanisten vertritt Kurzweil die Vision einer schon bald eintretenden Singularität - der Verschmelzung von künstlicher mit menschlicher Intelligenz (siehe oben). Singularität trägt auch die von ihm 2008 gegründete Singularity University im Titel. Diese, in unmittelbarer Nachbarschaft zur Raumfahrtbehörde NASA und zum Mega-Unternehmen Google gelegene Privatuniversität wurde zum Zentrum transhumanistischer Ideologien, zu dem Führungskräfte und Startup-Unternehmer hin pilgern - trotz exorbitanter Gebühren und ohne einen akademischen Abschluss zu erhalten. Diskutiert wird hier mit Wissenschaftern und erfolgreichen Unternehmern aus dem Silicon Valley u.a. über Künstliche Intelligenz, Robotik , Synthetische Biologie, Virtual Reality und es werden Zukunftsideen entwickelt, welche die Welt verändern sollen. Die Singularity University wurde lange Jahre mit Millionenbeiträgen von Google-Alphabet unterstützt. Google, das Unsummen in die Entwicklung der Künstlichen Intelligenz investiert, hat Kurzweil 2012 als Chefingenieur für technische Entwicklung eingesetzt.

Thinktanks wie die Singularity Universität sind auch andernorts entstanden. Dank großzügiger Unterstützungen werden Hunderte transhumanistische Projekte auch an hoch renommierten Universitäten bearbeitet. Fördergelder kommen vor allem von Branchen die von transhumanistischen Visionen zu profitieren hoffen, insbesondere von IT-Branchen (die von diversesten implantierbaren Chips träumen) und auch von Pharmafirmen.

Auf dem Weg zum Cyborg

Wenn der Transhumanismus eine Verbesserung des Menschen durch technische und genetische Eingriffe vorsieht, so ist einiges davon schon heute realisiert. Die Optimierung des menschlichen Körpers durch Medizin und Technologie ist ja nichts Neues. Hilfsmittel zur Milderung/Behebung körperlicher Einschränkungen wie z. B. die Brille gibt es seit Jahrhunderten, Arm- und Beinprothesen reichen in die vorchristliche Zeit zurück.

Neben äußerlich angebrachten Prothesen finden sich im menschlichen Körper zunehmend diverse Ersatzteile - Implantate genannte Endoprothesen - und auch Chips:

Hüft- und Knieprothesen sind besonders bei älteren Personen häufig anzutreffen, künstliche Linsen und Netzhautimplantate geben die Sehkraft zurück, Cochleaimplantate können das Hörvermögen wieder herstellen, Zahnimplantaten ermöglichen wieder fest zubeißen zu können. Herzklappen können durch künstliche Klappen, beschädigte Gefäße durch Kunststoff- und Knorpelgewebe-prothesen ersetzt werden, Herzschrittmacher regen den Herzmuskel zur Kontraktion an, Hirnschrittmacher stimulieren bestimmte Hirnareale und werden u.a. bei Parkinson-Kranken angewandt. Dazu kommen Implantate in der plastischen Chirurgie, wie sie nach Unfällen aber auch für kosmetische Zwecke eingesetzt werden. Implantiert werden auch Depots von Arzneimitteln, die dann den Wirkstoff kontinuierlich über lange Zeit abgeben.

Transplantationen von Organen sind heute an der Tagesordnung. Aus Mangel an Spenderorganen arbeiten Forscher weltweit daran Organe wie Herz und Leber aus Stammzellen eines Patienten zu züchten (und auch im 3D-Drucker aufzubauen). Für Hauttransplantate funktioniert dies bereits seit längerer Zeit.

Ohne weiter darauf einzugehen: durch Genmanipulation und Genselektion wird ein Großteil der Krankheiten und auch Alterungsprozesse verhindert werden können; gentechnische Eingriffe (wenn auch noch nicht in die Keimbahn) sind bereits Realität geworden.

Schon lange Realität sind künstliche Befruchtung, Präimplantationsdiagnostik, Geschlechtsumwandlungen, etc. Mit Hilfe von Arzneimitteln können Gedächtnisleistungen und Lernvorgänge verbessert werden, kognitive Störungen gemildert.

Bereits eingesetzt werden direkte Gehirn-Computer- und Gehirn-Maschine-Schnittstellen. Körperlich behinderte Menschen können so durch Gedanken Geräte steuern und Prothesen bewegen. Einen Schritt weiter geht der Unternehmer Elon Musk (CEO von Tesla, Gründung/Beteiligung u.a. bei PayPal, dem privaten Raumfahrtsunternehmen SpaceX und SolarCity): er hat das Unternehmen Neuralink gegründet, das daran arbeitet Gehirnwellen direkt mit Künstlicher Intelligenz zu verbinden.

Chips, wie sie üblicherweise zur Identifizierung von Haustieren implantiert werden, stehen wegen Sicherheitsrisiken und möglichen Nebenwirkungen bei Anwendung am Menschen unter heftiger Kritik. Auf der positiven Seite stehen Nano-Chips, welche die Körperfunktionen überwachen und rechtzeitig Alarm schlagen, um Therapien zu ermöglichen. Der erste CHIP (RFID-Transponder) wurde übrigens bereits 2002 von der US-amerikanischen Food and Drug Administration (FDA) zugelassen. Unter die Haut am Arm implantiert kann dieser beispielsweise den Zutritt zu Räumen ermöglichen.

Einige der aufgezählten Anwendungen sind in Abbildung 2 zusammengefasst.

Abbildung 2. Neurotechnologien der Rehabilitierung, die auch zum "Enhancement" typischer menschlicher Fähigkeiten nützlich sein können. (Das Bild stammt aus: EP Zehr: The Potential Transformation of Our Species by Neural Enhancement. J Motor Behavior, (2015). 47, 73 -78.und steht unter einer cc-by-nc - Lizenz).

Viele Menschen könnten also auch als Cyborgs bezeichnet werden.

Cyborg nennt sich zumindest der von Geburt an farbenblinde Brite Neil Harbisson, der durch Auftritte in Talk-Shows populär geworden ist. Er zeigt sich dort mit einer am Kopf befestigten Antenne samt Farbsensor, der über einen implantierten Chip Farben aber auch Bilder in Töne umwandelt; damit erweitert er auch die naturgegebene menschliche Wahrnehmung.

Die Verschmelzung von Mensch und Technik ist also bereits voll im Gang. Technologien dienen nicht mehr nur behinderten und/oder kranken Menschen, sie erweitern auch die Fähigkeiten gesunder Menschen. Wir sind also bereits auf dem Weg in eine transhumanistische Gesellschaft.

Was ist machbar?

Vieles, was vor kurzem noch als reine Utopie gegolten hat, ist heute bereits realisiert worden oder in den Bereich des Realisierbaren gerückt. Wenn von der zunehmenden Verschmelzung Mensch-Maschine, Gehirn-Maschine die Rede ist, so sehen wir diese in vielen Aspekten bereits in Gang gebracht.

Die eingangs dargelegten Ziele des Human Enhancement - Erreichen einer höchstmöglichen Intelligenz, einer höchstmöglichen Lebensdauer und eines größtmöglichen Wohlbefindens - werden als realisierbar angesehen, lassen aber viele Fragen offen. Der Mensch als hochkomplexes, dynamisches System ist ja noch kaum verstanden.

Wie werden sich welche Eingriffe auf den Einzelnen, auf die Gesellschaft langfristig auswirken, welche Rückkopplungen können entstehen? Werden mehrere Klassen von Menschen entstehen - unverändert gebliebene, partiell veränderte und stark veränderte, die den anderen dann in allen Belangen haushoch überlegen sind?

Zu diesen Fragestellungen wird weltweit intensiv geforscht, als essentiell betrachtet man dabei die interdisziplinäre Zusammenarbeit, das Zusammenwachsen der neuen Disziplinen Nanotechnologie (Grundlage für alle Techniken auf der atomaren und molekularen Ebene), Biotechnologie (inklusive Gentechnik), Informationstechnologie (mit Elektronik, Robotik, Künstlicher Intelligenz) und Neurowissenschaften (mit dem Endziel des vollen Verstehens der Gehirnfunktion). In die Forschung dieser sogenannten Converging Technologies investieren die USA mehrere Milliarden Dollar auch in Europa erhalten sie milliardenschwere Förderung.

Ist Lebensverlängerung über ein physiologisch determiniertes Limit hinaus möglich?

Auch ein höchstmöglich optimierter Organismus ist den fehlerbehafteten biochemischen Prozessen in seinen Zellen und auch Schadstoffen aus der Umwelt ausgesetzt, die zu Mutationen im Erbmaterial, zu defekten Proteinen, zu gestörten Signalfunktionen, geschädigten Organellen, Zellen und Organen führen. Alle diese Prozesse unterbinden zu wollen, erscheint auch aus dem heutigen physiologisch, biochemischen Wissen kaum machbar.

Ist die kryonische "Zwischenlösung" machbar?

Ist das Vitrifizieren und Wiedererwecken toter Körper mit allen ihren früheren Funktionen machbar?

Was für einzelne intakte Zellen - wie Ei - und Samenzellen - und auch für den früher erwähnten Fadenwurm gilt, der im Besitz seiner Erinnerung erweckt wurde, ist zumindest in naher Zukunft wohl kaum auf den Vielzellenorganismus des Menschen übertragbar. Insbesondere nicht auf die Funktionsfähigkeit des ungemein komplexen Gehirns, mit der ungeheuren Zahl gealterter - da kaum erneuerbarer - Neuronen, die infolge der Vitrifizierung (zur Vermeidung von Kristallbildung) toxischen Kälteschutzmitteln ausgesetzt werden.

Mind Uploading

Einige Transhumanisten träumen davon den mentalen Inhalt des Gehirns auf ein externes Medium zu übertragen - das Mind Uploading -, das dann "ewig" weiterbestehen kann.

Auch, wenn Mammutprojekte wie das Europäische Human Brain Project die Funktionsweise des Gehirns aufklären und mit Hilfe von Modellen das gesamte Hirn simulieren wollen, so reicht das nicht als Basis für den Upload. Die ungeheure Komplexität unserer Denkfabrik resultiert ja nicht nur aus der Architektur und Vernetzung der Nervenzellen (inklusive Wechselwirkungen mit Glia- und anderen Zellen), sondern auch aus der Dynamik mit der elektrische und chemische Signale erzeugt und weitergeleitet werden. Zu den Inhalten des Gehirns gehören auch die Informationen, die es aus Rückenmark und peripherem Nervensystem erhält und schließlich auch die Signale, die unsere Mitbewohner - das Mikrobiom - in das Hirn senden.

Dies alles quantitativ in seiner Dynamik zu erfassen und modellieren zu wollen, erscheint - auch bei weiterhin exponentiell zunehmender Rechnerleistung - ein vielleicht in sehr ferner Zukunft diskutierbares Vorhaben.


[1] Transhumanist Declaration. https://humanityplus.org/philosophy/transhumanist-declaration/ abgerufen am 13.9.2019

[2] Huxley Julian, New Bottles for New Wine, Chatto & Windus, London (1957) https://archive.org/details/NewBottlesForNewWine/page 17 abgerufen am 16.9.2019

[3 ] More Max und Vita-More Natasha (eds),The Transhumanist Reader: Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future. John Wiley & Sons. (2013). https://books.google.at/books?id=YeFo_20rfz0C&dq=Daedalus%3B+or,+Science+and&hl=de&source=gbs_navlinks_s


*Dies ist die verkürzte Version des Artikels "Transhumanismus – Selbstgesteuerte Evolution des Menschen", der eben in Imago Hominis 26 (3) 131 – 140 · ISSN 1021-9803 erschienen ist. https://www.imabe.org/index.php?id=2662


 

inge Wed, 11.12.2019 - 20:18

Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Do, 05.12.2019 — Wolf Singer

Wolf SingerIcon Gehirn

Bereits heute übertreffen künstliche intelligente Systeme in einigen Bereichen die Leistungen des menschlichen Gehirns. In natürlichen Systemen, vor allem in der Großhirnrinde, sind jedoch Verarbeitungsstrategien verwirklicht, die sich in wesentlichen Aspekten von denen künstlicher Systeme unterscheiden. Ein besseres Verständnis natürlicher intelligenter Systeme kann zur Aufklärung der Ursachen von krankheitsbedingten Störungen beitragen und zudem die Konzeption wesentlich effizienterer künstlicher Systeme erlauben. Diese natürlichen intelligenten Systeme besser zu verstehen ist das zentrale Anliegen eines der renommiertesten Hirnforscher Prof. Dr.Dr.hc.mult Wolf Singer (Max-Planck-Institut für Hirnforschung und Ernst Strüngmann Institut für Neurowissenschaften, Frankfurt)*

Bereits heute übertreffen in manchen Bereichen die Leistungen künstlicher intelligenter (KI-) Systeme die von biologischen Systemen. Viele der effizientesten KI-Algorithmen orientieren sich an neuronalen Systemen, doch die Hirnforschung liefert Hinweise dafür, dass in natürlichen Systemen, vor allem in der Großhirnrinde, zusätzliche Verarbeitungsstrategien Anwendung finden, die sich von denen derzeitiger KI-Systeme grundlegend unterscheiden. Die meisten KI-Systeme beruhen auf den in den achtziger Jahren des letzten Jahrhunderts eingeführten „neuronalen Netzen“. Deren Architektur ist in Abbildung 1 skizziert.

Abbildung 1. Architektur eines „deep learning networks“: Die Knoten dieser Netze bestehen aus Schaltelementen, die gewisse Merkmale von Nervenzellen aufweisen - sie summieren die Aktivität der Eingangsverbindungen und geben das Ergebnis an die Knoten nachfolgender Verarbeitungsschichten weiter. © Ernst-Strüngmann-Institut/Singer

Jeder Knoten der Eingangsschicht ist mit vielen Knoten der nächsthöheren verbunden. Die ersten KI-Systeme umfassten nur drei Schichten: eine Eingangsschicht, eine mittlere Schicht („hidden layer“ genannt), deren Aktivität nicht direkt zugänglich sein muss, und eine Ausgangsschicht, die die Aktivitätsverteilung der mittleren Schicht ausliest. Heute sind die leistungsstärksten Netze bis zu hundert Schichten tief. Die besondere Schwierigkeit besteht darin, die Gewichtung der Verbindungen über Millionen von Lernschritten so einzustellen, dass jedes der zu unterscheidenden Eingangsmuster in der Ausgangsschicht zu einem leicht klassifizierbaren Erregungsmuster führt.

Damit solche Netzwerke z. B. zur Mustererkennung eingesetzt werden können, muss man dafür sorgen, dass ein bestimmtes Erregungsmuster der Eingangsschicht zur bevorzugten Erregung eines ganz bestimmten Knotens der Ausgangsschicht führt. Hierzu werden an der Eingangsschicht viele Muster erzeugt und es wird versucht, die Effizienz der Verbindungen zwischen den Schichten durch wiederholte Justierung schrittweise zu verbessern. Je nach Anzahl der zu unterscheidenden Muster und deren Ähnlichkeit kann dies viele Millionen von Justierungs- bzw. Lernschritten erfordern. Hierbei werden die Verbindungen ermittelt, deren Aktivität zu dem gewünschten Ergebnis beiträgt. Diese werden dann verstärkt und die anderen abgeschwächt. Es wird also die Abweichung vom gewünschten Ergebnis, der Fehler, in das Netzwerk zurückgemeldet. Dieser Prozess (back propagation genannt) ist extrem aufwändig und hat in biologischen Systemen keine Entsprechung.

Heutige künstliche Systeme beruhen auf dem gleichen Grundprinzip, umfassen jedoch bis zu 100 Schichten und werden deshalb als „deep learning networks“ bezeichnet. Beherrschbar ist diese riesige Zahl von Verbindungen zwischen den Schichten dank ausgeklügelter Algorithmen, welche die Justierung vornehmen, und dank riesiger Rechenkapazitäten und Datenbanken, die es erlauben, die Systeme mit Millionen von Beispielen zu trainieren.

In natürlichen Systemen sind Netzwerkknoten innerhalb einer Schicht und zwischen den Schichten reziprok miteinander verbunden

Charakteristisch für diese künstlichen Netze ist, dass es keine Verbindungen zwischen den Knoten innerhalb der gleichen Schichten gibt und der Aktivitätsfluss stets nur von den niederen zu den hohen Schichten erfolgt. Wie jedoch Abbildung 2 zeigt, unterscheiden sich künstliche Systeme von den natürlichen in genau diesen Aspekten: Die Knoten einer Schicht stehen über Myriaden von Verbindungen miteinander in Wechselwirkung und der Aktivitätsfluss zwischen den Schichten erfolgt in beiden Richtungen.

Abbildung 2. Stark vereinfachtes Diagramm der Verschaltung von Nervenzellen in der Großhirnrinde. Hier bestehen die Knoten des Netzwerkes aus Modulen von bereits sehr komplexen Schaltkreisen. Diese sind ihrerseits über Myriaden von rekurrierenden Verbindungen (rot) untereinander und über Rückkopplungsschleifen mit den Knoten der vorherigen Schicht gekoppelt. Somit erfolgt der Aktivitätsfluss sowohl horizontal wie vertikal in beiden Richtungen. © Ernst-Strüngmann-Institut/Singer

In biologischen Systemen wird die Effizienz der Verbindungen nach lokalen Regeln justiert. Nervenzellen dienen als Knoten, die viel mehr leisten, als Eingangsaktivitäten zu summieren. Ihre integrativen Eigenschaften werden durch komplizierte hemmende Schaltkreise und zudem durch eine Vielzahl modulierender Eingänge abhängig von der jeweiligen Aufgabenstellung verändert. Auch können die Knoten oszillieren und sich wegen der wechselseitigen Koppelungen in unterschiedlichen Frequenzbereichen synchronisieren. Auf Grund dieser Eigenschaften entwickeln die Neuronen-Netze der Großhirnrinde eine hochkomplexe, nicht-lineare Dynamik, die es erlaubt, sehr hochdimensionale Zustandsräume zu erschließen.

Mit diesen Eigenschaften natürlicher Neuronen-Netze können Rechenoperationen verwirklicht werden, die in bisherigen KI-Systemen nur mit sehr großem Aufwand zu realisieren sind: zeitlich aufeinander folgende Ereignisse lassen sich problemlos miteinander verrechnen, Bezüge zwischen bestimmten Mustermerkmalen können sehr flexibel kodiert werden und wegen der hohen Dimensionalität der Netzwerkdynamik kann mit relativ geringem Aufwand eine sehr große Menge an Information gespeichert werden. Auf diese Weise kann über die aktivitätsabhängige Justierung der Effizienz der reziproken Verbindungen eine riesige Menge von Informationen gespeichert und dasselbe Netzwerk dann zur Interpretation von Sinnessignalen verwendet werden.

Um unser Konzept zu überprüfen, müssen wir die Aktivität einer möglichst großen Zahl von Netzwerkknoten erfassen, Kenngrößen für deren dynamische Wechselwirkungen berechnen und bestimmen, wie diese sich verhalten, wenn gespeichertes „Vorwissen“ mit der jeweils verfügbaren Sinnesinformation verglichen wird. Wir nehmen diese Messungen an nicht-menschlichen Primaten vor, die gelernt haben, visuelle Muster zu unterscheiden, zu erinnern und uns durch Tastendruck das Ergebnis mitzuteilen – ähnlich wie Computerspieler. Während die Tiere die Aufgaben erledigen, erfassen wir mit dauerhaft implantierten Elektroden die Aktivität von Neuronen der Sehrinde. Die Implantation erfolgt in Vollnarkose und läuft genau wie die Implantation von Elektroden bei menschlichen Patienten ab. Die Messungen selbst sind für die Tiere nur wenig belastend und können in der Regel über viele Jahre hinweg ohne weitere Eingriffe vorgenommen werden.

Ausblick

Wir erhoffen uns von diesen Arbeiten ein tieferes Verständnis der neuronalen Prozesse, die unseren kognitiven und exekutiven Leistungen zu Grunde liegen. Unsere Überzeugung ist, dass diese Erkenntnisse den Schlüssel für das Verständnis der Ursachen gestörter neurologischer und psychischer Funktionen und für zukünftige therapeutische Ansätze bergen. Um hier Fortschritte zu erzielen, bedarf es jedoch noch erheblicher Anstrengungen in der Grundlagenforschung. Auch ist zu erwarten, dass ein tieferes Verständnis der Großhirnrindenfunktion dazu beitragen wird, energieeffizientere und flexiblere KI-Systeme zu entwickeln.  Hierfür sind jedoch neue Technologien erforderlich. Es genügt nicht, neuronale Prozesse mit gewaltigem Aufwand digital zu simulieren. Sie müssen direkt in geeigneten Hardware-Modulen implementiert werden, die auch analoge Rechenvorgänge verlässlich bewältigen können.


*Der unter dem Titel "Informationsverarbeitung in der Großhirnrinde" im Jahrbuch der Max-Planck Gesellschaft 2018 erschienene Artikel (https://www.mpg.de/12587759/esi-frankfurt_jb_2018?c=917421 DOI 10.17617/1.7M ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne Literaturzitate, die im Original nachgesehen werden können


Weiterführende Links

Artikel im ScienceBlog


 

Redaktion Thu, 05.12.2019 - 09:28

Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Do, 28.11.2019 — Ricki Lewis

Ricki LewisIcon MedizinDer Entwicklung neuer Arzneimittel geht die Suche nach Zielstrukturen - Targets - voraus, die essentiell in das Krankheitsgeschehen involviert sind und gegen die dann Wirkstoffe designt werden können. Der allergrößte Teil der solcherart gegen Krebserkrankungen entwickelten Stoffe scheitert aber in der klinischen Prüfung, wobei mangelnde Wirksamkeit einer der Hauptgründe ist. Unter Anwendung der CRISPR-Cas Technologie deckt eine neue Studie an einer Reihe von klinischen Entwicklungssubstanzen nun auf, dass deren postulierte Targets und damit die Wirkungsmechanismen unrichtig sind und eine bereits in der Präklinik erfolgende Validierung der echten Targets die Zahl unwirksamer klinischer Studien reduzieren könnte. Die Genetikerin Ricki Lewis berichtet über diese Studie.*

Siebenundneunzig Prozent der potenziellen neuen Krebsmedikamente erreichen nie den Markt; sie fallen in den klinischen Studien durch, wenn sie die Kriterien für Sicherheit oder Wirksamkeit nicht erfüllen.

"Wir haben keine Ahnung, warum das so ist. Die extrem hohe Ausfallsrate deutet aber meiner Meinung darauf hin, dass einige grundlegende Probleme in der Art und Weise bestehen, wie neue Zielstrukturen (Targets) für Wirkstoffe untersucht und neue Wirkstoffe charakterisiert werden “, meinte der Molekularbiologe Jason Sheltzer (Fellow am Cold Spring Harbor Laboratory, Long Island, NY) und beschloss diesbezüglich Untersuchungen anzustellen.

CRISPR - ein präzises Instrument

In der Zeitschrift Science Translational Medicine vom September 2019 berichten Sheltzer und sein Team, dass man die "Genschere"( Gen-Editing-Tool) CRISPR-Cas9 eingesetzt habe, um zu prüfen, ob 10 experimentelle Krebsmedikamente genau so wirken, wie ihre Entwickler es angekündigt hatten [1] (Abbildung 1). Und sie fanden, dass die Art und Weise, wie diese Substanzen für Targets gesucht hatten, mit einem Tunnelblick erfolgt war, was erklären könnte, warum bestimmte Patienten nicht so wie erhofft reagieren.

Wie ein Pfeil, der in einem Baum landet anstatt im Zentrum der Schießscheibe, können manche Krebsmedikamente ihre Targets tatsächlich nicht erreichen- allerdings waren viele Studien nicht dazu angelegt dies aufzudecken. Sehen Ergebnisse erfolgversprechend aus, so durchläuft die Entwicklungsverbindung das Labyrinth bis zur FDA-Zulassung.

Abbildung 1. Die CRISPR-Cas Technologie führt gezielt Doppelstrangbrüche in der DNA ein und ermöglicht ein präzises Manipulieren - Löschen, Korrigieren oder Ersetzen - von Genen in jeder Zelle.

Die Strategie von Sheltzer war einfach: Man wendet CRISPR an, um das Target der Wahl zu entfernen. Falls das Medikament dann immer noch wirkt, ist dieses Target nicht das wirkliche Target. Die Forscher testeten Wirkstoffe, die sich in klinischen Studien befinden oder einst befunden haben oder in präklinischen Studien (an Tieren oder menschlichen Zellen) - jedoch keine Krebsmedikamente, die derzeit auf dem Markt sind. Die Experimente wurden an von Krebspatienten stammenden Standardzelllinien durchgeführt.

„Das Konzept bei vielen dieser Wirkstoffe ist, dass sie die Funktion eines bestimmten Proteins in Krebszellen blockieren. Wir konnten allerdings zeigen, dass die meisten dieser Medikamente nicht dadurch wirken,dass sie die Funktion des als Target angegebenen Proteins blockieren“, erklärte Sheltzer.

Mit Hilfe von CRISPR wird eine genauere Bestimmung potenzieller Wirkstofftargets möglich als mit der älteren Methode, der RNA-Interferenz (RNAi). RNAi unterbindet die Genexpression, anstatt wie CRISPR ein Gen auszuschneiden.

Könnte ein kleines Molekül an mehr als eine Art von Targets binden, so wie wenn man Pfeile losschießt, die auf Bäume, Büsche und auch in das Zentrum der Schießscheibe treffen? Was in vitro ein validiertes Target für einen Wirkstoff darstellt, ist manchmal nicht gerade das, was in einem Körper passiert.

Allerdings kann ein Medikament zugelassen werden, ohne dass irgendjemand genau weiß, wie es wirkt. Dies trifft auf Antidepressiva zu, welche die Wiederaufnahme von Serotonin selektiv hemmen (SSRI). Bilder in Inseraten zeigen neuromuskuläre Synapsen, in denen das Medikament an die Wiederaufnahmeproteine ​​bindet und so Serotonin länger verfügbar in Synapsen hält und damit vermutlich ein die Symptomatik auslösendes Defizit ausgleicht. Googelt man aber nach SSRI, so erhält man die Antwort: "der genaue Wirkungsmechanismus von SSRIs ist nicht bekannt".

Vom "Brandroden" zum Treffen von Targets

Einige der neuen Krebsmedikamente zielen auf Moleküle ab, die für Krebszellen spezifisch sind (Abbildung 2) Unter diesen finden sich:

  • Rezeptoren von Wachstumsfaktoren oder Hormonen
  • Enzyme, die in der Zellteilung eine entscheidende Rolle spielen - wie Cycline und Kinasen
  • Immun-Checkpoint-Hemmer, welche die von Krebszellen verursachte Unterdrückung der Immunantwort aufheben.

Abbildung 2. Medikamente, die zielgerichtet ihr Target treffen.

Diese zielgerichteten Medikamente bieten eine Alternative oder Ergänzung zu herkömmlichen Medikamenten, die nicht nur die Krebszellen zerstören sondern ganz allgemein viele Typen von sich schnell teilenden Zellen.

Den Anfang der auf Targets abzielenden Medikamente hat 1998 Herceptin gemacht; seine Erfinder wurden kürzlich mit dem Lasker-Preis geehrt. Ein weiteres ungemein erfolgreiches Krebsmedikament, Gleevec, wurde 2001 in nur wenigen Monaten nach der Einreichung von der FDA zugelassen. Heute wird in Inseraten salbungsvoll das neue Arsenal an Krebstherapien vorgestellt: Zelboraf, Tafinlar, Keytruda, Opdivo.

Auf ein Target zugeschnittene Medikamente können allerdings versagen, wenn eine neue Mutation das Target verändert oder wenn Krebszellen einen alternativen Weg finden, der die Zellteilungsrate erhöht.

Zurück zum Sheltzer-Experiment

Die Forscher verfolgten einen zweifachen experimentellen Ansatz basierend auf den Überlegungen:

  1. Man entfernt das Target (beispielsweise ein Protein an der Zelloberfläche) in Krebszellen. Wenn sich die Zellen dennoch weiter teilen, war das Target nicht essentiell.
  2. Man fügt Krebszellen, in denen das Target entfernt worden war, den Wirkstoff zu. Wenn die Zellen trotzdem sterben, dann trifft die Substanz irgendetwas anderes.

Das erste getestete Medikament

Bereits früher hatte Sheltzer ein Protein namens MELK (“maternal embryonic leucine zipper kinase”) untersucht, gegen welches das Unternehmen, OncoTherapy Science, einen Inhibitor mit der Bezeichnung OTS167 entwickelt. Da MELK in vielen Tumorarten reichlich vorkommt, nahm man an, dass es für deren Wachstum essentiell und damit ein Target für Medikamente ist. Als aber nun mit CRISPR das für das MELK-Protein kodierende Gen entfernt wurde, passierte gar nichts.

"Zu unserer großen Überraschung starben die Krebszellen nicht ab, als wir diese Proteine ​​eliminierten, Im Gegensatz zu früheren Veröffentlichungen wuchsen die Krebszellen lustig weiter. MELK war ihnen einfach egal“, sagte Sheltzer.

Die Sheltzer-Gruppe veröffentlichte die Ergebnisse zu MELK im Jahr 2017 [2] und wies dabei auf die Möglichkeit hin, dass OTS167 möglicherweise den falschen Baum anbellt. Die Entwicklungsverbindung befindet sich nun in einer klinischen Phase-1-Studie (Sicherheitsprüfung) für solide Tumoren und rekrutiert Patienten für eine Phase-1-Studie bei dreifachnegativem und metastasiertem Brustkrebs.

Die MELK-Geschichte inspirierte die Gruppe, ihre „Strategie zur genetischen Target-Abklärung“ anzuwenden, um herauszufinden ob 10 weitere Wirkstoffe ihre mutmaßlichen Targets tatsächlich erreichen. In klinischen Studien erhalten insgesamt an die tausend Krebspatienten eines dieser Präparate verabreicht.

Eine andere Fehlannahme führt zur Entdeckung eines neuen Targets

In der erwähnten neuen Veröffentlichung [1] prüften die Forscher einen weiteren Wirkstoff - OTS964 - , der zur Behandlung bestimmter Lungen- und Brustkrebserkrankungen entwickelt wurde. Dabei haben sie ein neues Target für Krebsmedikamente entdeckt. Abbildung 3.

Abbildung 3. Auf Targets abzielende Krebstherapien basieren auf Mutation des Targets und nicht auf seine Lokalisierung in einem Organ (Bild: NHGRI)

Versuche mit Interferenz-RNA hatten darauf hingewiesen, dass die Zielstruktur von OTS964 ein Protein namens PBK ist. Aber CRISPR hat dann eine andere Geschichte erzählt- "es stellte sich heraus, dass die Wechselwirkung mit PBK nichts damit zu tun hat, wie der Wirkstoff tatsächlich Krebszellen abtötet", sagte Sheltzer.

Um herauszufinden, wie die auf PBK abzielende Substanz wirkt, versetzten die Forscher die Krebszellen mit einen hohen Überschuss davon und ließen den Zellen dann Zeit Mutationen zu generieren, die es ihnen ermöglichen würden, resistent gegen den Wirkstoff zu werden. Krebsgenome sind von Natur aus instabil und mutieren häufig. Wenn eine Mutation eine Zelle resistent gegen ein Medikament macht, so hat diese Zelle einen Vorteil und beginnt bald den Tumor zu dominieren.

Zu entdecken, wie eine Zelle gegen ein Medikament resistent wird, ist unbezahlbare Information.

Die Resistenz-Experimente haben gezeigt, dass die Verwundbarkeit der Krebszellen durch den Wirkstoffkandidaten OTS964, nicht PBK zuzuschreiben ist, sondern einem Gen, welches für das Protein CDK11 codiert. Dies ist eine sogenannte "Cyclin-abhängige Kinase", ein Enzym, das eine Komponente des Pfades ist, der zur Zellteilung führt.

Beginnend mit Ibrance im Februar 2015 hat die FDA hat bereits Inhibitoren der Cyclin abhängigen Kinase CDK4/6 zugelassen, um bestimmte Formen von Brustkrebs zu behandeln. CDK11 ist ein brandneues und möglicherweise bedeutendes Target.

Was kommt als nächstes?

Auf einer Pressekonferenz sind die Forscher auf Befürchtungen eingegangen, dass sich ihre Ergebnisse auf Menschen auswirken werden, die bereits auf Targets abzielende Krebsmedikamente einnehmen. Ihr Argument war, dass ihre Untersuchungen keine zugelassenen Medikamente betrafen, die auf Bäume statt auf Schießscheiben zielten.

Wie sieht es aber mit laufenden klinischen Studien an Krebswirkstoffen aus?

Sheltzer hat versucht die Leute, welche die Studien durchführen, aufmerksam zu machen. „Ich habe einen FOIA (Freedom of Information Act) bei der FDA eingereicht, um zu versuchen zusätzliche Informationen zur Sicherheit und Wirksamkeit dieser Prüfsubstanzen zu erhalten. Die FDA lehnte es ab, diese Daten weiterzugeben, und sagte, dass diese bis zur Zulassung der Medikamente durch sie geheim bleiben müssten.“

Sheltzer wandte sich auch an die Unternehmen, welche als Sponsoren der klinischen Studien auftraten; auch diese gaben keinerlei Information weiter.

„Ich denke, dass Geheimhaltung und Intransparenz in diesem Abschnitt der Arzneimittelentwicklung den wissenschaftlichen Fortschritt wirklich beeinträchtigen. Viele der an Krebspatienten getesteten Medikamente bringen diesen tragischerweise keine Hilfe. Würde man entsprechende Evidenz routinemäßig sammeln, bevor Entwicklungsprodukte in klinische Studien eintreten, wären wir besser in der Lage den Patienten Therapien zuzuweisen, welche diesen höchstwahrscheinlich einigen Nutzen bringen. Mit derartigem Wissen können wir meines Erachtens das Versprechen einer Präzisionsmedizin besser erfüllen “, sagte Sheltzer.

Die Pharmaunternehmen würden gut daran tun auf Grundlagenforscher mehr zu hören, die herausfinden, wie Dinge funktionieren oder eben nicht funktionieren (wie beispielsweise Shelzer). Die CRISPR-Technologie ermöglicht Forschern "eine verbesserte Suche nach den zentralen Genen im Krebsgeschehen und eine bessere Validierung des Wirkungsmechanismus eines Arzneimittels an seinem Target. Wir glauben, dass eine derartige präklinische Grundlage den Klinikern helfen wird, bessere klinische Studien zu designen, um die Ausfallrate neuer Medikamente zu senken “, schloss Sheltzer.


[1] Ann Lin et al., Off-target toxicity is a common mechanism of action of cancer drugs undergoing clinical trials. Science Translational Medicine  (2019): 11, 509, eaaw8412. DOI: 10.1126/scitranslmed.aaw8412

[2] Ann Lin et al., CRISPR/Cas9 mutagenesis invalidates a putative cancer dependency targeted in on-going clinical trials. eLife. 2017; 6: e24179. doi: 10.7554/eLife.24179


* Der Artikel ist erstmals am 24. Oktober 2019 in PLOS Blogs - DNA Science Blog unter dem Titel "When the Target Isn’t Really the Target: One Way Cancer Drugs Fall Out of Clinical Trials " erschienen (https://blogs.plos.org/dnascience/2019/10/24/when-the-target-isnt-really-the-target-one-way-cancer-drugs-fall-out-of-clinical-trials/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


Weiterführende Links

Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz )

Francis.S.Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie.


 

Redaktion Thu, 28.11.2019 - 12:30

Von Erwin Schrödingers "Was ist Leben" zu "Alles Leben ist Chemie"

Von Erwin Schrödingers "Was ist Leben" zu "Alles Leben ist Chemie"

Do, 21.11.2019 — Peter Schuster

Peter SchusterIcon wissenschaftsgeschichteAls Begründer der Wellenmechanik, die eine mathematische Beschreibung atomarer Vorgänge ermöglicht, war der österreichische Physiker Erwin Schrödinger berühmt und 1933 mit dem Nobelpreis ausgezeichnet worden. Bestrebt ein alles umfassendes Weltbild zu schaffen hat er vor 75 Jahren einen schmalen Band "Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet" herausgegeben, der ungemein populär wurde, viele der bedeutendsten Naturwissenschafter inspirierte (aber auch ernstzunehmende Kritik erhielt) und den Boden für eine molekulare Betrachtungsweise biologischer Vorgänge bereitete. Der theoretische Chemiker Peter Schuster (emer. Univ Prof an der Universität Wien) spannt hier den Bogen von diesen Anfängen der Molekularbiologie hin zu ihrem aktuellen Status. *

Von Schrödinger's "Was ist Leben?"…

Basierend auf drei öffentlichen Vorlesungen, die Schrödinger in seiner Dubliner Zeit am Trinity College gehalten hatte, erschien 1944 „Was ist Leben“ [1] Abbildung 1. Das schmale Bändchen war enorm erfolgreich, inspirierend und einflussreich: „Bis 1948 wurden 65 Rezensionen verfasst und etwa 100.000 Exemplare verkauft“ , schreibt Max Perutz 1987. Für die enorm positive Bewertung des Büchleins durch die Öffentlichkeit, die für eine wissenschaftliche Veröffentlichung, ja sogar für eine populärwissenschaftliche Schrift außergewöhnlich ist, sehen Historiker drei Gründe: (i) Das Heft ist in einer eleganten, lebendigen und fast dichterischen Form verfasst , (ii) Die Zeit war reif für ein Überdenken der wissenschaftlichen Wurzeln, auf denen die Biologie aufbaute und (iii) Fragen nach dem Ursprung des Lebens oder auch nach dem Ursprung des Universums sind nach wie vor von großem öffentlichen Interesse, da sie ja Antworten auf die brennende Frage bieten : "Woher kommen wir Menschen?"

Abbildung 1. Erwin Schrödinger (1887 -1961) um 1933 - als er den Nobelpreis erhielt und sein bahnbrechendes, 1944 erschienenes kleines Büchlein "What is Life". (Beide Bilder sind gemeinfrei)

„Was ist Leben?“ erschien unmittelbar bevor die Revolution in der Biologie - das Denken in molekularen Strukturen - einsetzte. Zahlreiche der berühmtesten Forscher - darunter die Entdecker der Doppelhelix-Struktur der DNA, James Watson, Francis Crick, Maurice Wilkins, der Genetiker Max Delbrück, der Phagenforscher Gunter Stent und der Neurophysiologe Seymour Benzer - äusserten durch Schrödingers Buch maßgeblich inspiriert und zu ihren Arbeiten ermutigt worden zu sein.

Die Begeisterung für „Was ist Leben?“ und sein starker Einfluss auf junge Wissenschaftler, insbesondere auf Physiker, stehen allerdings in krassem Gegensatz dazu, wie einige Top-Experten den wissenschaftlichen Inhalt bewerteten. Der für seine Arbeiten zur "Natur der chemischen Bindung" berühmte Linus Pauling, Max Perutz, der die Kristallstruktur des Hämoglobins aufklärte und der oben erwähnte Francis Crick - alle drei waren für ihre Arbeiten mit dem Nobelpreis ausgezeichnet worden - äußerten sich sehr kritisch. So regte sich Linus Pauling über Schrödingers Metapher von Organismen auf, die sich von „Negentropie“ ernähren, d.i. dass diese - anstatt in einen Zustand wachsender Unordnung zu geraten (beschrieben durch die Zustandsgröße "Entropie") und schlussendlich zu zerfallen - sich selbst strukturieren und diese Ordnung auch an die Nachkommen weitergeben, indem sie "Ordnung aus der Umgebung" aufnehmen. Pauling's Hauptargument war, dass das energetische und entropische Gleichgewicht der lebenden Zelle bereits verstanden wurde, als Schrödinger seine Vorlesungen hielt, dass die durch das zelluläre Adenosintriphosphat (ATP) - die „energetische Währung des Lebens" - bereitgestellte freie Energie eine viel größere energetische als entropische Komponente hat, und damit Freie Energie anstelle von Entropie in isothermen Systemen eine geeignete thermodynamische Funktion darstellt.

Max Perutz und Francis Crick kritisierten insbesondere Schrödinger's Verwendung des Begriffs „aperiodischer Kristall“. Makromoleküle und Polymere waren ja bereits seit Anfang der zwanziger Jahre durch die Arbeiten von Hermann Staudinger, Hermann Mark und anderen bekannt und sind keine Kristalle in dem Sinne, dass sie flexibel sind und keine Festkörperstruktur aufweisen. Laut dem Wissenschaftshistoriker Horace Judson erschienen Francis Crick einige Details von Schrödingers Wissenschaft „in ihrer Unbeholfenheit fast peinlich", er ätzte: "ich nehme an, der Mann hatte noch nie von einem Polymer gehört!"

Ein wichtiges Thema, auf das Schrödinger richtig hinwies: Wann immer eine Sequenz mittlerer Länge vorliegt, die aus mehreren Arten von Monomeren aufgebaut ist, kann aufgrund der „kombinatorischen Komplexität“ die Zahl möglicher Kombinationen das Universum leicht füllen. Wie wir aus dem Morse-Alphabet oder den Computercodes wissen, reichen zwei Symbole aus.

Wichtig und einflussreich war auch Schrödingers Ansicht, dass das Chromosom die Informationen für die nachkommenden Zellen der Zukunft in codierter Form zusammen mit der Maschinerie zur Herstellung der Zelle enthält. Damit formulierte Schrödinger hier erstmals das Konzept eines genetischen Codes; er irrte aber - wie es der britische Evolutionsbiologe Sidney Brenner ausdrückte "insofern als Chromosomen zwar die Information über den zukünftigen Organismus und eine Beschreibung der Mittel enthalten, um diese umzusetzen, aber nicht die Mittel selbst".

…zu Strukturen biologischer Makromoleküle…

Vor der Möglichkeit die Schrödinger-Gleichung auf Probleme in der Quantenchemie anzuwenden wurden Strukturen von Molekülen im Wesentlichen mittels "Haken und Ösen"-Modellen aufgebaut, wobei die Bindungseigenschaften der Atome aus empirischen Beobachtungen und dem Periodensystem abgeleitet wurden. Schrödingers Wellengleichungen erwiesen sich als sehr nützlich für die Analyse und Beschreibung chemischer Bindungen in kleinen und mittelgroßen Molekülen. Forscher wie Linus Pauling (s.o.) und der theoretische Chemiker Charles Coulson machten die Quantenchemie populär und der Erfolg in den Anwendungen führte zu den berühmten Aussagen:

"Es besteht kein Zweifel, dass die Schrödinger-Gleichung die theoretische Grundlage der Chemie darstellt.“ (Linus Pauling)

"Die grundlegenden Gesetze, die für die mathematische Behandlung eines großen Teils der Physik und der gesamten Chemie erforderlich sind, sind somit vollständig bekannt, und die Schwierigkeit liegt nur in der Tatsache, dass die Anwendung dieser Gesetze zu Gleichungen führt, die zu komplex sind, um gelöst zu werden." (Paul Dirac)

Die Natur chemischer Bindungen wurde korrekt als quantenmechanische Eigenschaft verstanden. Da Chemiker Struktur mit Reaktivität und Funktion korrelieren, wurden und werden viele und große Anstrengungen unternommen, um präzise molekulare Strukturen zu bestimmen. Die im Zentrum der zellulären Biologie stehenden Moleküle, insbesondere Proteine ​​(später auch Nukleinsäuren), wurden als lineare Polymere mit einem periodischen Molekülgerüst und Seitenketten erkannt, die aus mehreren Klassen von Monomeren - d.i. aus 20 Aminosäuren bereitgestellt wurden. Anfangs wurden bekannte, aus kleinen Untereinheiten bestehende Strukturen mittels Modellen zusammengesetzt: der erste Triumph der Strukturvorhersage durch Modellierung war Paulings α-Helix, die später in Polypeptiden und Proteinen nachgewiesen wurde (s.u.).

Die Anfänge der Molekularbiologie sind eng mit der Strukturaufklärung von Biomolekülen in kristallisierter Form mittels Röntgenanalyse verbunden. Die einflussreichste und spektakulärste Strukturvorhersage für ein Biopolymer - der DNA - gelang Watson und Crick aus den Daten der Röntgenbeugung und löste eine wahre Revolution in der Biologie aus. Die postulierte Struktur der DNA in Form einer Doppelhelix weist auf mögliche Mechanismen für zwei biologische Schlüsselprozesse hin (Abbildung 2):

(i) wie genetisches Material dupliziert wird (dazu Watson und Crick (1953): "Es ist unserer Aufmerksamkeit nicht entgangen, dass die von uns postulierte spezifische Paarung, einen möglichen Kopiermechanismus für das genetische Material nahelegt.)" und

(ii) die einfachste Art von Mutationen, sogenannter Punktmutationen, durch Ersatz eines einzelnen Nukleotids.

Abbildung 2 . Die von Watson und Crick postulierte Basenpaarung von Adenin (A)-Thymin (T) und von Guanin (G) - Cytosin (C) legt einen möglichen Kopiermechanismus für das genetische Material nahe und macht Punktmutationen (roter Stern) verständlich (die Replikation erfolgt hier mit Hilfe der Polymerase-Kettenreaktion unter Verwendung der bakteriellen Taq-Polymerase).

Etwa zur gleichen Zeit wie die DNA-Struktur wurden die ersten vollständigen Proteinstrukturen in molekularer Auflösung veröffentlicht - eine übliche Unterstruktur globulärer Proteine waren die von Pauling vorhergesagten α-Helices. Der schnelle technische Fortschritt in der Kristallstrukturanalyse, insbesondere als bald Computer für die umfassende Berechnung der Beugungsspektren eingesetzt wurden, machte nur das Wachstum ausreichend großer Einkristalle zum zeitlich limitierenden Schritt in der Bestimmung von immer mehr Proteinstrukturen.

…und wie ihre Funktionen zusammenhängen

Nicht zuletzt von Schrödingers „Was ist Leben?“ inspiriert suchten Molekularbiologen nach einem Code, mit welchem die in der DNA gespeicherten Informationen in Proteine übersetzt werden. Ein derartiger Code wurde bald identifiziert : eine Kombination von jeweils drei der vier Nukleobasen - Adenin (A), Thymin (T), Guanin (G) und Cytosin (C) - kodieren für jeweils eine Aminosäure; die Zuordnung dieser Triplettcodons zu den zwanzig einzelnen Aminosäuren wurde in wenigen Jahren entschlüsselt .

Die nächste wichtige Erkenntnis war, dass der Code für alle Organismen universell ist (eine kleine Zahl von Modifikationen ausgenommen, die später in den Standardcode aufgenommen wurden) . Jede Nachricht kann von der genetischen Maschinerie interpretiert werden: Drei „Nonsense Triplets“ kodieren für das Ende der Polypeptidkette.

Mit der Entdeckung der Genregulation in Bakterien durch François Jacob und Jacques Monod war ein zunächst noch vereinfachte, aber dennoch vollständiges dynamisches Bild der primitiven Zelle fertiggestellt.

Alle Strukturen und Prozesse konnten und können mit Hilfe der Chemie vollständig verstanden und interpretiert werden (Abbildung 3): Proteine ​​wirken als vielseitige und enorm spezifische Katalysatoren für die verschiedenen Reaktionen in der Zelle, die Nukleinsäurechemie erklärt den Zusammenhang zwischen Genetik und Proteinsynthese.

Abbildung 3. Zentrale Vorgänge in der lebenden Zelle: Replikation (pink), die exakte Verdoppelung des Informationsträgers DNA, Proteinsynthese (gelb), die in zwei Gruppen von Prozessen abläuft i) der Transkription, in der von einem DNA-Abschnitt eine komplementäre RNA-Kopie erstellt wird und ii) die Translation welche die RNA-Sequenz entsprechend dem genetischen Code in eine Proteinsequenz übersetzt, Metabolismus (blau), der die Bausteine zur Synthese der Biopolymeren herstellt.

Sowohl von der wissenschaftlichen Gemeinschaft als auch von der Öffentlichkeit wurde die neue Disziplin Molekularbiologie mit großer Begeisterung aufgenommen. Ein anschauliches Beispiel ist eine österreichische Fernsehproduktion in zehn Teilen im Jahr 1978 mit dem Titel "Alles Leben ist Chemie", die von dem Historiker Hellmut Andics produziert und dem berühmten, bereits erwähnten Polymerenchemiker Herrmann Mark vorgestellt wurde und enormes öffentliches Interesse erweckte.

Was ist anders in Chemie und Biologie?

Schrödingers Traum von neuen physikalischen Gesetzen, die in der Biologie zu entdecken wären, ist zumindest bis jetzt nicht Wirklichkeit geworden.

Ist Biologie also nichts anderes als Chemie mit größeren Molekülen, die aus einer Gruppierung von Atomen des Periodensystems aufgebaut sind?

Ist die Zelle eine viel komplexere chemische Fabrik - im Sinne der Theorie des sich selbst reproduzierendem Automaten, die der Mathematiker John von Neumann entwickelte?

Oder gibt es in der Biologie grundlegende Merkmale, die in der Chemie unbekannt oder zumindest ungewöhnlich sind? Zweifellos könnte man eine große Anzahl solcher Merkmale aufzählen, aber ich werde mich hier auf drei beschränken, die mit Schrödingers "Was ist Leben?" zusammenhängen: (i) biologische Evolution, (ii) Komplexität molekularer Strukturen, und (iii) Digitalisierung chemischer Informationen:

Biologische Evolution

Die erste charakteristische Eigenschaft biologischer Einheiten - Viren, Bakterien, Zellen und höhere Organismen - ist ihre Fähigkeit zur Evolution. Zwangsläufig hat die Biologie eine historische Komponente, nicht aber die Chemie. Jeder Organismus ist Träger von Informationen über seine Phylogenese und der Vergleich von DNA-Sequenzen hat sich bei der Rekonstruktion von genetischen Stammbäumen als äußerst nützlich erwiesen. Abbildung 4.

Abbildung 4. Ein hypothetischer phylogenetischer Baum der Lebewesen (basierend auf den ribosomalen RNA-Genen) zeigt die drei Domänen Bakterien, Archaea und Eukaryoten (Bild: aus Wikipedia, gemeinfrei)

Basis für die Evolution ist das Zusammenspiel von Variation und Selektion in einem über viele Generationen gehenden Multiplikationsprozess.

Variation in der Natur ist das Ergebnis zweier Prozesse: (i) Mutation- d.i. eine Änderung der Nukleotidsequenz und (ii) Rekombination - d.i. Mischen von Genvarianten.

Für Selektion ist allein die Anzahl der Nachkommen in den kommenden Generationen - die sogenannte Fitness - maßgeblich. Natürliche Selektion kann in Form von zwei Prozessen leicht mathematisch dargestellt werden: als Reproduktion unter begrenzten Ressourcen(Verhulst-Gleichung) und als chemische Kinetik der einfachen Replikation in einer Population.

Häufig wird nach der Optimalität der durch einen evolutionären Prozess erzeugten Entitäten, gefragt. Diese ist für das Überleben zukünftiger Generationen als solche nicht erforderlich. Erfolgreicher Wettbewerb muss nur besser sein, d. i. mehr Nachkommen als die Konkurrenten erzeugen. Im Gegensatz zu Ingenieuren kann die Natur nicht von Grund auf neu designen, sondern muss mit oder ohne geringfügige Modifikationen aus den vorhandenen Materialien bauen. Der Genetiker François Jacob hat dies so ausgedrückt: „Die Evolution entwirft nicht mit den Augen eines Ingenieurs, die Evolution arbeitet wie ein Bastler.“

Komplexität molekularer Strukturen

Das zweite Merkmal von zellulären Katalysatoren - Proteinen oder RNA-Molekülen - ist eine enorme strukturelle Komplexität, die sonst in der Chemie nicht anzutreffen ist. Zwei natürliche "molekulare Maschinen", die biologische Kernprozesse ausführen, können hier als Beispiele dienen: i) Die ungemein effiziente DNA-Replikationsmaschinerie der Zelle, welche Enzyme aus mindestens sechs Klassen umfasst, RNA-Primer und Einzelstrang-Bindungsproteine (Abbildung 5a) und ii) die Proteinsynthese-Fabrik des Ribosoms, ein großer Komplex von RNA-Molekülen und Proteinen, die durch Übersetzung (Translation) einer kodierenden Messenger-RNA mittels sogenannter Transfer-RNAs eine neue Polypeptidkette synthetisieren. (Abbildung 5b)Die katalytische Aktivität des Ribosoms wird von den ribosomalen RNA-Molekülen ausgeübt, während die Proteine ​​die Aufgabe erfüllen, die RNA in präzisen räumlichen Positionen zu halten.

Abbildung 5. Hochkomplexe molekulare Maschinen, die Schlüsselfunktionen in der Zelle innehaben: A) die Replikation der DNA und B) die Peptid/Proteinsynthese am Ribosom. (Beide Bilder stammen aus Wikipedia und sind gemeinfrei.)

Digitalisierung chemischer Informationen

Die Unterschiede welche die Stärke von Molekül-Wechselwirkungen in der Chemie bewirken, können in der Biologie durch Ja-Nein-Entscheidungen ersetzt werden. Als Beispiel diene die Basenpaarung in der DNA-Doppelhelix: Die Stärke mit der die beiden Basenpaare A - T (über zwei Wasserstoffbrücken) und G -C (über drei Wasserstoffbrücken) binden, unterscheidet sich um eine Größenordnung (Abbildung 6). Dennoch erscheinen die beiden Paare in der Doppelhelix mehr oder weniger äquivalent. Die Wasserstoffbindungen bestimmen zwar die Geometrie der Doppelhelix, haben aber fast keinen Einfluss auf ihre Stabilität, da in den Einzelsträngen Wasserstoffbrücken zum Wasser gebildet werden. Fazit: zwei Nukleotide bilden ein Basenpaar oder bilden eben kein Basenpaar.

Abbildung 6: Ausschnitt aus der DNA-Doppelhelix: Die Bindung des Guanin-Cytosin Basenpaares über 3 Wasserstoffbrücken ist um eine Größenordnung fester als die Bindung des Adenin-Thymin Basepaares über 2 Wasserstoffbrücken. (Bild: gemeinfrei)


[1] Erwin Schrödinger (1944): What is Life? The Physical Aspect of the Living Cell. http://www.whatislife.ie/downloads/What-is-Life.pdf (open access)


*Der vorliegende Artikel ist eine stark gekürzte, vereinfachte Fassung des Vortrags , den der Autor anlässlich des 75 jährigen Jubiläums von Schrödingers "What is Life?" am 18.11.2019 im Erwin Schrödinger Institut (Wien) gehalten. Eine reich bebilderte und mit vielen Literaturzitaten versehene ausführliche Fassung (in Englisch) findet sich auf der Homepage des Autors: https://www.tbi.univie.ac.at/~pks/Presentation/wien-esi19text.pdf und https://www.tbi.univie.ac.at/~pks/Presentation/wien-esi19.pdf .


Weiterführende Links

  • Erwin Schrödinger - Unsere Vorstellungen von der Materie (Originalvortrag 1952). Video 1:10: 53 h.
  • What is Life? Hommage an Erwin Schrödinger von Sir Paul Nurse (Nobelpreis 2001 für die Entdeckung von Schlüsselregulatoren der Zellteilung und -reifung). Imperial College, London, Video (2011) 1:05:25 h.
  • The Double Helix: Aufklärung der Struktur durch Crick & Watson, alte Archivaufnahmen und Interviews; 16:53 min.
  • Entstehung des Lebens – Abiogenese (10 minütige Diashow in deutsch; dies ist eine Übersetzung von "The Origin of Life - Abiogenesis"

Artikel zu verwandten Themen im ScienceBlog

Artikel von Peter Schuster

04.01.2018: Charles Darwin - gestern und heute.

23.05.2014: Gibt es einen Newton des Grashalms?

30.11.2013: Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

12.04.2012: Wie universell ist das Darwinsche Prinzip?

16.02.2012: Zum Ursprung des Lebens — Konzepte und Diskussionen.


 

Redaktion Thu, 21.11.2019 - 06:58

Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Do, 14.11.2019 — Georg Pohnert

Georg Pohnert Icon Meere Einzellige Algen sind im Plankton und den Biofilmen unserer Ozeane allgegenwärtig. Georg Pohnert (Max-Planck Fellow und Univ.Prof) und seine Teams am Max-Planck-Institut für Chemische Ökologie (Jena) und an der Friedrich-Schiller Universität (Jena) erforschen wie chemische Signale mikrobielle Gemeinschaften steuern, seien es die weiträumigen Ansammlungen von Algen im Plankton der Ozeane oder temporäre Biofilm-Gemeinschaften. Sie konnten zeigen, dass sowohl Mikroalgen als auch Bakterien im Plankton eine bislang unbekannte Schwefelverbindung produzieren und damit sowohl mikrobielle Interaktionen als auch den weltweiten Schwefelkreislauf grundlegend beeinflussen.*

Kieselalgen können gelöste Silikate im Wasser „riechen“

Kieselalgen (Diatomeen) sind ein Hauptbestandteil des Meeresphytoplanktons, wo sie freischwimmend im offenen Wasser verbreitet sind. Aber auch an Ufern und Stränden kann man sie als Biofilm auf Steinen und anderen Oberflächen finden. Die Algen sind nicht nur Nahrungsgrundlage vieler Meerestiere, sondern auch für eine überaus wichtige Ökosystemleistung verantwortlich: Sie tragen ganz erheblich zur globalen Photosynthese und somit zur Produktion von Sauerstoff in der Erdatmosphäre bei.

Die Kieselalge Seminavis robusta (Abbildung 1) eignet sich gut als Modellorganismus, um im Labor Verhaltensuntersuchungen im Biofilm durchzuführen: Sie kann sich sexuell vermehren und reagiert empfindlich auf unterschiedliche Umweltbedingungen. Zum Aufbau ihrer stabilen mineralischen Zellwände benötigen Kieselalgen das Baumaterial Silikat, das sie sich in ihrer Umgebung suchen müssen.

Abbildung 1. Ein ca. 40 µm langes Exemplar der einzelligen Kieselalge Seminavis robusta mit ihrer reich ornamentierten biomimeralischen Zellwand. Seminavis robusta ist zu einer bemerkenswerten Differenzierung von Signalstoffen fähig: Sie kann sich sowohl in Pheromon-Gradienten ihrer Artgenossen orientieren als auch Nährstoffquellen anorganischer Salze aufspüren. Sogar eine Priorisierung von Verhaltensmustern (der Suche nach dem Sexualpartner oder nach Nahrung) kann der Einzeller leisten. ©http://www.diatomloir.eu/

Unsere Experimente zeigten, dass sich die Einzeller im Zickzack-Kurs auf Silikat-Quellen zubewegen und dann an den Stellen verbleiben, an denen der Silikat-Gehalt besonders hoch ist. Während die Kieselalgen rund zwei Mikrometer pro Sekunde zurücklegen, werden sie ausschließlich vom „Duft“ der Silikate angezogen. Ersetzten wir das Mineralsalz durch strukturell sehr ähnliche Salze, die für die Algen giftig sind, bewegen sie sich von der Mineralquelle weg. Erstmals konnte so eine rezeptorvermittelte Suche von Mikroorganismen nach mineralischen Nährstoffquellen beobachtet werden. Die oft beobachtete Heterogenität von Biofilmen lässt vermuten, dass dieses Verhalten unter den Diatomeen weiter verbreitet sein könnte.

Essen oder Sex? Kieselalgen können sich zwischen Partner- oder Nahrungssuche entscheiden

In erster Linie vermehren sich die Algen ungeschlechtlich durch Zellteilung, episodisch ist aber auch die sexuelle Paarung überlebensnotwendig, denn die Zellen werden nach fortlaufender Teilung immer kleiner. Nur durch sexuelle Paarung können sie wieder die ursprüngliche Zellgröße erreichen. Um paarungsbereite Partner zu finden, folgen sie Pheromonspuren, die diese hinterlassen.

Unsere Experimente mit S. robusta ergaben, dass die Einzeller sogar in der Lage sind, ihr Verhalten flexibel an die Umweltbedingungen anzupassen und je nach Erfordernis der sexuellen Vermehrung unterschiedlich zu reagieren. Das heisst: Je nach Vermehrung oder Nahrungsknappheit lassen sich die Algen entweder von Sexualpheromonen oder Nährstoffen anlocken und zeigen damit tatsächlich eine primitive Verhaltensbiologie.

Für den Nachweis des priorisierten Verhaltens kultivierten wir die Zellen unter verschiedenen Bedingungen; insbesondere konfrontierten wir sie mit unterschiedlichen Mengen von Silikat sowie dem ersten für Kieselalgen beschriebenen Sexualpheromon di-L-Prolyl-Diketopiperazin, auch „Diprolin“ genannt. Wir konnten beobachten, dass die Einzeller sich zu Pheromonen oder Nahrungsquellen hinbewegen, je nachdem wie „hungrig“ sie nach Sex oder Nährstoffen waren. Diese Art von Entscheidungsfindung wurde bislang nur höheren Organismen zugeschrieben.

Mittels mathematischer Modelle konnten wir die komplexen Wechselwirkungen in den Gemeinschaften nachvollziehen und damit belegen, dass tatsächlich chemische Signale die Lebensgemeinschaften organisieren. Ein Verständnis davon, wie die Einzeller, die über kein Nervensystem verfügen, diese Reize verarbeiten, stellt nun die nächste große Herausforderung dar. Die Entscheidungen einzelner Algen erklären auch Aspekte der Dynamik von Biofilmen, in denen sich unzählige Kieselalgen zu Lebensgemeinschaften zusammenschließen.

Der Metabolismus von Einzellern hat Konsequenzen für globale Stoffkreisläufe

Abbildung 2. Selbst aus dem Weltall (hier ein Satellitenbild der NASA) lässt sich die Masse der einzelligen Algen (im Bild die Kalkalge Emiliania huxleyi) des Planktons erkennen. Mit ihrer hohen Produktivität tragen sie zu knapp der Hälfte der globalen Photosyntheseleistung bei. Aber auch der weitere Stoffwechsel der Algen beeinflusst unser Weltklima. Wir konnten z.B. eine neue schwefelhaltige Verbindung identifizieren, welche die Algen in Mengen von mehreren Millionen Tonnen jährlich produzieren. © NASA

Dass Mikroalgen in unglaublichen Mengen im Plankton vorhanden sind (Abbildung 2) und fast die Hälfte der globalen Photosyntheseleistung beitragen, macht sie auch zu Schlüsselspielern in globalen Stoffkreisläufen. Die Entdeckung von neuen Stoffwechselwegen in planktonischen Algen hat somit direkte Konsequenzen für unser Verständnis von globalen Prozessen.

Das konnten wir eindrucksvoll für den Schwefelkreislauf zeigen. Schwefel findet sich in ganz unterschiedlichen Verbindungen überall auf der Erde, und für marine Prozesse gibt es einen allgemein bekannten Kreislauf, bei dem Sulfat durch Algen reduziert und der reduzierte Schwefel bei osmotischem Stress oder Zelltod ins Wasser freigesetzt wird. Von dort gelangt der Schwefel in Form von Dimethlysulfid in die Atmosphäre, wird an der Luft oxidiert und regnet als gelöstes Sulfat wieder ab. Den Geruch des Dimethylsulfids verbinden wir Menschen mit „Meer“.

Mit einer ausgeklügelten Analytik konnten wir jetzt die wenig verstandenen hochpolaren Naturstoffe aus Mikroalgen untersuchen und fanden dabei das bislang unbekannte schwefelhaltige Stoffwechselprodukt Dimethylsulfoxoniumpropionat (DMSOP). Viele einzellige Algen, aber auch Bakterien, die ebenfalls im Plankton des Meeres dominieren, produzieren diese Schwefelverbindung. Sie spielt nicht nur eine wichtige Rolle in der Stressantwort der Algen, sondern trägt auch global zum Schwefelkreislauf bei: Von der Arktis bis zum Mittelmeer fanden wir in allen Planktonproben DMSOP. Überall in den Meeren sind die Produzenten der schwefelhaltigen Verbindung zu finden und die Verbindung stellt eine Abkürzung im etablierten Schwefelkreislauf dar. Auch wenn eine Mikroalge nur verschwindend kleine Mengen der Verbindung abgibt, sind das in der Summe mehrere Milliarden Kilogramm pro Jahr. Die Stressantwort der einzelligen Algen hat also globale klimarelevante Konsequenzen.

Fazit

Die Organisation von mikrobiellen Gemeinschaften im Ozean ist von globaler Bedeutung. Wir beginnen zu verstehen, wie chemische Signale in Biofilmen und im Plankton des offenen Meeres organisierend wirken. Unsere Forschung zeigt, wie die Physiologie und sogar eine primitive Verhaltensbiologie von Einzellern unsere Welt beeinflussen.


* Der vorliegende Artikel ist im Jahrbuch 2018 der Max-Planck-Gesellschaft unter identem Titel "Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren" erschienen https://www.mpg.de/12639353/ice_jb_2019?c=155396 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel wurde unverändert übernommen, allerdings ohne Literaturzitate - diese können im Original nachgesehen werden.


Weiterführende Links

Max-Planck-Institut für chemische Ökologie www.ice.mpg.de

Georg Pohnert homepage: https://www.ice.mpg.de/ext/index.php?id=hopa&pers=gepo2404 und https://www.ice.mpg.de/ext/index.php?id=plankton-interaction#header_logo

Artikel zu verwandten Themen in ScienceBlog.at


 

Redaktion Thu, 14.11.2019 - 13:57

Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt

Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt

Do, 07.11.2019 — Redaktion

RedaktionIcon GeowissenschaftenIn dem am 4. März 2019 erschienenen Bericht „Frontiers 2018/19: Emerging Issues of Environmental Concern“ [1] hat die Umweltorganisation der Vereinten Nationen (UNEP) vor fünf drohenden und bisher unterschätzten Umweltgefahren gewarnt, darunter vor dem infolge des Klimawandels drohenden Auftauen der arktischen Permafrostböden. Gefrorene Moore in diesen Zonen speichern etwa die Hälfte allen Kohlenstoffs, der weltweit in Böden festgehalten ist. Beim Auftauen würde Kohlenstoff in Form von Kohlendioxid und Methan freigesetzt werden und damit ein Kippelement für eine beschleunigte Erderwärmung darstellen.*

Wegen ihrer bedeutenden Rolle in der Speicherung von Kohlenstoff und der Abschwächung des Klimawandels erhalten die in den Tropen liegenden Moorgebiete viel Aufmerksamkeit. Sie speichern fast 120 Gigatonnen Torfkohlenstoff, dies sind aber nur etwa 20% des gesamten Kohlenstoffs, der in den Moorgebieten der Erde insgesamt eingeschlossen vorliegt. Die größten Mengen lagern in den nördlichsten Gebieten unseres Planeten, wobei die nördliche Polarregion fast die Hälfte des weltweiten organischen Bodenkohlenstoffs in Form von dauerhaft gefrorenem Torf enthält.

Ein Großteil des Bodens auf der Nordhalbkugel friert und taut den Jahreszeiten entsprechend auf; ein Teil bleibt dagegen das ganze Jahr über gefroren. Unter rund 23 Millionen Quadratkilometern des Nordens liegt Permafrost - d.i. ein Boden, der in mindestens zwei auf einander folgenden Jahren auf Minustemperaturen verbleibt. Arktische und subarktische Moore existieren in den Permafrostzonen von Kanada, Dänemark / Grönland, Finnland, Norwegen, Russland, Schweden und den USA. Permafrost-Moorgebiete mit einer Torfschicht von mehr als 40 Zentimetern Dicke bedecken 1,4 Millionen km2 und ein noch größeres Gebiet hat niedrigere Torfschichten. Abbildung 1.

Abbildung 1.Verteilung der Permafrost-Moorgebiete. (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; deutsche Beschriftung von Redn. Lizenz cc-by)

Ausgedehnte Permafrost-Moorvorkommen finden sich auch außerhalb der Arktis und Subarktis, beispielsweise in der Mongolei und auf der Qinghai-Tibet-Hochebene, wo Gebirgszüge verhindern, dass warme Meeresluft ins Landesinnere fließt und die Wintertemperaturen sehr niedrig sind.

Permafrost-Moore unterliegen einem raschen Wandel. Die Arktis erwärmt sich jetzt doppelt so schnell wie im globalen Durchschnitt. In den letzten Jahrzehnten sind die südlichen Permafrostgrenzen um 30 bis 80 km nach Norden zurückgewichen, was einen erheblichen Verlust an Bodenbedeckung bedeutet. Die mit dem Abbau des Permafrosts verbundenen Risiken bestehen darin, dass die Mobilisierung und mikrobielle Zersetzung von zuvor eingegrabenem, gefrorenem organischem Material zur Freisetzung von erheblichen Mengen Kohlendioxid und Methan führen kann, welche wiederum die globale Erwärmung bedeutend verstärken könnten. Ein weitgehender Abbau des Permafrosts hätte auch enorme direkte Auswirkungen auf die Ökosysteme, die Hydrologie und die Infrastruktur der Regionen.

Obwohl über Permafrost seit über einem Jahrhundert intensiv geforscht wurde, sind weitere Untersuchungen zu seiner Verbreitung, seinen Eigenschaften und seiner Dynamik erforderlich, um besser verstehen zu können, wie er auf den Klimawandel und Störungen durch den Menschen reagiert. Bei Moorgebieten mit Permafrost sind die Kenntnisse noch unvollständiger. Wie Permafrost-Moore auf ein sich erwärmendes Klima reagieren und welche Rolle sie insgesamt im globalen Klimawandel spielen, ist weit davon entfernt klar verstanden zu werden, da das Zusammenspiel von Permafrost, Ökosystemen und Klima äußerst komplex ist. Obwohl beispielsweise gefrorene (trockene) und aufgetaute (feuchte) Torfgebiete ähnliche Kohlenstoffabscheidungsraten aufweisen und als Kohlenstoffsenke wirken, weisen sie üblicherweise völlig unterschiedliche Fließeigenschaften für Treibhausgase auf und können als Netto-Emissionsquelle wirken. Darüber hinaus können gefrorene und aufgetaute Moorgebiete sich zeitlich und räumlich rasch ändern.

Das Auftauen des Permafrosts wird als eines der "Kippelemente" angesehen, das einen "galoppierenden Treibhauseffekt" oder ein unkontrollierbares "Treibhaus Erde" auslösen kann. Um solch ein zerstörerisches Szenario zu vermeiden, ist es entscheidend, dass der Permafrost der Welt und deren Torfgebiete gefroren bleiben und ihre Kohlenstoffeinlagerungen behalten.

Auftauen von Permafrost, Verrottung von Torf und komplexe Wechselwirkungen

Jedes Jahr des letzten Jahrzehnts war in der Arktis wärmer als das wärmste Jahr im 20. Jahrhundert. Weltweit sind die Temperaturen des Permafrosts in den letzten Jahrzehnten weiter gestiegen. Die stärksten Anstiege der mittleren Jahrestemperaturen des Permafrosts wurden in den kältesten Gegenden der Arktis beobachtet, wohingegen der Anstieg in "wärmeren" Permafrostzonen und in diskontinuierlichen Permafrostzonen viel geringer war. An einigen Orten sind die Temperaturen des Permafrosts aufgrund der jüngsten kalten Winter geringfügig gesunken.

Mit steigenden Temperaturen führt das Auftauen von eisreichem Permafrost oder das Abschmelzen von Grundeis zu ausgeprägten Einsenkungen in der Landschaft, die als Thermokarst bezeichnet werden. In den letzten Jahrzehnten scheint sich die Thermokarstbildung in Moorgebieten in den diskontinuierlichen Permafrostzonen beschleunigt zu haben. Langzeitbeobachtungen in der gesamten Arktis lassen jedoch auf keine einheitlichen, auf die globale Erwärmung zurückzuführenden Trends bei der Thermokarstentwicklung schließen.

Wenn vormals gefrorener Boden aufgrund des Tauens einbricht, ermöglicht das Einsinken die Entstehung kleiner, neuer Gewässer, die sich später zu Seen entwickeln können. Die Bildung von Thermokarstseen beschleunigt das Auftauen des Permafrosts - es wird noch schneller und geht tiefer. Andererseits könnte die Ausbreitung dieser Seen auch die Konnektivität von Entwässerungsnetzen verbessern und den Abfluss von Seen, das Nachwachsen der Vegetation, die Torfbildung und die Wiederherstellung des Permafrosts fördern. Diese gegensätzliche Dynamik verdeutlicht, dass es dringend notwendig ist die möglichen Auswirkungen des Trends der Erwärmung besser zu verstehen. Abbildung 2.

Abbildung 2. Moorgebiete und Permafrost: die Rolle von Torf, Pflanzen und Wasser (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; deutsche Beschriftung von Redn. Lizenz cc-by)

Der Klimawandel und erhöhte Temperaturen haben die Häufigkeit von Waldbränden in der Arktis dramatisch erhöht, wobei sich die Feuer in den Grenzregionen von Tundra und Wald-Tundra ausbreiten. Angefacht durch die Torfablagerungen setzen Brände enorme Mengen an Kohlenstoff frei, zerstören Vegetation und isolierende Bodenschichten und verringern die Albedo des Bodens (das Lichtreflexionsvermögen). Dies führt zu einer erhöhten Verletzlichkeit durch den Klimawandel und ausgedehnter Entwicklung von Thermokarst. Die Auswirkungen von beiden, wärmeren Temperaturen und Waldbränden, werden selbst unter den konservativsten Szenarien als besonders schwerwiegend für die diskontinuierlichen Permafrostzonen vorhergesagt, wobei die klimatischen Bedingungen für den Permafrost insgesamt ungünstig werden. Dies kann zu Veränderungen der Vegetationsarten und deren Ertrag führen, was wiederum größere und häufigere Waldbrände auslösen kann.

Ein weiterer Effekt der durch den Klimawandel verursachten Erwärmung besteht darin, dass das Auftauen des Permafrost beträchtliche Mengen an Methan, einem starken Treibhausgas, in die Umwelt freisetzen kann. Auch wenn es große Unterschiede in den Schätzungen der arktischen Methan-Emissionen gibt, so scheinen die aktuellen globalen Klimamodelle auf einen nur geringfügigen Anstieg der Methan-Emissionen aus den nördlichen Permafrost-Regionen zu schließen. Allerdings beinhalten die meisten Modelle keine adäquate Darstellung der Auftau-Prozesse.

In einer kürzlich durchgeführten Modellstudie wurden die langfristigen klimatischen Folgen des Permafrost-Abbaus untersucht, wobei die auf kürzlich gebildete Thermokarstseen bezogenen abrupten Auftauprozesse berücksichtigt wurden. Das Ergebnis lässt darauf schließen, dass innerhalb dieses Jahrhunderts die Freisetzung von Kohlenstoff in Form von Methan einen geringen Anteil an der gesamten Kohlenstoff-Freisetzung aus neu aufgetautem Permafrost ausmacht, jedoch bis zu 40% der zusätzlichen Erwärmung auf neu aufgetauten Permafrost zurückzuführen ist.

Der Klimawandel ist nur einer von vielen Faktoren, welche die Veränderungen in Permafrost-Mooren direkt beeinflussen. Jegliche Störung des Oberflächenbodens kann zu einer Degradation des Permafrosts führen, dazu gehören natürliche Prozesse wie Wald- oder Tundrabrände und anthropogene Störungen wie Entwicklung und Bau von Industrie- und städtischen Infrastrukturen, Bergbau, Tourismus und Landwirtschaft. Diese vielen Formen der Entwicklung in Permafrost-Torfgebieten lassen häufig die Besonderheiten der Gebiete außer Acht und verursachen eine Zerstückelung der Landschaft und eine Störung des Wasserkreislaufs. In Russland wurden 15% des Tundra-Territoriums durch Transportaktivitäten zerstört, was zum Auftauen von Permafrost, Erosion, Absinken und zur Entwicklung von Thermokarst führte. Etwa 45% der Erdöl- und Erdgasfördergebiete in der russischen Arktis befinden sich in den ökologisch empfindlichsten Gebieten, häufig in Moorgebieten, dazu gehören die Region Petschora, der Polarural sowie Nordwest- und Mittelsibirien. Der steigende Bedarf an natürlichen Ressourcen und die aufgrund der wärmeren Bedingungen verbesserte Erreichbarkeit von Frostgebieten können in Zukunft zu einer Zunahme der industriellen und infrastrukturellen Aktivitäten führen und die Störung von Mooren und Permafrost verstärken. Die daraus resultierenden Veränderungen werden sich auch auf die dort heimische Bevölkerung auswirken, die seit Generationen von der Nutzung eines Landes wie den Mooren für Nahrungsmittel, Rentiere, Wild und Fisch abhängig waren.

Die Wahrnehmung von Permafrost-Mooren wächst

Seit mehr als einem Jahrhundert und in zunehmendem Maße in den letzten Jahrzehnten sind Permafrostregionen Gegenstand von Forschung und technologischer Entwicklung geworden, um sich mit deren besonderen wissenschaftlichen und technischen Herausforderungen auseinander zu setzen. Trotz der Leistungen der Internationalen Permafrost-Vereinigung und des Global Terrestrial Network for Permafrost bleiben große Lücken im regional-und habitatspezifischen Wissen bestehen, nicht zuletzt aufgrund extremer klimatischer Bedingungen, eingeschränkter Zugänglichkeit und eines komplexen geopolitischen Umfelds. Ein aktueller (aus 2018 stammender) Überblick weist darauf hin, dass in der wissenschaftlichen Literatur 30% aller Zitate über Feldversuche in der Arktis primär aus der direkten Umgebung von nur zwei Forschungsstationen stammen: Toolik Lake in Alaska und Abisko in Schweden. Dies könnte den wissenschaftlichen Konsens beeinflussen und zu ungenauen Vorhersagen über die Auswirkungen des Klimawandels in der Arktis führen.

Mit dem wachsenden Bewusstsein für Klimawandel und Eisschmelze in der Arktis versuchen die jüngsten Assessments Aspekte wie den sozial-ökologischen Wandel, Regimewechsel und die Rolle menschlichen Handelns bei Anpassung und Umgestaltung in zunehmendem Maße einzubeziehen. Um die Auswirkungen von Auftauen und Abbau des Permafrosts zu untersuchen, werden Großforschungsprojekte entwickelt. Dazu gehört die Initiative "Arctic Development and Adaptation to Permafrost in Transition" (ADAPT), die mit 15 Laboratorien in ganz Kanada und anderen Forschergruppen zusammenarbeitet, um ein integriertes Rahmenwerk für Erdsystemwissenschaften in der kanadischen Arktis zu entwickeln. Gesetze wie der "Ontario's 2010 Far North Act" gehen zusammen mit neuen Planungsinitiativen zur Erschließung und zum Schutz des hohen Nordens durch einen Planungsprozess der Landnutzung in Absprache mit den Ureinwohnern (First Nations).

Der Arktische Rat ist ein Beispiel für eine starke internationale Zusammenarbeit, die besonders dazu beigetragen hat, Wissen für die nationale und internationale Politik zu generieren und zu vertiefen, wie etwa mit dem 2017 Bericht über Schnee, Wasser und Permafrost in der Arktis. Zwar wird anerkannt, dass die arktischen Staaten eine Schlüsselrolle als Verwalter der Region spielen, doch sind auch Anstrengungen anderer Akteure erforderlich, um Permafrost-Torfgebiete zu schützen und dafür zu sensibilisieren. Eine Reihe internationaler Organisationen, wie das Intergovernmental Panel on Climate Change (IPCC) - durch seinen IPCC-Special Report on the Ocean and the Cryosphere in a Changing Climate -, die World Meteorological Organization und das International Science Council durch das Internationale Arktis-Wissenschaftskomitee, haben sich zunehmend engagiert, um Bewusstsein und Verständnis für die Auswirkungen der arktischen Veränderungen zu erhöhen.

Wissenserwerb und Erweiterung von Netzwerken

Darüber, wie schnell sich Permafrost-Moore verändern und welche Auswirkungen diese Veränderungen auf lokaler und globaler Ebene haben werden, besteht große Unsicherheit. Um weitere Forschung langfristig zu finanzieren und praktikable Strategien zur Reduzierung von Schwachstellen zu entwickeln, bedarf es internationaler Zusammenarbeit. Die Nationen müssen bei einer Reihe umsetzbarer Maßnahmen kooperieren, die traditionelles und lokales Wissen anerkennen und anwenden, den Austausch mit Interessengruppen erleichtern und wirksame Beobachtungsnetzwerke aufbauen. Gleichzeitig werden Öffentlichkeitsarbeit und Aufklärung über die Risiken, die wahrscheinlichen Auswirkungen und möglichen Optionen zur Anpassung der Schlüssel zur Entwicklung einer "informed governance" und Politik sein.

Obwohl es ein Netzwerk von Beobachtungsstationen gibt, die Informationen über allgemeine Trends der Änderungen des Permafrosts liefern, ist die räumliche Verteilung der Standorte sehr ungleichmäßig. Es bestehen große Lücken im Netzwerk insbesondere in der zentralen Kanadischen und zentralen Sibirischen Arktis, in Grönland, im russischen Fernen Nordosten, auf dem tibetischen Plateau und in der subarktischen Region. Die rechtzeitige Beurteilung des globalen Zustands von Permafrost erfordert die Erweiterung bestehender Forschungs-Netzwerke zu einem umfassenderen Überwachungsnetz. Dieses erweiterte Netzwerk sollte für alle Beteiligten, von Klimaforschern bis zur allgemeinen Öffentlichkeit, optimal nutzerfreundlich gestaltet sein und die Verwendung standardisierter Messungen und leicht zugänglicher Datenbanken einschließen. Länder mit ausgedehnten Permafrostzonen würden von der Ausarbeitung von Anpassungsplänen profitieren, welche die potenziellen Risiken abschätzen und Strategien zur Minderung der Schäden und Kosten des Permafrostabbaus enthalten. Abbildung 3 zeigt das Beispiel eines russischen Permafrost-Moorgebietes.

Abbildung 3. Permafrost Moorgebiet mit zahlreichen Seen in Einsenkungen, Cape Bolvansky, Russland. Photo Credit; Hans Joosten (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; Lizenz cc-by)

Permafrost-Moore als Kohlenstoff-Hotspots stellen ein besonderes, sehr vielfältiges und dynamisches Umfeld dar, das komplexe Zusammenhänge zwischen Kohlenstoff im Boden, Hydrologie, Permafrost, Vegetation und Menschen umfasst. Die größten Wissenslücken liegen im begrenzten Verständnis der Wechselbeziehungen zwischen den Prozessen und in der Unzulänglichkeit aktueller Studien und Modelle. Weitere Forschungen sind erforderlich, um die genaue Lage der Permafrost-Torfgebiete, ihre Veränderung und ihr Freisetzungspotential zu untersuchen. Klimamodelle müssen Kohlenstoffemissionen aus der Mobilisierung von Permafrostkohlenstoff berücksichtigen. Um die Reaktion und das Feedback von Permafrost-Torfgebieten auf den Klimawandel besser zu charakterisieren, ist es wichtig, über disziplinübergreifende Untersuchungen hinauszugehen. Dies erfordert eine Annäherung an eine Integration und Feldbeobachtungen sowie retrospektive - oder paläo-umweltbezogene - Studien, Fernerkundung und dynamische Modellierung. Die physikalische Komplexität von Permafrost-Mooren und das signifikante Risiko ihrer möglichen Verschlechterung und Störung erfordern auch einen ganzheitlicheren Ansatz für die Planung der Landnutzung und Bewirtschaftung, der ein besseres integriertes Wissen für Planer und Entscheidungsträger erfordert.

Die Arktis hat bereits begonnen, sich erheblich zu verändern. Selbst bei vollständiger Umsetzung des Pariser Übereinkommens gemäß der Klimarahmenkonvention der Vereinten Nationen ist es wahrscheinlich, dass sich die arktische Umwelt bis zum Ende des Jahrhunderts erheblich von der heutigen unterscheidet. Die nahezu unvermeidliche Beschleunigung der Auswirkungen verstärkt den dringenden Bedarf an lokalen und regionalen Anpassungsstrategien, die auf diese kohlenstoffdichten nördlichen Ökosysteme abzielen. Die umsichtige Bewirtschaftung von Permafrost-Mooren wird der Schlüssel zu Treibhausgasemissionen, zur Verringerung der menschlichen und ökologischen Gefährdung und zum Aufbau einer langfristigen Klimaresilienz sein.


[1] Umweltorganisation der Vereinten Nationen (UNEP) „Frontiers 2018/19: Emerging Issues of Environmental Concern“ (4. März 2019) . https://wedocs.unep.org/bitstream/handle/20.500.11822/27538/Frontiers1819.pdf?sequence=1&isAllowed=y

Anmerkung der Redaktion:

Ein kürzlich (am 21.10.2019) in Nature Climate Change erschienener Artikel  (Large loss of CO2 in winter observed across the northern permafrost region; https://www.nature.com/articles/s41558-019-0592-8) hat die Ergebnisse an 100 arktischen Permafrost-Prüfstellen untersucht: im Mittel scheinen hier doppelt so hohe Kohlenstoffmengen in die Umwelt emittiert zu werden und so zur Klimaerwärmung beizutragen als man ursprünglich schätzte.

 Ein nicht zu überhörender Warnruf, auch wenn Zahl und Lokalisierung der Meßpunkte  nicht repräsentativ für den arktischen Permafrostbereich sein dürften!


* Der Artikel "Permafrost Peatlands: Losing ground in a warming world“ stammt aus dem unter [1] angeführten UNEP-Report „Frontiers 2018/19: Emerging Issues of Environmental Concern“ (4. März 2019). Der Text des unter einer cc-by Lizenz stehenden Artikels wurde von der Redaktion vollständig und möglichst wortgetreu aus dem Englische übersetzt und durch 3 Bilder aus dem Original ergänzt.


Weiterführende Links

Permafrost – Was ist das? Video (2016) 13:04 min
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung .

Ambarchik: Permafrost-Forschung an der sibirischen Eismeerküste. Video (2018) 4:25 min.
Max-Planck-Institut für Biogeochemie.

Russland: Das Ende des Permafrosts | Weltspiegel (2019) Video 7:05 min.


Artikel im ScienceBlog:

Auf die im UNEP-Report 2018/19 genannten fünf wichtigsten Herausforderungen, welche die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden - Synthetische Biologie, Ökologische Vernetzung , Permafrostmoore im Klimawandel (aktueller Artikel), Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel  - nehmen im ScienceBlog folgende Artikel Bezug:


 

Redaktion Thu, 07.11.2019 - 08:19

Was ist die Psyche?

Was ist die Psyche?

Do, 31.10.2019 — Nora Schultz

Nora SchultzIcon Gehirn

Die Psyche und ebenso ihre Erkrankungen sind stofflich solide verankert. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick wie Neurotransmitter, neuronale Netze und Genvarianten Aufschluss über psychiatrische Mechanismen und Risiken geben, und wie auch das Immunsystem und die Darmflora dabei mitmischen. *

 

René Descartes kannte noch zwei klar unterscheidbare Zutaten des Menschen: das Körperliche, die res extensa oder „ausgedehnte Substanz“, und das Geistige, die res cogitans oder „denkende Substanz“, zu der er neben den Gedanken auch alle weiteren Aspekte der Psyche zählte. Dieser auch als Dualismus bezeichnete Denkansatz hallt bis heute nach. Noch immer werden Körper und Psyche vielfach als getrennte Sphären wahrgenommen – Erkrankungen der Psyche gelten infolge als stofflich kaum begreifbar oder sogar als reine Einbildung.

Tatsächlich wissen wir inzwischen, dass die Psyche keineswegs in einem körperlichen Vakuum schwebt. Descartes‘ ursprüngliche Idee, dass Körper und Geist exklusiv über die Zirbeldrüse miteinander in Austausch stehen, hat sich zwar inzwischen als falsch herausgestellt. Doch über die echten stofflichen Wurzeln und Blüten des menschlichen Geistes – und somit auch seiner Erkrankungen – wird immer mehr bekannt.

Lehrreiche Nebenwirkungen

Die ersten großen Durchbrüche gelangen in den 1950er und 1960er Jahren, als Forscher erstmals zu ahnen begannen, wie manche Chemikalien sich auf das Gemüt auswirken. Die Tuberkulosepatienten in der Sea View Klinik auf Staten Island etwa erholten sich 1952 nach Einnahme des neuen Medikaments Iproniazid nicht nur von ihrer Infektionskrankheit, sondern tanzten plötzlich euphorisch durch die Gänge. Das ursprünglich als allergielinderndes Antihistaminikum entwickelte Medikament Chlorpromazin wurde, nachdem Ärzten seine beruhigende Wirkung aufgefallen war, 1952 mit dramatischen Erfolgen zur Behandlung von manischen und schizophrenen Patienten eingesetzt. Erst im folgenden Jahrzehnt entdeckten Forscher wie der Schwede Arvid Carlsson, der dafür 2000 den Nobelpreis erhielt, die Botenstoffe im Gehirn, deren Wirkung von diesen Medikamenten beeinflusst wurde, allen voran Dopamin, Serotonin und Glutamat.

Vor allem zwischen Serotonin und Dopamin und wichtigen psychischen Erkrankungen wurden bald Zusammenhänge entdeckt. Abbildung 1. Die Beobachtungen, dass eine Depression oft von einem Mangel an Serotonin begleitet wird und Schizophrenie von Dopaminüberschüssen, haben bis heute Bestand. Allerdings erweist sich die Sache als wesentlich komplexer, wie die Forschung in den nachfolgenden Jahrzehnten aufgedeckt hat [1].

Abbildung 1. Zu den wichtigsten Neurotransmittern zählen Dopamin (links oben) und Serotonin (rechts oben); Mangel oder Überschuss können zu psychiatrischen Krankheitsbildern führen.(Das von Pixabay stammende Bild ist gemeinfrei und wurde von der Redaktion modifiziert und. eingefügt).

So bestätigte sich zwar, dass ein Dopaminüberschuss etwa im limbischen System zu Reizüberüberflutung und dadurch zu den sogenannten pychotischen Plussymptomen des schizophrenen Krankheitsbilds beitragen kann, also etwa Wahnvorstellungen oder Halluzinationen. Für die ebenfalls auftretenden Minussymptome – emotionaler oder sozialen Rückzug zum Beispiel – wird hingegen inzwischen eine verminderte Dopaminübertragung mitverantwortlich gemacht, vor allem im Stirnhirn. Auch eine reduzierte Übertragung des Neurotransmitters Glutamat im präfrontalen Cortex und in den Verbindungen zu tiefer gelegenen Kerngebieten wie dem Striatum, spielen wahrscheinlich eine Rolle. Zudem beeinflussen sich das Dopaminsystem und das Glutamatsystem gegenseitig.

Auch der Zusammenhang zwischen Serotonin und Depressionen hat sich längst nicht als so eindeutig entpuppt, wie ursprünglich angenommen. Selektive Serotonin-Wiederaufnahme-Hemmer (SSRI) wie der bekannte Wirkstoff Fluoxetin wirken zwar bei vielen Betroffenen gut gegen Depressionen. Oftmals stellt sich der Effekt jedoch erst nach vielen Wochen der Behandlung ein. Würde sich eine erhöhte Serotoninkonzentration in den Synapsen direkt auf die Stimmung auswirken, wäre dagegen ein viel schnellerer Effekt zu erwarten.

Neurogenese durch Antidepressiva?

Inzwischen deutet vieles darauf hin, dass Serotonin seine heilsame Wirkung dadurch entfaltet, dass es neuronale Wachstumsprozesse beeinflusst. Häufig ist in den Gehirnen von Menschen mit Depression ein verkleinerter Hippocampus zu finden – eine Hirnregion, die eine wichtige Rolle bei vielen Emotionen und Lernprozessen spielt. Unter dem Einfluss von Serotonin modellieren hier Neuronen ihre Synapsen beim Bilden von Gedächtnisinhalten besonders intensiv um. Und möglicherweise entstehen auch im Erwachsenenalter noch neue Nervenzellen. Genetisch veränderte Mäuse, denen der molekulare Kanal fehlt, mit dem Serotonin recycelt wird, reagierten trotzdem weniger depressiv auf chronischen Stress, wenn sie SSRI-Medikamente erhielten. Auch die vor einigen Jahren entdeckte antidepressive Wirkung des Schmerzmittels Ketamin beruht wohl darauf, dass die Substanz die neuronale Plastizität (d.i. die Fähigkeit von Synapsen, Nervenzellen und ganzen Hirnarealen, sich abhängig vom Grad ihrer Nutzung zu verändern) stimuliert. Das Wachstum neuer Nervenzellen ebenso wie das Entstehen frischer Verknüpfungen von Nervenzellen helfen dabei, der Depression zu entkommen – vermutlich, weil sie es erleichtern, einen besseren Umgang mit Stressfaktoren zu erlernen.

Neuronale Plastizität spielt auch bei der Schizophrenie eine Rolle. Fachleute betrachten die Krankheit inzwischen weitgehend als Entwicklungsstörung des Gehirns, bei der synaptische Umbauarbeiten im Jugendalter schief laufen. Es werden zu viele Verbindungen zwischen Nervenzellen wieder abgebaut und die Feinjustierung der Botenstoffsysteme während dieser Entwicklungsphase wird gestört. Doch was verursacht die Ungleichgewichte in den Signalsystemen? Die hohe Plastizität im jugendlichen Gehirn mag es anfälliger für zufällige Fehler machen, aber auch empfindlicher für intensive Eindrücke und Erlebnisse, die ihre Spuren in den Netzwerken und Transmittersystemen hinterlassen können. Jugenderfahrungen bleiben nachweislich besonders intensiv im Gedächtnis haften und haben einen großen Einfluss darauf, wie sich Persönlichkeit und Verhaltensmuster ausformen. Jugendliche reagieren auch mit größerer Wahrscheinlichkeit heftig oder nachhaltig auf die Einnahme psychoaktiver Drogen wie Cannabis: Das Schizophrenie-Risiko steigt.

Auch bei Erwachsenen können intensiver Stress und emotionale Belastungen sowie Drogenkonsum psychiatrische Erkrankungen begünstigen. So treten Depressionen, Schizophrenie und Angststörungen häufig infolge besonders herausfordernder Lebensereignisse auf, seien es Komplikationen während Schwangerschaft und Geburt oder traumatische Erlebnisse wie Todesfälle, Gewalt oder Missbrauch. Studien zeigen, dass Stress genau entgegengesetzt zu Antidepressiva auf die Neubildung von Nervenzellen und synaptischen Verbindungen wirkt – er behindert beides. Abbildung 2.

Abbildung 2. Auswirkungen auf die Psyche durch Entzündungsprozesse, Stressreaktionen und auch durch die Darmflora.

Gestörte Konnektivität

Mithilfe funktioneller Magnetresonanz-Bildgebung lassen sich die neuronalen Verknüpfungen eines Gehirns als „Konnektom“ darstellen. Eine Untersuchung solcher Konnektome von über 1.000 Menschen mit und ohne psychiatrische Erkrankungen ergab, dass sowohl bei Patienten mit psychotischen Symptomen als auch bei solchen mit Depressionen im Vergleich zu Gesunden die neuronalen Verknüpfungen im frontoparietalen Netzwerk reduziert sind. Je massiver die Störung des Netzwerks, desto schwerer sind die Symptome. Die Details unterscheiden sich jedoch je nach Krankheitsbild. So finden sich im Gehirn von Menschen, die „nur“ an Depressionen oder einer bipolaren Störung leiden, vor allem Auffälligkeiten in den frontoparietalen und limbischen Netzwerken. Wer an psychotischen Symptomen leidet, zeigt hingegen oft breiter gestörte Konnektivität, die auch das Ruhezustandsnetzwerk betrifft.

Die Psyche ist aber auch jenseits der neuronalen Netze viel intensiver und komplexer körperlich verankert, als ursprünglich angenommen. So häufen sich mittlerweile die Hinweise darauf, dass auch Entzündungsprozesse und die Darmflora Auswirkungen auf die Psyche haben können. Entzündungen entstehen z. B. in Reaktion auf Infektionen oder Verletzungen, aber auch Stress, und dienen eigentlich dazu, durch erhöhte Temperatur und Immunaktivitäten Erregern den Garaus zu machen. Betrifft die Entzündungsreaktion den gesamten Körper, schlägt sie sich auch in typischen Krankheitssymptomen wie Abgeschlagenheit, Gliederschmerzen, Müdigkeit und Appetitlosigkeit nieder, die dazu verleiten, sich ins Bett zu verkriechen und sich auszukurieren.

Bleiben Entzündungswerte und -symptome dauerhaft erhöht, z.B. durch chronischen Stress oder chronische entzündliche Erkrankungen wie Diabetes oder Rheuma, können sich diese Symptome zu einer depressiven Dauerverstimmung auswachsen. Chronische Entzündungen und Depressionen treten häufig gemeinsam auf. Es gibt Hinweise darauf, dass die an Entzündungsprozessen beteiligten Botenstoffe die Blut-Hirn-Schranke überwinden und sich direkt auf Neurotransmittersysteme auswirken. Entzündungsfördernde Zytokine können zum Beispiel die Produktion von Serotonin mindern oder die Aktivität von Serotonin-Transportern erhöhen und so die Serotonin-Ungleichgewichte begünstigen, die sich bei vielen Depressionen zeigen. Zudem haben Wissenschaftler beobachtet, dass Entzündungsstoffe neurotoxisch wirken oder die Neurogenese im Hippocampus hemmen können.

Vom Darm ins Gehirn

Dass auch Darmbakterien sich auf die Psyche auswirken können, ist eine relativ neue Erkenntnis. Sie wirken offenbar über das Immunsystem, indem sie etwa spezialisierte Abwehrzellen auf den Plan rufen und Entzündungen fördern. Tatsächlich kann dies Immunzellen im Darm dazu anregen, Chemikalien zu produzieren, die bis ins Gehirn gelangen und dort psychiatrisch relevante Effekte entfalten. Einige Darmbakterien produzieren aber auch selbst psychiatrisch wirksame Substanzen oder stimulieren den Vagusnerv, der Signale aus dem Darm direkt ins Gehirn weiterleitet. Schraubt man am Gleichgewicht der Darmflora, kann das therapeutische Effekte haben. Sowohl die direkte Gabe erwünschter Mikroorganismen (Probiotika) als auch ein Plus an bestimmten Ballaststoffen in der Nahrung, die das Wachstum solcher Organismen im Darm fördern (Präbiotika), vermögen etwa Angststörungen positiv zu beeinflussen.

Ob eine psychiatrische Störung auftritt oder sich durch gezielte Eingriffe in die bislang bekannten biologischen Mechanismen beeinflussen lässt, hängt allerdings auch von genetischen Faktoren ab. Liegen risikofördernde Genvarianten vor, kann dies das Entstehen psychiatrischer Erkrankungen begünstigen und das therapeutische Bemühen erschweren. Genomweite Assoziationsstudien haben bereits Zusammenhänge zwischen etlichen Genvarianten und dem Auftreten von Störungen wie Schizophrenie oder Depression entdeckt. Sie betreffen zum Beispiel Proteine, die am Dopamin- oder Glutamatsystem beteiligt sind oder eine Rolle in der synaptischen Funktion und der neuronalen Entwicklung spielen. Eine Variante des Gens für den Wachstumsfaktor BDNF zum Beispiel produziert eine weniger verfügbare Form des Proteins, was vermutlich Einschränkungen bei der Neurogenese und synaptischen Plastizität nach sich zieht. Träger der Variante haben einen kleineren Hippocampus und entwickeln infolge starker Stressbelastungen, wie sie etwa nach einem Trauerfall oder einer Scheidung auftreten können, eher Depressionen oder Angststörungen als Menschen ohne diese Genvariante.

400 Jahre sind vergangen, seit René Descartes versuchte, die Wechselwirkungen zwischen Körper und Geist zu ergründen. Seine Nachfahren mögen voller Stolz auf den enormen Wissensschatz verweisen, den Wissenschaftler seitdem zusammengetragen haben, sowie auf die unzähligen Details, die auf die stofflichen Grundlagen von Gemütserkrankungen verweisen. Noch immer aber ist das Puzzle nicht komplett. Und mit der Umsetzung ihrer Erkenntnisse steht die moderne psychiatrische Forschung womöglich gerade erst am Anfang.

[1] O. Howes et al., Glutamate and dopamine in schizophrenia: an update for the 21st century. J Psychopharmacol. 2015 February ; 29(2): 97–115. doi:10.1177/0269881114563634


*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht die "Zukunft der Psychiatrie", zu dem auch der vorliegende, unter einer cc-by-nc-sa Lizenz stehende Text unter dem Titel "Die Substanz der Psyche" erschienen ist. Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert und es wurden Abbildungen eingefügt.


Weiterführende Literatur

  • Dinan TG, Stanton C, Cryan JF: Psychobiotics: A Novel Class of Psychotropic.Biological Psychiatry. 2013 Nov; 74(10): 720–726 (zum Abstract).
  • Amodeo G, Trusso MA, Fagiolini A: Depression and Inflammation: Disentangling a Clear Yet Complex and Multifaceted Link.Neuropsychiatry. 2017. 7(4): 448-457 (zum Volltext).
  • Durstewitz D, Koppe G, Meyer-Lindenberg A: Deep Neural Networks in Psychiatry. Molecular Psychiatry. 2019. doi: 10.1038/s41380-019-0365-9 (zum Volltext).

 

Redaktion Wed, 30.10.2019 - 18:16

Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

Do, 24.10.2019 — IIASA

IIASAIcon Politik & GesellschaftDie Digitale Revolution hat zu einem raschen technologischen Wandel geführt, der die Art und Weise verändert, wie Gesellschaften funktionieren und wie der Mensch auf die Erde einwirkt. Ein neuer Bericht der Initiative "Die Welt im Jahr 2050" (TWI2050-Bericht), unter Federführung des International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) ist auf dem hochrangigen politischen Forum der Vereinten Nationen in New York am 12. Juli 2019 veröffentlicht worden [1]. Der Bericht beschreibt, wie sich digitale Technologien nutzen lassen, um die 2015 von allen UN-Mitgliedsländern beschlossenen Ziele für Nachhaltige Entwicklung bis 2030 zu erreichen und darüber hinaus die Welt in eine nachhaltige Zukunft zu führen.*

Die Digitale Revolution – ein Begriff, der häufig verwendet wird, um den tiefgreifenden technologischen Wandel zu beschreiben – ist weltweit zum Thema der öffentlichen Diskussion geworden, und es zeichnet sich immer deutlicher ab, dass der digitale Wandel eine wesentliche treibende Kraft für eine gesellschaftliche Transformation ist. Dennoch ist Digitalisierung in den 2015 von den Vereinten Nationen beschlossenen "Agenda 2030 für nachhaltige Entwicklung" mit ihren 17 nachhaltigen Entwicklungszielen (Sustainable Development Goals, SDGs; siehe Abbildung 1), die bis 2030 umgesetzt werden sollen, kaum erwähnt. Gleiches gilt für den Pariser Weltklimavertrag, in dem die Digitalisierung nur marginal enthalten ist.

Nachhaltige Entwicklungsziele

Tatsächlich kann die Digitalisierung die Verwirklichung der nachhaltigen Entwicklungsziele aber erheblich unterstützen oder aber auch beeinträchtigen. Ein neuer Bericht -„The Digital Revolution and Sustainable Development: Opportunities and Challenges“ - beschreibt, wie die Digitalisierung die Welt verändern kann und wie diese Veränderungen für die Zeit bis 2030 und darüber hinaus geplant werden können.

Abbildung 1. Agenda 2030 für nachhaltige Entwicklung: Die 17 Ziele (und 169 Unterziele, nicht gezeigt) für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) sollen bis 2030 global und von allen 193 UNO-Mitgliedstaaten erreicht werden. (Bild: WP:NFCC#7 Wikipedia, deutsche Version: © Bundeskanzleramt Österreich; Bild und Text von der Redaktion eingefügt.)

„Der digitale Wandel verändert in radikaler Weise alle Dimensionen globaler Gesellschaften und Volkswirtschaften und wird wahrscheinlich auch unsere Auffassung des Paradigmas der Nachhaltigkeit selbst verändern. Gemeinschaften für nachhaltige Entwicklung und digitale Technologie sind noch nicht ausreichend miteinander verbunden, um diese Probleme voll angehen zu können. Der Wandel zur Nachhaltigkeit muss mit Gefahren, Chancen und Dynamik der Digitalen Revolution, den Zielen der Agenda 2030 und dem Pariser Klimaabkommen in Einklang gebracht werden. Digitalisierung ist nicht nur ein Werkzeug um Herausforderungen der Nachhaltigkeit zu bewältigen, sondern auch ein wesentlicher Faktor für umwälzende ("disruptive") Veränderungen auf vielen Ebenen “, sagt Nebojsa Nakicenovic, Executive Director der Forschungsinitiative The World in 2050 (TWI2050).

In dem kürzlich unter dem Titel "Digitale Revolution und nachhaltige Entwicklung: Chancen und Herausforderungen" veröffentlichten TWI2050-Bericht, der vom IIASA, dem Institut für Umwelt und menschliche Sicherheit (United Nations University, UNU (UNU-EHS), und von Partnern mit herausgegeben wurde, haben mehr als 45 Autoren und Mitarbeiter aus 20 Institutionen die wichtigsten Chancen und Herausforderungen untersucht, welche digitale Technologien für die Erreichung der Nachhaltigkeitsziele darstellen. Sie umreißen neun wichtige Überlegungen zu den Verknüpfungen zwischen den Revolutionen der Digitalisierung und der Nachhaltigkeit - sowohl positive als auch negative - und welche kritischen Themen angegangen werden müssen, um die Chancen der Digitalisierung für eine nachhaltige Zukunft für uns alle zu maximieren und die Risiken zu minimieren. Abbildung 2.

Abbildung 2. "Die Welt im Jahr 2050": Wesentliche Interventionen, um die Nachhaltigkeitsziele (SDGs) zu erreichen, sind in ein Set von 6 Transformationen zusammengefasst. (Bild von der Redaktion eingefügt:.aus TWI2050 - The World in 2050 (2019)[1]; Lizenz: cc-by-nc;)

„Die Mobilisierung des enormen Potenzials einer digitalen nachhaltigen Transformation ist kein automatischer Prozess. In den letzten ein oder zwei Jahrzehnten hat die Digitalisierung als Beschleuniger wirtschaftlicher Prozesse gewirkt, die nach wie vor überwiegend auf fossiler Energie und Gewinnung von Rohstoffen beruhen. Wenn Kurskorrekturen jedoch erfolgreich sind, können die disruptiven Auswirkungen der Digitalisierung auf die Nachhaltigkeit genutzt werden, um eine Nachhaltigkeitstransformation zu beschleunigen und zu verbessern. Wir zeigen im Bericht, wie die "fehlenden Verbindungen" zwischen Digitalisierung und Nachhaltigkeit hergestellt werden können ", erklärt Dirk Messner, Direktor von UNU-EHS.

Das digitale Anthropozän

Der Bericht weist darauf hin, dass wir uns in einer neuen Ära der Menschheitsgeschichte befinden, die durch digitale Systeme wie künstliche Intelligenz und Deep Learning gekennzeichnet ist, welche die kognitiven Fähigkeiten des Menschen in bestimmten Bereichen verbessern und letztendlich ergänzen oder möglicherweise übertreffen werden. Die Autoren fordern, dass Transformationen zur Nachhaltigkeit in diesem neuen Kontext entwickelt, umgesetzt und überdacht werden müssen und dass die Nachhaltigkeitsziele als zentrale Punkte auf dem Weg zu einer nachhaltigen Zukunft für alle bis 2050 und darüber hinaus und nicht als Selbstzweck betrachtet werden sollten.

Eine weitere Überlegung betrifft die Möglichkeit, dass digitale Technologien eine disruptive Revolution in Richtung einer nachhaltigen Zukunft ermöglichen können. Dem Bericht zufolge können diese Technologien in vielerlei Hinsicht Vorteile bringen, beispielsweise indem sie die Dekarbonisierung in allen Sektoren ermöglichen und Kreislaufwirtschaft und "Shared Economies" fördern. Dies wird jedoch nicht von selbst geschehen und wahrscheinlich eine radikale Umkehrung der aktuellen Trends erforderlich machen, um die disruptiven Potentiale der Digitalisierung mit den Wegen zur Nachhaltigkeit zu harmonisieren. In diesem Zusammenhang wird in dem Bericht hervorgehoben, dass ein enormer Bedarf für entsprechende Regulierungsmaßnahmen, Anreize und Änderungen der Perspektiven besteht, die es derzeit nur in einer kleinen Anzahl von Sektoren und in einer begrenzten Anzahl von Ländern gibt. Eng damit verbunden ist die dringende Notwendigkeit einer Steuerung, um den Auswirkungen der disruptiven Dynamik der Digitalisierung entgegenzuwirken, welche die Aufnahmekapazitäten unserer Gesellschaften in Frage stellt und die bereits beunruhigenden Trends der Erosion des sozialen Zusammenhalts möglicherweise vervielfacht.

Die Autoren postulieren ferner, dass die Digitale Revolution den Weg für einen Quantensprung für die menschliche Zivilisation selbst auf einer Vielzahl von Fronten ebnet, medizinische Fortschritte mit eingeschlossen, welche im Verlauf des letzten Jahrhunderts die menschliche Lebenserwartung sich verdoppeln gesehen haben. Darüber hinaus werden autonome technische Systeme und Entscheidungsfindungssysteme, die auf maschinellem Lernen und künstlicher Intelligenz beruhen, künftig alle Bereiche der Gesellschaft und der Wirtschaft grundlegend verändern. Einige davon, wie die aktuellen Wettervorhersagesysteme, Spamfilterprogramme und Googles Suchmaschine, die alle mit künstlicher Intelligenz betrieben werden, sind bereits zu einem unverzichtbaren Bestandteil unseres täglichen Lebens geworden.

Der neue Bericht macht auf die Notwendigkeit aufmerksam, dass Entscheidungsträger, Forscher, Unternehmen und zivilgesellschaftliche Akteure ihre Bemühungen verstärken, um die vielfältigen Auswirkungen digitaler Systeme zu verstehen und weitreichende Strukturveränderungen vorsehen, um eine Grundlage für den Wandel zur Nachhaltigkeit zu schaffen. Die Autoren warnen aber zur Vorsicht: es gibt ja keine "Silberkugel" (d.i. magische Lösung), um die digitale Revolution in Richtung Nachhaltigkeit zu gestalten und zu steuern, da die Zukunft von Natur aus ungewiss ist - die Herausforderung besteht darin, verantwortungsbewusste, belastbare, anpassungsfähige und integrative Wissensgesellschaften aufzubauen.


[1] TWI2050 - The World in 2050 (2019). The Digital Revolution and Sustainable Development: Opportunities and Challenges. International Institute for Applied Systems Analysis (IIASA), Laxenburg, Austria. [pure.iiasa.ac.at/15913]


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 11. Juli 2019 auf der IIASA Webseite unter dem Titel: "The Digital Revolution: Opportunities and challenges for sustainable development" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen  und Legenden ergänzt.


Weiterführende Links

Bundeskanzleramt: Nachhaltige Entwicklung – Agenda 2030 / SDGs

Umweltbundesamt: Die AGENDA 2030 für nachhaltige Entwicklung

Bundesrat Schweiz: 17 Ziele für nachhaltige Entwicklung (Video)

Verwandtes Thema im ScienceBlog

IIASA, 26.07.2018: Herausforderungen für die Wissenschaftsdiplomatie


 

Redaktion Thu, 24.10.2019 - 06:40

Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Do, 17.10.2019 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Musik kann uns mobilisieren, unsere Stimmung aufheitern, sogar Erinnerungen wachrufen. Kann Musik aber auch unsere Gesundheit positiv beeinflussen? Zur Untersuchung dieser Frage haben vor zwei Jahren die US-National Institutes of Health (NIH) zusammen mit dem National Symphony Orchestra (NSO) das Projekt "Sound Health" ins Leben gerufen; dessen Umfang soll nun gemeinsam mit dem John F. Kennedy Center für darstellende Künste erweitert werden. 20 Millionen US$ sollen über 5 Jahre in Projekte investiert werden, welche mittels moderner biomedizinischer Methoden untersuchen, wie und mit welchen Regionen des Gehirns die Musik wechselwirkt und wieweit sie eine Reihe von (neurologischen) Erkrankungen positiv beeinflussen kann. Francis S. Collins, seit 10 Jahren Direktor der NIH, hat nicht nur die Genforschung revolutioniert (er war u.a. Leiter des "Human Genome Project" und hat eine Reihe Krankheiten verursachender Gene entdeckt), er ist auch ein unermüdlicher Prediger für die Macht, die Musik auf unser Leben hat.*

Es ist nicht alltäglich zusammen mit einer der besten Stimmen der Welt auf der Bühne zu stehen. Was war es doch für eine Ehre anlässlich der J.Edward Rall Cultural Lecture am NIH im Mai die berühmte Opernsängerin Renée Fleming bei der Interpretation von "How can I keep from singing?" (Wie kann ich mich am Singen hindern?") begleiten zu dürfen. Abbildung 1. Unser Duett bedeutete aber so viel mehr. Zwischen der zeitlosen Botschaft des Liedes und Renées unvergleichlichem Sopran erfüllte mich die Musik mit einem tiefen Gefühl der Freude, so als ob ich für einen kurzen Moment aus mir selbst an einen Ort der Schönheit und des Wohlbefindens entführt würde. Wie kann so etwas geschehen?

Abbildung 1. Francis S.Collins und Renée Fleming interpretieren ein altes aus 1864 stammendes Lied: "How can I keep from singing?" Die Aufnahme kann auf Youtube hier abgehört werden. Der Text des Liedes findet sich im Anhang.

Tatsächlich ist der Nutzen der Musik für die Gesundheit und das Wohlbefinden des Menschen seit langem anerkannt. Die biomedizinische Wissenschaft hat aber bis jetzt nur eine sehr limitierte Vorstellung davon wie die Musik auf das Gehirn einwirkt und welches Potential sie besitzt, um die Symptome einer Reihe von Erkrankungen zu lindern, wie beispielsweise der Parkinsonkrankheit, des Schlaganfalls oder auch posttraumatischer Belastungsstörungen (PTBS).

Die Sound Health Initiative

Die NIH haben nun einen wesentlichen Schritt getan, um mittels strenger Wissenschaft zu erfassen, welches Potenzial die Musik zur Förderung der menschlichen Gesundheit besitzt: dafür wurden gerade 20 Millionen US-Dollar bereitgestellt, die über einen Zeitraum von fünf Jahren zur Förderung der ersten Forschungsprojekte der Sound Health-Initiative dienen sollen. Abbildung 2. Sound Health wurde 2017 ins Leben gerufen und ist eine Partnerschaft zwischen den NIH und dem John F. Kennedy Center für darstellende Künste, in Zusammenarbeit mit der Nationalstiftung für Künste.

Abbildung 2. Sound Health: Die NIH unterstützen mit 20 Millionen US $ über einen Zeitraum von 5 Jahren Projekte, die Musiktherapie und Neurowissenschaften zusammenbringen (Bild: https://www.nih.gov/research-training/medical-research-initiatives/sound-health, von Redn. eingefügt)

Unterstützt von 10 NIH-Instituten und -Zentren werden die durch Sound Health-Grants geförderten Wissenschafter unter anderem untersuchen, wie Musik die motorischen Fähigkeiten von Parkinson-Patienten verbessern kann. Frühere Untersuchungen haben gezeigt, dass der Schlag eines Metronoms den Gang von Parkinson-Patienten stabilisieren kann. Es sind jedoch weitere Untersuchungen erforderlich, um genau zu bestimmen, warum dies geschieht.

Untersuchungen an der Schnittstelle von Musik und Biomedizin

Zu weiteren faszinierenden Gebieten, die mittels Sound Health-Förderung erkundet werden, zählen:

  • Wie beeinflussen aktive Musikinterventionen, oft Musiktherapien genannt, eine Reihe von Biomarkern, die mit einer Verbesserung des Gesundheitszustands korrelieren? Ziel ist es, ein umfassenderes Verständnis zu erhalten, wie solche Interventionen dazu dienen können, krebsbedingten Stress abzubauen und möglicherweise sogar die Immunfunktionen zu verbessern.
  • Wie wirkt Musik auf das sich entwickelnde Gehirn von Babies, wenn sie sprechen lernen? Eine solche Untersuchung kann besonders für Kleinkinder hilfreich sein, die mit einem hohen Risiko für Rede- und Sprachstörungen behaftet sind.
  • Untersuchungen zur Synchronisation des musikalischen Rhythmus als Teil der sozialen Entwicklung. Diese Forschung wird untersuchen, wie dieser Prozess bei Kindern mit Autismus-Spektrum-Störungen beeinträchtigt ist und möglicherweise Wege aufzeigen, musikbasierte Interventionen zur Verbesserung der Kommunikation zu entwickeln.
  • Welche Auswirkungen auf das Gedächtnis hat es, wenn man wiederholt einem bestimmten Lied oder einer musikalischen Phrase ausgesetzt ist, einschließlich derjenigen „Ohrwürmer“, die in unseren Köpfen haften bleiben? Diese Studie könnte uns mehr darüber erzählen, wie Musik manchmal als Anhaltspunkt für das Abrufen assoziierter Erinnerungen dient, selbst bei Menschen, deren Erinnerungsvermögen durch die Alzheimer-Krankheit oder andere kognitive Störungen beeinträchtigt ist.
  • Wie formt Musik das Gehirn über die Zeit der Entwicklung hin - von der Kindheit bis zum Erwachsenenalter? Dazu gehört, dass untersucht wird, wie das Musiktraining an verschiedenen Punkten dieser Zeitspanne Aufmerksamkeit, ausführende Tätigkeiten, soziale und emotionale Funktionen und sprachliche Fähigkeiten beeinflussen kann.

Fazit

Wir haben das Glück, in einer Zeit zu leben, die außergewöhnlich ist, was die Entdeckungen in den Neurowissenschaften betrifft und ebenso außergewöhnlich hinsichtlich der Kreativität in der Musik. Die Sound Health-Förderungen sind - so hoffe ich - nur der Anfang einer langen und produktiven Partnerschaft, die diese kreativen Bereiche zusammenbringt. Ich bin davon überzeugt, dass die Macht der Wissenschaft enorme Möglichkeiten bietet, um die Wirksamkeit musikbasierter Interventionen zu steigern und deren Reichweite auszudehnen mit dem Ziel Gesundheit und Wohlbefinden von an verschiedensten Krankheiten leidenden Menschen zu verbessern.


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 19. September 2019) im NIH Director’s Blog unter dem Titel: "New Grants Explore Benefits of Music on Health" und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH). Die Abbildungen stammen von den unter Weiterführende Links angegebenen Seiten und wurden von der Redaktion eingefügt.


Weiterführende Links

National Institutes of Health. https://www.nih.gov/

NIH awards $20 million over five years to bring together music therapy and neuroscience (19. September 2019)

Renée Fleming's Brain Scan: Understanding Music and the Mind (2017). Video 2:59 min.

How Can I Keep From Singing

Text von Enya; https://www.songtexte.com/songtext/enya/how-can-i-keep-from-singing-5bd32758.html

My life goes on in endless song
Above earth´s lamentations,
I hear the real, though far-off hymn
That hails a new creation.

Through all the tumult and the strife
I hear its music ringing,
It sounds an echo in my soul.
How can I keep from singing?

While though the tempest loudly roars,
I hear the truth, it liveth.
And though the darkness 'round me close,
Songs in the night it giveth.

No storm can shake my inmost calm,
While to that rock I´m clinging.
Since love is lord of heaven and earth
How can I keep from singing?

When tyrants tremble in their fear
And hear their death knell ringing,
When friends rejoice both far and near
How can I keep from singing?

In prison cell and dungeon vile
Our thoughts to them are winging,
When friends by shame are undefiled
How can I keep from singing?


 

mat Thu, 17.10.2019 - 10:36

Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Do, 10.10.2019 — Inge Schuster

vIcon WissenschaftsgeschichteDen diesjährigen Nobelpreis für Physiologie oder Medizin erhalten drei Forscher - die US-Amerikaner William G. Kaelin Jr. und Gregg L. Semenza und der Brite Sir Peter J. Ratcliffe -, die einen der für unser Leben wichtigsten Anpassungsprozesse aufgeklärt haben. Es ist der überaus komplexe Mechanismus mit dem sich Körperzellen in ihrem Metabolismus und ihren physiologischen Funktionen an unterschiedliche Sauerstoffgehalte adaptieren. Auf der Basis dieser Mechanismen lassen sich auch neue therapeutische Strategien entwickeln: zur Behandlung von Anämien gibt es bereits ein am Markt zugelassenes Produkt, erfolgversprechende Möglichkeiten im Bereich von Krebserkrankungen befinden sich erst am Anfang der Entwicklung.

Als auf unserer Erde vor rund 3,8 Milliarden Jahren Leben in Form einfachster einzelliger Organismen (Bakterien und Archäa) entstand, lag Sauerstoff zunächst in Form von Wasser gebunden in den Meeren vor. Erst vor etwa 2 Milliarden Jahren kam es zu einem unglaublichen Anstieg des Sauerstoffgehalts in der Atmosphäre - dem „Great Oxidation Event“ -, der vermutlich auf die Entstehung von Cyanobakterien zurückzuführen ist, die zur Energiegewinnung Photosynthese betrieben und dabei Sauerstoff freisetzten. Gegen das reaktionsfreudige, für damalige Lebensformen toxische Gas entwickelten diese  einerseits Entgiftungsmechanismen, andererseits begannen einige Bakterien Sauerstoff zur Energiegewinnung zu verwenden, indem sie Nahrungsmoleküle unter hohem Energiegewinn (in Form der metabolischen Energiewährung ATP) oxydierten - "verbrannten". Es waren dies zelluläre Kraftwerke, die später als Mitochondrien in die Zellen höherer Lebewesen integriert wurden und nun über Citratcyclus und Atmungskette den Großteil der von den Zellen benötigten Energie liefern.

Alle Zellen sind somit auf ausreichende Sauerstoffzufuhr angewiesen; ein Mangel an Sauerstoff - Hypoxie - kann zur energetischen Unterversorgung und bis zum Zelltod führen: ein Umschalten auf die anaerobe Glykolyse liefert pro abgebautem Glukosemolekül ja nur ein Sechzehntel der Energie, wie die Zellatmung. Wie die Zellen aber selbst Veränderungen der Sauerstoffzufuhr wahrnehmen und darauf reagieren, blieb bis zu den Untersuchungen der drei neuen Nobelpreisträger ein Rätsel. Ausgangspunkt dieser Untersuchungen war das Hormon Erythropoietin .

Von Erythropoietin (EPO) zum Hypoxie induzierendem Faktor (HIF)

Bei niedrigem Sauerstoffpartialdruck im Blutkreislauf - beispielsweise nach Blutverlust oder bei Aufenthalten in größeren Höhen - springt die Synthese von Erythropoietin (EPO) vor allem in der Niere an. Erythropoietin wirkt als Wachstumsfaktor auf die Bildung von Erythrozyten, die dann in höherer Zahl  vorliegen und via Hämoglobin insgesamt mehr Sauerstoff transportieren.

Wodurch dieses Anspringen der Erythropoietin Expression ausgelöst wird, hat Gregg Semenza (John Hopkins University, Baltimore) in den frühen 1990er Jahren herausgefunden. In Tierversuchen konnte er einen DNA-Abschnitt in der Nähe des EPO-Gens identifizieren, der bei Hypoxie den Response auslöst (von Semenza als Hypoxie Response Element (HRE) bezeichnet). In Leberzellkulturen fand er an diesen DNA-Abschnitt zwei Signalproteine gebunden vor: ein bereits bekanntes, konstitutiv vorhandenes Protein ARNT (aryl hydrocarbon receptor nuclear translocator) - und ein anderes, unter Hypoxie vermehrt gebildetes Protein, das er mit Hypoxie induzierbarer Faktor (HIF; jetzt  HIF-1α genannt) bezeichnete.

In weiterer Folge haben Semenza und davon unabhängig Peter Ratcliffe (University of Oxford, UK) eine Induktion von HIF durch Hypoxie nicht nur in EPO-produzierenden Nierenzellen sondern in einer Vielzahl tierischer Zelltypen aufgefunden - ein Hinweis, dass man möglicherweise einem universellen Steuermechanismus auf der Spur war.

Labilität von HIF-1α spielt zentrale Rolle

Wie aus anderen Untersuchungen hervorgegangen war, werden HIF-1α-Spiegel nicht über die Synthese sondern über den Abbau reguliert. HIF-1α ist ein labiles Protein, das unter normalen Sauerstoffdruck sehr rasch mit Ubiquitin markiert und dann über die Maschinerie des Proteasoms abgebaut wird. Solange also der Sauerstoffspiegel hoch ist, enthalten Zellen nur sehr wenig HIF-1α.

Sinkt der Sauerstoffspiegel aber, so steigt die HIF-1α-Konzentration im Cytosol, das Protein wandert in den Zellkern, bildet mit ARNT einen Komplex, der an HRE-Abschnitte der DNA bindet und die Expression von EPO (und vielen anderen Genen) auslöst.

Was aber kontrolliert den HIF-1α-Spiegel?

Hier kam die entscheidende Antwort von dem Krebsforscher William Kaelin (Dana-Farber Cancer Institute, Boston), der die seltene erbliche von-Hippel-Lindau-Krankheit untersuchte (VHL-Krankheit verursacht gutartige Angiome im Bereich der Netzhaut des Auges und des Kleinhirns) und zufällig einen Zusammenhang zwischen dem VHL-Gen und der Hypoxie-Regulierung fand: der Wildtyp des Gens VHL kodiert für ein Tumor-Suppressor Protein, Tumorzellen, die mutiertes - funktionsloses - VHL enthalten, weisen enorm hohe Konzentrationen an Proteinen auf , die durch Hypoxie induziert werden. Diese Level normalisieren sich, wenn in die Zellen intaktes VHL eingebracht wird. Die Suche nach Proteinen, die mit VHL interagieren ergab, dass es Teil des Komplexes ist, welcher Proteine mit Ubiquitin für den nachfolgenden Abbau im Proteasom markiert.

Der Sauerstoff-Schalter

Als letzten Teil des Puzzles zeigten nun Ratcliffe und Kaelin, dass VHL direkt mit HIF-1α interagieren kann. Voraussetzung dafür ist die Modifizierung von HIF-1α  durch Prolin-Hydroxylasen, die bei normalem Sauerstoffdruck an zwei spezifischen Stellen (Prolinresten) von HIF-1α Sauerstoff einführen; dieses nun hydroxylierte Protein bindet mit hoher Affinität an VHL und tritt damit in den Pfad zum Abbau ein.

Bei Sauerstoffmangel fehlt den die Prolin-Hydroxylasen das Substrat Sauerstoff, HIF-1α bleibt unverändert, bindet nun nicht an VHL und wird in Folge nicht abgebaut. HIF-1α akkumuliert und wirkt im Komplex mit ARNT als Transkriptionsfaktor für eine Vielzahl von Genen, welche - über Hypoxie-Response-Elements reguliert - die Zelle an die veränderte Situation anzupassen versuchen.

Eine Zusammenfassung der zellulären Anpassung an Sauerstoffmangel ist in Abbildung 1 vereinfacht dargestellt.

Abbildung 1. HIF-1α ist der zentrale Player in der Anpassung an Veränderungen in der Sauerstoffversorgung. Unter normaler Sauerstoffversorgung der Zelle (oben) wird HIF-1α durch Prolin-Hydroxylasen modifiziert, wodurch es mit VHL interagieren kann, das als Teil des Ubiquitierungskomplexes HIF-1α, für den Abbau im Proteasom markiert. Unter Sauerstoffmangel (unten) bleibt HIF-1α intakt, akkumuliert und induziert im Komplex mit ARNT die Bildung zahlreicher Proteine, welche die Zelle an die veränderten Bedingungen anzupassen versuchen (Bild leicht modifiziert nach: Wikipedia, Dr. Guido Hegasy , cc-by-sa Lizenz)

HIF-1α, Target-Gene…

Unter Hypoxie reguliert HIF-1α die Expression Hunderter Gene, welche ein HRE-Motiv enthalten. Es sind dies Gene, welche bei vielen Krankheiten, insbesondere bei Krebserkrankungen eine wesentliche Rolle spielen.

Hypoxie ist ja ein wesentliches Merkmal solider Tumoren, diese exprimieren vermehrt HIF-1α, das nun wiederum Gene induziert, welche den Tumor aggressiver machen und die Prognose verschlechtern. Es sind dies Gene, die für die Proliferation der Zellen wesentlich sind, für den zellulären Stoffwechsel (wo u.a. auf die anaerobe Glykolyse geschalten wird) , für die Neubildung von Gefäßen (Angiogenese), für Aspekte von Entzündung und Immunität, für Invasion und Metastasierung von Tumorzellen, für die Resistenzentstehung gegen therapeutische Strategien (Chemotherapie, Bestrahlung, Immunotherapie) und für das Überleben von Cancer-Stammzellen (aber auch von normalen Stammzellen).

Abbildung 2 soll einen ganz groben Eindruck über die Vielfalt der regulierten Gene geben.

Abbildung 2. Target Gene von HIF und ihre Rolle in der Progression und Therapieresistenz von Krebserkrankungen (Die Abkürzungen bedeuten in alphabetischer Reihenfolge: ALDA, aldolase A; ALDC, aldolase C; ADM, adrenomedullin; ABCG2, ATP-binding cassette sub-family G mem­ber 2; CATHD, cathepsin D; CCL, chemokine (C-C motif) ligand; CTLA-4, cytotoxic T-lymphocyte-associated protein 4; CXCL, chemokine (C-X-C motif) ligand; ENG, endoglin; ET1, endothelin-1; FN1, fibronectin 1; FOXP3, forkhead box P3; GAPDH, glyceraldehyde-3-P-dehydrogenase; GITR, glu­cocorticoid-induced TNFR-related protein; GLUT, glucose transporter; HK, hexokinase; HIF, hypoxia-inducible factor; HLA-G, human leukocyte antigen G; IGF2, insulin-like growth factor 2; IGF-BP, insulin-like growth factor binding protein; LDHA, lactate dehydrogenase A; LRP1, LDL-recep­tor-related protein 1; MDR1, multidrug resistance 1; MMP2, matrix metal­loproteinase 2; NF-κB, nuclear factor kappa-light-chain-enhancer of acti­vated B cells; NOS2, nitric oxide synthase 2; OCT4, octamer-binding transcription factor 4; PD-L1, programmed death-ligand 1; PFKBF3, 6-phosphofructo-2-kinase/fructose-2,6-biphosphatase-3; PFKL, 6-phos­phofructokinase, liver type; PGK1, phosphoglycerate kinase 1; PKM, pyru­vate kinase M; TGF, transforming growth factor; VEGF, vascular endothe­lial growth factor; VEGFR, VEGF receptor.) Das Bild stammt aus: Tianchi Yu et al., Development of Inhibitors Targeting Hypoxia-Inducible Factor 1 and 2 for Cancer Therapy,Yonsei Med J 2017 May;58(3):489-496 , https://doi.org/10.3349/ymj.2017.58.3.489 . Es steht unter einer cc-by-nc 4.0 Lizenz.

…und therapeutische Strategien

Auf Basis der von Semenza, Rathcliffe und Kaelin erarbeiteten molekularen Grundlagen, welche eine umfassende Beschreibung von HIF geben - seine Bildung, seine Funktion als Transkriptionsfaktor und die Schritte, die zum Abbau führen - können therapeutische Strategien entwickelt werden, die einerseits die Blockierung der HIF-Funktion und andererseits deren Steigerung zum Ziel haben.

Eine Steigerung der HIF-Funktion kann bei unterschiedlichen Krankheiten von Vorteil sein. Dazu gehören neben chronischen Nierenerkrankungen, die zur Anämie führen beispielsweise auch Wundheilung, Knorpelbildung und ein Reihe immunologischer Defekte. Unter den therapeutischen Ansätzen sind hier besonders Inhibitoren der Prolylhydroxylasen zu erwähnen. Mehrere Substanzen befinden sich in fortgeschrittenen Phasen der klinischen Entwicklung. Mit Roxadustat, das FibroGen gemeinsam mit Astellas und AstraZeneca entwickelte, wurde heuer das erste oral wirksame Produkt  global zugelassen; die Indikationen sind Anämien ausgelöst durch chronische Nierenerkrankungen und myelodysplastisches Syndrom.

Die Blockierung der HIF-Funktionen kann vor allem bei Tumorerkrankungen aber auch bei Herz-Kreislauferkrankungen (Ischämien bei Schlaganfall und Herzinfarkt) oder bei Lungenhochdruck neue wirksame Therapien eröffnen. Hier gibt es auch eine Fülle von Ansatzpunkten, die von einer Blockierung der Expression der HIF-1a--mRNA, über eine Inhibierung der Dimeren-Bildung mit ARNT und Bindung an die DNA bis hin zur Inhibierung der Akkumulation von HIF-1α reichen. Bis jetzt haben allerdings nur ganz wenige dieser Inhibitoren Eingang in klinische Pilotstudien gefunden, die meisten Projekte sind noch in frühen präklinischen Phasen. Auf ein HIF-1α-basiertes Krebstherapeutikum wird man wohl noch sehr lange warten müssen. 


Weiterführende Links

MLA style: Press release: The Nobel Prize in Physiology or Medicine 2019. NobelPrize.org. Nobel Media AB 2019. Wed. 9 Oct 2019.

The Nobel Prize in Physiology or Medicine 2019: How cells sense and adapt to oxygen availability. Advanced Information.

2016 Albert Lasker Basic Medical Research Award Video 5:54 min.

William Kaelin, Peter Ratcliffe, and Gregg Semenza are honored for the discovery of the pathway by which cells from humans and most animals sense and adapt to changes in oxygen availability – a process essential for survival.

Noble Prize, Physiology or medicine 2019 | How cells, sense and adapt to oxygen availability. Quick Biochemistry Basics , Video 4:01 min.

Redaktion Thu, 10.10.2019 - 10:56

Gentherapie - ein Update

Gentherapie - ein Update

Do, 03.10.2019 — Ricki Lewis

Ricki LewisIcon MedizinAls 1990 erste klinische Versuche zur Gentherapie stattfanden, hoffte man sogenannte monogenetische - d.i. durch ein schadhaftes Gen ausgelöste - Krankheiten durch das Einschleusen funktionsfähiger Gene in Kürze heilen zu können. Tragische Zwischenfälle, insbesondere der Tod des jungen Jesse Gelsinger vor 20 Jahren brachten jedoch schwere Rückschläge für das Gebiet. Erst nach und nach bekamen die Forscher die Risiken in den Griff, die mit den als Genfähren verwendeten Viren verbunden sind. Seit Kurzem gibt es nun einige zugelassene  - allerdings horrend teure - Therapeutika; dazu ist eine Vielzahl klinischer Versuche zur Behandlung verschiedenster, durch Gendefekte ausgelöster Krankheiten im Laufen. Die Genetikerin Ricki Lewis hat sich über die Jahre intensiv mit den Fortschritten der Gentherapie befasst; sie gibt hier einen Überblick über den gegenwärtigen Status der Gentherapie.*

Der 17. September markiert den Tag, an dem vor 20 Jahren der 19-jährige Jesse Gelsinger im Verlauf einer Gentherapie-Studie verstarb. Diese Tragödie bedeutete einen Stopp für das noch in den Kinderschuhen steckende Gebiet und die Aussichten verschlechterten sich weiter, als bald darauf - in einer aus der Kontrolle geratenden Gentherapie - Buben mit einer angeborenen Immunschwäche Leukämie entwickelten. Die Fahrt, die das Gebiet seit der ersten klinischen Studie im Jahr 1990 langsam aufgenommen hatte, verlief im Sande.

Ein langsames Comeback…

…mit Luxturna,

In der Folge haben Forscher die Viren, welche als Genfähren funktionsfähige Kopien von Genen einschleusen, umgebaut und nach und nach wurden klinische Studien wieder aufgenommen. Es sollte jedoch bis Ende 2017 dauern, bis die erste Zulassung für eine Gentherapie durch die U. S. Food and Drug Administration (FDA) erteilt wurde: für Luxturna gegen Blindheit, die durch Mutation eines Gens namens RPE65 verursacht wird. Abbildung 1.

Abbildung 1. Die erste Gentherapie (gegen Blindheit) wurde Ende 2017 von der FDA zugelassen, die ersten klinischen Versuche fanden 1990 statt (NHGRI)

Mein 2012 erschienenes Buch "The Forever Fix: Gene Therapy and the Boy Who Saved It" [1], erzählt die Geschichte der Gentherapie als Hintergrund der Luxturna-Story. Als der darin beschriebene Bub Corey Haas 2008 behandelt wurde, war er 8 Jahre alt. Er hat seitdem erstaunliche Fortschritte gemacht.

Sieben Jahre später berichtete Amy Reif, dass ihre Tochter, die im Juli 2018 im Alter von 7 Jahren behandelt worden war, nun in einem schwach beleuchteten Raum sehen kann, wo sie zuvor überhaupt nichts sehen konnte. „Sie kann viel länger im Freien bleiben und abends in der Dämmerung spielen als vor der Luxturna Therapie. Sie kann den Regenbogen, Sterne und Glühwürmchen sehen. Sie kommt insgesamt einfach besser zurecht, zeigt mehr Selbstvertrauen und Selbstbewusstsein.“

…mit Zolgensma

Die zweite, erst kürzlich zugelassene Gentherapie mit Zolgensma, ist für die Behandlung der spinalen Muskelatrophie (SMA) vorgesehen, d.i. eine Erkrankung im Kleinkindalter, die typischerweise tödlich verläuft. Die FDA genehmigte Zolgensma für den US-Markt im Mai 2019, nachdem Novartis den Hersteller - das Biotech-Unternehmen AveXis, das wiederum auf den Forschungsergebnissen des Nationwide Children’s Hospital aufbaute - übernommen hatte. Es ist dies ein üblicher Pfad im Entwicklungsprozess von Arzneimitteln, der von Akademie über kleine Biotech-Firmen zu Big Pharma führt.

Die Zulassung der Gentherapie für SMA erfolgte drei Jahre nach der Zulassung eines anderen Biotech-Ansatzes, der Antisense-Oligonukleotide einsetzt, die eine normalerweise stummgeschaltete Kopie des mutierten Gens wieder anschalten. (Siehe [2])

Die Opfer, die Jesse Gelsinger und andere Teilnehmer in gentherapeutischen Studien erbrachten, haben die jüngsten Fortschritte ermöglicht. Wie einst der mythologische Vogel Phönix hat sich die Gentherapie nun aus der Asche erhoben und ist daran ihre Flügel auszubreiten. Abbildung 2. Die klassische Gentherapie fügt mittels viraler Vektoren funktionsfähige Gene hinzu. Die Gen-Editierung (über die hier nicht berichtet wird) korrigiert zielgerichtet eine Mutation.

Die Vektoren haben sich weiterentwickelt, man ging von dem Adenovirus ab, das mit Jesses Tod in Zusammenhang stand und rüstete die Retroviren um, die das Leukämieverursachende Onkogen angeschaltet hatten. Dutzende von Unternehmen und die meisten klinischen Studien verwenden heute die viel sichereren Adeno-Assoziierten Viren (AAVs), die in diesem Beitrag von DNA Science beschrieben werden [3].

Abbildung 2. Wie einst der mythologische Vogel Phönix hat sich die Gentherapie nun aus der Asche erhoben und ist daran ihre Flügel auszubreiten.

Gentherapie: Klinische Studien

Weil ich wissen wollte, gegen welche Krankheiten gentherapeutische Untersuchungen laufen, habe ich die Seite der klinischen Studien - clinicaltrials.gov [4]- durchgesehen (Abbildung 3); allerdings habe ich die Daten nicht mit einem modischen Algorithmus analysiert, sonder nur eine Liste erstellt. (Diese Website ist zwar eine großartige Informationsquelle, allerdings kann hier aber jeder irgendetwas registrieren. Und wie E-Mails, die seit langem nicht mehr kuratiert wurden, enthält clinicaltrials.gov viele Studien, die vor Jahren abgeschlossen wurden. Man muss also darauf achten, was noch relevant ist.)

Das Durchsuchen von clinicaltrials.gov nach „Gentherapie“ unter „Krankheiten oder Lebensbedingungen“ (Conditions or Diseases) führte zu 564 Einträgen, unter „anderen Begriffen“ jedoch zu 4.080 Treffern. Das ist ungefähr doppelt so viel wie die Liste enthielt, als ich das letzte Mal, vor ungefähr einem Jahr nachgesehen habe; allerdings sind nun viele Krebsstudien darunter. Wenn ich an Gentherapie denke, so habe ich die monogenetischen (durch ein defektes Gen verursachten), selten vorkommenden Erkrankungen im Auge.

Abbildung 3. Die Homepage der Datenbank ClinicalTrials.gov

Trends, Tipps und Therapien

1. Alte Ziele der Gentherapie

Die Liste der klinischen Studien enthält weiterhin die „üblichen Verdächtigen“, das heißt Krankheiten, welche die Gentherapie bereits seit Jahren in Angriff nimmt. Dass Immunschwächen hier überrepräsentiert sind, ist darauf zurückzuführen, dass diese einem „ex vivo“ -Ansatz zugänglich sind: Die Zellen eines Patienten werden außerhalb des Körpers modifiziert und anschließend re-infundiert. Hier sind einige Beispiele:

  • Adenosin-Deaminase-Mangel (ADA-Mangel ), ein Immundefekt, mit dem das Forschungsgebiet 1990 seinen Anfang nahm.
  • Schwerer kombinierter Immundefekt X1 (SCID X1)
  • X-chromosomale chronische Granulomatose (XCG); 5 Kinder erhielten im Dezember 2018 in Deutschland eine Gentherapie
  • Alpha-Antitrypsin-Mangel (AAT), löst eine Form des erblichen Emphysems aus
  • Hämophilie A in den USA und in Großbritannien und Hämophilie B

2. Einige neuere Ansätze

(eingereicht im Jahr 2019), die im Gentherapie-Verzeichnis erscheinen sollen, sind:

  • Die infantile neuronale Ceroid-Lipofuszinose (CLN1), eine Form der Batten-Krankheit. Die Bewilligung für den Start einer klinischen Studie fiel im Mai. Diese Studie ist dem Einsatz der Familie von Taylor King, die vor einem Jahr, im Alter von 20 Jahren verstarb und von Steve Gray (Southwestern University, Texas), dem Guru für Adeno-Assoziierten Viren (AAVs), zu verdanken und sie wird von Abeona Therapeutics gesponsert. In "Run to the Light" erzählt Taylors Schwester,Laura King Edwards, ihre Geschichte.
  • Morbus Fabry, eine Krankheit, bei der sich in kleinsten Blutgefäßen ein Glykolipid (Fettzucker) ansammelt und in Folge Herz- und Nierenversagen und andere Symptome auslöst. Eine intravenöse Einzeldosis AAV liefert das Gen, das für das fehlende Enzym (Alpha-Galactosidase A) kodiert. Sangamo Therapeutics (Richmond, Cf) sponsert die Studie.
  • Alzheimer-Patienten, die zwei Kopien einer Mutation im ApoE4-Gen tragen. Die Teilnehmer an der Studien weisen Amyloidplaques auf und leichte kognitive Beeinträchtigung bis hin zur vollständigen Demenz . Die Behandlung erfolgt am Weill Medical College (Cornell University, NY) mit dem Gen, das für ApoE2 codiert und direkt in das Gehirn appliziert wird.
  • Die Danon-Krankheit schwächt das Herz und die Skelettmuskulatur. Die Behandlung besteht aus einer einzelnen intravenösen Infusion des Gens, LAMP2b, mit einem AAV-Vektor (von Rocket Pharmaceuticals) als Genfähre. Die Danon-Krankheit befindet sich auf dem X-Chromosom und betrifft daher auch Männer.

3. Forscher lernen

Klinische Studien helfen nicht nur Patienten, auch die Forschung lernt daraus. Eine in der Liste aufscheinende Gentherapie gegen Choroiderämie, eine Form der Blindheit, zitiert einen Artikel, in dem Janet Davis (Bascom Palmer Eye Institute, University Miami) beschreibt, wie man die viralen Genfähren vorsichtig unter die Retina platziert und dabei deren Dosis kontrolliert ohne, dass benachbarte Strukturen beschädigt werden. Es ist dies eine wertvolle Information, die bei verschiedenen Arten von Netzhauterkrankungen anwendbar ist.

4. Protokolle aus präklinischer Forschung

Die präklinische Forschung arbeitet weiterhin die Protokolle aus, die in klinische Studien einfließen. James Wilson, der für den Tod von Jesse Gelsinger verantwortlich gemacht wurde, entdeckte im Jahr 2018 dass hoch dosiertes AAV Affen schädigen und töten kann [3]. Er äußerte die Besorgnis, dass die Gentherapie von Muskelerkrankungen systemisch erfolgt und gefährlich hohe Dosen von AAVs erfordern könnte, da ja ein so großer Anteil des Körpers zu behandeln ist. (Wilsons Unternehmen Passage Bio (in Philadelphia) entwickelt Therapien für monogenetische Erkrankungen des Zentralnervensystems.)

5. Die Kosten Stellen weiterhin ein Problem DAR.

Eine in Europa zugelassene Gentherapie (Glybera im Jahr 2012; es war dies die weltweit erste zugelassene Gentherapie; Anm. Redn), für die ein Preis von über 1 Million US-Dollar angestzt war, wurde aufgrund einer minimalen Zahl an Patienten wieder vom Markt genommen [5].

Für die Augentherapie mit Luxturna, die pro Patient 850.000 US-Dollar kostet, war zum 30. Juni 2019 eine Versicherung für alle 137 behandelten Patienten abgeschlossen worden. Der Hersteller Spark Therapeutics übernahm die Kosten für Zuzahlungen und Reisekosten.

Die SMA-Gentherapie Zolgensma mit Kosten von 2,1 Millionen US-Dollar pro Patient ruft nun Widerstand hervor. Die Kehrseite ist der Vergleich der Kosten einer „einmaligen“ Behandlung mit den Alternativen: lebenslange Tests und Therapien, Behinderung, chronische Krankheit oder sogar früher Tod. Man muss in die Bechnungen ja die ansonsten anfalllenden Kosten einbeziehen. Im Falle der Hämophilie B kosten konventionelle Behandlungen etwa 270.000 USD pro Jahr und können - wenn Komplikationen auftreten - auch 1 Million USD übersteigen. Eine einmalige oder sogar eine einmal pro Jahrzehnt durchgeführte Gentherapie würde auf lange Sicht Einsparungen bringen.

6. Welche Gentherapien werden demnächst auf den Markt kommen?

Dazu einige Anwärter:

  • Die Eltern von Hannah Sames und Eliza O’Neill, die 2016 wegen einer Riesenaxon-Neuropathie und eines Sanfilippo-Syndroms Typ A behandelt wurden, können noch nicht viel sagen, wenn sie Fortschritte ihrer Kinder beobachten. Es wird Jahre dauern, um festzustellen, ob und inwieweit die Gentherapie den Verlauf dieser neurologischen Erkrankungen verlangsamt.
  • Buben mit myotubulärer Myopathie (MTM), die ansonsten bewegungslos und auf ein Beatmungsgerät angewiesen sind, können sich nach der Gentherapie selbstständig bewegen und atmen. Die Zeit wird zeigen, ob die Effekte anhalten. Audentes Therapeutics (San Francisco, Cf) hat die Gentherapie entwickelt (ich habe sie in einem Essay beschrieben [6]). Ebenso wie die erste zugelassene Gentherapie, Luxturna, nahm die Geschichte der MTM-Gentherapie mit einer natürlichen Mutation bei Hunden ihren Ausgang.
  • Kindern, die eine Gentherapie für metachromatische Leukodystrophie erhielten, geht es in einer an sich bejammernswerten Situation gut. Die klinischen Studien in Europa haben die noch nicht betroffene jüngeren Geschwister von Kindern behandelt, die an der Krankheit gestorben waren oder bald sterben würden. Die älteren Kinder haben es möglich gemacht, die Diagnose für die jüngeren in einem Alter zu erstellen, in dem die Behandlung helfen sollte. (Ich habe ihre Geschichte erzählt [7].)
  • Die Gentherapie hilft „Schmetterlingskindern“, die an einer rezessiven Epidermolysis bullosa (RDEB) leiden; die Fragilität der Haut solcher Patienten wird durch Mutation in einem Kollagen-Gen verursacht. Die geringste Berührung ruft schmerzhafte Blasen und schälende Haut hervor, und die täglichen Verbandwechsel sind qualvoll. Mit der von Abeona Therapeutics entwickelten Gentherapie heilten in einer klinischen Studie Wunden von Patienten im Alter von über 18 Jahren.

Ich bin begeistert, dass die Gentherapie nun voranschreitet. Über betroffene Familien und deren Geschichten schreibe ich seit Jahren - sicherlich habe ich viele ausgelassen. Bitte, Sollten Sie weitere Erfolgsgeschichten in der Gentherapie kennen, so bitte, kontaktieren Sie mich.


[1] Ricki Lewis (2012): The Forever Fix: Gene Therapy and the Boy Who Saved It. (St Martin's Press), https://www.amazon.com/dp/1250015774/ref=rdr_ext_tmb

[2] Ricki Lewis (2017):Two New Ways to Treat A Deadly Disease: Spinal Muscular Atrophy. https://blogs.plos.org/dnascience/2017/11/02/two-new-ways-to-treat-a-deadly-disease-spinal-muscular-atrophy/

[3] Ricki Lewis (2018): A Hiccup in Gene Therapy Progress? https://blogs.plos.org/dnascience/2018/03/29/a-hiccup-in-gene-therapy-progress/

[4] ClinicalTrials.gov: a database of privately and publicly funded clinical studies conducted around the world. https://clinicaltrials.gov/

[5] Ricki Lewis (2017): Pulling the Plug on the First Gene Therapy Drug . https://blogs.plos.org/dnascience/2017/04/27/pulling-the-plug-on-the-first-gene-therapy-drug/

[6] Ricki Lewis (2019): How this promising gene therapy for a rare neuromuscular disease was fueled by passionate parents and a dog. https://geneticliteracyproject.org/2019/05/07/how-this-promising-gene-therapy-for-a-rare-neuromuscular-disease-was-fueled-by-passionate-parents-and-a-dog/

[7] Ricki Lewis (2018): Celebrating The Moms of Gene Therapy . https://blogs.plos.org/dnascience/2018/05/10/celebrating-the-moms-of-gene-therapy/


*Der Artikel ist erstmals am 26. September 2019 in PLOS Blogs - DNA Science Blog unter dem Titel "Gene Therapy Update: Remembering Jesse Gelsinger " erschienen (https://blogs.plos.org/dnascience/2019/09/26/gene-therapy-update-remembering-jesse-gelsinger/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


Weiterführende Links

Artikel im ScienceBlog

Eva Maria Murauer, 02.03.2017: Gentherapie - Hoffnung bei Schmetterlingskrankheit.

Francis.S.Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie.


 

Redaktion Thu, 03.10.2019 - 15:14

Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Do, 26.09.2019 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftIm letzten Teil seines Eckpunktepapier „Energie. Wende. Jetzt“ weist Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) darauf hin, dass der Umbau des Energiesystems die breite Unterstützung einer Gesellschaft benötigt, die hinreichende, nicht-ideologische Information erhält, um auch bereit zu sein „schmerzhafte“ Maßnahmen mitzutragen. Es muss somit ein beständiger, über den derzeitigen Hype andauernder Dialog zwischen Gesellschaft, Politik und Wirtschaft hergestellt werden, der auch den systemischen Charakter der Energieversorgung klar herausstellt. Hinsichtlich der an die Politik gestellten Erwartungen schlägt Schlögl ein Bündel an systemisch wirkenden Vorabmaßnahmen vor, welche zu deutlich sichtbaren Ergebnissen führen und als Teile einer dauerhafteren Strategie für den langfristig anzulegenden Umbau des Energiesystems dienen können.*

Der Umbau des Energiesystems ist eine Revolution und nicht nur ein Impuls. Bis heute hat diese Idee aber noch nicht gezündet. Erfolgreiche Revolutionen benötigen breite Unterstützung. Zu viele Brüche im Zusammenwirken der Akteure, die es zahlreich gibt, verhindern eine konzertierte Aktion. In keinem Fall kann der Umbau des Energiesystems als staatlicher Plan mit sektoralen Zielen, mit spezifischen Vorschriften für einzusetzende Technologien und zeitlichen Taktungen funktionieren. Die Rolle des Staates ist es vielmehr, stabile und allgemein gültige Rahmenbedingungen zu schaffen und deren Einhaltung zu garantieren. Anreize aus staatlichen oder Umlagemittel (wie das Erneuerbare-Energien-Gesetz - EEG) bewirken keine relevante Änderung für das gesamte System, wenn sie punktuell angelegt sind (technologisch fixiert), zu lange gewährt werden und nicht automatisch bei Erreichen vorher bestimmter Ziele auslaufen.

Es braucht den Dialog zwischen Gesellschaft und Politik/Wirtschaft

Erfolgreiche Revolutionen setzten in der Regel die Aufklärung der Revolutionäre voraus. In puncto Energiewende wurde es bisher versäumt, in einem umfassenden Dialog zwischen Gesellschaft und Politik/Wirtschaft eine vertrauensvolle Basis der Zusammenarbeit auf der Grundlage einer verbindlichen Definition der Ziele des Umbaus der Energieversorgung zu schaffen. Damit fehlt der Revolution namens „Energiewende“ die gemeinsame Richtung, die Akteure arbeiten teils gegeneinander oder verharren in abwartender Stellung.

Ein breites Bewusstsein von den Charakteristiken des Energiesystem Umbaus zu schaffen ist die allererste und wichtigste Aufgabe. Dadurch wird der Fortschritt dieses Prozesses, der bisher nur in Zielen aber kaum in Wegen definiert wurde, wesentlich beschleunigt. Von großer Bedeutung ist die Vermittlung der subsidiären Struktur der Energieversorgung und damit der Ausweitung des Raumes für Optionen von regionalen Lösungen über die nationale Ebene hin zur internationalen und vor allem europäischen Dimension. Auf der untersten Ebene der individuellen Befassung mit Energie wird damit eine breite Teilhabe erreicht und die Abstraktheit der Problematik aufgelöst. Dass nationale und internationale Aktionen mühevoll und langwierig sind, darf nicht davon abhalten, solche Architekturen mit Nachdruck anzustreben. Nationale vorbereitende Lösungen können Teile des subsidiären Systems schneller realisieren. Sie sind dann willkommen, wenn sie automatisch internationalen Regelungen weichen Dies ist besonders einfach, wenn die internationale Dimension von Anfang an mitgedacht wird, selbst wenn sie erst später realisiert wird.

Der Weg zum beschleunigten Umbau

des Energiesystems führt über einen Umbau des regulatorischen Ansatzes hin zu einem technologieoffenen Raum, in dem die Akteure ihre Konzepte ohne Bevorzugung durch staatliche Steuerung implementieren können. Es wird eine treibende Kraft benötigt, die am Besten in einer geeigneten Bepreisung fossiler Energieträger realisiert wird, da diese alle Anwendungen gleichmäßig erfassen kann.

Das in Deutschland eingesetzte „Klimakabinett“ ist ein Ansatz, um die auf viele Regierungsstellen verteilte Aufgabe des Umbaus des Energiesystems zu koordinieren. Dort könnte das zentrale Konzept der systemischen Behandlung umgesetzt werden. Günstig wäre es, die hohen Erwartungen an die Politik durch einige systemisch wirkende Vorabmaßnahmen (siehe unten) so zu erfüllen, dass ohne Schaden für den langfristig anzulegenden Umbau des Energiesystems gleichwohl eine anhaltende Motivation zu dessen Realisierung entsteht.

Die Politik geht die Revolution der Energieversorgung sehr zaghaft an und verbleibt im Bereich der wenig „schmerzhaften“ Maßnahmen, die allerdings auch nur wenig wirksam sind. Es darf erwartet werden, dass sich der Raum für das „politisch Mögliche“ erheblich ausweitet, wenn eine hinreichende und nicht-ideologische Information und Kommunikation mit den Nutzern des Energiesystems erfolgt.

Die hier entwickelten Vorstellungen legen eine entschlossene Weiterentwicklung des bisher verfolgten Weges in eine nachhaltige Energiezukunft nahe. Die bisher gemachten Ansätze und erreichten Veränderungen sollen jedoch keineswegs gering geschätzt werden. Vielmehr sollen diese Gedanken motivieren, den systemischen Charakter der Energieversorgung über alle Ebenen des Systems hinweg als Leitmotiv zum Entwurf eines schlüssigen Transformationsprozesses zu nutzen. Diesen zu gestalten und unmittelbar umzusetzen, ist eine vordringliche Aufgabe in Deutschland und Europa mit einer andauernden Priorität auch nach der derzeitigen Hochphase in den Medien.

Beispielhafte Vorschläge für „Vorabmaßnahmen“,

die das Klimakabinett zusätzlich zu existierenden Aktionen ergreifen könnte. Sie sind so konzipiert, dass sie deutlich sichtbar werden und als Teile einer dauerhafteren Strategie dienen. Sie testen die Bereitschaft der Akteure auch „schmerzhafte“ Maßnahmen mitzutragen. Die folgenden Stichpunkte müssten zu ausgearbeiteten Optionen entwickelt werden. Sie sind weder nach Priorität noch zeitlicher Reihenfolge geordnet.

  1. Auftrag an das Bundesministerium für Bildung und Forschung, eine Informations- und Kommunikationsstruktur zu realisieren, die eine breite Beteiligung der Bürger ermöglicht. Verantwortungen für Inhalte festlegen. Geeignete Begleitforschung einrichten. Ressourcen hinreichend nachhaltig bereitstellen. Beginn mit Piloten in 2020.
  2. Stilllegungsprämien für Kohlekraftwerke degressiv gestalten. Wenn bis 2022 stillgelegt wird, gibt es die vereinbarte Prämie, danach für jedes Jahr 10 % Abzug. Verpflichtung, die Prämien in nationale Energieinfrastruktur nachweislich zu investieren.
  3. Kohleregionen als industrielle Standorte für die systemische Energieindustrie erhalten und ertüchtigen. Alle Strukturmaßnahmen darauf ausrichten. Tätigkeiten: Ersatzstrom für volatile Erneuerbare, Power-2-X Produkte wie Kraftstoffe. Dies nicht mehr nur erforschen, sondern umsetzen.
  4. Dazu diese Gebiete sofort zu Ausnahmeregionen erklären, in denen der Gebrauch von Erneuerbaren Energien nicht den Regelungen des EEG unterliegt.
  5. Ertüchtigung der Wasserstoff-Infrastruktur durch nationale Vernetzung und Erweiterung um Pipeline-Systeme in den Süden Europas.
  6. Parallel Aufbau einer Wasserstofferzeugung in industriellem Maßstab in Südeuropa (dazu Abbildung 5: "Möglichkeiten der Energieernte in Europa" in http://scienceblog.at/energiewende-3-umbau-des-energiesystems-einbau-von-stoffkreisl%C3%A4ufen ). Schaffung der regulatorischen gesicherten Rahmenbedingungen für diese europäische Kooperation.
  7. Vorantreiben der Konzepte zu Reallaboren mit attraktiven Rahmenbedingungen in ganz Deutschland.
  8. Vorbereitung der Beendigung der EEG -Regelungen des in ganz Deutschland. Dies gleichzeitig mit der Einführung einer Bepreisung von CO2. Auftrag an das Bundesministerium für Wirtschaft und Energie dazu mehrere Optionen unter Berücksichtigung der europäischen Dimension zu erarbeiten.
  9. Priorisierung des Umbaus der regulatorischen Bedingungen gemeinsam mit der Wirtschaft, um die Nutzung und die dringend nötigen Zubauten an Erneuerbaren effektiv zu koordinieren.
  10. Erneuerbare Energie ohne EEG-Auflagen in die Wärmeerzeugung einkoppeln.
  11. Einführung des generellen Tempolimits.
  12. Planung plausibilisieren, wie grüner Wasserstoff und grüner Strom in Deutschland für den Verkehr verfügbar gemacht wird, wie diese Ressourcen mit den übrigen Anforderungen geteilt werden, und wer für die Versorgung die Verantwortung (und Kosten) übernimmt.
  13. Europäische Harmonisierung der Einrichtung von Ladeinfrastrukturen und Wasserstofftankstellen, um einen grenzüberschreitenden Verkehr zu garantieren.
  14. Produktion und schrittweise Einführung synthetischer Kraftstoffe in geeigneten Segmenten vor allem des Schwerverkehrs.
  15. Einrichtung einer interministeriellen Koordinierungsstruktur für die Energieforschung mit subsidiären Einheiten. Die existierenden Strukturen stark straffen, arbeitsfähig machen und einen Weg zur Umsetzung der Beschlüsse definieren.

Die zentrale Wasserstofftechnologie: Umwandlung volatiler Erneuerbarer Energien in Wasserstoff und flüssige Kraftstoffe. (Bild stammt von der homepage des Autors und wurde von der Redaktion eingefügt)


*Dies ist nun der letzte, mit "Epilog" überschriebene Teil des Eckpunktepapiers von Robert Schlögl "Energie. Wende. Jetzt", das am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Bis auf einige Überschriften, blieb der Text unverändert. Die von der Homepage des Autors stammende Abbildung wurde von der Redaktion eingefügt, um die Bedeutung der Wasserstofftechnologie herauszustellen. Bis jetzt im ScienceBlog erschienene Teile des Eckpunktepapiers

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R.Schlögl, 22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC) https://cec.mpg.de/home

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018).

Artikel im ScienceBlog:

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

Redaktion Wed, 25.09.2019 - 22:03

Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Do, 19.09.2019 — Redaktion

RedaktionIcon WissenschaftsgeschichteDer britische Genetiker und Evolutionsbiologe  John Burdon Sanderson Haldane  (J.B.S. Haldane) hat 1923 in einem Vortrag an der Cambridge University u.a. auch seine Vision zur Energieversorgung für die Zeit dargelegt, wenn die fossilen Quellen versiegen. Haldane war der Erste, der die weitreichende Nutzung erneuerbarer Energie, insbesondere der Windenergie, vorschlug, wobei die Speicherung überschüssiger Energie in Form von Wasserstoff erfolgen sollte, welcher dann bedarfsgerecht für Industrie, Mobilität und Privatgebrauch zur Verfügung gestellt würde.* Es ist eine unglaublich aktuell wirkende Vision, die in Einklang mit den heutigen Forderungen führender Experten auf dem Energiesektor steht.

John Burdon Sanderson Haldane (1892 - 1964) war ein multidisziplinärer britischer Naturwissenschafter, u.a. an den Universitäten Oxford, Cambridge und London tätig und für seine Arbeiten in Physiologie, Genetik. Evolutionsbiologie, Mathematik und Biostatistik berühmt; ebenso auch für seine Begabung Wissenschaft allgemein verständlich zu vermitteln. Haldane führte u.a. das Konzept der Abiogenese ein - die Entstehung komplexer organischer Moleküle aus CO2, Ammoniak und Wasser in einer Ursuppe ("primordial soup"), er gehörte zu den Hauptvertretern der Synthetischen Evolutionstheorie, er entdeckte die Genkopplung ("genetic linkage") - d.i. die gemeinsame Vererbung gewisser Eigenschaften und entwickelte die ersten Vorstellungen zum Klonieren. Er leistete auch wesentliche Beiträge zur Enzymkinetik und zu Eigenschaften und Funktion des Hämoglobins.

In dem 1923 gehaltenen Vortrag "Daedalus or Science and the Future" entwickelte er eine Fülle an Ideen und Visionen für die Zukunft (die ihn u.a. zu einem Vordenker des Transhumanismus werden ließen). Seine im nachfolgenden Text wiedergegebenen Vorstellungen zur Energiewende zeigen ihn in einer Linie mit den Topexperten von heute.

John B.S. Haldane:

Ausschnitt aus "Daedalus or Science and the Future",

Vortrag gehalten am 4.2.1923 im Club of Heretics, Cambridge University*

Was die Versorgung von Kraftmaschinen betrifft, so ist ein Faktum, dass es bloß eine Frage von Jahrhunderten ist, bis unsere Kohlevorkommen und Ölfelder erschöpft sein werden. Da oft angenommen wurde, dass deren Versiegen zum Zusammenbruch der Industriegesellschaft führen wird, gestatten Sie mir jetzt einige der Gründe zu nennen, die mich an dieser Behauptung zweifeln lassen.

Wasserkraft ist - meiner Meinung nach - kein wahrscheinlicher Ersatz und zwar wegen der geringen Quantität, den jahreszeitlichen Schwankungen und der unregelmäßigen Verbreitung. Vielleicht könnte aber Wasserkraft den Schwerpunkt der Industrie in wasserreiche Gebirgsregionen wie das Himalaya-Vorgebirge, British Columbia und Armenien verlagern.

Letztendlich werden wir die diskontinuierlichen, aber unerschöpflichen Energiequellen, den Wind und das Sonnenlicht, anzapfen müssen. Das Problem besteht einfach darin, deren Energie in einer Form zu speichern, die sich so praktisch wie Kohle oder Benzin erweist. Wenn man mit einer Windmühle im hinteren Teil seines Gartens täglich einen Zentner Kohle produzieren könnte - und diese kann das Äquivalent an Energie produzieren -, so würden unsere Kohleminen bereits morgen stillgelegt werden. Es kann aber schon morgen eine billige, in der Anwendung sichere und langlebige Speicherbatterie erfunden werden, die es uns ermöglichen wird, die volatile Energie des Windes in kontinuierliche elektrische Energie umzuwandeln.

Persönlich denke ich, dass in vierhundert Jahren die Energiefrage in England in etwa so gelöst sein könnte: Das Land wird mit Reihen von aus Metall bestehenden Windmühlen überzogen sein (Abbildung 1), die Elektromotoren antreiben, welche dann ihrerseits hochgespannten Strom in riesige Stromnetze einspeisen.

Abbildung 1. "Das Land wird von aus Metall bestehenden Windmühlen überzogen sein" - dies ist bereits Realität geworden. Ausschnitt aus dem kalifornischen Alta Wind Energy Center (Wiipedia, File:Alta Wind Energy Center from Oak Creek Road.jpg. CC BY-SA 3.0)

In geeigneten Abständen wird es große Kraftwerke geben, in denen bei windiger Wetterlage die überschüssige Energie für die elektrolytische Zersetzung von Wasser in Sauerstoff und Wasserstoff verwendet werden wird. Diese Gase werden dann verflüssigt und in riesigen Vakuum-ummantelten Behältern gelagert, die wahrscheinlich im Boden versenkt sind. Sind diese Tanks ausreichend groß bemessen, wird der Flüssigkeitsverlust aufgrund eines Eindringen von Wärme ins Innere vernachlässigbar sein. (Abbildung 2). Der Anteil, der täglich aus einem Speicher mit einer Grundfläche von rund 94 Quadratmetern und 20 Metern Tiefe verdunstet, wäre dann kein Tausendstel des Verlusts, den ein Tank mit Abmessungen von O,66 Meter in jede Richtung hat (Anm. d. Redn: die im Original in Yard und Fuß angegebenen Maße wurden ins metrische System umgerechnet). In Zeiten von Windstille werden die Gase dann rekombiniert werden: in Explosionsmotoren, die Dynamos antreiben, welche wiederum elektrische Energie erzeugen, oder wahrscheinlicher in Oxidationszellen.

Abbildung 2. "Die Gase werden dann verflüssigt und in riesigen Vakuum-ummantelten Behältern gelagert". Der oberirdische Wasserstoff-Tank liegt an der nordöstlichen Ecke der Startrampe 39A des Kennedy Space Center. Er fasst 3,2 Millionen Liter flüssigen Wasserstoff und ist von einer meterdicken Perlit-Schichte ummantelt; nach links gehende Leitungsrohre sind sichtbar. (Wikipedia, Author TomFawls, CC_BY_SA 3.0)

Auf das Gewicht bezogen ist verflüssigter Wasserstoff die effizienteste bekannte Methode zur Speicherung von Energie, da er pro Pfund etwa dreimal so viel Wärme liefert wie Benzin. Andererseits ist der Wasserstoff sehr leicht, auf das Volumen bezogen besitzt er nur ein Drittel der Effizienz des Benzins. Dies wird jedoch von der Verwendung in Flugzeugen nicht abhalten, wo das Gewicht wichtiger ist als das Volumen.

Die riesigen Depots von Flüssiggasen werden die Speicherung von Windenergie möglich machen, so dass sie bedarfsgerecht für Industrie, Transport, Heizung und Beleuchtung eingesetzt werden kann. Die anfänglichen Kosten werden sehr beachtlich sein, die laufenden Kosten aber niedriger ausfallen als die unseres gegenwärtigen Systems. Zu den augenfälligeren Vorteilen wird die Tatsache gehören, dass Energie in einem Teil des Landes genauso billig sein wird, wie in einem anderen; somit kann die Industrie stark dezentralisiert werden; des weiteren werden weder Rauch noch Asche erzeugt werden.

Nach meiner Meinung wird das Problem in etwa dieser Art gelöst werden. Im Grunde genommen ist es ein praktikables Problem, und die Erschöpfung unserer Kohlefelder wird den notwendigen Anreiz zu seiner Lösung liefern. Ich darf in Klammern hinzufügen, dass ich aus thermodynamischen Gründen, die ich kaum kurz zusammenfassen kann, nicht sehr an die kommerzielle Möglichkeit einer induzierten Radioaktivität glaube. (Anm. Redn.: unter "induzierter (künstlicher) Radioaktivität" konnte Haldane nur die, 1919 von Ernest Rutherford entdeckte Transmutation von Stickstoff , den dieser mit alpha-Teilchen (Helium) beschossen hatte, zu Kohlenstoff gekannt haben. Die Entdeckung der tatsächlichen künstlichen Radioaktivität - der Umwandlung stabiler in radioaktive Atome, entdeckte das Ehepaar Joliot-Curie 1934. Die Nutzung der Kernkraft zur Energieerzeugung setze erst in den 1950er Jahren ein.)

Vielleicht könnte Italien schon jetzt wirtschaftliche Unabhängigkeit erlangen, indem es einige Millionen Pfund für Forschung auf den angegebenen Gebieten ausgibt.


* JBS Haldane (1923) Daedalus or Science and the Future. (open access). Der daraus entnommene Ausschnitt wurde von der Redaktion möglichst wortgetreu übersetzt. Zur Illustration wurden zwei Fotos eingefügt.


Weiterführende Links

Wie die heutigen Vorstellungen zur Energiewende aussehen , ist in dem Eckpunktepapier "Energie.Wende.Jetzt" von Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) nachzulesen, das in mehreren Teilen im ScienceBlog erschienen ist.

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R. Schlögl, 22.8. 2019: Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.


 

Redaktion Wed, 18.09.2019 - 21:11

Wissenschaft, Kunst und Gesellschaft - Gustav Klimts Deckengemälde für die Universität Wien

Wissenschaft, Kunst und Gesellschaft - Gustav Klimts Deckengemälde für die Universität Wien

Do, 12.09.2019 — Alberto E. Pereda

Alberto E. PeredaIcon WissenschaftsgeschichteAn der Wende des 19. Jahrhunderts wurde der österreichische Künstler Gustav Klimt beauftragt, die Decke des Großen Festsaals der Universität Wien auszuschmücken. Die drei von ihm geschaffenen Bilder - "Philosophie", "Medizin" und "Jurisprudenz" - wurden jedoch von der Universität abgelehnt und später im Zweiten Weltkrieg beim Rückzug der deutschen Truppen zerstört. An Hand der Geschichte dieser Gemälde und eines weiteren Bildes mit dem Namen "Goldfische" zeigt der Neurobiologe Alberto E. Pereda (Albert Einstein College of Medicine, NY) Gemeinsamkeiten zwischen Kunst und Wissenschaft auf und weiter bestehende Spannungen in den Beziehungen zwischen Kunst, Wissenschaft und Gesellschaft.*

In der zweiten Hälfte des 19. Jahrhunderts erfuhr die Stadt Wien eine gravierende Umgestaltung. Das Herzstück dieser Veränderung war der Ersatz der alten Stadtmauern durch eine breite Allee, die Ringstraße, welche Platz für den Bau einer Reihe neuer öffentlicher Gebäude bot (Rentetzi, 2004).

Die Modernisierung des architektonisches Erscheinungsbildes der Stadt spiegelte sich in der Entwicklung von Künsten und Wissenschaften wider, die in dieser Zeit ein neues Niveau von Exzellenz erreichte. In der Vereinigung Wiener Secession, die unter anderem von Gustav Klimt angeführt wurde, schlossen sich Künstler zusammen, die sich von etablierten Kunstorganisationen und staatlicher Kontrolle losmachten, um Ideen der Moderne zu erarbeiten, wie sie in Berlin, München und anderen europäischen Städten aufkamen.

In den Wissenschaften katapultierte die Zweite Wiener Medizinische Schule unter Leitung von Carl von Rokitansky Wien in den Mittelpunkt der modernen westlichen Medizin. Rokitansky führte wissenschaftlichere Ansätze in die Medizin ein und war ein Pionier auf dem Gebiet der Pathologie. Weitere prominente Ärzte in Wien um diese Zeit waren der Chirurg Theodor Billroth, der Kliniker Josef Skoda und der Anatom Josef Hyrtl. Dazu kam der deutsche Physiologe Ernst Wilhelm Brücke, der (zusammen mit Emil Du Bois-Reymond, Carl Ludwig und Hermann von Helmholtz) argumentierte, dass alle physiologischen Prozesse durch zugrunde liegende physikalische oder chemische Mechanismen erklärt werden können, was im Widerspruch zur damals vorherrschenden Theorie des "Vitalismus" stand (White, 2006).

Brücke spielte eine herausragende Rolle in der wissenschaftlichen Entwicklung der Universität. Zu den von ihm Ausgebildeten zählten u.a. Ludwig Mauthner, dessen Beschreibung der Nervenzellen in Fischen (Seyfarth and Zottoli, 1991) für meine eigene Forschung seit nunmehr dreißig Jahren von zentraler Bedeutung ist, und Sigmund Freud, der Begründer der Psychoanalyse. Der Einfluss von Brücke und Helmholtz veranlasste Freud, sich den menschlichen Geist als einen Strom psychologischer "Energie" oder Triebenergie (Libido) vorzustellen, der sich (wie im Helmholtzschen Gesetz von der Erhaltung der Energie) kontinuierlich in Gedanken und Verhaltensweisen verwandelt.

Interaktionen zwischen Wissenschaftlern und Künstlern waren im intellektuell wissbegierigen Wien weit verbreitet, und Ideen der Moderne in Kunst und Wissenschaft prallten regelmäßig mit den traditionell konservativen Werten der Wiener Gesellschaft zusammen (Kandel, 2012). Brückes materialistische Ansichten zur Wissenschaft wurden von Hyrtl abgelehnt, der das traditionelle philosophische und religiöse Dogma zu Wissenschaft und Medizin favorisierte (Seebacher, 2006). In der Welt der Kunst waren die Spannungen weniger offenkundig, da die Secessionsbewegung - obwohl unabhängig - vom Staat gesponsert wurde. Wie wir sehen werden, änderte sich allerdings die Situation, als die Universität Wien Klimt mit der Produktion einer Reihe von Gemälden beauftragte.

Deckengemälde der Universität Wien

Gustav Klimt wurde 1862 in eine Familie von Goldgraveuren hineingeboren und widmete sein Leben der Kunst. Im Jahr 1894 - als Klimt durch seine Arbeiten in Gebäuden der Ringstraße schon Bekanntheit erlangt hatte - wurden er und sein Mitarbeiter Franz Matsch eingeladen, fünf Tafeln für die Decke des Großen Festsaals der Universität Wien zu malen: ein zentrales Bild ("Der Triumph des Lichts über die Finsternis") umgeben von vier allegorischen Gemälden für die vier Fakultäten. Matsch sollte die mittlere Tafel und eine Tafel "Theologie" malen, während Klimt "Philosophie", "Medizin" und "Jurisprudenz" malen sollte.

Klimts erstes Gemälde "Philosophie" wurde 1900 erstmals der Öffentlichkeit präsentiert und während es in Frankreich Anklang fand (es gewann die Goldmedaille auf der Pariser Weltausstellung), löste es jedoch in Wien bei Professoren und Beamtenschaft heftige negative Reaktionen aus. Der Grund war, dass Klimt mit dem klassizistischen Stil seiner früheren Gemälde (der erwartet worden war) brach und in einem neuen Stil begann, in dem Nacktheit und mehrdeutiger Symbolismus mit den rationalistischen Aussagen des Klassizismus kontrastierte. Anstatt die kulturelle Stellung, die Wien damals in der Welt einnahm, zu verherrlichen, zeigte das Gemälde eine passive, instinktive Interpretation der Philosophie (Abbildung 1). Die gefühlsmäßigen Einsichten der Kunst der Moderne stimmten mit neuartigen, von Freud entwickelten, wissenschaftlichen Ansichten über die menschliche Psyche überein, der postulierte, dass der Großteil unseres geistigen Lebens unbewusst ist und dass unser zivilisiertes Leben von instinktiven Anfällen der Erotik und Aggression getrieben wird, die in Form von Worten und Gestalten ins Bewusstsein auftauchen (Kandel, 2012). Gleichzeitig mit der Philosophie erschien Freuds bahnbrechendes Buch "Die Traumdeutung" im Jahr 1900 (Freud, 1900).

Abbildung 1. Gustav Klimt: Philosophie (1900). "Links Figurengruppe: das Entstehen, das fruchtbare Sein, das Vergehen. Rechts: die Weltkugel als Welträtsel, Unten auftauchend eine erleuchtende Gestalt: das Wissen.“(Klimt im Katalog zur 1. Secession in Wien; Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)

Während Klimt noch in die durch die Philosophie ausgelöste erbitterte Debatte verwickelt war, enthüllte er 1901 ein zweites Gemälde, die Medizin. In seinem neuen instinktiven Stil fortfahrend zeigt es eine Säule nackter Körper, in der die Gegenwart einer schwangeren Frau, von Babys und Skeletten auf die Einheit von Leben und Tod anspielt (Abbildung 2). Der nackte Körper einer bewusstlosen jungen Frau scheint davonzutreiben und wird vom starken Arm eines Mannes festgehalten. Dies scheint darauf hinzudeuten, dass niemand dem Strom des Lebens entkommen kann. Am unteren Rand des Gemäldes hält Hygieia, Göttin der Gesundheit und Tochter des Gottes der Heilkunde Asklepios, die Schale mit dem Wasser der Lethe und die Schlange des Asklepios, während sie - selbstgefällig - menschlichem Leiden den Rücken zukehrt. Die Bedeutung der in diesem faszinierenden Gemälde enthaltenen Bilder war Gegenstand vieler Aufsätze und Interpretationen (z.B.: Finn et al., 2013; Kandel, 2012; Sark, 2011; Schorske, 1981). Eine Botschaft ist jedoch offensichtlich: Wir sind geboren, um zu sterben, und die Medizin - repräsentiert durch die hilflose Hygieia - kann unser Schicksal nicht ändern.

Abbildung 2. Die "Medizin" von Gustav Klimt. Das Gemälde wurde für den Großen Festsaal der Universität Wien in Auftrag gegeben. Es wurde erstmals 1901 auf der 10. Ausstellung der Secession 1901 gezeigt und 1945 zerstört. (Bild: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wien. Lizenz: cc-by-nc-sa)

Die Medizin löste eine noch heftigere Reaktion als die Philosophie aus. Neben der eindeutigen weiblichen Sexualität, die zu dieser Zeit als zutiefst anstößig galt, war das Gemälde nicht das, was Ärzteschaft und Verwaltungsapparat erwartet hatten. Anstatt die Stellung Wiens in der Welt der Medizin zu rühmen, entlarvte Klimts Gemälde - in einer instinktiven Sprache - die Grenzen unserer Fähigkeit zu heilen und die Unvermeidlichkeit des Todes. Mit anderen Worten, die wahre Natur der Medizin wurde in Frage gestellt. Das Gemälde wurde von einer medizinischen Fachzeitschrift angegriffen, und eine Gruppe von Universitätsprofessoren reichte eine formelle Beschwerde bei der Universität ein (Bitsori and Galanakis, 2002).

Nach diesem zweiten Skandal gab es für Klimt drastische Konsequenzen: Seine Professur an der Akademie der bildenden Künste wurde nicht verlängert, und die Wiener Secession verlor die staatliche Unterstützung. Klimts Reaktion darauf war, dass er "Goldfische" malte, eine traumartige Komposition, die den Kopf eines Goldfisches und mehrere nackte weibliche Figuren darstellt, von denen eine den Betrachter träumend anzublicken scheint. (Abbildung 2). Ursprünglich mit "An meine Kritiker" betitelt war die Botschaft des Gemäldes offensichtlich.

Abbildung 3. Goldfische (1901 -1902) von Gustav Klimt. Ursprünglich mit dem Titel "An meine Kritiker" versehen, spiegelt "Goldfische" Klimts Reaktion auf die Kritik wider, die er für Philosophie und Medizin erhielt. (Bild: Wikipedia, gemeinfrei)

Das letzte Gemälde der Serie für die Wiener Universität war Jurisprudence (1903 fertiggestellt). Klimt wählte erneut die instinktive Vorgehensweise und die Bildsprache der Nacktheit und stellte eine emotionale Kritik an unserer Fähigkeit dar andere Menschen zu beurteilen und zu bestrafen (Abbildung 4).

Das Unterrichtsministerium entschied schließlich, dass die Gemälde des Großen Festsaal Saals der Universität Wien nicht würdig waren. Trotz des starken Widerstands des Staates, dem die drei Gemälde gehörten, konnte Klimt sie mit Hilfe von Freunden zurückkaufen. In der Folge wechselten die Bilder mehrmals den Besitzer (Klimt starb 1918 während der Influenza-Pandemie) und wurden nach der Annexion Österreichs durch Deutschland 1938 von den Nazis von ihren jüdischen Besitzern beschlagnahmt. Ausgelagert im Schloss Immendorf in Niederösterreich wurden 1945 die drei Deckengemälde schließlich zerstört, als SS-Truppen beim Rückzug das Schloss in Brand steckten.

Goldfische überlebte jedoch und ist jetzt im Solothurner Kunstmuseum in der Schweiz untergebracht. Im übrigen: Kopien davon sind immer noch imstande Anstoß zu erregen: 2014 - 114 Jahre nach der ersten Kritik an Klimts Gemälden - ersuchte mich der damalige Dekan des Albert Einstein College of Medicine in New York, eine Institution, die für ihre fortschrittliche Tradition bekannt ist, eine Reproduktion des Bildes auf dem Gang vor meinem Labor zu entfernen, da er der Ansicht war, dass manche Leute Bilder von nackten Frauen als für eine medizinische Fakultät unpassend halten könnten.

Abbildung 4. Gustav Klimt: Jurisprudenz (1903). Das Bild zeigt einen Verurteilten in der Gewalt dreier Furien – Wahrheit, Gerechtigkeit und Gesetz. Diese sind als von Schlangen umgebene Eumeniden dargestellt, die ihr Opfer mit der tödlichen Umarmung eines Kraken bestrafen. (Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)

Gibt es einen Zusammenhang von Kunst und Wissenschaft?

Könnte Klimt intuitiv ein genaueres Verständnis vom Wesen der Medizin gehabt haben als so manche Ärzte und der Verwaltungsbeamten der Universität zu dieser Zeit? Was die Letzteren betrifft so war das Verständnis der Medizin sicherlich durch ihre Rolle und Stellung in der Gesellschaft beeinflusst, aber das war bei Klimt nicht der Fall. Der Schriftsteller Jorge Luis Borges sagte einmal, dass 90% der Kunst nicht existieren würden, wenn wir wüssten, was auf den Tod folgt (Gelman, 2011) und stellte fest, dass Kunst eine Suche nach Antworten auf Fragen nach dem Sinn unserer Existenz ist; dies ist nicht so sehr von dem unterschieden, was Wissenschaftler auf ihrer Suche nach Wissen antreibt. Künstler vereinigen oft viele Talente - Maler können auch Schriftsteller und Musiker sein und umgekehrt, was darauf hindeutet, dass ihre kreativen Einfälle auf mehrfachen Wege zum Ausdruck gebracht werden können. Desgleichen war Leonardo da Vinci ein Beispiel für jemanden, der seine Kreativität sowohl in Kunst als auch in Wissenschaft einfließen lässt.

Zudem denken Wissenschaftler manchmal wie Künstler, wenn sie ihre wissenschaftlichen Ideen entwickeln. Tatsächlich sagte Albert Einstein, er habe "nie in logischen Symbolen oder mathematischen Gleichungen gedacht, sondern in Bildern, Gefühlen und sogar musikalischen Architekturen" (Root-Bernstein and Root-Bernstein, 2010; Wertheimer, 1945). An anderer Stelle bezog sich Einstein in mehr formaler und expliziter Weise auf den Zusammenhang von Kunst und Wissenschaft, als er schrieb: "Nachdem ein gewisses Maß an technischem Können erreicht ist, verschmelzen Wissenschaft und Kunst in Ästhetik, Plastizität und Form. Die größten Wissenschaftler sind immer auch Künstler"(Calaprice, 2000).

Kunst und Wissenschaft werden vielfach als sich ergänzende Formen des Wissens angesehen. Aber wie ergänzen sie sich? "Der Dichter gibt keine Antworten", schrieb der Dichter Juan Gelman im Jahr 2011. "Bis zum Ende seiner Tage befragt er die unsichtbare Realität, die ihm keine Antworten gibt" (Gelman, 2011). Einsteins Überlegungen zu Kunst und Wissenschaft erweiterten diesen Gedanken, indem er feststellte: "Wenn das Gesehene und Erlebte in der Sprache der Logik dargestellt wird, dann ist es Wissenschaft. Wenn es durch Formen kommuniziert wird, deren Konstruktionen dem Bewusstsein nicht zugänglich sind, aber intuitiv erkannt werden, dann ist es Kunst." Nach dieser Ansicht hatte Klimt ein intuitives Verständnis der Medizin, das ihre wahre Natur zutreffender als ein unvollkommenes Werkzeug, das die Menschheit geschaffen hat, um Schmerzen zu lindern, beschrieb als die pompöse Anschauungsweise damaliger Mediziner und Universitätsverwalter.

Kunst, Wissenschaft und Gesellschaft

Im Gegensatz zu anderen bemerkenswerten Ablehnungen von Auftragskunst, wie Die Verschwörung des Claudius Civilis von Rembrandt (wurde von der Stadt Amsterdam abgelehnt) und Der Mensch am Scheideweg von Diego Rivera (im Rockefeller Center, abgedeckt und zerstört), interessieren sich weiterhin Wissenschaftler und Gelehrte für das Schicksal der Deckengemälde an der Wiener Universität (Finn et al., 2013; Kandel, 2012; Sark, 2011; Schorske, 1981). (Siehe dazu auch "Kommentar der Redaktion" am Ende des Artikels.)

Gegen die Erkenntnisse von Wissenschaftlern und die intuitiven Einsichten von Künstlern gibt es in der Öffentlichkeit häufig Widerstand, da diese in der Regel die zur Zeit vorherrschenden religiösen und kulturellen Überzeugungen in Frage stellen (siehe beispielsweise Die Gefängnishefte von Antonio Gramsci). Die Geschichte ist reich an Beispielen für solche Konflikte. Die Ergebnisse von Galileo Galilei wurden von der katholischen Kirche ernsthaft in Frage gestellt, und Die Hochzeit des Figaro von Mozart wurde in Österreich wegen seiner antiaristokratischen und antimilitaristischen Zwischentöne verboten. Und Gemälde von Kandinsky, Klee, Kirchner, Marc und anderen deutschen Expressionisten wurden vom NS-Regime als "entartet" verurteilt, während die Arbeiten von Einstein und Helmholtz als "ungermanisch" abgetan wurden (Buchwald, 2016; Stern, 1986).

Wenn wir auch oft denken, dass solche Konflikte einer Vergangenheit angehören, aus der wir uns weiterentwickelt haben, so kehren diese tatsächlich zurück. In einem Stück mit dem Titel Almansor machte Heinrich Heine 1823 eine düstere Vorhersage ("dort wo man Bücher verbrennt, verbrennt man am Ende auch Menschen"), die sich tragischerweise in Deutschland während des Naziregimes und in Chile während des Militärputsches 1973 erfüllte. Wissenschaftler und Künstler gehören zudem oft zu den Ersten, die von diktatorischen Regimen verhaftet und strafrechtlich verfolgt werden. Bertolt Brecht warnte uns im letzten Satz seines Theaterstücks Der aufhaltsame Aufstieg des Arturo Ui: Ein Gangsterspektakel wachsam zu bleiben, damit solche Bedrohungen von Diktatoren nicht wiederkehren:

"Die Völker wurden seiner Herr, jedoch, –
Dass keiner uns zu früh da triumphiert –
Der Schoß ist fruchtbar noch, aus dem das kroch."

Es gibt neuere Beispiele für solche Spannungen. 1999 fror der damalige Bürgermeister von New York, Rudolph Giuliani, die städtische Unterstützung für das Brooklyn Museum of Art ein und drohte sogar, es aus seinem Gebäude hinauszuwerfen. Der Grund dafür: Chris Ofilis Gemälde Die Heilige Jungfrau Maria verletzte seine Gefühle, da dieser eine, mit Elefantendung dekorierte schwarze Madonna gemalt hatte (Foggatt, 2018). Ein weiteres tiefergreifendes Beispiel war die Zerstörung historischer religiöser Gebäude im Irak und in Syrien durch den IS in den Jahren 2014 und 2015.

Ein noch eindrucksvolleres Beispiel für diese Spannung ist meiner Meinung nach die Art und Weise, wie einige Regierungen den Klimawandel trotz der überwältigenden wissenschaftlichen Belege und der katastrophalen Folgen für den Planeten leugnen (Mellilo et al., 2014). Schlimmer noch, die derzeitige Regierung in den Vereinigten Staaten macht die Arbeit früherer Regierungen rückgängig und zieht sich aus internationalen Abkommen zurück. Diese Episode ist ein klares Beispiel dafür, wie wissenschaftlicher Fortschritt nicht unbedingt sozialen Fortschritt garantiert und wie regressive Politik trotz gesunden Menschenverstandes bestehen kann.

Die Menschheit ist befähigt Großes in Kunst und Wissenschaft hervorzubringen, sie ist aber auch in der Lage, große Kunst und Wissenschaft zu bekämpfen und zu zerstören. Wir befinden uns in einem ewigen Kampf zwischen Gut und Böse (oder zwischen Schöpfung und Zerstörung), einen Kampf, der nach Freud im Unbewussten jedes Menschen stattfindet. Goldfische als einzig überlebendes Bild aus der Ära der für die Universität Wien geschaffenen Deckengemälde von Klimt ist ein Symbol für die Widerstandsfähigkeit der Kunst und die Verteidigung ihres unerlässlichen Beitrags zur menschlichen Zivilisation.


Literatur:

Bitsori M, Galanakis E. 2002. Doctors versus artists: Gustav Klimt’s Medicine. BMJ 325:1506–1508. DOI: https://doi.org/10.1136/bmj.325.7378.1506, PMID: 12493684

Buchwald JZ. 2016. Politics, morality, innovation, and misrepresentation in physical science and technology. Physics in Perspective 18:283–300. DOI: https://doi.org/10.1007/s00016-016-0187-y

Calaprice A. 2000. The Expanded Quotable Einstein. Princeton: Princeton University Press.

Finn BC, Bruetman JE, Young P. 2013. Gustav Klimt (1862-1918) y su cuadro sobre la medicina. Revista Me´dica De Chile 141:1584–1588. DOI: https://doi.org/10.4067/S0034-98872013001200013

Foggatt T. 2018. Giuliani vs. the virgin. The New Yorker. [Accessed July 9, 2019].

Freud S. 1900. The Interpretation of Dreams. New York: Random House.

Gelman J. 2011. Esa realidad invisible. El Pais. [Accessed July 9, 2019].

Kandel ER. 2012. The Age of Insight. In: The Quest to Understand the Unconscious in Art, Mind, and Brain, From Vienna 1900 to the Present. New York: Random House.

Mellilo J, Richmond T, Yohe G. 2014. Climate change impacts in the United States. The Third National Climate Assessment. DOI: https://doi.org/10.7930/J0Z31WJ2

Rentetzi M. 2004. The city as a context for scientific activity: Creating the Mediziner-Viertel in fin-de-siècle Vienna. Endeavour 28:39–44. DOI: https://doi.org/10.1016/j.endeavour.2004.01.013, PMID: 15036928

Root-Bernstein M, Root-Bernstein R. 2010. Einstein on creative thinking: music and the intuitive art of scientific imagination.[Accessed July 9, 2019].

Sark K. 2011. Vienna secession – Klimt, Freud and Jung. [Accessed July 9, 2019].

Schorske CE. 1981. Fin-de-siècle Vienna: Politics and Culture. New York: Vintage Books.

Seebacher F. 2006. The case of Ernst Wilhelm Brücke versus Joseph Hyrtl – The Viennese Medical School quarrel concerning scientific and political traditions. In: Hoppe B (Ed). Controversies and Disputes in Life Sciences in the 19th and 20th Centuries. Ausburg: Dr.Erwin Rauner Verlag. p. 35–54.

Seyfarth EA, Zottoli SJ. 1991. Ludwig Mauthner (1840-1894): Neuroanatomist and noted ophthalmologist in fin-de-siècle Vienna. Brain, Behavior and Evolution 37:252–259. DOI: https://doi.org/10.1159/000114363, PMID: 1933249

Stern F. 1986. Einstein and Germany. Physics Today 39(2):40–49. DOI: https://doi.org/10.1063/1.881051

Wertheimer M. 1945. Productive Thinking. New York: Harper.

White R. 2006. The Study of Lives: Essays on Personality in Honor of Henry a Murray. New York: Atherton Press.


* Dieser Artikel von Alberto E.Pereda erschien unter dem Titel "Science, art, society and Klimt’s University of Vienna paintings" zuerst (am 1. August 2019) in eLife 2019;8:e50016. DOI: https://doi.org/10.7554/eLife.50016 und steht unter einer cc-by Lizenz. Der Autor hat sich freundlicherweise mit der Übersetzung des Artikels durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Im Einverständnis mit dem Autor wurden Abbildungen 1 und 4 und die entsprechenden Legenden von der Redaktion eingefügt. Geändert wurde der Name der Göttin der Gesundheit von Hygia in Hygieia und der letzte Satz des Theaterstücks Der aufhaltsame Aufstieg des Arturo Ui, der nun in der deutschen Originalfassung vorliegt. Weiters haben wir im Kommentar im Anhang  die Totalansicht der rekonstruierten Deckengemälde im Großen Festsaal der Universität Wien, wie sie sich seit 2005 dem Besucher bieten, eingefügt.


Kommentar der Redaktion

Im Mai 2005 hat das Leopold Museum (Wien) in Kooperation mit der Universität Wien das gesamte Bildensemble in Form von Schwarz-Weiß-Reproduktionen an der Decke des großen Festsaales der Universität Wien angebracht. Abbildung.

Abbildung. Deckengemälde im Großen Festsaal der Universität Wien. Im Mai 2005 wurde erstmals das ursprünglich geplante Ensemble der Deckengemälde von Klimt und Matsch mit Hilfe von Schwarz-Weiß-Reproduktionen im Großen Festsaal vollständig präsentiert. (Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)


Artikel zum Thema Wissenschaft und Kunst in ScienceBlog.at

Günter Engel, 01.12.2016: Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart.

Wolfgang Neubauer, 02.09.2016: Die Erkundung der verborgenen prähistorischen Landschaft rund um Stonehenge.

Wolfgang Neubauer, 01.07.2016: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum.

Elisabeth Pühringer, 07.03.2014: Kunst oder Chemie – zur Farbästhetik alter Malereien.

Gottfried Schatz, 7.1.2014: Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst.

Sigrid Jalkotzy-Deger, 10.07.2013: Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften.

Uwe Sleytr, 14.06.2013: Synthetische Biologie — Wissenschaft und Kunst.


 

Redaktion Thu, 12.09.2019 - 10:44

Pflanzen entfernen Luftschadstoffe in Innenräumen

Pflanzen entfernen Luftschadstoffe in Innenräumen

Do, 05.09.2019 — Inge Schuster

vIcon BiologiePflanzen nehmen nicht nur CO2 und Wasser auf, wandeln diese via Photosynthese in Biomasse um und produzieren dabei den für uns essentiellen Sauerstoff, sie tragen auch zu unserem Wohlbefinden und unserer Produktivität bei. Für unser Leben, das wir zum Großteil in geschlossenen Räumen verbringen, ist eine weitere, bereits vor 30 Jahren von NASA-Forschern entdeckte Eigenschaft von enormer Bedeutung: bestimmte Zimmerpflanzen können gesundheitsschädliche Stoffe aus der Luft effizient entfernen. Es ist dies eine sehr wichtige, in vielen Details noch unverstandene Funktion, die lange unterschätzt wurde und erst in den letzten Jahren wieder in den Blickpunkt der Forschung rückt.

Wenn von Luftverschmutzung gesprochen wird, so ist in erster Linie von der Außenluft die Rede und von Emissionen, wie sie durch Industrie, Verkehr, Landwirtschaft und viele andere menschliche Aktivitäten (aber auch durch natürliche Ereignisse wie etwa Vulkanismus) erzeugt werden. Allerdings hält sich der typische Mitteleuropäer nur einen kleinen Teil seines Lebens im Freien auf, verbringt dagegen im Durchschnitt rund 60 % der Zeit in der eigenen Wohnung und rund 30 % in anderen geschlossenen Räumen (Arbeitsplatz, Schulen, Verkehrsmittel, Gaststätten, Theater, etc.). Sofern in den Innenräumen keine zusätzlichen Schadstoffemissionen generiert werden, ist die Schadstoffbelastung mit der des Außenbereichs vergleichbar.

Tatsächlich gibt es aber zahlreiche Schadstoffquellen, welche die Belastung in Innenräumen um ein Vielfaches höher machen können als in der Außenluft. Beispielsweise können Möbel und Bauprodukte (wie Holzwerkstoffe, Holzschutzmittel, Farben, Lacke, Bodenbeläge, Wandverkleidungen, Klebstoffe, etc.) flüchtige Schadstoffe temporär und kontinuierlich freisetzen. Emissionen entstehen ebenso durch Wasch-, Putz-und Desinfektionsmittel, Körperpflegeprodukte, Sprays, beim Kochen und Heizen (vor allem durch offene Feuerstellen) und natürlich auch durch Tabakrauchen.

Von der Innenraumluft atmen wir - abhängig von Alter und Aktivität - täglich 10 bis 20 m3 ein; unsere Empfindlichkeit gegenüber Luftschadstoffen ist dabei individuell sehr verschieden. Die Reaktionen reichen von ziemlich unspezifischen Symptomen wie verringerter Leistungs-, Konzentrationsfähigkeit, Schlafstörungen über Reizungen der Schleimhäute des Atmungstrakts, Bindehautentzündungen, Beeinträchtigungen von Nerven- und Immunsystem, Asthma bis hin zu krebserregenden Auswirkungen. In Summe tragen diese Reaktionen zu einem als "sick building syndrome" bezeichneten Phänomen bei.

Schadstoffe in der Innenluft

Zu den häufigsten Schadstoffen in Innenräumen werden sogenannte "flüchtige organische Verbindungen" ("volatile organic compounds" - VOCs) gezählt. Auf den einfachsten Aldehyd - Formaldehyd - wird dabei auf Grund seiner hohen chemischen Reaktivität und seiner sehr weiten Verbreitung in Gegenständen des täglichen Bedarfs, Bauprodukten (Holzwerkstoffen, Polymeren) und Inneneinrichtungen gesondert eingegangen.

Unter der Abkürzung VOC wird eine Vielzahl organischer Verbindungen - Lösungsmittel, Reiz- und Geruchsstoffe und andere chemische Substanzen - zusammengefasst, die einen relativ niedrigen Siedepunkt haben und aus den unterschiedlichsten im Haushalt vorhandenen/verwendeten Materialien (s.o.) ausgasen. Darunter fallen:

  • aromatische Kohlenwasserstoffe wie u.a. Benzol, Toluol oder Styrol (in Bauprodukten, Inneneinrichtungen, Feuchteabdichtungen, Zigarettenrauch),
  • aliphatische Kohlenwasserstoffe wie z.B. Hexan, Heptan, Oktan, Undecan, etc. (als Verdünner, Klebstoffe, in Heizölen),
  • halogenierte Kohlenwasserstoffe - z.B. Tetrachlorethen (chem. Reinigung), Dichlorbenzol (Desinfektionsmittel, Mottenschutz), Perfluoroktansäure (Beschichtung von Outdoorkleidung)
  • Terpene als Lösungsmittel (Terpentinöl), Riechstoffe (Kampher), Duftstoffe (Limonen),
  • Ester, Alkohole, Ketone - z.B. Ethylacetat, Butylacetat (Bodenversiegelung), Isobutanol (als Lösungsmitel in Kunstharzlacken), Cyclohexanon, Benzophenon (Lösungsmittel für Lacksysteme),
  • Aldehyde - Reaktionsprodukte die z.B. aus Leinöl enthaltenden Materialien entstehen,
  • Siloxane - in speziellen Lacken für Möbeloberflächen.

Wie Messungen in deutschen Wohnungen ergeben haben, liegen Gesamtkonzentrationen an VOC im Mittel in der Größenordnung von einigen hundert Mikrogramm (Millionstel Gramm; µg) pro Kubikmeter, wobei im Durchschnitt rund 40 µg/m3 (50 Perzentil) auf Toluol und Xylole zurückgehen; es werden aber auch mehr als zehnfach höhere Werte (95 Perzentil) gefunden. Für Formaldehyd wurden in deutschen und österreichischen Wohnungen, Schulen und Kindergärten Werte zwischen 16 und 150 µg/m3 bestimmt [1]. Insbesondere nach Renovierungen und Großreinigungen ist in den gut abgedichteten und häufig zu wenig gelüfteten modernen Bauten mit einer temporär erhöhten Schadstoffexposition zu rechnen.

Richtlinien zur Bewertung von Schadstoffen, i) für die sich relevante Quellen in Innenräumen befinden, ii) die gesundheitlich relevant sind und iii) für die ausreichend toxikologische Daten und analytische Messmethoden vorliegen, sind in Österreich auf der Seite des Bundesministerium für Nachhaltigkeit und Tourismus zu finden [1]. Beispielsweise liegt für das besonders häufig auftretende Toluol der "No Adverse Effect Level" (NOAEL) für Dauerbelastung bei einem mittleren Stundenwert von 75 µg/m3; als Richtwert für Formaldehyd sollte der Wert der WHO-Air Quality Guidelines for Europe von 60 µg/m3 (24-Stunden Mittelwert) herangezogen werden [1]; dies sind Konzentrationen, die in Innenräumen durchaus überschritten werden können.

Die NASA Clean Air Studie

Mit dem Bau hermetisch isolierter Raumstationen wurde bereits in den 1970er Jahren das Problem der Luftverschmutzung in solchen Räumen evident und die National Aeronautics Space Administration (NASA) suchte nach Möglichkeiten diese zu reduzieren. Eine herausragende Chance entdeckten Forscher am John C. Stennis Center (NASA) und berichteten vor 30 Jahren darüber [2]:

Ein Team um B.Wolverton fand heraus, dass höhere Pflanzen inklusive Substrat und der damit diesen assoziierten Mikoorganismen Schadstoffe sehr effizient reduzieren können. Bei den Pflanzen handelte es sich um 12 populäre Zimmerpflanzen - Bergpalme, Birkenfeige, Chrysantheme, Efeu, Einblatt, Gerbera, Kolbenblatt, Sansivieria und mehrere Dracaena-Arten. Diese wurden jeweils drei repräsentativen Schadstoffen - Benzol, Formaldehyd und Trichlorethylen - ausgesetzt. Dazu wurde jede Pflanze in ihrer Erde und ihrem Topf in einer von der Aussenluft völlig isolierten Plexiglaskammer platziert, der jeweilige Schadstoff injiziert und Luftproben unmittelbar nach Zugabe und nach 6 und 24 Stunden entnommen und die Konzentration des Schadstoffes analysiert. Einen qualitativen Eindruck davon, welche Kapazitäten der Schadstoffentfernung bei solchen Pflanzen gemessen wurden und wie sich Pflanzen diesbezüglich unterscheiden, gibt Abbildung 1.

Abbildung 1. Entfernung der Schadstoffe Benzol, Formaldehyd und Trichlorethylen durch einige Zimmerpflanzen. Die Pflanzen waren dabei über 24 Stunden einer sehr hohen Konzentration Schadstoff (über 15 ppm) ausgesetzt. Daten wurden aus Tabs 1 - 4 der NASA-Studie zusammengestellt [2]. (Eine ungenaue Angabe der eingesetzten Mengen erlaubt nicht die Umrechnung auf das Extraktionsausmaß in %.)

Neben der hohen, Pflanzen-spezifischen Kapazität einzelne Schadstoffe zu eliminieren, brachte die Studie ein weiteres, wesentliches Ergebnis: auch nach dem kompletten Entblättern der Pflanzen blieb die Schadstoffentfernung zum größten Teil aufrecht - zum überwiegenden Teil musste diese also über die Wurzelsphäre und die assoziierten Mikroorganismen erfolgt sein.

Die wichtigen Entdeckungen der NASA gerieten leider mehr oder weniger in Vergessenheit - sieht man in der Datenbank PubMed unter den Schlagworten indoor pollution AND plants nach, so sind dazu bis 2010 nur 0-3 Veröffentlichungen/Jahr gelistet; erst danach steigen die Arbeiten zu diesem Thema an. Bis jetzt fehlen aber robuste Daten über das Funktionieren von Pflanzen unter realen Gegebenheiten und über die für diverse Situationen geeignetsten Pflanzen. Auch die Mechanismen wie Pflanzen Luftschadstoffe reduzieren, sind erst in sehr groben Umrissen aufgeklärt.

Wie entfernen Pflanzen Schadstoffe (VOCs) aus der Luft?

Prinzipiell können Schadstoffe auf mehreren Wegen von Pflanzen aus der Luft entfernt werden: i) über die oberirdischen Teile der Pflanze, ii) über die Wurzelzone, iii) über die mit dieser in Gemeinschaft lebenden Mikroorganismen und iv) über das Substrat (Erde). Dabei kann man zwischen Absorptionsvorgängen - Aufnahme in die Pflanze - und Adsorption - Anlagerung an Oberflächen - unterscheiden.

Im oberirdischen Teil können VOCs über die Stomata der Blätter - das sind Poren an der Blattunterseite, die den Gasaustausch von CO2, O2 und Wasser regulieren - in die Zellen aufgenommen (absorbiert) werden. Sie können aber auf Grund ihres fettlöslichen Charakters im wachsartigen Überzug der Blätter, den Cuticula, "steckenbleiben" - adsorbiert - werden.

Schadstoffe werden auch über das Wurzelwerk der Pflanze und die Rhizosphäre (Bereich um die Wurzel im Substrat) aufgenommen und/oder angelagert (in der NASA-Studie war erfolgte offensichtlich der Großteil der Schadstoffreduktion über diesen unterirdische Teil der Pflanze; s.o.). Aufnahme erfolgt zweifellos auch die Mikroorganismen im Substrat, welche die VOCs metabolisieren und im eigenen Stoffwechsel einbauen.

Abbildung 2 gibt diese Wege schematisch wieder.

Abbildung 2. Wege, auf denen VOCs durch Pflanzen aufgenommen werden. (Bild modifiziert nach Armijos Moya et al.(2019 [3]; Lizenz: cc-by-nc).

Nach der Aufnahme in die Pflanzenzellen können VOCs dann enzymatisch "verarbeitet" und die Produkte in den Stoffwechsel der Pflanze eingebaut werden. In zahlreichen Pflanzen, darunter auch Zimmerpflanzen wie Ficus, Grünlilie und Einblatt wurde beispielsweise eine Dehydrogenase identifiziert, die Formaldehyd zur Ameisensäure oxydiert. Mittels radioaktiv markiertem Formaldehyd konnte dann gezeigt werden, dass die so entstandene Ameisensäure vollständig in den Stoffwechsel der Pflanze eingebaut wird. [4]

Neue Ansätze zur Luftreinigung

Kürzlich hat die NASA eine Hamburger Firma (AIRY GreenTech) für das Design eines Pflanzentopfes geehrt, mit dem "Erkenntnisse der Weltraumforschung auf der Erde nutzbar gemacht werden". Basierend auf dem Ergebnis der 30 Jahre alten NASA-Studie, wonach ein Großteil der Luftreinigung über die Rhizosphäre der Pflanzen mit den assoziierten Mikroorganismen erfolgt [2], ist der Topf so designt, dass die Raumluft Boden und Wurzelwerk maximal durchströmt. Aus dem Luftstrom filtert bereits der Boden Schadstoffe, Wurzeln und Mikroorganismen absorbieren dann Substanzen, metabolisieren diese und verwandeln sie in Produkte ihres Stoffwechsels. Nach Angaben der Firma können mit passend großen Töpfen die gefährlichsten Schadstoffe innerhalb 24 Stunden nahezu vollständig entfernt werden.

Ein Team um Long Zhang von der University of Washington (Seattle) verfolgt einen anderen Ansatz, nämlich den enzymatischen Abbau von Schadstoffen in Pflanzen zu beschleunigen, indem sie diese gentechnisch manipulieren. Dies demonstrieren sie an Hand des Cytochrom P450 2E1 (CYP2E1), eines Enzyms, das in allen Säugetieren vorkommt und neben Ethanol relativ unspezifisch eine Vielzahl anderer organischer Moleküle , darunter auch Chloroform und Benzol, oxydiert und entgiftet. Die Forscher schleusten ein solches CYP2E1-Gen (aus Kaninchen) in das Genom der Efeutute (Epipremnum aureum), einer anspruchslosen Zimmerpflanze, ein und zeigten, dass die transgene Pflanze nun Chlorform und Benzol effizient abbaute, die unveränderte Pflanze jedoch praktisch nicht dazu in der Lage war. Nach Meinung der Forscher können solche transgenen Pflanzen als effiziente, kostengünstige Biofilter zur Entfernung von VOCs in Innenräumen dienen.

Fazit

30 Jahre nach dem sensationellen Ergebnis aus einem NASA-Labor beginnt man sich nun erst für das Potential von Pflanzen zur Luftreinigung zu interessieren. Welche Mechanismen hier zum Tragen kommen, welche Rollen den einzelnen Elementen im System Boden - Pflanze - Wurzelgeflecht - Mikroorganismen bei der Eliminierung von Luftschadstoffen zukommt, welche Pflanzen für welche Schadstoffe als Biofilter besonders geeignet sind und natürlich auch ob und welche Risiken mit deren Einsatz verbunden ist (viele Pflanzen sind giftig und für Kinder und Haustiere eine Gefahr) und noch viel mehr Fragen warten noch auf eine Antwort.

Die Fähigkeit der Pflanzen Fremdstoffe unschädlich zu machen ist zweifellos nicht auf einige Vertreter von Zimmerpflanzen beschränkt. Unsere Wiesen und Wälder im Freien erzeugen nicht nur den Sauerstoff sondern halten sicherlich die Luft auch sauber, die wir alle zum Atmen brauchen.


[1] Bundesministerium für Nachhaltigkeit und Tourismus (BMNT): Richtlinie zur Bewertung der Luftqualität von Innenräumen.

[2] B.C.Wolverton et al., Interior Landscape Plants for Indoor Air Pollution Abatement. Final Report September 15, 1989.

[3] Armijos Moya et al., A review of green systems within the indoor environment. Indoor and Built Environment 2019, Vol. 28(3) 298–309. DOI:10.1177/1420326X18783042

[4] A. Schäffner et al., Genes and Enzymes for In-Planta Phytoremediation of Air, Water and Soil. Acta Biotechnol.22 (2002) 1--2, 141--152.


 

inge Thu, 05.09.2019 - 07:40

Ein Comeback der Phagentherapie?

Ein Comeback der Phagentherapie?

Do, 29.08.2019 — Karin Moelling

vIcon BiologieViren, die spezifisch Bakterien befallen, sogenannte Bakteriophagen (kurz Phagen), wurden bereits vor einem Jahrhundert entdeckt und therapeutisch gegen bakterielle Infektionen eingesetzt. Als Antibiotika ihren Siegeszug antraten, gerieten Phagen aber in den meisten Ländern in Vergessenheit. Die Entstehung von Antibiotika-resistenten Bakterien und der Mangel an neuen wirksamen Substanzen hat nun das Interesse an einer Phagentherapie wieder aufleben lassen. Was Phagen sind und wie sie funktionieren hat die renommierte Virologin Karin Moelling (em. Prof. für Virologie der Universität Zürich und Gruppenleiterin am Max-Planck-Institut für molekulare Genetik) in einem vorangegangenen Artikel dargestellt [1]. Nun schreibt sie über die therapeutische Anwendung von Phagen und nennt vielversprechende Beispiele.

Von Bakterien, gegen die kein Antibiotikum mehr hilft…

Die rasante Resistenzentwicklung gegen das Arsenal vorhandener Antibiotika stellt eine der größten weltweiten Bedrohungen für Gesundheit und übliche medizinische Praktiken (wie Operationen, Tumorbehandlungen) dar. Das Problem wird noch dadurch verschärft, dass antibakteriell wirksame neue Substanzen - zumindest im Laufe des nächsten Jahrzehnts - nicht in Sicht sind. Aktuell geht die WHO davon aus, dass weltweit mindestens 700 000 Personen jährlich an Infektionen mit resistenten Keimen versterben (im worst-case Szenario kann diese Zahl im Jahr 2050 auf 10 Millionen anwachsen) [2], in der Europäischen Union schätzt man jährlich auf 33 000 derartige Todesfälle [3], allein in Berlin ist es jede Woche ein Opfer.

Auf der immer dringlicher werdenden Suche nach Alternativen zur Behandlung bakterieller Infektionen erinnern sich Forscher nun wieder an eine mögliche Anwendung von Phagen, die sogenannte Phagentherapie. Abbildung 1.

Abbildung 1. Publikationen in Pubmed (der größten (bio)medizinischen Datenbank): Ab dem Jahr 2000 kommt es zu einem exponentiellen Anstieg von Arbeiten über Antibiotika-resistente Bakterien und ebenso über Phagentherapie. (Zahl der Publikationen über jeweils 5 Jahre summiert; Grafik mit exponentiellen Trendlinien in Microsoft Excel erstellt).

…zur Phagentherapie…

Wie schon in [1] geschildert, ist die Phagentherapie kein neues Konzept. Vor etwas mehr als hundert Jahren hat Félix d’Hérelle (1873–1949) am Institut Pasteur aus Stuhlproben von an bakterieller Ruhr erkrankten Patienten "unsichtbare Mikroben" isoliert, welche er - da sie gezüchtete Rasen von Ruhr-Bakterien zerstörten - als Bakteriophagen (Bakterienfresser) bezeichnete. (Wie Phagen dabei in hochspezifischer Weise Bakterien attackieren und zerstören, ist in [1] beschrieben.) d’Hérelle hatte auch gleich das therapeutische Potential seiner Entdeckung erkannt: die Anwendung dieser Bakteriophagen bei bakteriellen Infektionen. "Ultramikroskopische, nicht-pathogene Viren" im Filtrat von Bakterienkulturen hatte einige Jahre zuvor auch schon der britische Bakteriologe Frederick Twort entdeckt; der Ausbruch des Weltkriegs stoppte seine Untersuchungen, die er nach Kriegsende nicht fortsetzte.

Aber bereits lange zuvor wurde die - wahrscheinlich auf Phagen beruhende - heilsame Wirkung von menschlichem oder tierischem Kot bei bakteriellen Infektionen von Mensch und Tier erfolgreich angewandt (Kot enthält immerhin bis zu 10 Milliarden Phagen pro Gramm Trockengewicht): Im China des 4. Jahrhunderts verschrieben Mediziner aufgeschlämmten menschlichen Stuhl ("Gelbe Suppe") bei Durchfall und Nahrungsmittelvergiftungen, Beduinen wandten Kamelkot an - Praktiken, die bei uns bis jetzt ins Reich der Märchen verwiesen worden sind.

Dass Inder trotz der Verschmutzungen durch Fäkalabwässer und treibende Leichenreste seit Jahrhunderten weitgehend unbeschadet in den heiligen Flüssen Ganges und Yamuna rituell baden und das Flusswasser trinken, hat den englischen Bakteriologen Ernest Hankin sehr erstaunt. Im Jahr 1896 untersuchte er Wasserproben, nachdem er sie durch ein Porzellanfilter filtriert hatte, das für Teilchen ab der Größe von Bakterien undurchlässig war. Im Filtrat stellte er hohe Aktivität gegen Cholerabakterien fest, die offensichtlich biologischer Natur war, da sie beim Erhitzen verloren ging - diese Aktivität dürfte wahrscheinlich auf die damals noch unbekannten Phagen zurückzuführen gewesen sein. Abbildung 2.

Abbildung 2. Baden im heiligen Fluss Ganges an einem der Ghats in Varanasi. Links und rechts unten: Der englische Bakteriologe Ernest Hankin wies 1896 im Flusswasser hohe antibakterielle Aktivität gegen Cholerakeime nach, die beim Erhitzen verschwand. Rechts: Während Festen wie Kumbh Mela baden Millionen Inder im Ganges ohne, dass es zum Ausbruch von Epidemien kommt. (Bild: Thonas Hoffmann, 2018; Flickr cc- by- nc-sa)

…und ihre Entwicklung bis ins Zeitalter der Antibiotika

Nach einigen Tierversuchen wurden Phagen bald am Menschen angewandt. 1921 wurden in einem Pariser Kinderspital die an Bakterienruhr erkrankten jungen Patienten innerhalb eines Tages geheilt. d’Hérelle selbst reiste unentwegt an Orte, wo Infektionen - insbesondere Cholera und Pest - grassierten (nach Südamerika, Mexiko, Indien, in verschiedene afrikanische Staaten und auch nach Russland) und behandelte die Patienten mit einem Gemisch von Phagen als "cocktails", die er passgenau auf die zu behandelnden Infektionen abstimmte. Überzeugt davon, dass Phagen in spezifischer Weise Bakterien aber nicht höhere Lebewesen befallen und für diese daher harmlos sind, schluckte d’Hérelle auch selbst seine Cocktails ohne Nebenwirkungen zu verspüren. In Tiflis (Georgien) gründete er 1936 mit Georgi Eliava das Georgi Eliava Institut für Phagenforschung, das heute noch existiert, Phagen herstellt und nun zu einer Zuflucht für Patienten aus aller Welt wird, die an Antibiotika-resistenten Infektionen leiden. Zuvor war das Militär Hauptabnehmer für die Phagenpräparate des Eliava-Instituts. Man verzeichnete bereits 1939 - während des Finnisch-Russischen Krieges - große Erfolge: 6 000 Soldaten mit infizierten Wunden erhielten Phagencocktails in die offenen Wunden geträufelt; 80 % wurden gesund und Amputationen wurden ihnen erspart.

Bis in die 1940er Jahre wurden Phagen-Präparate in Europa und Amerika angewandt; Hersteller waren u.a. Pharmaunternehmen wie Behring, Eli Lilly, Abbott, Parke-Davis und Squibb. Für den einfacheren Versand wurden Präparate in Form von Pulver oder Pillen entwickelt und auch noch im 2. Weltkrieg in Feldlazaretten genutzt.

Als aber in den 1940er Jahren mit kommerziell erhältlichem Penicillin die Ära der Antibiotika anbrach, welche ein breites Spektrum von Bakterien auch ohne passgenaue Abstimmung töteten, geriet die Phagentherapie zumindest in den westlichen Staaten in Vergessenheit. Da man nun Phagentherapie als entbehrlich ansah, wurden in den 1980er Jahren schließlich die Bestände an Phagenkollektionen vielerorts, auch am Pasteur-Institut und in Lyon vernichtet. In Ländern hinter dem Eisernen Vorhang - vor allem Russland, Georgien und Polen -, in denen Antibiotika lange Zeit nicht erhältlich waren, blieb die Phagentherapie weiter bestehen und wird auch heute routinemäßig durchgeführt.

Ein Comeback der Phagen

Über die therapeutische Anwendung hinaus haben Phagen bereits in einigen Sparten Anwendung gefunden.

…für nicht-therapeutische Anwendungen

2006 in den US für die Konservierung von Lebensmitteln zugelassen, werden Phagen seitdem in zahlreichen Staaten und auch in EU-Ländern eingesetzt. Es handelt sich hier vor allem um Phagen, die spezifisch gegen gefährliche Listerienstämme gerichtet sind, wie sie u.a. in Räucherlachs, Fertigsalaten, Rohmilchprodukten, etc. vorkommen können; diese Lebensmittel werden nun vor dem Verpacken einem Sprühnebel aus Phagen ausgesetzt oder mit diesen eingestrichen. Da Phagen - wie erwähnt - für höhere Organismen harmlos sind, brauchen sie auf den Verpackungen nicht deklariert werden.

In der Landwirtschaft werden Phagen u.a. als biologische Pflanzenschutzmittel im Obst-und Weinbau eingesetzt. Mit Phagen kann auch die bakterielle Fäulnis von Kartoffeln bekämpft und der Ernteertrag so um ein Mehrfaches gesteigert werden.

Weitere nicht-therapeutische Anwendungen finden Phagen als schnelle, hochsensitive Diagnostika für Bakterienstämme oder als biologische Desinfektionsmittel z.B. von mit Listerien oder Salmonellen verseuchten Räumen.

…für therapeutische Anwendungen…

In den vergangenen Jahren gab es viele Beispiele für Heilungen von bakteriellen Infektionen, insbesondere von solchen mit multi-resistenten Keimen; das Spektrum reicht von schwerem Brechdurchfall, Harnwegsinfekten über Entzündungen des Nasen-Rachenraums bis zu hin Wundinfektionen, "offenen" Beinen, ulzerierenden Zehen von Diabetikern, offenen Frakturen, etc.

Das Problem bei diesen Beispielen ist allerdings, dass es sich dabei häufig um Fallstudien handelt, die nicht den behördlichen Richtlinien von klinischen Studien entsprechen, welche randomisiert, Placebo-kontrolliert als Doppelblind-Studien erfolgen sollen.

…und einige Beispiele

Zu den erfolgreichen Fallstudien aus den letzten Jahren zählt wohl der - auch durch YouTube-Videos populär gewordene - Fall des kalifornischen Professors Tom Patterson. Als dieser 2015 mit seiner Frau Ägypten bereiste, zog er sich eine Infektion mit einem multiresistenten Stamm von Acinetobacter baumannii zu, der eine lebensbedrohende Pankreatitis und Diabetes auslöste. Patterson wurde an die heimatliche Universitätsklinik San Diego gebracht, fiel ins Koma und war von den Ärzten bereits aufgegeben, nicht aber von seiner Frau Steffanie Strathdee. Selbst Epidemiologin setzte sie Kollegen, Ärzte und Gesundheitsbehörden in Bewegung: gegen den infektiösen Keim wurden passende Phagen gefunden, die amerikanische Zulassungsbehörde FDA gab 2016 für den Notfall eine Sondererlaubnis für eine "Investigative New Drug" (IND) Application. Nach nur drei intravenös verabreichten Dosen des Phagencocktails erholte sich der Patient sehr rasch und ist nun gesund. In den US war dies der erste Fall der als experimentell eingestuften Phagentherapie; seitdem wurden in San Diego weitere Patienten damit erfolgreich behandelt (Center for Innovative Phage Applications and Therapeutics (IPATH)).

Bei mehr als 420 Millionen Diabetikern weltweit (https://www.who.int/news-room/fact-sheets/detail/diabetes) wird ein sehr hohes Potential der Phagentherapie in der Behandlung des diabetischen Fusses/der Zehe gesehen. Häufig mit multiresistenten Keimen infiziert entstehen hier tiefe, nicht heilende Wunden und Amputationen bleiben in Hunderttausenden Fällen dann der einzige Ausweg. Zu dieser Indikation läuft seit 2013 eine systematische Multizentren-Studie, Phagopied, die Phagentherapie versus Standardbehandlung untersucht. Elizabeth Kutter (Evergreen Lab, Washington), eine prominente Verfechterin der Phagentherapie, hat vor kurzem die erfolgreiche Behandlung von einigen Patienten mit Phagen­cocktails gegen Staphylococcus aureus berichtet; Fotos zeigten anfangs bereits brandige Zehen und bei allen Patienten zugeheilte Wunden nach 2 Monaten; Amputationen erübrigten sich.

Bereits vor 11 Jahren suchte eine Patientin bei uns am Züricher Universitätsspital Hilfe; sie litt an chronischem Durchfall verursacht durch eine Infektion mit Clostridium difficile - offensichtlich als Folge einer mit Antibiotika behandelten Kieferentzündung. Gegen den vehementen Protest der Kliniker setzte die Patientin durch eine Stuhltransplantation zu erhalten: nach einem Einlauf mit dem klaren Überstand einer aufgeschlämmten Stuhlprobe war sie innerhalb weniger Tage geheilt. Prof Karin Moelling, ehemalige Virologin der Universität Zürich, hat mit Kollegen aus Zürich und Berlin haben in der Folge die Darmflora - Mikrobiom und Virom - der Patientin über acht Jahre regelmäßig untersucht und mit der des Donors verglichen: während die Phagenpopulation bereits innerhalb kürzester Zeit der Donorpopulation ähnlich wurde, war dies bei der Bakterienpopulation erst nach vier Jahren der Fall. Tatsächlich sollte vielleicht die Stuhltransplantation eher als Phagentherapie denn als Bakterientherapie betrachtet werden, da Phagen ja die um Größenordnungen überwiegende Population ausmachen. Nach einer Reihe erfolgreicher Fallstudien erteilte übrigens die US-Gesundheitsbehörde FDA 2013 die Zulassung der Stuhltransplantation für die Indikation der Clostridium Infektion. Innerhalb weniger Jahre hat diese Methode in der Ärzteschaft nun Akzeptanz gefunden und gilt auch bei anderen Infektionskrankheiten als aussichtsreich.

Im ehemaligen Ostblockland Polen haben sich Ärzte am Ludwig-Hirszfeld-Institut in Breslau auf die Phagentherapie spezialisiert. Eigenen Angaben zufolge wurden seit 1980 bereits mehr als 1500 mit antibiotikaresistenten Keimen infizierte Patienten meist erfolgreich mit Bakteriophagen behandelt.

Was es zur Phagentherapie braucht

In erster Linie fehlt es an verfügbaren Phagen. Weltweit gibt es zu wenige Sammlungen von spezifisch gegen pathogene Bakterienstämme wirksamen Phagen, welche für Therapiezwecke rasch vermehrt und geliefert werden können. Eine aktuelle Liste (https://phage.directory/) nennt 22 solcher Quellen - Phagenbanken, Biotech-Startups und nicht-kommerzielle Organisationen -, darunter u.a. das Leibniz Institut ("Deutsche Sammlung von Mikroorganismen und Zellkulturen" DSMZ; Braunschweig), die holländische "Fagenbank" und das" Eliava-Institut".

Verfügbare hochgereinigte und gut charakterisierte Phagen

Phagen gibt es überall, wo es Bakterien gibt: Jeder natürliche Bereich, in dem (pathogene) Bakterien vorkommen, enthält wahrscheinlich auch Phagen, die für diese Keime spezifisch sind und zu deren Lyse führen. Aus solchen Proben können Phagen relativ einfach isoliert, charakterisiert und getestet werden. Es sind dies Standardverfahren in mehreren aufeinanderfolgenden Schritten (Abbildung 3):

Abbildung 3. Vom Sammeln der Phagen zum Auffinden von spezifisch gegen Krankheitserreger wirkenden Phagen bis zu deren therapeutischer Anwendung.

Im ersten Schritt werden Phagen gesammelt, gereinigt , isoliert und charakterisiert. Dazu werden Proben (u.a. aus Abwässern, Erde, Gülle, Kot,...) genommen, eventuell aufgeschlämmt und dann zentrifugiert, wobei die im Vergleich zu Phagen sehr großen Bakterien sedimentieren. Die im Überstand befindlichen Phagen und andere Viren werden angereichert, gereinigt, die unterschiedlichen Phagen isoliert und nach Vermehrung ihre DNAs auf die Base genau sequenziert.

Im zweiten Schritt werden potentielle Kandidaten zur Therapie auf Wirksamkeit getestet- typisiert. Dazu braucht es den jeweils richtigen Bakterientyp, an den Phagen spezifisch nach einem Schlüssel - Schloss-Prinzip andocken, ihr Erbgut in diesen Wirt injizieren, sich in ihm vermehren und ihn schließlich zur Lyse bringen (siehe [1]). Auf Kulturen von pathogenen Bakterien aufgebracht, beobachtet man, welcher Phagentyp Löcher in den dicht gewachsenen Bakterienrasen frisst, d.i. für den Krankheitserreger spezifisch ist und diesen lysiert. Solche spezifischen Phagen werden vermehrt, genau beschrieben und für den Anwendungsfall gelagert.

Die Anwendung schließlich muss von Ärzten durchgeführt werden: entweder als Einzelfallbehandlung (compassionate trial) oder neuerdings als Fallserie. Wie die immerhin seit einem Jahrhundert erfolgende Nutzung zeigt, sind bisher keine schweren Nebenwirkungen aufgetreten.

Dass schädliche bakterielle Komponenten oder Gene das Präparat möglicherweise verunreinigen und übertragen werden, kann verhindert werden indem hochgereinigte, gut charakterisierte und voll-sequenzierte Phagenprodukte angewandt werden. Ein solcher, nach der für Arzneimittel vorgeschriebenen "Good Manufacture Practice" (GMP) hergestellter, Phagencocktail wurde kürzlich im EU-Projekt Phagoburn zur Behandlung von mit Pseudomonas aeroruginosa infizierten Brandwunden angewandt.

Resistenzentwicklung gegen Phagen stellt auf Grund der hohen Spezifität für einen Bakterientyp und der Evolution des Phagen mit diesem Wirt ein wesentlich geringeres Risiko dar als es gegen Antibiotika der Fall ist; die Kombination Phage plus Antibiotikum senkt das Risiko noch weiter.

Eine Besonderheit der Phagentherapie ist, dass sie dosis-korrelliert ist und sich auch selbst limitiert: Je mehr Bakterien vorhanden sind, umso mehr Phagen werden in den Bakterien produziert. Sind alle Bakterien abgetötet, können sich die Phagen nicht mehr vermehren und gehen auch zugrunde. Abbildung 4.

Abbildung 4. Schematische Darstellung der Populationsdynamik von Bakterien und Phagen während einer Phagentherapie. Phagen vermehren sich abhängig von der Bakteriendichte und nur so lange als Bakterien vorhanden sind.

Neue rechtliche Bestimmungen

Offiziell ist in der westlichen Welt die Phagentherapie am Menschen nicht zugelassen, Ausnahmen sind Notfallverordnungen im Sinn der Helsinki Deklaration. Die nach wie vor geübte Anwendung in ehemaligen Ostblockstaaten wird erst im Licht westlicher Standards geprüft.

Phagen sind Biologika, welche in den (bereits veralteten) Richtlinien der Zulassungsbehörden in der EU und den USA noch nicht berücksichtigt sind. Daher können sie die strengen Anforderungen hinsichtlich Standardisierung und Reproduzierbarkeit nicht erfüllen, die einst für synthetische Wirkstoffe, Impfstoffe, Proteine, etc. formuliert worden sind. Diese verlangen ein genau definiertes, identisches Ausgangsmaterial, was bei Phagen nicht möglich ist, wenn man diese spezifisch auf die Keime jedes einzelnen Patienten abstimmt. Ist andererseits eine breitere Anwendung vorgesehen (beispielsweise zur Behandlung von Epidemien) und daher eine große Menge eines Phagenpräparats erforderlich, so kann dieses infolge von Mutation während der Herstellung uneinheitlich werden und damit die geforderte "Good Manufacture Practice" (GMP) fehlschlagen lassen.

Sofern es sich um eine personalisierte Therapie handelt, bietet die sogenannte Magistrale-Anwendung einen Ausweg, der bereits in Belgien praktiziert werden darf: hier kann der Arzt ein Phagen-Präparat verordnen, das passgenau auf einen Patienten mit einem bestimmten Keim zugeschnitten ist und ganz individuell in der Krankenhaus-Apotheke hergestellt wird.

Ein massives Problem der Phagentherapie besteht weiters darin, dass der akzeptierte Entwicklungsprozess von Arzneimitteln eine klinische Prüfung vorsieht , in welcher die Wirkung eines Wirkstoffs auf ein Target (eine Zielstruktur) geprüft wird. Dies ist bei hochspezifischen Phagen problematisch, da ja meistens mehrere Targets vorliegen und für jedes Target mehrere Phagen - ein Phagencocktail - eingesetzt werden müssen.

Um Phagentherapie rasch einsetzen zu können, braucht es also einen neuen rechtlichen Rahmen für medizinische Produkte, der Phagen mit ihren Besonderheiten mit einbezieht.

Systematische Studien

Die lange Erfahrung und die erfolgreichen Anwendungen der Phagentherapie in den ehemaligen Ostblockländern werden von westlichen Behörden als nicht ausreichend dokumentiert angesehen und als zu wenig überzeugend was die Wirksamkeit und ein mögliches Auftreten schwerer Nebenwirkungen betrifft. Um eine breite sichere Anwendung der Phagen-Therapie zu gewährleisten, müssen zahlreiche systematische klinische Studien vorliegen, die dann eine Grundlage für die Zulassungsbehörden bieten, um Richtlinien für die Phagentherapie zu erstellen.

Es kann noch Jahre dauern bis es soweit ist. Bis dahin können Patienten auf eigenes Risiko und eigene Kosten nach Georgien oder Polen pilgern, wo Phagentherapie routinemäßig durchgeführt wird (eine 3-wöchige Behandlung gegen multiresistenten Staphylococcus aureus kommt auf etwa 5 000 €).


[1] Karin Moelling, 04.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

[2] No Time to Wait: Securing the future from drug-resistant infections. (April 2019). Report to the Secretary-General of the United Nations.

[3] EU Action on Antimicrobial Resistance.


Weiterführende Links

Karin Moelling, Felix Broecker, Christian Willy (12.2018): A Wake-Up Call: We Need Phage Therapy Now. Viruses 2018, 10, 688; doi:10.3390/v10120688

Karin Moelling (10.2017): Viren statt Antibiotika.

Karin Moelling: Welt der Viren, 2. Phagen (2015); Video 9:22 min.

Karin Moelling: Ohne Viren gäbe es schlicht kein Leben. Virologin Prof. Dr. Karin Mölling zu Gast bei KKL Impuls (2016), Video 1:17:05 min.

Karin Moelling: Collect Phages to Kill resistant Bacteria (deutsch). 2019; Video 12:14 min.

Karin Moelling: Tischgespräche (24.07.2019), Podcast 52:41 Min

Karin Moelling: New Case Reports with Phage Therapy-What is Needed for More? (2019). Nursing and Health Care 4:30-32

William C. Summers (2016) Félix Hubert d'Herelle (1873–1949): History of a scientific mind, Bacteriophage, 6:4, e1270090, DOI: 10.1080/21597081.2016.1270090

UC San Diego Health (2017): Phage Treatment Saves A Life. Video 5:57 min. (Der Tom Patterson Fall)

Phage Therapy: An Effective Alternative to Antibiotics? Video 10:58 min. The Eliava Institute in Georgia is the world leader in phage production. Patients travel from all around the world for treatment.

Udo Pollmer: Bakteriophagen - natürlicher Ersatz für Antibiotika und Desinfektion? 2013; Video 7:38 min.

DSMZ: The Life Cycle of Bacteriophages. Video 3:18 min.

A.Gorski et al., (2018): Phage Therapy: What Have We Learned? Viruses; 10(6): 288. doi: 10.3390/v10060288


 

Redaktion Sun, 25.08.2019 - 18:23

Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung

Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung

Do, 22.08.2019 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDer Umbau des Energiesystems ist eine Revolution. Um diese zu auszuführen bedarf es exzellenter Grundlagenkenntnisse, die in praxistaugliche Technologien umgesetzt werden müssen ohne dabei die systemische Natur der Energieversorgung aus den Augen zu verlieren. Die systemische Betrachtung gilt auch für das Gesamtziel des Umbaus, das Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) in der 5. Folge seines Eckpunktepapier „Energie. Wende. Jetzt“ in einer nachhaltigen Energieversorgung sieht: diese soll den Interessen aller Beteiligten dauerhaft dienlich sein, für alle Akteure grundsätzlich zugänglich sein, die Biosphäre minimal tangieren, in geschlossenen Stoffkreisläufen vor sich gehen und unter vollständiger menschlicher Kontrolle funktionieren.*

Die Forschung zu Energiesysteme

In Deutschland und in Europa wird umfangreich und seit langer Zeit bereits zu Optionen der Energieversorgung geforscht. Abbildung 1.Dies folgt aus der Armut Europas an fossilen Energieträgern und den resultierenden politischen Abhängigkeiten.

Abbildung 1. Die Aufwendungen für Energieforschung sind in Europa erheblich. Deutschland nimmt hier eine führende Stellung ein. Auch im nationalen Forschungsprogramm wird viel für Energieforschung getan.

Die Grundlagenforschung zu allen Fragen der Energiewandlung ist in Deutschland weit entwickelt und fest etabliert. Sie hat viele Ansätze hervorgebracht und sollte unabhängig von Zwängen zur Anwendung unbedingt weiter vorangetrieben werden. Die Erforschung wissenschaftlich-technischer Grundlagen sollte in unserem Land für alle Optionen der Energiewandlung offen sein. Dies gilt auch für nukleare Optionen, die außerhalb Deutschlands weiter betrieben werden und deren Folgen in Deutschland noch sehr lange präsent sein werden. Dies gilt weiter für die Fusion, deren Eignung als Energiequelle schnellstmöglich nachgewiesen werden sollte.

Zur Gestaltung der Energiewende in Deutschland, Europa und der Welt sind aber nicht nur exzellente Grundlagenkenntnisse erforderlich, sondern diese müssen in praxistaugliche Technologien umgesetzt werden. Diese bedürfen dann ausgiebiger Tests und einer Einführung in Märkte. Hier finden sich zahlreiche Ansätze der Energieforschung, die von der Politik intensiv gefördert werden. Allerdings werden die technologischen Realisierungen oftmals behindert, weil regulatorische Bedingungen einer Kommerzialisierung entgegenstehen. Diese ist Voraussetzung für das Engagement von privatem Kapital und für die Priorisierung von Forschungsanstrengungen.

Zudem werden Projekte parallel und Förderprogramme nicht ausreichend koordiniert angegangen. In der Planung der sehr aufwändigen Technologieprojekte kommt die systemische Betrachtung zu kurz. Dies gilt besonders für die Beurteilungen von Potenzialen für die Energiewende, bei denen heutige Randbedingungen für die Wirkung von Technologien für morgen zur Betrachtung kommen. Die Neigung, auf Grund der Verfügbarkeit neuer technologsicher Ansätze aus der Forschung den regulatorischen sehr eng gefassten Rahmen zumindest zu hinterfragen (beispielsweise mit dem Mittel der „Reallabore“ - am 09. 04.2019 wurde immerhin ein „Netzwerk Reallabore der Nachhaltigkeit“ gegründet – s. solarify.eu/netzwerk-reallabore-der-nachhaltigkeit-gegruendet) ist gering. Dabei sind Instrumente der LCA (life cycle anaylsis) und der Szenarienbildung dazu sehr gut ausgearbeitet und weitgehend standardisiert.

Durch ihre retardierende Haltung verlieren Deutschland und Europa zunehmend an wissenschaftlichem und ökonomischem Boden gegenüber anderen Regionen in der Welt, die der Einführung neuer Technologien offener gegenüberstehen.

Weiters wirkt eine extrem konservative Form der Technikbeurteilung der Übernahme von Risiken für neue Technologien entgegen. Dies beobachtet man sowohl in der Industrie als auch in der Gesellschaft, die der Industrie auch durch ausgeprägte Verfolgung individueller Interessen die Umsetzung neuer Technologien erschwert. Es sprengt den Rahmen dieser Arbeit aufzuzeigen, in wieweit das Verhalten der Industrie diese Reaktion befördert oder entsprechende Vorurteile in der Vergangenheit hat entstehen lassen. Als Folge ist zu erwarten, dass hier geförderte und entwickelte Technologien außerhalb Europas zuerst kommerziell eingesetzt werden und der wirtschaftliche Nutzen damit verloren wird.

Das Gesamtziel richtig setzen

Der fundamentale Eckwert zur Energieversorgung ist die Frage nach dem Gesamtziel. Dazu wurde in Deutschland eine jahrelange intensive Diskussion geführt, die nach einer Phase mit einer Vielzahl von Zielen eine hierarchische Ordnung von Zielen hervorgebracht hat (siehe [2], Abbildung 2). Angaben über die europäischen Ziele finden sich in [2](Abbildung 3). Versucht man, diese Ziele zu kommunizieren oder kritisch zu hinterfragen, stellt man fest, dass es kein einheitliches Schema zu deren Begründung gibt. Dies ist auch eine Folge der nicht beachteten systemischen Natur der Energieversorgung. Dies gilt bereits für die Wahl der Zielkategorien.

Die Vision einer nachhaltigen Energieversorgung

Eine überzeugende Kommunikation und daraus resultierende Beschlussfassung und die darauf folgende lange Phase der Umsetzung verlangen eine konsistente und verbindliche Zieldefinition. Diese könnte sein, dass die Energieversorgung zukünftig nachhaltig werden soll. Darunter ist ein System zu verstehen, das auf Grund der Nachhaltigkeitsbedingung gleichzeitig mehrere Ziele erfüllt, die derzeit ohne Zusammenhang postuliert werden.

  • Nachhaltig im vorliegenden Kontext meint:
  • Den Interessen aller Beteiligten dauerhaft dienlich
  • Für alle Akteure grundsätzlich zugänglich
  • Die Biosphäre minimal tangierend
  • Mit den Ausnahmen von Sauerstoff, Stickstoff und Wasser in geschlossenen Stoffkreisläufen funktionierend
  • Unter vollständiger menschlicher Kontrolle funktionierend.

Solch eine Energieversorgung enthält einen Kohlenstoffkreislauf, verzichtet schnellstmöglich auf die Nutzung von Kohle und Petroleum und auf fossiles Gas, sobald der Kohlenstoffkreislauf in entsprechender Größe funktioniert (siehe Abbildung 1 in [2]).

Nukleare Energiewandlung in den bisherigen Kraftwerkstechnologien sind ausgeschlossen.

In der Umsetzung wird auf Zugänglichkeit für alle geachtet werden. Pfadabhängigkeiten und unnötige, durch Regeln verursachte Kosten werden durch systemische Konzepte vermieden.

Der Treiber für den Umbau ist die Möglichkeit, durch eine entsprechende Wandler- und Transport-Struktur erneuerbare Primärenergie von der Sonne ohne volumenabhängige Kosten und in menschlich-historischen Zeitmaßstäben dauerhaft zu nutzen - und nicht der Verzicht auf fossile Energieträger oder eine Einschränkung des Gebrauches von Energie.

Diese Vision schließt mit ein, dass damit die natürlichen Ressourcen des Planeten bei der Energiewandlung und Verteilung weitgehend geschont werden.

Was kostet der Umbau?

Dafür sind enorme Mittel und einige neue Technologien in globalen Dimensionen nötig, die zu finanzieren sind. Finanzielle Aufwendungen für die Energienutzung fallen aber auch heute an (Abbildung 2).

Abbildung 2. In der Summe geben deutsche Privathaushalte etwas mehr als 100 Milliarden € jährlich für hauptsächlich fossile Energieaus, Strompreise sind trotz ihrer Spitzenwerte in der EU der relativ geringste Anteil im Energiebudget. (Für Industrieunternehmen - hier nicht gezeigt - setzen sich die Stromkosten je nach Ausnahmereglung anders zusammen,)

Es geht um eine Substitution von Ressourcen und die Finanzierung der einmaligen Transformationskosten, die erhebliche Beträge annehmen. Diese Beträge hängen maßgeblich davon ab (Abbildung 3), inwieweit systemisch optimale Transformationspfade, sinnvolle Zielstrukturen und Kooperationen zwischen Staaten, Industriebranchen und zwischen der nutzenden Gesellschaft und den umsetzenden Akteuren (Beispiel Netzausbau) gefunden werden.

Abbildung 3. Kumulative systemische Gesamtkosten bis zum Jahr 2050 für Systementwicklungen, die sich hinsichtlich der Zielwerte der Reduktion energiebedingter CO2-Eissionen unterscheiden. Die Gesamtkosten des Umbaus des Energiesystems hängen stark von den politisch angestrebten Zielen ab (hier als CO2 Einsparziel definiert). Sie steigen stark überproportional mit ambitionierten Zielen, die eventuell zweifelhaft in ihrer nachhaltigen Wirkung sein können. Man beachte den Referenzwert für die nötigen kumulierten Investitionen der ohnehin fällig wird, selbst wenn keine weiteren Maßnahmen zum Umbau des Energiesystems ergriffen werden.(Quelle; esys: Stellungnahme „Sektorenkopplung (2017))

Vergleicht man die Daten aus Abbildung 2 und 3, erkennt man mit der nötigen groben Annäherung eine Entsprechung der Größenordnung der Werte. Die Verfügbarkeit derartiger finanzieller Mittel in Deutschland und Europa setzt allerdings eine mindestens stabile wirtschaftliche Lage voraus. Ohne diese zentrale Voraussetzung kann ein Umbau des Energiesystems an mangelnden Ressourcen scheitern.

Die Zahlen zeigen auch sehr deutlich, dass der Staat diese Mittel in keinem Fall aufbringen oder nur nennenswert teilfinanzieren könnte. Daher ist die proaktive Beteiligung von Wirtschaft und Privatleuten unabdingbar. Es wird in der Diskussion propagiert, dass eine Steuer auf die CO2-Emissionen die nötigen Mittel für den Umbau liefern könnte. Ihre Einführung würde jedoch einen erheblichen Bruch mit dem Ziel bedeuten, alle Maßnahmen und somit auch die Höhe der Steuer konsistent begründen zu können. Das unbedingt verbesserungsbedürftige ETS (Emissions Trading System) unterliegt nicht diesem Problem. Trotzdem hat der Staat über die Zuteilung von Zertifikaten einen global steuernden Einfluss. Der primäre Zweck der Bepreisung sollte die Motivation der Nutzer sein möglichst umfassend und schnell auf den Gebrauch von nicht nachhaltigen Energieträgern zu verzichten. Die Finanzierung des Energiesystems muss sich aus seiner Nutzung ergeben.

Speicherung von Erneuerbarer primärere Elektrizität in chemischen Energieträgern

Ein Argument gegen die Verwendung von Erneuerbarer primärere Elektrizität zur Speicherung in chemischen Energieträgern (abgeschwächt in Wasserstoff) ist die geringe Prozesseffizienz solcher Verfahren.

Dies ist zunächst richtig, da jede Verlängerung der Prozesskette von der Gewinnung erneuerbarer Energie zur letztendlichen Anwendung unweigerlich Verluste mit sich bringt. Unter diesen ist die „Aufladung“ der chemischen Batterie namens CO2 mit die verlustreichste weil dabei zwangsläufig das nicht erwünschte Wasser gebildet werden muss. Chemische Forschung kann hier noch erhebliche Verbesserungen (etwa einen Faktor 2) erbringen, allerdings wird dafür ein langer Atem notwendig sein. Für erste industrielle Anwendungen (in Deutschland etwa Carbon2Chem, s. solarify.eu/carbon2chem-von-ccs-zu-ccu) reichen die Effizienzen heute aus.

Gleichwohl bleibt die Nutzung von chemischen erneuerbaren Energieträgern „ineffizient“ bezüglich einer hypothetischen direkten Verwendung von elektrischer Energie. Die Transportfähigkeit auf allen Skalen im System, die daraus resultiert, ist ein zentrales Element einer schnellen und dauerhaften Umstrukturierung des Energiesystems. Erweitert man den Betrachtungsrahmen der Effizienz hin auf das gesamte System und betrachtet die Verfügbarkeit der erneuerbaren Energie zu jedem beliebigen Zeitpunkt mit, so ändert sich die Beurteilung der Prozesseffizienz und die systemische Dienstleistung von in CO2 gespeicherter Energie mit ihren Vorteilen wird zum überwiegenden Argument.


*Dies ist Teil 5 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf ). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, die 3 Abbildungen stammen aus dem Anhang 13, 14, 15 des Artikels. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Vorherige Folgen:

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Demnächst erscheint mit Teil 6 der Abschluss der Artikelserie.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC) https://cec.mpg.de/home

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018).

Redaktion Thu, 22.08.2019 - 13:06

Wieviel CO₂ können tropische Regenwälder aufnehmen?

Wieviel CO₂ können tropische Regenwälder aufnehmen?

Do, 15.08.2019 — IIASA

IIASAIcon GeowissenschaftenAktuelle Klimamodelle deuten darauf hin, dass Bäume weiterhin von Menschen verursachte Treibhausgasemissionen aus der Atmosphäre entfernen, was es ermöglicht, die im Pariser Abkommen festgelegten Ziele einzuhalten. Bereits vor einigen Jahren hat Christian Körner (im Swiss Canopy Project ) in einem naturbelassenen Mischwald den Effekt einer experimentellen Anreicherung von CO2 in den Kronen hoher Bäume auf deren Zunahme von Biomasse untersucht und gezeigt, dass diese von der Verfügbarkeit von Nährstoffen im Boden abhängt [1]. Zu einem ähnlichen Ergebnis ist nun ein internationales Teams mit Forschern von IIASA für die Regenwälder des Amazonas gelangt (Amazon FACE-Projekt): die Aufnahmekapazität der Bäume von zusätzlichem (menschengemachtem) CO2 könnte durch die Verfügbarkeit von Bodenphosphor stark eingeschränkt werden.*

Bäume nehmen das Treibhausgas CO2 über ihre Blätter auf und verwandeln es in Sauerstoff und Biomasse. Nach Schätzungen des Internationalen Panels für Klimawandel (IPCC) absorbiert so allein der Amazonas-Regenwald (Abbildung 1) rund ein Viertel des CO2, das jedes Jahr durch die Verbrennung fossiler Brennstoffe freigesetzt wird.

Abbildung 1. Die Regenwälder am Amazonas setzen rund ein Viertel des aus fossilen Brennstoffen entstehenden CO2 in Biomasse um. (Bild: lubasi - Catedral Verde - Floresta Amazonica, CC BY-SA 2.0)

Die aktuellen globalen Klimamodelle gehen davon aus, dass diese Kapazität auch in Zukunft erhalten bleibt und zwar auf Grund aufgrund des sogenannten CO2-Düngeeffekts: dieser besagt, dass steigende CO2-Werte das Vegetationswachstum fördern, indem sie die Rate der Photosynthese beschleunigen, welche die Grundlage für die Biomasse-Produktion von Pflanzen ist.

Abholzung, Ausweitung der landwirtschaftlich betriebenen Flächen und steigende Temperaturen lassen jedoch die Speicherkapazität der Amazonas-Wälder an ihr Limit gelangen und nach Meinung der Forscher ist es nicht absehbar, wie lange diese Wälder noch eine Senke für Kohlenstoff bleiben werden (Senke bedeutet, dass sie via Photosynthese mehr Kohlenstoff aufnehmen als sie via Atmung abgeben; Anm. Redn.).  Ein internationales Team, an dem auch Forscher des IIASA teilnahmen, untersuchte diese Frage anhand von Daten aus dem ersten tropischen FACE-Experiment (FACE = Free Air CO2 Enrichment), das mitten im Amazonas-Regenwald durchgeführt wurde.

Das Amazon FACE-Projekt

an einem etwa 70 Kilometer nördlich von Manaus, Brasilien, gelegenen Studienstandort weist einen einzigartigen technischen Versuchsaufbau auf: um realitätsnahe Untersuchungen zu ermöglichen, wie sich künftige CO2-Konzentrationen auf das Ökosystem auswirken werden, wird die CO2-Konzentration um Bäume herum künstlich erhöht. Abbildung 2. Die Forscher beobachten dann, wie die Bäume wachsen und sich im oberirdischen Teil die Blätter entwickeln, verfolgen aber auch das Wachstum der Wurzeln und was im Boden darunter geschieht.

Abbildung 2. Das Amazon FACE-Project. An insgesamt 8 Stellen des Studienstandortes bilden jeweils 16 Stahltürme einen Ring, von denen aus die Bäume bis in die Baumspitzen über 10 Jahre täglich mit  CO2 besprüht ("gedüngt") werden.  Die Auswirkung der CO2-Düngung auf Biomasse und Wurzelwachstum in Abhängigkeit von der Verfügbarkeit der Ressourcen im Boden wird kontinuierlich untersucht. (Bild: screenshot aus TU München (24.04.2019) "Das Amazon FACE-Projekt: Welchen Einfluss hat der Klimawandel auf den Regenwald?". Video 8:16 min. https://www.youtube.com/watch?v=YiYtR70j18Q)

Ökosystemmodelle

In ihrem im Fachjournal Nature Geoscience veröffentlichten Artikel [2] haben die Forscher nun eine Reihe von Ökosystemmodellen angewandt, um herauszufinden, inwieweit das Angebot von Nährstoffen im Boden die Produktion von Biomasse in tropischen Wäldern limitieren könnte.

„Mit diesem Zusammenhang hat sich bisher niemand eingehend befasst“, erklärt Katrin Fleischer, Forscherin an der Technischen Universität München (TUM) und Erstautorin der Studie. „Die meisten Ökosystemmodelle, mit denen die künftige Entwicklung von Ökosystemen simuliert werden kann, wurden für gemäßigte Breiten entwickelt, in denen im Allgemeinen genügend Phosphor vorhanden ist. In vielen Teilen des Amazonasgebiets ist dieses Element jedoch rar - das Ökosystem ist mehrere Millionen Jahre alt und der Boden ist dementsprechend bereits ausgelaugt.“

Die Forscher haben 14 verschiedene Ökosystemmodelle angewandt, um zu untersuchen wie der Regenwald auf einen Anstieg der CO2-Konzentrationen in der Atmosphäre reagiert. Mit diesen Modellen haben sie dann die Produktion von Biomasse für die nächsten 15 Jahre simuliert: zunächst für die derzeitige CO2-Konzentration von 400 ppm und in einem zweiten Szenario für eine erhöhte Konzentration von 600 ppm.

Die Ergebnisse der Modellrechnungen

zeigen nun, dass Bäume tatsächlich zusätzliches CO2 aufnehmen und in pflanzliche Biomasse umwandeln, jedoch nur dann, wenn ausreichend Phosphor zur Verfügung steht. Bei unzureichender Versorgung mit Phosphor nimmt der CO2-Düngeeffekt erheblich ab. Die verschiedenen Modelle, die unterschiedliche Faktoren berücksichtigen, sagen eine mögliche Reduzierung der Aufnahme von zusätzlichem CO2 um durchschnittlich 50% voraus, einige Modelle - je nach Szenario - sogar eine Reduzierung von bis zu 100% .

Nach Ansicht der Forscher könnte dies darauf hindeuten, dass der Regenwald bereits an seinem Limit zur Absorption der vom Menschen verursachten CO2-Emissionen angelangt sein könnte. Sollte sich dieses Szenario als zutreffend erweisen, würde sich das Erdklima viel schneller erwärmen als bisher angenommen wurde.

„Die meisten Modelle versuchen, die Komplexität des Klimasytems zu reduzieren; es könnten daher wichtige Ökosystemprozesse fehlen, die essentielle Rückkopplungen beinhalten und somit zu einer Überschätzung des CO2-Düngungseffekts führen“, sagt Florian Hofhansl, Postdoktorand am IIASA und einer der Studie Co-Autoren. "Das Amazon FACE-Experiment wird uns neue Erkenntnisse für die Modellentwicklung liefern, die es uns ermöglichen sollten, zuverlässigere Vorhersagen zu treffen und damit zukünftige Projektionen zu verbessern.“

Die Autoren der Studie merken dazu an, dass man noch ausführlicher untersuchen muss, wie das Ökosystem reagieren wird - ob Bäume in der Lage sein werden durch enzymatische Prozesse mehr Phosphor aus dem Boden zu erhalten oder indem sie mehr Wurzeln bilden und Symbiosen eingehen, die ihnen seltene Nährstoffe verschaffen können.

Was allerdings beeits vollkommen klar ist: Regenwälder sind keine unendlich großen Senken für CO2 und das Waldgebiet am Amazonas muss erhalten bleiben.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 6. August 2019 auf der IIASA Webseite unter dem Titel: "How much carbon dioxide can tropical forests absorb?" erschienen (https://www.iiasa.ac.at/web/home/about/news/190805-CO2-fertilization-effect.html). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen  und Legenden ergänzt.


[1] Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

[2] Fleischer K, Rammig A, De Kauwe M, Walker A, Domingues T, Fuchslueger L, Garcia S, Goll D, et al. (2019). Amazon forest response to CO2 fertilization dependent on plant phosphorus acquisition. Nature Geoscience DOI: 10.1038/s41561-019-0404-9ID [pure.iiasa.ac.at/16021]


Artikel zu verwandten Themen im ScienceBlog:

Rattan Lal, 27.11.2015: Boden - der große Kohlenstoffspeicher. http://scienceblog.at/boden-der-gro%C3%9Fe-kohlenstoffspeicher#.

Gerhard Glatzel, 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren? http://scienceblog.at/hat-die-menschheit-bereits-den-boden-unter-den-f%C3%BC%C3%9Fen-verloren#.


 

Redaktion Tue, 13.08.2019 - 21:58

Energiewende (4): Den Wandel zeitlich flexibel gestalten

Energiewende (4): Den Wandel zeitlich flexibel gestalten

Do, 08.08.2019 - 19:55 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDas Endziel der Energiewende ist ein vollständig defossilisiertes Energiesystem, das auf freien Elektronen und synthetischen Brennstoffen als zwei Erscheinungsformen erneuerbarer Energie basiert. Der Transformationsprozess kann aber auf Grund der systemischen Komplexität, der langen Dauer des Wandels und zahlreicher, von den Akteuren nicht beeinflussbarer Größen nicht nach einem straffen, zeitlich linearen Fahrplan erfolgen. In der 4. Folge seines Eckpunktepapiers „Energie. Wende. Jetzt“ schlägt Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) eine Zwischenlösung vor: möglichst viele Elemente und Relationen des heute existierenden Systems zu übernehmen und unter kontinuierlichem Monitoring nach Möglichkeit nur an den Energieträgern Veränderungen vorzunehmen. (Das für Deutschland erarbeitete Konzept hat in seinen Eckpunkten auch für den EU-Raum Gültigkeit.)*

Derzeit sind Politiker überzeugt, dass mengenmäßige Vorgaben an Aufbau und Einsparungen zeitlich klar gegliedert in offenbar jährlich nachvollziehbaren Schritten erfolgen sollen. Der Entwurf des deutschen Klimaschutzgesetzes sieht straffe Zeitpläne und Eskalationsstufen von Interventionen in jedem Sektor des Energiesystems vor. Dieser Planungsansatz passt nicht sehr gut zu Prozessen, die mit neuen Technologien und industriellen Strukturen die wirtschaftlich-technische Basis unseres Landes und Europas grundlegend verändern werden. Solche Prozesse bedürfen einer Anlaufphase, die von einer Hochlaufphase gefolgt ist um dann in ein gleichmäßiges Wachstum überzugehen. Die Entwicklungskurven von Photovoltaik (PV) und Windkraft sind hervorragende Beispiele aus dem bisher erreichten Umbau der Energieversorgung, wie man aus Abbildung 2 in "Energie. Wende. Jetzt - Ein Prolog" erkennen kann. Eine geforderte zeitlich lineare Abarbeitung über- oder unterfordert das System in seiner Umgestaltung. Das Ausbleiben eines kontinuierlichen Wachstums nach der Hochlaufphase ist symptomatisch für das nichtsystemische Handeln des Staates, der mit Festhalten an einer Technologieförderung das Wachstum bremst, anstatt durch Freigabe des Rahmens und Bepreisung von CO2 die Einkopplung der Erneuerbaren in andere Sektoren zu unterstützen.

Viel nützlicher als ein zeitlich linearer Verlauf ist ein kontinuierliches Monitoring der erfolgten Änderungen, um rechtzeitig gegensteuern zu können. Dieses Instrument ist in Deutschland mit der Monitoring-Kommission beim BMWi bereits eingerichtet. Sie hat einen sehr detaillierten Kriterienkatalog mit Indikatoren gesammelt, mit dem sie die Zielerreichung in vielen Dimensionen abbilden und auch im zeitlichen Verlauf vorausschätzen kann. Eine vertrauensvolle Nutzung dieses Instrumentes minimiert unnötige Aufwendungen für einen sachlich nicht gerechtfertigten linearen Verlauf der Umgestaltung des Systems.

Flexibilität im Umbauprozess

Eine zeitliche Flexibilität im Umbauprozess bedingt einen klaren, von allen Akteuren zur Kenntnis genommenen und zumindest mehrheitlich akzeptierten groben technischen Plan, wohin sich das Energiesystem entwickeln soll. Solch ein Plan könnte wie in Abbildung 1 skizziert aussehen. Das Grundkonzept in diesem Modell ist, möglichst viele Elemente und Relationen des heute existierenden Systems zu übernehmen und nach Möglichkeit nur an den Energieträgern (jeweils unterste Zeile in den Blöcken A, B, C) Veränderungen vorzunehmen. Am Ende des Prozesses ist das System vollständig defossilisiert und basiert auf freien Elektronen und synthetischen Brennstoffen (Kraftstoffe) als zwei Erscheinungsformen regenerativer Energie.

Abbildung 1. Ein Beispiel für einen Plan, wie sich dasEnergiesystem in Deutschland entwickeln könnte. In drei Phasen ist der derzeitige Zustand (A) ein Zwischenzustand (B, mit Ausstieg von Kohle und Öl) und ein Endzustand (C, defossilisiert) angedeutet.

Quantitative Ziele

Ein derartiger Plan, der die Richtung der Veränderung weist, muss schemenhaft bleiben, da über die Laufzeit zu viele Einzelheiten angepasst werden müssen. Nötig sind allerdings quantitative Ziele für jedes Element des Energiesystems, die in hinreichend langen Zeitabständen (Dekaden) gefasst sind. Diese sind beispielhaft angegeben (Abbildungen 2, 3).

Allerdings fehlen allgemein akzeptierte Transformationspfade dorthin. Bei der Aufstellung der quantitativen Ziele wurde kaum Rücksicht auf die systemische Wechselwirkung einzelner Festlegungen genommen.

Abbildung 2. Zielsysteme für die Energieversorgung. Energiekonzept 2010. In Deutschland wird der gezeigte hierarchische Ansatz verfolgt. Neben dieser Hierarchie hat man eine Kategorie weiterer Ziele geschaffen, die neben den obigen Zielen stehen wie Versorgungssicherheit, Kernenergieausstieg (bis 2022), Bezahlbarkeit & Wettbewerbsfähigkeit, Umweltverträglichkeit, Netzausbau, Sektorkopplung & Digitalisierung, Forschung & Innovation, Investitionen & Wachstum & Beschäftigung.

Ein Beispiel hierfür wäre die Bevorzugung der Elektromobilität im System. Daher ist es notwendig, unter dem Gesichtspunkt der Entwicklung des Gesamtsystems die Zielkorridore noch einmal zu überprüfen. Dies sollte ausgehend von einer Information über den gegenwärtigen Stand und einer nachvollziehbaren Begründung für das Zahlenwerk in einem wesentlich transparenteren Prozess geschehen als er bisher Verwendung fand. Ein ungünstiges Beispiel für solch einen Prozess ist die Darstellung der Arbeit der Kohlekommission in Deutschland, die eine transparente Begründung für ihre Empfehlungen nicht gegeben hat.

Abbildung 3. Quantitative Ziele der Energiewende und Status quo (2016) in Deutschland und auf EU-Ebene.(Abkürzungen: THG Treibhausgasemissionen, EE erneuerbare Energien, ETS Emissions Trading System, PEV Primärenergieverbrauch)

Eine Konzeption des Energiesystems und eines Transformationspfades ist kein Fahrplan,

da die systemische Komplexität, die lange Dauer des Transformationsprozesses und die Existenz zahlreicher von den Akteuren nicht beeinflussbarer Größen eine Planung in Einzelheiten verunmöglichen.

Ein immerwährendes ad-hoc-Aushandeln der Richtung des Umbaus der Energieversorgung verbunden mit wiederholten Debatten über die Ziele und Grundlagen dazu kann es nicht geben. Dazu ist die Bedeutung des Energiesystems im Gefüge einer Gesellschaft zu groß. Eine fortwährende Einflussnahme wechselnder politischer Strömungen auf den Umbau der Energieversorgung kann es auch nicht geben. Dazu sind die Zeitspannen, in denen sich ein Wandel der Infrastruktur vollzieht, zu lange.

Daher ist die absolut vordringliche Aufgabe, eine verbindliche Einigung der relevanten Akteure über ein Konzept als notwendige Ergänzung zur Festlegung von Zielen, die weitgehend erfolgt ist, herbeizuführen. Eine „Ansage“ zu diesen Zielen ist kein geeignetes Mittel in europäischen Gesellschaften. Vielmehr sind umfangreiche Anstrengungen zur Information über Optionen an die Bevölkerung erforderlich. Allerdings sind die Methoden dazu nicht gut entwickelt, und die Kommunikation bedarf einer leistungsfähigen Begleitforschung, um die Konsequenzen der resultierenden Willensbildung differenziert genug einzufangen und für den Entscheidungsprozess verfügbar zu machen


*Dies ist Teil 4 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf ). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang 12 des Artikels wurden zwei Abbildungen (2 und 3) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Vorherige Folgen: Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.


Der demnächst erscheinende Teil 5 wird sich mit der Forschung zu Energiesystemen und dem Setzen des Gesamtziels befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

R. Schlögl (2017): Wasserstoff in Ammoniak speichern. https://www.solarify.eu/2017/09/10/254-wasserstoff-in-ammoniak-speichern/

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018). https://mission2030.info/wp-content/uploads/2018/10/Klima-Energiestrategie.pdf

Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog. http://scienceblog.at/energie-wende-jetzt-ein-prolog


 

Redaktion Thu, 08.08.2019 - 18:33

Stickstoff-Fixierung: Von der Verschmutzung zur Kreislaufwirtschaft

Stickstoff-Fixierung: Von der Verschmutzung zur Kreislaufwirtschaft

Do, 01.08.2019 - 14:22 — Sönke Zaehle

Sönke ZaehleIcon GeowissenschaftenDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung, die Stickstoff-Kreislaufwirtschaft, Permafrostmoore im Klimawandel und Fehlanpassungen an den Klimawandel. Experten aus der Max-Planck-Gesellschaft wurden zu diesen Themen interviewt. Nach deren Stellungnahmen zu Aspekten der Synthetischen Biologie [2, 3] und zur Ökologischen Vernetzung [4] folgt nun das Gespräch mit Dr. Sönke Zaehle, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie (Jena), über die Folgen von Stickstoff-Emissionen und mögliche Maßnahmen dagegen.*

P.H.: Herr Zaehle, was sind die wichtigsten Quellen für Stickstoffemissionen?

S.Z.: In Deutschland gelangen einem Bericht des Umweltbundesamtes zufolge durch die Landwirtschaft jährlich 435 Gigatonnen Stickstoff in Form von Ammoniak in die Atmosphäre, etwa genauso viel wird als Ammonium und Nitrat aus den Feldern ausgewaschen. Im Verkehr und der Industrie werden etwa 360 Gigatonnen in Form von Stickoxiden freigesetzt, 60 Prozent davon im Verkehr. Abbildung 1.

Abbildung 1. In unserer Umwelt tritt Stickstoff - N - in Form unterschiedlicher kleiner Moleküle auf. (Bild modifizert nach [1], p. 53; von der Redn. eingefügt)

P.H.: Welche Folgen haben die Emissionen der verschiedenen Stickstoffverbindungen für Mensch und Umwelt?

S.Z.: Da gibt es mehrere Aspekte. Einer ist die Belastung der menschlichen Gesundheit. Die Emissionen von Ammoniak und Stickoxiden beeinträchtigen durch die Reizwirkung beziehungsweise durch die Bildung von Feinstaub die Gesundheit. Daneben belasten hauptsächlich die landwirtschaftlichen Einträge das Grundwasser und die nebenliegenden Ökosysteme, sodass es zu einer Nährstoffanreicherung in diesen Ökosystemen kommt.

Das wirkt sich negativ auf die Biodiversität, aber auch auf die Qualität des Grundwassers aus. Schließlich gibt es noch die Lachgas-Emissionen, die dem Klima schaden. Diesen Aspekt darf man nicht vergessen.

Das besondere Problem beim Stickstoff ist, dass jedes zusätzliche Gramm Stickstoff in der Umwelt an einer Kaskade von biochemischen Umwandlungen teilnimmt, und so mehrere dieser Wirkungen nacheinander verursachen kann.

P.H.: Durch den Dieselskandal sind vor allem die Stickoxid-Emissionen im Straßenverkehr ins Blickfeld geraten. Ist das gerechtfertigt?

S.Z.: Auch aus Sicht des Stickstoffkreislaufs kann man hier durchaus noch etwas machen. Diese Emissionen tragen ebenfalls zur Nährstoffanreicherung in Ökosystemen bei. Weil sie vor allem in Ballungsräumen auftreten, sind sie aus gesundheitspolitischer Sicht wahrscheinlich auch relevanter als die landwirtschaftlichen Emissionen in der Fläche. Aber letztere sind mengenmäßig viel bedeutender.

P.H.: Wie lassen sich die Emissionen aus der Landwirtschaft effektiv eindämmen?

S.Z.: Man muss zunächst einmal verstehen, dass der Einsatz von Stickstoff bei der Produktion von Getreide und Fleisch notwendig ist. Das Problem ist aber, dass etwa 80 Prozent des eingesetzten Stickstoffs nicht in den landwirtschaftlichen Produkten landet, weil er von Pflanzen und Tieren nicht genutzt werden kann, und in der Umwelt verbleibt.

Durch geeignete Düngeverfahren lassen sich diese Verluste deutlich reduzieren. Landwirte könnten zum Beispiel die Stickstoffdüngung an die Witterungs- und Bodenverhältnisse anpassen, sie sollten stärker berücksichtigen, wie sich die Verfügbarkeit von Nährstoffen mit der Zeit ändert, oder auch technische Verfahren anwenden, um die Gülle bodennah einzubringen.

Schließlich gibt es die Möglichkeit der Gründüngung. Dabei bauen Landwirte Pflanzen wie Raps, Klee oder Lupinen an, die Stickstoff direkt aus der Luft binden. Das hat den Vorteil, dass der Stickstoff dann organisch gebunden ist und nicht so schnell ausgewaschen wird oder in die Atmosphäre gelangt. Wichtig ist aber auch, den Gesamteintrag von Stickstoff, zum Beispiel durch die Verwendung von künstlichem Stickstoffdünger zu reduzieren. So eine Reduzierung ist etwa über eine Stickstoff-Kreislaufwirtschaft möglich, wie sie mit der Düngeverordnung von 2017 schon angestrebt wird.

P.H.: Worum geht es da?

S.Z.: Vor allem Betriebe, die Viehwirtschaft betreiben, wie verbreitet zum Beispiel in Nordwestdeutschland, aber auch in Bayern, weisen einen sehr großen Stickstoffüberschuss auf. Sie setzen künstlichen Dünger zur Futterproduktion ein, produzieren aber auch viel stickstoffhaltige Tierabfälle wie Gülle, die sie auf eigenen Feldern als Dünger ausbringen.

Sie sollten versuchen, diesen Überschuss zu reduzieren, indem sie den Stickstoff effizienter verwenden und die Verluste reduzieren. Zusätzlich könnte man die Gülle auch trocknen und so transportfähiger machen, um sie in Regionen, in denen es keinen so hohen Stickstoffüberschuss gibt, als Dünger einsetzen. So ließe sich die Belastung am Ort der Herstellung senken, und in den entfernteren Regionen müsste nicht mehr so viel künstlicher Dünger eingesetzt werden.

P.H.: Sollte der Staat das regeln?

S.Z.: Das tut er bereits, aber nur auf der Basis von Empfehlungen. Da steht die Zahl von 50 Kilogramm pro Hektar für den maximalen betrieblichen Überschuss im Raum. In Niedersachsen, wo ich herkomme, beträgt der Überschuss zur Zeit aber teilweise noch über 80 Kilogramm. Allerdings möchte ich auch erwähnen, dass die Herstellung von Fleisch deutlich mehr Stickstoff braucht als die von Getreide. Wenn wir weniger Fleisch essen würden, bräuchte die Landwirtschaft auch weniger Dünger.

P.H.: Sie selbst erforschen, wie in natürlichen Ökosystemen, vor allem Wäldern, der Stickstoff- und der Kohlenstoffhaushalt gekoppelt sind, zu welchen Ergebnissen sind sie da gekommen?

S.Z.: Wie viel CO2 Pflanzen aufnehmen können, hängt neben dem Klima sowohl vom CO2-Gehalt der Luft als auch vom Stickstoffgehalt des Bodens ab. Weil die CO2-Konzentration steigt, möchten die Pflanzen mehr wachsen, das können sie aber nicht, wenn nicht genug Stickstoff da ist. Wir untersuchen, wie stark der fehlende Stickstoff das Pflanzenwachstum in verschiedenen Regionen bremst. Die Wälder in den nördlichen Breiten sind da sehr stark limitiert, in den Tropen dagegen kaum. Denn, vereinfacht gesagt, können die Knöllchenbakterien, die Stickstoff aus der Luft binden, besser arbeiten, wenn es schön warm ist. Abbildung 2.

Abbildung 2. Vereinfachte Darstellung der Kohlenstoff- und Nährstoffkreisläufe (hier Stickstoff) in Landökosystemen (a)). b) Simulierte jährliche Biomasseproduktion und c) simuliertes Verhältnis der Biomassenproduktion zur Stickstoffaufnahme. Sichtbar sind regionale Unterschiede in der Produktivität sowie im Stickstoffbedarf der Ökosysteme. Dies wird unter anderem durch den vorherrschenden Vegetationstyp (Wiese, Laubwald, Nadelwald etc.) bedingt. Die Modellrechnungen (O-CN-Model) zeigen den Mittelwert von 2000 bis 2009 an. (Bild stammt aus dem Forschungsbericht des Autors [5] und wurde von Redn. eingefügt.)

P.H.: Wäre es dann sinnvoll, in natürlichen Ökosystemen, in denen Stickstoff fehlt, Gülle auch auszubringen?
S.Z.: Nein, das wirkt sich auch hier nachteilig auf die Biodiversität, vor allem die Ökosystemstruktur sowie die Lachgas-Emissionen der Wälder aus. Solche Überlegungen gibt es zwar im Zusammenhang mit dem Geoengineering, weil Wälder dann schneller wachsen und mehr CO2 binden. Aber Wälder sind nicht nur nützlich, um Kohlenstoff zu speichern, sondern auch für die Arterhaltung und die Trinkwasserreinhaltung.


Das Gespräch führte Peter Hergersberg (Redaktionsleitung MaxPlanckForschung)


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves,09:05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Elena Levashina, 16.05.2019: Zum Einsatz genetisch veränderter Moskitos gegen Malaria. http://scienceblog.at/genetisch-ver%C3%A4nderte-moskitos-gegen-malaria

[4] Martin Wikelski: 20.06.2019: Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt. http://scienceblog.at/aufbruchsstimmung-tier%C3%B6kologie-br%C3%BCcken-f%C3%BCr-artenvielfalt

[5] Sönke Zaehle: Kombination von Experimenten und Modellen zum besseren Verständnis der Nährstofflimitierung in Landökosystemen. Forschungsbericht 2017 https://www.mpg.de/11819423/mpi-bgc_jb_2017?c=152885


* Das Interview mit Sönke Zaehle ist unter dem Titel „Earth Day 2019: Durch geeignete Düngeverfahren lassen sich Verluste deutlich reduzieren.“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/13365309/zaehle-stickstoff-belastung?c=2191 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Die beiden Abbildungen wurden von der Redaktion eingefügt: sie sind den Artikeln [1] und [5] entnommen.


Weiterführende Links

Max-Planck-Institut für Biogeochemie. https://www.bgc-jena.mpg.de/index.php/Main/HomePage

"Wir erforschen, wie lebende Organismen - inklusive der Mensch - grundlegende Stoffe wie Wasser, Kohlenstoff, Stickstoff sowie Energie mit ihrer Umwelt austauschen. Wir wollen besser verstehen, wie dieser Austausch und der globale Wandel des Klimas und der Umwelt sich gegenseitig beeinflussen."

Artikel zu verwandten Themen im Scienceblog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Henrik Hartmann, 08.06.2017: Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel

Peter Schuster, 29.11.2013: Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.


 

mat Thu, 01.08.2019 - 14:04

Bildung entscheidender für die Lebenserwartung als Einkommen

Bildung entscheidender für die Lebenserwartung als Einkommen

Do, 25.07.2019 - 14:42 — Wolfgang Lutz & Endale Kebede

Wolfgang Lutz Endale KebedeIcon Politik und GesellschaftSpätestens seit einer viel zitierten Studie aus dem Jahr 1975 wird immer wieder behauptet: Wo es mit der Wirtschaft bergauf geht, das Einkommen steigt, wächst auch die Lebenserwartung mit. Die Demografie-Experten Prof.Dr.Wolfgang Lutz (Director IIASA World Population Program, Leiter des Wittgenstein Centre for Demography and Global Human Capital, Wien) und sein Mitarbeiter Mag.Endale Birhanu Kebede überprüfen die bekannte These [1]: ihre Analysen der letzten Jahre zeigen ein differenzierteres Bild. Demnach ist die Bildung die treibende Kraft hinter dem Zugewinn an Lebensjahren: ein höherer Bildungsstand führt zu einem verbesserten Gesundheitsbewusstsein und dies wiederum zu einer Erhöhung der eigenen Lebenserwartung sowie der Lebenserwartung der Kinder.*

Die Preston Kurve - Lebenserwartung wächst mit dem Einkommen

Die Kurven, die Samuel Preston im Jahr 1975 veröffentlichte, waren beeindruckend. Über Jahre hinweg beschrieben sie für viele Länder einen stets ähnlichen Zusammenhang: Mit steigendem Pro-Kopf-Einkommen wächst auch die Lebenserwartung – zunächst sehr steil und dann immer mehr abflachend. Auch mit Daten aus den letzten Jahrzehnten lassen sich diese Kurven nachzeichnen (vgl. Abbildung 1). Und dennoch gibt es große Zweifel daran, dass tatsächlich ein höheres Pro-Kopf-Einkommen die treibende Kraft hinter der vielerorts angestiegenen Lebenserwartung ist.

Wolfgang Lutz und Endale Birhanu Kebede vom Wittgenstein Centre in Wien legen in einer Studie aktuelle Daten vor, die zeigen, dass eher die Bildung denn das Einkommen für die durchschnittliche Lebensdauer entscheidend ist.

Abbildung 1. Je höher das Einkommen, desto höher die Lebenserwartung? Diese Kurve scheint das nahezulegen und hat damit lange Zeit eine falsche oder zumindest einseitige Interpretation von Entwicklungsniveaus und Sterblichkeitsraten in verschiedenen Ländern befördert. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen.

Preston selbst hatte in einer späteren Studie nicht nur die Höhe des Pro-Kopf-Einkommens, sondern auch die Alphabetisierungsrate und die Kalorienzufuhr in seine Analysen mit einbezogen. Dabei stellte er bereits im Jahr 1980 fest: „Die Koeffizienten zeigen, dass ein Anstieg um zehn Prozentpunkte bei der Alphabetisierungsrate die Lebenserwartung um etwa zwei Jahre ansteigen lässt. Wächst dagegen das Volkseinkommen um zehn Prozentpunkte, dann nimmt die Lebenserwartung nur um etwa ein halbes Jahr zu.“ Dieses spannende Ergebnis sei jedoch in den späteren Arbeiten zu dem Thema größtenteils übersehen worden, schreiben Lutz und Kebede in ihrer Studie.

Die neue Studie ergibt ein differenzierteres Bild

Um den Einfluss der Bildung auf die Lebenserwartung anhand aktueller Daten zu überprüfen, zogen die beiden Demografen nun Zahlen aus 174 Entwicklungs- und Industrieländern heran. Dem Daten-Explorer des Wittgenstein Zentrums (WIC 2015) konnten sie Angaben über die durchschnittliche Schulzeit in den verschiedenen Ländern entnehmen, die Zahlen zum Einkommen und zur Lebenserwartung stammen aus dem World Development Indicator (World Bank 2017).

Auch für den nun neu untersuchten Zeitraum von 1970 bis 2010 scheinen sich zunächst die Ergebnisse von Samuel Preston zu bestätigen: Die Lebenserwartung in den untersuchten Ländern ist umso höher, je größer das Pro-Kopf-Einkommen ist (s. Abbildung 1). Doch dieser so genannten „Preston-Kurve“ stellen Lutz und Kebede eine weitere gegenüber, die zeigt: Auch die mittlere Schulzeit ist für die Höhe der Lebenserwartung in einem Land ausschlaggebend (Abbildung 2). Zwischen den beiden Kurven gibt es jedoch entscheidende Unterschiede: Hat das Einkommen erst einmal ein hohes Niveau erreicht, so ist sein Effekt auf die Lebenserwartung bei weiteren Einkommenszuwächsen nur noch sehr gering. Der Effekt der Schulzeit dagegen bleibt auch bei einem hohen Bildungsniveau nahezu konstant - und es macht durchaus noch einen Unterschied, ob die durchschnittliche Schulzeit neun oder zehn Jahre beträgt

Abbildung 2. Im Gegensatz zur Preston-Kurve, die die Lebenserwartung mit dem Einkommen korreliert, zeigt die Bildung einen nahezu gleichbleibenden Effekt auf die durchschnittliche Lebensdauer. Wer sechs Jahre zur Schule geht hat zu ganz verschiedenen Zeitpunkten fast die gleiche Lebenserwartung. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen.

Darüber hinaus liegen die Werte für alle drei untersuchten Zeitpunkte, 1970 1990 und 2010 sehr eng beieinander. In Ländern, in denen die Menschen im Durchschnitt neun Jahre zur Schule gegangen sind, lag sowohl 1990 als auch 2010 die Lebenserwartung bei 70 Jahren. Im Jahr 1970 lag sie mit etwa 69 Jahren nur leicht darunter. Die Bildung scheint also zeitunabhängig einen großen Einfluss auf die durchschnittliche Lebensdauer zu haben.

Anders ist dies beim Einkommen: In Ländern mit einem Durchschnittseinkommen von 30.000 Dollar (Stand: 2010) lag die Lebenserwartung 1970 bei 73 Jahren, im Jahr 1990 bereits bei 76 Jahren und 2010 sogar bei 79 Jahren. Samuel Preston erklärte diese Lücken zwischen den Kurven mit dem medizinischen Fortschritt, der die Lebenserwartung auch unabhängig vom Einkommen mit der Zeit steigen ließ.

Lutz und Kebede hingegen gehen davon aus,

dass das Einkommen gar nicht die wesentliche Ursache für die gestiegene Lebenserwartung ist, sondern eher eine Folge der höheren Bildung. Oder anders formuliert: Wer viele Jahre zur Schule gegangen ist, wird dadurch sowohl ein höheres Einkommen als auch eine höhere Lebenserwartung haben.

In praktisch allen untersuchten Ländern haben besser ausgebildete Menschen eine höhere Lebenserwartung. Und in nahezu allen Industrienationen, für die Daten vorliegen, haben sich die Bildungsunterschiede bei der Lebenserwartung mit der Zeit vergrößert, obwohl sich die allgemeine Gesundheitsversorgung in den meisten Ländern gleichzeitig verbessert hat. Global gesehen ist die Steigerung des Bildungsniveaus im letzten halben Jahrhundert eindeutig der Schlüsselfaktor für die Verbesserung der Gesundheit gewesen – und nicht, wie oft behauptet, ein höheres Einkommen.

Vielleicht, so eine mögliche Erklärung, ist die wirtschaftliche Dimension für die Lebenserwartung gar nicht mehr so entscheidend, sondern eher der Lebensstil, also etwa die Ernährung, die Work-Life-Balance, das Gesundheitsbewusstsein oder regelmäßige Bewegung. Denn in den vergangenen Jahrzehnten haben sich die häufigsten Todesursachen zunehmend von infektiösen auf chronische Krankheiten verlagert, die stärker vom individuellen Lebensstil abhängen. Für die Ausprägung dieses Lebensstils aber ist weniger die Versorgungssicherheit, als vielmehr die Bildung des Einzelnen entscheidend. Höhere Bildung führe meist zu komplexerem und längerfristigem Denken und damit auch oft zu Verhaltensweisen, die sich auf die Gesundheit positiv auswirken, so die Forscher.

Doch nicht nur bei der Lebenserwartung ab Geburt, auch bei der Sterblichkeit von Kindern unter fünf Jahren scheint Bildung ein wichtiger Faktor zu sein (s. Abbildung 3). Kinder sterben vor allem dann besonders häufig vor dem 5. Geburtstag, wenn die Mütter gar nicht oder nur wenige Jahre zur Schule gegangen sind, zeigen Kebede und Lutz in ihrer Studie.

Abbildung 3. Auch bei der Kindersterblichkeit zeigt die Bildung der Mütter einen weitaus größeren Einfluss auf die Lebenserwartung als das Einkommen. Die positive Abweichung der jüngsten Kurve (2010) bei den gering gebildeten Müttern führen die Autoren der Studie auf umfassende internationale Programme zurück, mit denen seit zwei Jahrzehnten die Kindersterblichkeit weltweit bekämpft wird. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen

Die Aussagen der Grafiken untermauern die beiden Demografen mit Hilfe sogenannter Regressionsanalysen. Dabei wird mittels statistischer Modelle untersucht, inwieweit die beiden Faktoren „Einkommen“ und „Bildung“ die Entwicklung der Lebenserwartung beeinflussen. Besonderheiten von bestimmten Ländern oder Zeiträumen können dabei heraus gerechnet werden.

Betrachtet man den Einfluss von Bildung und Einkommen in diesen Modellen gemeinsam, so zeigt sich, dass das Einkommen nur in einem sehr schwachen Zusammenhang mit der Lebenserwartung steht. Ganz anders sieht das bei der Bildung aus. Sie ist hoch signifikant für die Entwicklung der Lebenserwartung und auch für die Sterblichkeit von Kindern unter fünf Jahren.

Das wäre ein weiterer Hinweis darauf, dass sich hinter dem statistischen Zusammenhang zwischen Einkommen und Gesundheit – wie von der Preston-Kurve beschrieben – ein ganz anderer Zusammenhang verbirgt: nämlich die Verbesserung des Bildungsniveaus, die ein entscheidender Faktor für eine bessere Gesundheit und für ein steigendes Einkommen ist. Abbildung 4.

Abbildung 4. Triangel der Beziehungen zwischen Bildung, Gesundheit und Einkommen. (Abbildung von der Redaktion aus: Lutz, W. and E. Kebede:(2018) [1] eingefügt)

Diese Erkenntnis sollte zukünftig berücksichtigt werden, wenn es darum geht, die Gesundheit und Langlebigkeit zu fördern, schreiben Lutz und Kebede. Gerade die Politik brauche Antworten auf die Frage, wo Mittel hierfür am effektivsten eingesetzt werden können.


[1] Lutz, W. and E. Kebede: Education and health: redrawing the Preston curve. Population and Development Review 44(2018)2, 343-361. DOI: 10.1111/padr.12141


* Dieser Artikel von Wolfgang Lutz ist unter dem Titel "Lebenserwartung: Der Kopf ist wichtiger als das Portemonnaie " im Infoletter Demografische Forschung - aus erster Hand (2019) 16, 2.Quartal erschienen. https://www.demografische-forschung.org/archiv/defo1902.pdf . Der Beitrag steht unter einer cc-by-nc-Lizenz.


Weiterführende Links

Wittgenstein Centre for Demography and Global Human Capital. http://www.wittgensteincentre.org/

Wolfgang Lutz: Population, Education and the Sustainable Development Goals (2016) Video: 12:29 min. https://www.youtube.com/watch?v=XsdnVeAGwPo. Standard YouTube Lizenz

CLUB3 mit Wolfgang Lutz: Brainpower als Voraussetzung für Nachhaltigkeit (12.2018), Video 1:36:46. https://www.youtube.com/watch?v=CvjSTk7-ra8 (Die These von Lutz ist, dass die kognitiven Fähigkeiten der Menschen der notwendige Schlüssel zu allen anderen Problemen der Nachhaltigkeit sind und auch bestimmend für die Lebenserwartung sind.)

Wolfgang Lutz: Education is the demographic dimension that matters most for development (2018), Video: 6:34 min. https://www.population-europe.eu/video/population-europe-inter-faces-wolfgang-lutz

Wolfgang Lutz: The Future Population of our Planet: Why Education Makes the Decisive Difference (2014). Video 22:28 min. https://www.youtube.com/watch?time_continue=5&v=IlKtMAMX-xA . Standard YouTube Lizenz

Artikel zu verwandten Themen im ScienceBlog

IIASA, 06.06.2019: Ist Migration eine demographische Notwendigkeit für Europa?

IIASA, 17.05.2018: Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.


 

Redaktion Thu, 25.07.2019 - 14:01

Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen

Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen

Do, 18.07.2019 - 06:35 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDie Energiewende geht von der Nutzung erneuerbarer Energien aus mit dem Ziel Treibhausgase zu reduzieren und von fossilen Brennstoffen wegzukommen. Auch im Energiesystem der Zukunft spielen Strom, Wärme und Mobilität eine zentrale Rolle. Um eine Energieversorgung aus der volatilen Sonnen- und Windenergie dafür bedarfsgerecht steuerbar zu machen, müssen die Erneuerbaren gespeichert und transportiert werden können. Eine Umwandlung von Strom in stoffliche erneuerbare Energieträger kann in Form eines Kohlenstoffkreislaufes vor sich gehen und in Europa mit z. B. Pipeline-Systemen für "solare" Kraftstoffe einen erheblichen Anteil der europäischen Energieanwendungen bedienen. Teil 3 aus dem Eckpunktepapier „Energie. Wende. Jetzt“ von Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.)*

Den Stoffkreislauf richtig ins System einbinden

Derzeit wird viel über den nötigen Beitrag der Mobilität zur Defossilisierung des Energiesystems diskutiert. Ihre Emissionen sind schwer zu reduzieren, weil sie diffuse Quellen beinhaltet, deren Emissionen nicht im Kreis geführt werden können. Umgekehrt ist der Energieverbrauch der Mobilität so groß, dass eine Versorgung mit Elektrizität quantitativ schwierig wird (es gibt ohnehin nicht genug primäre Elektrizität in Deutschland und die Vergrößerung des Stromverteilsystems wäre ebenfalls zumindest ökonomisch und aus Akzeptanzgründen nicht einfach zu bewerkstelligen). Für energieintensive Anwendungen ist ein elektrischer Antrieb praktisch unmöglich (Flugzeuge, Schiffe, Schwerlastverkehr).

Somit eignet sich der Kohlenstoffkreislauf mit seinen solaren Kraftstoffen hervorragend zur Versorgung von Mobilität. Der Verbrauch an Energie für die Mobilität wird dann durch Import von (flüssigen) Energieträgern als solar fuels oder e-fuels befriedigt. Dies schließt eine Ergänzung durch e-Mobilität, die durch lokal verfügbare erneuerbare Elektrizität gespeist wird, nicht aus.

Allerdings gelten die oben genannten Einschränkungen hinsichtlich der „Leckage“ von CO2 aus dem System [1]. Die Strategie, diese Leckage zu minimieren und zunächst bestehen zu lassen mag kritisch unter dem Gesichtspunkt der „Lastengerechtigkeit“ des Umbaus des Energiesystems gesehen werden. Sie ist aber hinnehmbar, wenn man sich die relativen Proportionen in Deutschland (und Europa) der Hauptanwendungen von Energie ansieht. In Abbildung 1 sind ihre Anteile am Verbrauch von Endenergie und an der CO2 Emission dargestellt.

Abbildung 1: Anteile der Hauptanwendungen von Energie an den energiebedingten CO2 Emissionen und am Verbrauch von Endenergie. Deutschland, 2016 (Daten BMWi, 2018). (Siehe dazu: [1] Abbildung 1: "Generische Elemente eines Energiesystems heute").

Stellt man die Reduktion von Treibhausgasen ins Zentrum des Umbaus des Energiesystems, so ist die Mobilität das am wenigsten lohnende Ziel und eine etwa halbierte Leckage könnte auch im Zielkorridor heutiger Politik hingenommen werden. Nimmt man den Ersatz von Öl als wichtiges Ziel, so ist die Mobilität prioritär. Allerdings wird dieses Ziel ressourcenschonend mit synthetischen Kraftstoffen erreicht. Somit wäre eine Mobilität, die neben lokal verfügbarer e-Mobilität auf importierter erneuerbarer Energie fußt, eine systemisch günstige Option.

Aus Abbildung 1 geht hervor, dass in jedem Fall die Defossilisierung der Wärmenutzung allerhöchste Priorität haben sollte. Dies ist allerdings unmöglich, wenn man die Kopplungen zwischen den Sektoren vernachlässigt. Ein Beispiel ist die bisher viel zu wenig genutzte Option, primäre Elektrizität zielgerichtet dafür bereitzustellen, Wärmespeicher oder Wärmepumpen lokal zu bedienen. Aber auch im Feld der industriellen (Hochtemperatur-)Wärme könnte primäre Elektrizität eingesetzt werden.

Schließlich kann eine Nutzung elektrischer Energie bei ausreichendem Stromangebot im Wechsel mit fossilen Heizstoffen in existierenden (dezentralen) Wasserspeichern relativ einfach als CO2-mindernde Flexibilisierungsmaßnahme eingesetzt werden.

Energiesysteme bedarfsgerecht aufbauen

Die Diskussion zu Energiesystemen richtet sich überwiegend an bilanziellen Werten für Energiebedarfe und Energielieferungen aus. Dies ist zunächst vertretbar, bedarf allerdings unbedingt der Schärfung durch eine Betrachtung zur zeitaufgelösten Bereitstellung von Energie. Es ist eine zentrale Dienstleistung eines Systems, seine Energie ohne zeitliche Beschränkung exakt bedarfsgerecht zur Verfügung zu stellen. Diese „Versorgungssicherheit“ ist ein wesentlicher Standortvorteil eines Landes und bildet eine Grundlage geordneten wirtschaftlichen und gesellschaftlichen Lebens. Dieser Grundforderung für ein Energiesystem wird Primär-Elektrizität aus Wind und Sonne nicht gerecht. Energie aus Wasserkraft und Biomasse erfüllt diese Forderungen, ist allerdings in fast allen Ländern kapazitiv zu klein, um die Schwankungen von Wind und Sonne auszugleichen.

Abbildung 2: Energiequellen für die Stromerzeugung in Deutschland (2017, Daten BMWi, 2018; Angaben in TWh).

Aus den Daten der Abbildung 2 geht hervor, dass das heutige Energiesystem in Deutschland weitgehend noch aus frei steuerbaren Energieträgern (fossil, nuklear) versorgt wird, aber der Anteil erneuerbarer Energieträger zu mehr als 50 % volatile Quellen (Wind, Sonne) enthält. Wird dieser Anteil wie gewünscht wesentlich größer, so sind Flexibilisierungsmaßnahmen erforderlich, die weitgehend auf die Nutzung von speicherbaren Energieträgern hinauslaufen. Weitere notwendige Maßnahmen sind der Einsatz von Batterien, mechanischen Speichern und Wärmespeichern, die allerdings zusammen nicht ausreichen, um das Stromsystem bedarfsgerecht steuerbar zu machen. Bedenkt man, dass das Stromsystem nur einen Bruchteil des gesamten Energiesystems ausmacht und die zeitlichen Anforderungen hinsichtlich Zeitspannen und Kapazitäten noch weitere Dimensionen hat als die Kurzzeitstabilität beim Strom (Sommer-Winterausgleich, Großmengen für industrielle Prozesse) so wird klar, dass ohne stoffliche erneuerbare Energieträger kein technisch und ökonomisch effizienter Betrieb eines nachhaltigen Energiesystems möglich ist.

Für die gesellschaftliche Akzeptanz von neuen Energiesystemen ist es wenig attraktiv, eine wesentliche Einsparung der Nutzung von Endenergie als Voraussetzung zum Gelingen einer Energiewende anzusetzen. Energie ist eine Grundlage aller Aktivitäten in der Gesellschaft.

Unbestreitbar sind einige davon unnötig und sollten abgestellt werden. Da allerdings eine Entscheidung über Einsparungen, die sich aus Verhaltensänderungen ergeben, sehr problematisch ist (etwa Tempolimit) und auch an der Frage der Stellung eines Landes im internationalen Wettbewerb (Deindustrialisierung) rührt, sind hier Widerstände sehr hoch. Eine global verteilte Gewinnung und Verteilung von erneuerbarer Energie macht es überflüssig, Einschränkungen im Gebrauch von Energie zu verlangen. Unberührt bleiben davon Reduktionen des Einsatzes von Energie, die sich durch technische oder freiwillige konsumtive Verbesserungen der Nutzungseffizienz ergeben. Eine bedarfsgerechte Energieversorgung sollte nicht durch Einsparziele und Nutzungsgrenzen bestimmt werden, da es dafür in einem globalen System mit subsidiärer Struktur keine zwingenden Argumente gibt.

Dies widerspricht nicht der Einsicht, dass Energie als grundsätzlich wertvolles Gut überlegt einzusetzen ist. Wenn allen Nutzern von Energie ihr Wert hinreichend klar ist, sollten sich Verhaltensänderungen hinsichtlich einer systemischen Verschwendung von Energie ohne staatlichen Zwang einstellen. Dies gilt vor allem für die Mobilität (von Waren wie von Personen), wo der Staat über die Sinnhaftigkeit der zahlreichen Subventionen nachzudenken hat.

Abbildung 3: Verbrauch von Heizenergie für Raumwärme in Deutschland. Die untere Kurve (grün) zeigt den Anteil erneuerbarer Energien. Die Schwankungen sind auf die unterschiedlich harten Winter zurückzuführen. Die Trendlinie zeigt die geringe Einsparung von Heizenergie an.(Daten: BMWi 2018)

Bei der Raumwärme sind viele Fortschritte in Bewusstseinsbildung und in technischen Maßnahmen erreicht worden. Dies gilt aber nicht in ganz Europa. In Deutschland ist die konsequente Umsetzung durch hohe regulatorische Hürden (Bauauflagen, technische Vorschriften) aufwändig und träge, wie man auf Abbildung 3 aus dem zeitlichen Verlauf des Verbrauches von Heizenergie in Deutschland erkennen kann. Der Einsatz von Erneuerbaren für die Bereitstellung von Raumwärme ist stark verbesserungsfähig, besonders wenn man bedenkt, dass im bisherigen Anteil ein großer Beitrag aus der Biomasse steckt, der nicht leicht skaliert werden kann.

Energiesysteme subsidiär und international aufbauen

Eine hervorstechende Eigenschaft von erneuerbarer Elektrizität ist, dass es ihre kostenlosen Ressourcen Sonne und Wind fast überall gibt, wo Menschen leben. Leider sind die besonders ergiebigen Orte, wo entsprechende Wandler mit hohen Nutzungsfaktoren (dem Verhältnis aus installierter Leistung und gewonnener Arbeit) betrieben werden können, aus eben diesem Grund menschlichem Leben nicht zuträglich (Wüsten, Sturmküsten). Abbildung 4.

Abbildung 4. Potential für erneuerbare Energien als Funktion des Ortes. Energiegewinnung aus Sonne und Wind zusammen genommen und in Volllaststunden angegeben (Internationale Energieagentur – IEA – 2016)

Die bisher wenig diskutierte Antwort auf diese Herausforderung ist es, erneuerbare Energie in großem Stil (siehe Abbildung 2 in [1]) transportierbar zu machen. Damit wird sie zu einer Handelsware, die beliebig gelagert und transportiert werden kann, ganz so wie wir das von den fossilen Energieträgern her kennen.

Die scheinbar widersprüchliche Natur der volatilen und verteilten erneuerbaren Energie legt eine subsidiäre Gestaltung des Systems nahe. Dazu werden Strukturen gebraucht, welche die unterschiedlichen Elemente (siehe Abbildung 1 in [1]) des Energiesystems bedienen. „Struktur“ meint dabei nicht eine einheitliche Organisation, sondern eine Reihe von Unternehmen, welche unter regulatorischer Kontrolle des Staates in Kooperation und Wettbewerb die Energieversorgung sicherstellen. Je nach Ebene im subsidiären System ist staatliche Kontrolle regional, national, europäisch oder international zu organisieren. Sie wird unterschiedliche Instrumente benötigen, die teilweise existieren, die aber einer Ergänzung bedürfen, um optimal wirksam zu sein. Energiepolitik ist daher regional, national, europäisch und international und bedarf einer entsprechenden Koordination. Dies ist von der Politik teilweise erkannt wird aber bisher nicht wirksam praktiziert.

Erneuerbare Primär-Elektrizität wird am wirkungsvollsten sofort und nahe am Gewinnungsort genutzt.

Das spricht für verteilte Systeme, welche die Volatilität im Strom kurzzeitig durch lokale Speicher elektrisch und thermisch ausgleichen. Um den Effizienzverlust und die Komplexität der lokalen Anlagen in Grenzen zu halten, sollte nicht Autarkie angestrebt, sondern eine Verschaltung von lokalen Stromversorgungen (Schwarmkraftwerk) vorgenommen werden. Durch Zulieferungen von stofflichen Energieträgern sowie von Ergänzungsstrom ergibt sich eine lokale bedarfsgerechte Versorgung, in der die Nutzer auch als Produzenten auftreten.

Die in Deutschland verfügbare solare Energielieferung ist allerdings überschaubar und wird durch die dichte Besiedelung und Akzeptanzprobleme weiter reduziert. Somit kann nur ein begrenzter Anteil der benötigten Energie lokal erzeugt werden.

Dieses Konzept stößt in Ballungszentren und für die Versorgung von Industrieanlagen ohnehin an seine Grenzen. Hier wird eine nationale Struktur sinnvoll sein, welche die gleichen Aufgaben wie die lokalen Strukturen hat, die Bereitstellung von Primärelektrizität und die Zulieferung von (importierter) Energie. Vor allem wird diese Struktur regionale Ungleichgewichte ausgleichen und die bedarfsgerechte Stromversorgung garantieren. Dazu kann sich diese heute weitgehend existierende und im Ausbau befindliche Struktur weiter einer europäischen Vernetzung bedienen, die in Ansätzen ebenfalls bereits existiert. Die europäische Energieunion mit ihren wesentlich besseren Möglichkeiten der „Energieernte“ (Abbildung 5) ist zwar ein Thema der politischen Agenda, wird aber nicht sehr entschlossen vorangetrieben.

Abbildung 5. Möglichkeiten der Energieernte in Europa. Der Deutsche Wetterdienst hat kumulativ für Europa die Sammeleffizienz von Wind und Sonnenkraftwerken ermittelt. Die Wandlung in Wärme und stoffliche Träger, also die „Sektorenkopplung“ als Alternative und als Transportform ist bisher nicht wesentlichin die Planung eingegangen.

Kreislauf für erneuerbare Energie

Ein Kohlenstoffkreislauf in Europa mit z. B. Pipeline-Systemen für CO2 und flüssige oder gasförmige Brennstoffe könnte einen erheblichen Anteil der europäischen Energieanwendungen bedienen (Abbildung 6).

Abbildung 6. Eine detailliertere Version eines Kreislaufs für erneuerbare Energie, der in Europa (und global) etabliert werden könnte. Alle nötigen Technologien sind prinzipiell, wenn auch mit sub-optimalen Prozesseffizienzen, verfügbar. Es sollte unbedingt vermieden werden, eine technische Monokultur zu schaffen. Vielmehr haben alle angegebenen Verfahren Vor-und Nachteile, die sich am besten in der gemeinsamen Nutzung ausgleichen lassen. Abkürzungen: RES bedeutet erneuerbare Energie, lokal: Distanz geeignet für Stromtransport; entfernt: Distanz mit Stromleitungen ökonomisch nicht überbrückbar. CCSS: „carbon capture and solid storage“ das Verfahren der Mineralisation und Lagerung von ehemals biogenem Kohlenstoff; DAC: "Direct Air Capture"; SNG: synthetisches Erdgas; LOHC:" liquid organic hydrogen carriers". Die violetten Pfeile deuten den Kreislauf des Kohlenstoffes an. (Dazu siehe auch Abbildungen 2 und 3 in [1]).

Der dafür erforderliche technische und regulatorische Aufwand würde wesentlich dazu beitragen, dass die europäischen Energieziele tatsächlich erreicht werden. Entgegen den Einschätzungen der Bundesregierung erscheint dies mit den bisher wirkenden Maßnahmen nicht sicher gewährleistet.

Für die besonders energiehungrige Bereitstellung der synthetischen Kraftstoffe oder großer Mengen von Wasserstoff eignet sich ein weltweiter Stoffkreislauf. Hier würden Tankschiffe zum Einsatz kommen. Für den interkontinentalen Einsatz wären auch flüssige reversible Wasserstoffträger (liquid organic hydrogen carriers, LOHC) und Ammoniak geeignet (Abbildung 6).

Der Aufbau solcher Systeme über Grenzen von politischen Strukturen (regional, national europäisch), Industrien und Branchen sowie regulatorischen Systemen hinweg ist ein heroisches Werk mit sehr vielen Gestaltungsaufgaben der Politik. Ihr Erfolg würde sich unter anderem daran messen lassen, ob die erforderlichen Kapitalbeträge investiert werden. Darunter liegen technische Herausforderungen von ähnlichen Ausmaßen, die Steuerung, Digitalisierung und den störungsfreien und sicheren Betrieb betreffen. Die Vermittlung der Fakten und Hintergründe dazu an eine breite Bevölkerung in Zeiten nationalstaatlicher Bestrebungen ist eine weitere Aufgabe. Ohne die mehrheitliche Zustimmung der Nutzer wird es sehr schwer, das unbedingt notwendige Vertrauen von Investoren und Unternehmen zu derartigen Projekten auf allen Ebenen eines subsidiären Systems zu bekommen.

Bepreisung von CO2

Zur Internationalität der Energieversorgung gehört ein länderübergreifendes System für die Bepreisung von CO2. Es mag opportun sein, aus Zeitgründen mit einem nationalen System zu beginnen, das dann aber kompatibel mit einem europäischen System angelegt sein muss. Damit begegnet man dem Argument, dass man in der Tat nicht warten kann, bis der „Letzte in Europa“ dieser Grundlage eines erfolgreichen Umbaus der Energieversorgung zustimmt. Nützlich wäre es, eine „Allianz der Einsichtigen“ zu formen und das Vorhaben zu beginnen:

Viele Finanzminister wollen sich weltweit für eine wirksame Bepreisung von Kohlendioxid einsetzen und im Kampf gegen den Klimawandel international besser zusammenarbeiten. Das vereinbarten Ressortchefs aus allen Teilen der Welt, darunter Bundesfinanzminister Olaf Scholz, im Rahmen der Frühjahrstagung des Internationalen Währungsfonds und der Weltbank am 13.04.2019 in Washington (s. solarify.eu/internationale-klimakoalition-fuer-co2-bepreisung).


[1] R. Schlögl. 27.06.2019: Energiewende (2): Energiesysteme und Energieträger.


Dies ist Teil 3 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang des Artikels wurden drei Abbildungen (Abb. 4, 5, 6) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Teil 1: R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R. Schlögl. 27.06.2019: Energiewende (2): Energiesysteme und Energieträger.

Der demnächst erscheinende Teil 4 wird sich mit der zeitlich flexiblen Gestaltung des Umbaus befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC)

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden?

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.


 

Redaktion Wed, 17.07.2019 - 20:52

Genmutationen in gesundem Gewebe

Genmutationen in gesundem Gewebe

Do, 11.07.2019 - 12:10 — Francis S. Collins

Francis S. CollinsIcon MedizinAls Forscher die aus verschiedenen Geweben von fast 500 Personen gesammelten genetischen Daten analysierten, stellten sie fest, dass es in praktisch allen Individuen offensichtlich einige gesunde Gewebe gab, die jeweils Klone von Zellen mit denselben genetischen Mutationen enthielten. Manche dieser Klone wiesen sogar Mutationen in Genen auf, die mit Krebs in Zusammenhang stehen. Francis Collins, Direktor der US National Institutes of Health (NIH), berichtet hier über diese Ergebnisse, die darauf schließen lassen, dass fast alle von uns mit genetischen Mutationen in verschiedenen Teilen unseres Körpers herumlaufen, die unter bestimmten Umständen zu Krebs oder anderen gesundheitlichen Problemen führen können.*

Es ist die übliche Ansicht in der Biologie, dass jede normale Zelle bei jeder ihrer Teilungen ihr DNA-Handbuch mit hundert prozentiger Genauigkeit kopiert. Von wenigen Ausnahmen - wie beispielsweise dem Immunsystem - abgesehen, weisen demnach die Zellen in normalem, gesundem Gewebe kontinuierlich genau dieselbe Sequenz des Genoms auf, wie sie der ursprüngliche einzellige Embryo hatte, aus dem das ganze Individuum entstanden war.

Neue Erkenntnisse lassen allerdings darauf schließen, dass es an der Zeit ist, diese Ansicht zu revidieren.

Programme wie der von den National Institutes of Health (NIH) etablierte, öffentlich zugängliche "The Cancer Genome Atlas" (TCGA) haben die vielen, auf molekularer und genomischer Basis erfolgten Veränderungen, die verschiedenen Krebsarten zugrunde liegen, weitgehend charakterisiert. Abbildung 1.

Abbildung 1. "The Cancer Genome Atlas" (TCGA). Nach 12 Jahren Laufzeit, Beiträgen von  Tausenden Forschern, die 33 unterschiedliche Tumortypen an Hand von Proben von 11 000 Patienten analysierten, ist eine außergewöhnlich reiche Datensammlung entstanden, die das Verständnis von Krebserkrankungen wesentlich geprägt hat. https://www.cancer.gov/about-nci/organization/ccg/research/structural-genomics/tcga/history

Es besteht aber nach wie vor die Schwierigkeit die genaue Abfolge von Ereignissen festzulegen, die zu Krebs führen, und es gibt Anhaltspunkte dafür, dass sogenannte gesunde Gewebe, Blut und Haut mit eingeschlossen, eine erstaunliche Anzahl von Mutationen enthalten können - die möglicherweise einen Weg einschlagen, der letztendlich in Problemen endet.

Unter der Leitung von Gad Getz und der Postdoktorandin Keren Yizhak beschloss ein Team am Broad Institut (Massachusetts Institute of Technology (MIT) und Harvard Universität; Cambridge ) zusammen mit Kollegen vom Massachusetts General Hospital sich diese Fragen genauer anzusehen und zwar anhand der Datensammlung des seit 2010 laufenden, vom NIH unterstützten internationalen "Genotype-Tissue Expression" (GTEx) Projekts. Die Ergebnisse dieser Untersuchung wurden kürzlich im Fachjournal Science veröffentlicht [1].

Das Genotype-Tissue Expression Project

Das GTEx ist eine umfangreiche öffentlich zugängliche Ressource, die aufzeigt, wie Gene in verschiedenen Geweben des Körpers unterschiedlich exprimiert und reguliert werden. Abbildung 2.

Abbildung 2. Das Genotype-Tissue Expression (GTEx) Projekt ermöglicht Korrelationen zwischen Genotyp and gewebespezifischer Genexpression an Hand der mRNA-Konzentrationen. https://gtexportal.org/home/documentationPage

Um diese wichtigen Unterschiede zu erfassen, haben die am GTEx-Projekt beteiligten Forscher die Sequenzen der m-RNAs in Tausenden Proben aus gesunden Geweben analysiert. Es sind dies Gewebe, die von kürzlich Verstorbenen stammen, deren Todesursachen aber andere Krankheiten als Krebs waren. (messenger-RNAs: dieDNA-Sequenzen von Genen werden in RNAs umgeschrieben und prozessiert; die resultierenden mRNAs werden dann in Aminosäuresequenzen zu Proteinen übersetzt; Anm. Redn.)

Diese umfangreichen RNA-Daten wollte das Team um Getz für einen anderen Zweck nutzen: nämlich, um Mutationen nachzuweisen, die in den Genomen von Zellen in solchen Geweben aufgetreten waren. Um dies zuwege zu bringen, entwickelten sie ein Verfahren, das den Vergleich von RNA-Proben aus den Geweben mit den entsprechenden normalen DNAs erlaubte. Diese neue Methode bezeichnen sie mit "RNA-MuTect".

Mutationen treten in gesundem Gewebe häufig auf…

Insgesamt analysierte das Forscherteam RNA-Sequenzen aus 29 Geweben von 488 Personen aus der GTEx-Datenbank und verglichen diese mit den DNAs; unter diesen Geweben waren auch Herz, Magen, Bauchspeicheldrüse und Fett. Diese Analysen zeigten, dass die überwiegende Mehrheit der Personen - sagenhafte 95 Prozent - in ein oder mehreren Geweben Klone von Zellen aufwies, die neue genetische Mutationen enthielten.

Wenn auch viele dieser genetischen Mutationen höchstwahrscheinlich harmlos sind, ist bei einigen der Zusammenhang mit Krebs bekannt.

…insbesondere in Organen, die Einflüssen aus der Umwelt ausgesetzt sind

Wie die Daten zeigen, treten genetische Mutationen am häufigsten in Haut, Speiseröhre und Lungengewebe auf. Abbildung 3. Dies lässt darauf schließen, dass die Exposition gegenüber Einflüssen aus der Umwelt - wie der Luftverschmutzung in der Lunge, karzinogenen Nahrungsmitteln in der Speiseröhre oder UV-Strahlung des Sonnenlichts auf der Haut - eine wichtige Rolle bei der Verursachung genetischer Mutationen in verschiedenen Teilen unseres Köpers spielen kann.

Abbildung 3. Klone mit genetischen Mutationen in gesundem Gewebe treten besonders häufig in Organen auf die Noxen der Umwelt ausgesetzt sind.

Die Ergebnisse zeigen deutlich, dass die DNA in den Zellen unseres Körpers selbst in normalen Geweben nicht vollkommen identisch ist. Vielmehr treten ständig Mutationen auf, und das macht unsere Zellen mehr zu einem Mosaik verschiedener Mutationsereignisse. Manchmal haben diese veränderten Zellen einen geringfügigen Wachstumsvorteil ; sie teilen sich daher weiter, um größere Gruppen von Zellen mit leicht veränderten Profilen ihres Genoms zu bilden. In anderen Fällen können diese veränderten Zellen in geringer Anzahl bestehen bleiben oder vielleicht sogar verschwinden.

Es ist noch nicht klar, inwieweit solche Klone mit veränderten Zellen das Risiko erhöhen, dass jemand später an Krebs erkrankt. Jedoch hat das Vorhandensein solcher genetischer Mutationen wahrscheinlich wichtige Auswirkungen auf die Krebsfrüherkennung. Beispielsweise kann es schwierig sein, Mutationen, die als echte Warnsignale für Krebs gelten, von solchen zu unterscheiden, die harmlos sind und Teil dessen, was neuerdings als „normal“ gesehen wird.

Wie geht es weiter?

Um solche Fragen weiter zu untersuchen, erscheint es zweckmäßig, die zeitliche Entwicklung normaler Mutationen in gesunden menschlichen Geweben zu untersuchen. Dabei sollte man erwähnen, dass die Forscher solche Mutationen bislang nur in großen Zellpopulationen (d.h. bei mindestens 5 % der Zellen in einem Gewebe; Anm. Redn.) nachgewiesen haben. Mit verbesserten Technologien wird es dann interessant sein, diese Fragestellungen bei hoher Auflösung auf dem Niveau einzelner Zellen zu erforschen.

Das Team von Getz wird solche Fragen weiter verfolgen, zum Teil auch als Teilnehmer an dem kürzlich gestarteten NIH-"Pre-Cancer Atlas" (Krebsvorstufenatlas). Abbildung 4. Dieser Atlas wurde konzipiert, um prämaligne menschliche Tumoren umfassend zu untersuchen und zu charakterisieren.

Abbildung 4. Der Pre-Cancer Atlas (PCA) soll DNA und Mikroenvironment der prämalignen Läsionen auf molekularer, zellulärer und struktureller Basis erforschen und wie diese zu invasiven Tumoren transformiert werden. https://prevention.cancer.gov/news-and-events/news/pre-cancer-atlas-pca-and

Wenn auch in der Erforschung von Krebs und anderen chronischen Krankheiten erhebliche Fortschritte erzielt wurden, müssen wir noch viel über Ursachen und Entwicklung von Krankheiten lernen, um bessere Instrumente zur Früherkennung und Bekämpfung zu entwickeln.

----------------------------------------------------------

[1] Yizhak K, et al., RNA sequence analysis reveals macroscopic somatic clonal expansion across normal tissues. Science. 2019 Jun 7;364(6444).


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 18. Juni 2019) im NIH Director’s Blog unter dem Titel: "Study Finds Genetic Mutations in Healthy Human Tissues" und wurde geringfügig für den ScienceBlog adaptiert Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH). Die Abbildungen stammen von den unter Weiterführende Links angegebenen Seiten und wurden von der Redaktion eingefügt.


Weiterführende Links

The Cancer Genome Atlas Program (TCGA)

Genotype-Tissue Expression Program (GTEx)

Pre-Cancer Atlas (PCA).

Eric Lander, GTEx: Genotype-Tissue Expression (2018) Video 6:38 min.

Fracis S.Collins, 6.4.2017: Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung. (Eine Studie schätzt welcher Anteil an Mutationen durch Vererbung, Einflüsse von Umwelt/Lifestyle oder fehlerhaftes Kopieren der DNA während des normalen Vorgangs der Zellteilung hervorgerufen wird).


 

Redaktion Wed, 10.07.2019 - 21:20

Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Do, 04.07.2019 - 12:17 — Karin Moelling

vIcon BiologiePhagen sind Viren, die Bakterien befallen – und das sehr in sehr spezifischer Weise. Bereits ihr Entdecker erkannte vor etwas mehr als 100 Jahren, dass sich bakterielle Infektionen mit Phagen effizient bekämpfen lassen. Mit dem Siegeszug der Antibiotika gerieten Phagen aber in den meisten Ländern in Vergessenheit. Die Entstehung von Antibiotika-resistenten Bakterien und der Mangel an neuen Substanzen, die gegen solche Keime wirken, hat das Interesse an einer Phagentherapie heute wieder aufleben lassen. Die renommierte Virologin Karin Mölling (em. Prof. für Virologie der Universität Zürich und Gruppenleiterin am Max-Planck-Institut für molekulare Genetik) erklärt hier was Phagen sind und wie sie funktionieren. In einem nachfolgenden Teil werden dann viel versprechende Beispiele der Phagentherapie geschildert.

Viren - so viele wie Sterne am Himmel…

Die meisten Menschen denken bei Viren an Erreger von Krankheiten, denn in diesem Zusammenhang wurden Viren gegen Ende des 19. Jahrhunderts zuerst gefunden. In Anbetracht der unvorstellbar großen Anzahl an Viren - Schätzungen gehen von insgesamt 1033 (1 Trillion Billiarden) Viren auf der Erde aus - ist die durch Viren verursachte Todesrate jedoch vergleichsweise gering.

Viren sind überall - in den Meeren, in der Umwelt, in Tieren, Pflanzen und auch auf und in uns. Die kleinsten Viren sind hundertfach kleiner als Bakterien, die größten sogenannten Gigaviren, die Forscher kürzlich nach 30000 Jahren im ewigen Frost wieder zum Leben erweckt haben, sind größer als viele Bakterien.

Genauso wie Bakterien, besiedeln auch Viren in hoher Anzahl unseren Körper. Im Innern eines gesunden Menschen koexistieren mehrere Billionen Bakterien und etwa 100 mal mehr Viren; ein ausgewogenes Gleichgewicht von Viren zu Bakterien ist notwendig für die Gesundheit und für die Verdauung.

…und ihre Spuren in unserem Erbgut

Dank der modernen Genomforschung war es Anfang dieses Jahrhunderts gelungen, das menschliche Erbgut komplett zu sequenzieren. Seitdem wurden Tausende Humangenome und ebenso das Erbgut vieler anderer Organis­men detailliert - Buchstabe für Buch­stabe - bestimmt. Vergleiche dieser immensen Datenmengen führten zu der sensationellen Entdeckung, dass unsere DNA zahllose »fremde« Gene aufweist: Sequenzen, die ursprünglich von diversen, völlig anderen Organismen stammen, die in der Evolution dann Bestandteile unserer eigenen genetischen Ausstattung geworden sind und nun von Generation zu Generation weitergegeben werden. Fast die Hälfte dieser Sequenzen stammt von Viren.

Neue Untersuchungen weisen darauf hin, dass die zellulären Immunsysteme von der Integration solcher Sequenzen herrühren, also eingebaute Viren die Zelle vor weiteren Virusinfektionen schützen und sich von einfachen adaptiven Systemen zu hochkomplexen Abwehrstrategien entwickelt haben.

"Unsichtbare Mikroben, die Bakterien fressen"

Bakteriophagen, kurz Phagen genannt, sind Viren, die spezifisch Bakterien befallen. Vor etwas mehr als hundert Jahren entdeckte der Frankokanadier Félix d’Hérelle (1873–1949) am Institut Pasteur "unsichtbare Mikroben", die Bakterien zerstörten - Löcher in gezüchtete Rasen von Ruhr-erzeugenden Bakterien fraßen. D'Herelle benannte sie Bakteriophagen (phagein ist das griechische Wort für fressen) und erkannte sofort das Potential seiner Entdeckung: die therapeutische Anwendung dieser Bakteriophagen bei bakteriellen Infektionen (Abbildung 1).

Abbildung 1.Links: Bereits 1917 berichtet Felix d'Herelle über "eine unsichtbare Mikrobe, die gegen Ruhrbakterien wirksam ist" (Comptes rendus hebdomadaires des séances de l‘Académie des Sciences 165, S. 373–375, 1917). Rechts: Phagen zerstören Bakterien (Beispiel: Gammaphagen haben einen kreisrunden Lysehof in einen Rasen von Bacillus anthracis "gefressen". Bild: Wikipedia, gemeinfrei).

D'Herelle hat die Phagen aus infizierten Proben gewonnen, indem er sie durch ein Keramiksieb von den Bakterien abtrennte und hat sie dann in verschiedenen Ländern bei bakteriellen Epidemien therapeutisch erprobt, etwa gegen Cholera in Indien. Damit erzielte er zum Teil sensationelle Erfolge: Todkranke, die abends einen speziellen Phagentrunk erhielten, waren am nächsten Morgen geheilt!

Diese Art der Therapie funktionierte aber manchmal auch schlechter. Offensichtlich kam es darauf an für die jeweils zu behandelnde Infektion die passenden Phagen einzusetzen (Phagen sind ja hoch spezialisiert und docken nur an ganz be­stimmte Bakterien an). Da d'Herelle dachte, dass sein Wundertrank möglicherweise keine passenden Phagen enthalte, kam er auf die Idee den Kranken ein Gemisch aus verschiedenen Phagenstämmen - einen "Phagencocktail" - zu verabreichen. Auch diese Therapie funktionierte leider nicht immer und überall.

Jedenfalls waren damalige Kollegen und Kontrahenten in den westlichen Ländern von der Phagentherapie nicht überzeugbar - offensichtlich verwendeten sie immer Phagen, die nicht passten. Als dann Antibiotika während und nach dem Zweiten Weltkrieg ihren Siegeszug antraten, geriet die Phagentherapie in Vergessenheit.

Nur dort, wo Antibiotika lange nicht verfügbar waren -in Ländern hinter dem Eisernen Vorhang - wurde Forschung an Phagen und Phagentherapie weiter betrieben.

Phagen wurden entdeckt, vergessen und wiederentdeckt. Bis in die späten 1960er Jahre dienten Phagen (insbesondere vom Typ der T4-Phagen und Lamda-Phagen) als Modelle, um grundlegende Prinzipien der modernen Molekularbiologie zur Organisation und Regulation von Genen zu erforschen.

Wie sehen Phagen aus?

Als Prototyp für Phagen gilt der T4-Phage, der spezifisch Darmbakterien des Typs Escherichia-coli befällt. Abbildung 2.

Abbildung 2. Phagen im Elektronenmikroskop. A) T4-ähnliche Phagen, die durch das Nachweisverfahren die Beine verloren haben, am Schwanzende tritt etwas DNA aus. B) Ein einzelner T-4 Phage misst vom Kopf bis zu den Filamenten rund 100 Nanometer. C) Schematische Darstellung des Aufbaus eines T4-Phagen (Bilder: A), B): Karin Moelling; C): modifiziert nach Guido4, Wikipedia, Lizenz cc-by-sa)

Im Elektronenmikroskop sind die Komponenten erkennbar: Der ikosaedrische Kopf, Kapsid genannt, enthält das Erbgut - bei Phagen zumeist DNA -, welches der Phage durch das Rohr im kontraktilen »Schwanz« in ein Bakterium injiziert. Mit den angeknickten Beinchen, den Filamenten , verankert sich der Phage an der Wirtszelle. Die Wechselwirkung dieser Beine mit der Zelle ist höchst selektiv: Jeder Phage muss seine eignen Wirtszelle finden und nimmt keine andere. Abbildung 3.

Das war und ist eine der großen Schwierigkeiten in der therapeutischen Anwendung von Phagen: während Antibiotika auch eine Bandbreite von Bakterien ohne passgenaue Abstimmung abtöten, müssen Phagen spezifisch an die Keime jedes einzelnen Patienten angepasst werden.

Abbildung 3. Phagen erkennen mit ihren Beinchen Rezeptoren auf der Oberfläche der Wirtszelle und binden an diese hochspezifisch und irreversibel. Links: Schematische Darstellung (Quelle: wikimedia, CarlosRoBe, Lizenz CC BY-SA 4.0). Rechts: Elektronenmikroskopische Aufnahme von T1-Phagen, die sich auf der Zellwand von E. coli festgesetzt haben. (Quelle: Dr Graham Beards- en:Image:Phage.jpg. cc-by-sa 3.0; Wikipedia)

Wie funktionieren Phagen?

Phagen vermehren sich auf Kosten ihrer Wirtszellen, der Bakterien. Nachdem Phagen ihre DNA in die jeweilige Wirtszelle injiziert haben, können zwei unterschiedliche Arten der Vermehrung eingeschlagen werden, die mit "Lytischer Zyklus" und "Lysogener Zyklus" bezeichnet werden. Abbildung 4.

Abbildung 4. Wie Phagen mit Bakterien interagieren: Im Lytischen Zyklus tritt sofort Vermehrung ein, bringt die Wirtszelle zum Platzen und die neuen Phagen infizieren weitere Zellen. Im Lysogenen Zyklus wird die Phagen-DNA (blau) in das Bakterien-Chromosom (braun) integriert und über Generationen vererbt. Unter Stress kann aber auch der Übergang der integrierten Prophagen in den Lytischen Zyklus eintreten (brauner Pfeil). (Bild: modifiziert nach xxoverflowed; wikimedia. cc-by-2.0 https://www.flickr.com/photos/hixtine/6374709127)

Im Lytischen Zyklus bleibt die injizierte Phagen-DNA separiert vom bakteriellen Erbgut, wird auf Kosten des bakteriellen Stoffwechsels rasant vermehrt und führt zur Produktion von Phagen-Bauteilen. Die Bauteile setzen sich zu Hunderten neuen Phagen zusammen und bringen schlussendlich die Wirtszelle zum Platzen - lysieren diese -, schwirren aus und infizieren weitere Bakteri­en.

Im Lysogenen Zyklus wird die Phagen-DNA vorerst in das Erbgut des Bakteriums - als Prophage -integriert und kann dann über viele Generationen weitervererbt werden. Gerät das Bakterium in eine Stresssituation - etwa bei zu hoher Keimdichte, Nahrungsmangel, Temperaturstress, etc. - kann ein Wechsel zum lytischen Zyklus erfolgen (brauner Pfeil in Abb. 4) und die Vermehrung der Phagen gestartet werden.

(Auf ähnliche Weise gelangen Viren in das Erbgut vieler Lebe­wesen; sie sind darin latent werden weitervererbt, wenn sich die Zellen teilen und können manchmal bei Stress virulent werden.)

Die Phasen von Synthese und Zusammenbau von Phagen können elektronenmikroskopisch verfolgt werden. Abbildung 5.

Abbildung 5. SU 10-Phagen, die in E. coli Zellen gebildet werden im Elektronenmikroskop. An der Oberfläche der Zellwand haften noch leere Kapside (rote Pfeile), die ihre DNA bereits injiziert haben. Im Cytoplasma des Bakteriums bilden die neuen Phagen Honigwaben ähnliche Strukturen (blaue Pfeile); in vielen Kapsiden ist die DNA bereits eingefügt (dunkle Kapside). (Bild: SU10progj.jpg; wikimedia. nach KM Mirzaei et al., http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0116294 . CC BY 4.0 .)

Wie Dichtestress die in den Bakterien vorhandenen Phagen aktiviert, kann am Beispiel der durch Cyanobakterien verursachten Algenblüte in Gewässern verdeutlicht werden. In längeren warmen Phasen vermeh­ren sich die Bakterien infolge von Überdüngung oftmals stark, dann stoppt der Vorgang aber plötzlich. Der Grund dafür: Im Meereswasser sind etwa 80 Prozent der Bakterien von ihren Phagen infiziert, die durch Dichtestress aktiviert werden, sich rasant vermehren und ihre Wirtsbakterien weitgehend zerstören. Normalerweise sind Bakterien und Phagen so aufein­ander eingespielt, dass Phagen täglich etwa ein Drittel der vorhandenen Bakterien auflösen, wodurch deren Bestand­teile wieder in die Nahrungskette gelangen.

Eine Besonderheit der Phagen Ist, dass sie sich nur solange in den Bakterien vermehren, wie es diese Bakterien gibt. Wenn sie alle Bakterien getötet haben, können sich die Phagen nicht mehr vermehren und gehen auch zugrunde. Je mehr Bakterien vorhanden sind , umso mehr Phagen werden produziert. Dies bedeutet, dass für eine therapeutische Anwendung von Phagen eine Dosis- Wirkung Korrelation besteht und dass eine solche Therapie selbst limitierend ist, aber auch ein Minimum an Bakterien zu Beginn der Therapie erfordert.

Wie und gegen welche Infektionen die Phagen eingesetzt werden können und welche Erfolge bis jetzt erzielt wurden, soll in einem nachfolgenden Artikel behandelt werden.


Weiterführende Links

Karin Moelling: Welt der Viren, 2. Phagen (2015); Video 9:22 min. https://www.youtube.com/watch?v=65aD8lvOpRY

Karin Moelling: Ohne Viren gäbe es schlicht kein Leben. Virologin Prof. Dr. Karin Mölling zu Gast bei KKL Impuls (2016), Video 1:17:05 min. https://www.youtube.com/watch?v=3ThS_Rsr5B8

Karin Moelling: Collect Phages to Kill resistant Bacteria (deutsch). 2019; Video 12:14 min. https://www.youtube.com/watch?v=RfC5PUSscok

Sternstunde Philosophie: Durchbruch in der Aids-Forschung. Die Virologin Karin Mölling im Gespräch mit Norbert Bischofberger. (2008) Video 56:35 min. https://www.srf.ch/play/tv/sternstunde-philosophie/video/sternstunde-philosophie-durchbruch-in-der-aids-forschung--die-virologin-karin-moelling-im-gespraech-mit-norbert-bischofberger?id=37c4497c-ed6c-4b96-815d-4400a6b36442

T4 Phage früher Bakteriophage T4. 2016; Video 8:05 min. https://www.youtube.com/watch?v=VX-unNBw-KM

Udo Pollmer: Bakteriophagen - natürlicher Ersatz für Antibiotika und Desinfektion? 2013; Video 7:38 min. https://www.youtube.com/watch?v=YmnWWVxLvVU


Einige Artikel über Viren im ScienceBlog

Gottfried Schatz, 03.05.2013: Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

Peter Palese, 10.5.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

Peter Schuster, 24.5.2013: Letale Mutagenese — Strategie im Kampf gegen Viren

Gottfried Schatz, 5.12.2014: Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus


Richard Neher, 3.11.2016: Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von Impfstoffen

Guy Reeves, 09.05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur

Redaktion Thu, 04.07.2019 - 11:29

Energiewende (2): Energiesysteme und Energieträger

Energiewende (2): Energiesysteme und Energieträger

Do, 27.06.2019 - 15:04 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDer Chemiker Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) appelliert in seinem Eckpunktepapier „Energie. Wende. Jetzt“ an einen beschleunigten Umbau des Energiesystems, der als „Revolution“ verstanden werden müsse. Dieser Artikel erscheint auf Grund seiner Länge bei uns in mehreren Teilen. Nach einer Einführung [1] erläutert Schlögl, nun im zweiten Teil, dass die Grundlage eines neuen Energiesystems die elektrische Primärenergie sein müsse, das System jedoch nicht gänzlich ohne stoffliche Energieträger funktionieren könne. Diese können teilweise aus Biomasse generiert werden, vor allem aber durch die Umwandlung der primären Elektrizität in beispielsweise synthetische Brennstoffe. Der Bedarf an stofflichen Energieträgern wiederum, erfordere einen geschlossenen Kohlenstoffkreislauf, um wirklich nachhaltig zu sein.

Energieversorgung ist systemisch

Alle Elemente der Energieversorgung -Energieträger, Energiewandlung, Energienutzung - sind untereinander vielfach verbunden. Ein vereinfachtes Schema dieses enorm wichtigen, bereits im vorangegangenen Artikel dargestellten, komplexen Systems ([1], Abbildung 3) soll die gegenseitigen Abhängigkeiten nun nochmals veranschaulichen. Abbildung 1.

Abbildung 1. Generische Elemente eines Energiesystems heute. Von unten nach oben: man erkennt die Ebenen der Energieträger – Kohle, Öl, Gas, Kernenergie und erneuerbare Energien – der Grundanwendungen – Strom, Mobilität und Wärme – und der differenzierten Anwendungen (Sektoren) – von Industrieproduktion zum Wohnen.

Greift man daher in ein Element ein, so erhält man eine systemische Antwort aus allen Ebenen. Ihr Inhalt kann auf Grund der Komplexität des Systems nicht vorhergesagt werden, selbst wenn man sich nur auf die zu verändernde Größe (z. B. gesamthafte CO2 Einsparung) bezieht. Es ist kontraproduktiv, dies zu ignorieren und jedem Element separiert eine mengenmäßige und zeitliche Änderungslast im Umbau des Systems zuzuweisen. Dabei entstehen Schnittstellen, die falsche Anreize, ungeeignete Infrastrukturen und in jedem Fall suboptimale Wirksamkeiten im Hinblick auf die Zielsetzung verursachen.

Insbesondere der regulatorische Rahmen muss dies berücksichtigen und mit möglichst einem einheitlichen Werkzeug das System in die gewünschte Richtung steuern.

Derzeit ist dies in Deutschland und Europa nicht der Fall. Vielmehr gibt es eine Vielzahl von unterschiedlich konstruierten Steuerinstrumenten. Insbesondere das System von Anreizen (für EE zum Beispiel) ist nicht hilfreich, wenn es nicht die ganze Technologiekette erfasst (Netze, Flexibilisierung der fossilen Nutzung).

Vordringlich wichtig ist eine direkte negative Anreizung zum Verzicht auf fossile Träger, die systemweit wirkt. Dafür gibt es zahlreiche Methoden. Das ETS (Emissions Trading System) ist eine bereits existierende Vorlage, die, wenn sie voll funktional gemacht und auf das gesamte System ausgedehnt würde, die Aufgabe erfüllen würde. Wirksam wird ein derartiges System nur, wenn gleichzeitig alle Subventionen im Energiebereich zurückgefahren werden.

Energiesysteme benötigen zwei Arten von Energieträgern

Grundlage der neuen Energiesysteme ist die elektrische Primärenergie aus Wandlern von Sonne und Wind. Diese erneuerbare Energie mit freien Elektronen als Energieträger kann in geringem Umfang durch stoffliche erneuerbare Energie aus Biomasse ergänzt werden. Diese nutzen chemische Bindungen in Molekülen als Energieträger. Damit kann erneuerbare Energie transportiert und gespeichert werden. Durch Verbrennung mit und ohne Flammen wird die Energie freigesetzt.

Einige Energieanwendungen aus Abbildung 1 benötigen zwingend stoffliche Energieträger für die Herstellung von Materialien (als Einsatzstoffe) und für energiedichte Mobilitätsanwendungen (Flugzeuge, Schiffe, Baumaschinen, Busse und Lkw im Fernverkehr). Um die Transportsysteme für elektrische Energie in überschaubaren Größen zu halten, sind weiter Punktanwendungen von Prozesswärme günstig mit stofflichen Energieträgern zu betreiben (Grundstoffe wie Stahl, Glas, Ziegel, Zement; Gas als Träger). Somit kann ein rein elektrisches Energiesystem nicht funktionieren - es wird immer die Dualität der Energieträger geben.

Der Bedarf an stofflichen Energieträgern ist ein erheblicher Teil des Energiesystems und kann nicht ohne Schaden für die Entwicklung des Planeten durch Biomasse alleine aufgebracht werden. Folgt man einem Konzept der systemischen Nachhaltigkeit so sollten die stofflichen Energieträger durch Wandlung (chemische Energiekonversion) aus primärer Elektrizität hergestellt werden. Dann kann ein rein technisches Energiesystem ohne unmittelbare Auswirkung auf die Ökosysteme entstehen. Bei seiner Einrichtung sind Auswirkungen auf den Verbrauch von Mineralstoffen, Wasser und Land zu minimieren und entsprechende Stoffkreisläufe einzurichten.

Der Bedarf an stofflichen Energieträgern erfordert einen Kohlenstoffkreislauf

Die globale Energieversorgung beruht heute auf Transport und Lagerung von fossilen kohlenstoffhaltigen Energieträgern (Kohle, Gas, Öl). Um die Pfadabhängigkeiten des Umbaus des Energiesystems minimal zu halten und die Kosten des Umbaus zu optimieren, sollten diese Infrastruktur und die Folgeprozesse weitgehend weiter genutzt werden. Synthetische Energieträger aus CO2 und grünem Wasserstoff (durch Wasserspaltung) liefern bei Einsatz von ausschließlich erneuerbarer Primär-Elektrizität erneuerbare stoffliche Energieträger, die als Flüssigkeiten (Methanol) oder Gase (Methan) die existierenden Infrastrukturen nutzen können.

Gewinnt man das bei ihrer Nutzung freiwerdende CO2 zurück und transportiert es zu Orten wo die nötigen großen Mengen an Primär-Elektrizität verfügbar sind, so bildet man einen Stoffkreislauf der grundsätzlich nachhaltig ist. Er macht erneuerbare Energie transportier-und lagerbar. Der Einsatz von mineralischen Hilfsstoffen, von Wasser und Landflächen muss noch erheblich optimiert werden, um die Größe dieser Technologie ökologisch und ökonomisch günstig abzubilden. Dieses Konzept, das in Abbildung 2 sehr vereinfacht dargestellt ist, kann als „Pack die Sonne in den Tank“ oder als „flüssige Sonne“ verstanden werden. Es ergänzt die begrenzte Nutzbarkeit von Biomasse, die auf der Erde wichtige andere Funktionen (menschliche Nahrung, Biodiversität und Ökostabilität, Klimastabilität) zu erfüllen hat.

Abbildung 2. "Pack die Sonne in den Tank": Stark vereinfachte Darstellung eines Kohlenstoffkreislaufs in einem nachhaltigen Energiesystem. Der Transport von Wasserstoff zur „solaren Raffinerie“ kann vielfältig entweder direkt oder auch durch Transportstoffe wie organische große Moleküle oder Ammoniak erfolgen (siehe Abbildung 3).

In solch einem System stellen mobile Nutzungen ein „Leck“ an Kohlenstoff dar. Deshalb können synthetische Kraftstoffe (Abbildung 3) zunächst nur mit maximal 50 % CO2-Einspareffekt bilanziell angerechnet werden. Dieses kann beim Umbau des Energiesystems zunächst verkraftet werden, das Leck muss aber vor Abschluss des Umbaus geschlossen werden. Eine Möglichkeit dazu ist die Nutzung von Biomasse als Sammler von CO2, das durch Mineralisation der Biomasse aus dem Kreislauf entfernt wird. Andere anorganische Prozesse der Mineralisation können diese „sub-zero“ Option im Energiesystem unterstützen. Auch die Nutzung von Biomasse als ursprüngliche Quelle von Kohlenstoff kann, wie in Abbildung 2 dargestellt, das Problem der „Leckage“ lösen.

Abbildung 3. Synthetische Kraftstoffe. Alle auf CO2 basierenden Molekülstrukturen und reiner Wasserstoff lassen sich in heutigen Verbrennungsmotoren nach geringfügigen Anpassungen einsetzen. Ammoniak hat eine hohe Energiedichte und kann als Wasserstoffspeicher oder direkt als kohlenstofffreies Medium in Brennstoffzellen - es entstehen N2 und Wasser - eingesetzt werden (Satz von Redn. eingefügt.)

Wählt man eine möglichst energieeffiziente Antriebsart von Fahrzeugen, so kann die Größe des Lecks stark verringert werden. Eine Designstudie zeigt, dass mit heutigen Technologien und einem optimierten PKW Hybridfahrzeug ohne energetisch aufwändige Materialien und mit vergleichsweise kleinen Batterien enorme Einsparungen an Kraftstoff zu erzielen sind. Abbildung 4. Mit einer Kombination von elektrischer Antriebseffizienz und stofflicher Speichereffizienz können die wesentlichen Anforderungen an die Kompatibilität der Mobilität mit einem neuen Energiesystem gut erfüllt werden, und es bedarf keiner Änderung der Infrastruktur jenseits der Bereitstellungs- Ebene der Energieträger (Abbildung 1).

Abbildung 4. Die Kombination von elektrischem Antrieb und vielen Optionen zur Energieversorgung jenseits einer relativ kleinen Batterie für Mittelstreckenfahrten verspricht einen sehr energiegünstigen Antriebsstrang, der „multimodal“ mit Energie versorgt werden kann. Die Indikatoren „lokal“ und „fern“ beziehen sich auf die Quelle der erneuerbaren Energie relativ zum Ort der Nutzung des Fahrzeuges (auf einer globalen Skala).

Grundsätzlich sollte überlegt werden, ob die energetische Nutzung von Biomasse eingeplant wird. Die heute erkennbaren großflächig negativen Folgen der extensiven wie intensiven Nutzung der Biomasse für Ökosysteme und Biodiversität und die Gefahren, die sich daraus für die Stabilität des Lebens auf dem Planeten ergeben, lassen es geraten erscheinen, die gesamte Energieversorgung auf den technischen Kohlenstoffkreislauf, der ohnehin nötig ist, auszurichten und die Biomasse nur für stoffliche Nutzungen zu verwenden.

Eine Nebenfunktion mit allerdings wertvollen Systemdienstleistungen können solche Kreisläufe erfüllen, wenn sie mit lokaler Primärelektrizität als Flexibilisierungsmaßnahme (siehe z. B. https://www.kopernikus-projekte. de/synergie) eingesetzt werden, wenn sie als lokale Energiespeicher eingesetzt werden oder wenn sie auf die Herstellung von Chemikalien (8) fokussiert werden.


[1] Robert Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog. http://scienceblog.at/enrgie-wende-jetzt-ein-prolog


* Dies ist Teil 2 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang des Artikels wurde zwei Abbildungen (Abb. 3 und 4) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Der demnächst erscheinende Teil 3 wird sich mit dem Aufbau der Energiesysteme und dem Einbau von Stoffkreisläufen befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden? https://energiesysteme-zukunft.de/kurz-erklaert-co2-emissionen/

R. Schlögl (2017): Wasserstoff in Ammoniak speichern. https://www.solarify.eu/2017/09/10/254-wasserstoff-in-ammoniak-speichern/


Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter [1].


 

Redaktion Thu, 27.06.2019 - 14:33

Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt

Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt

Do, 20.06.2019 - 08:12 — Martin Wikelski

Martin WikelskiIcon BiologieFast überall auf der Erde geht die Biodiversität zurück, sowohl was die Vielfalt an Arten als auch die Häufigkeit von Organismen betrifft. Um bedrohte Arten effektiver als bisher schützen zu können, wurde 2018 mit der Etablierung des Icarus Systems (International Cooperation for Animal Research Using Space) ein neues Forschungsfeld geschaffen. Icarus ist ein Satelliten-gestütztes Beobachtungssystem , mit dem unterschiedlichste, mit Minisendern ausgerüstete Tierarten fast überall auf der Erde rund um die Uhr verfolgt werden können. So lassen sich erstmals Gefahren frühzeitig erkennen und für das Überleben von Arten wichtige Lebensräume identifizieren. Der Leiter dieser Initiative, Prof. Dr. Martin Wikelski , Direktor am Max-Planck Institut für Verhaltensbiologie (Radolfzell) gibt zu dieser Entwicklung im Folgenden ein Interview.*

Das Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies

  • die Synthetische Biologie,
  • die Ökologische Vernetzung,
  • Permafrostmoore im Klimawandel,
  • die Stickstoffkreislaufwirtschaft und
  • Fehlanpassungen an den Klimawandel.

Anlässlich des "Tages der Erde" am 22. April des Jahres wurden Max-Planck-Forscher, die auf diesen Gebieten arbeiten, zu den im UN-Bericht beschriebenen Entwicklungen interviewt. Nach deren Bewertungen zur Synthetischen Chemie [2, 3] folgt nun das Interview zum Thema "Ökologische Vernetzung: Brücken für mehr Artenvielfalt".

„Wir können Tiere nicht in Schutzgebiete sperren“

Die meisten Schutzgebiete liegen heute wie Inseln in einem Ozean aus menschengemachten Landschaften. Intensiv genutzte Agrarlandschaft und Siedlungen wirken für viele Tiere und Pflanzen wie unüberwindbare Barrieren, die jeglichen Austausch zwischen den Schutzgebieten verhindern. Abbildung 1.

Martin Wikelski vom Max-Planck-Institut für Verhaltensbiologie in Radolfzell hat durch seine Forschung gelernt, dass viele Tiere weite Reisen unternehmen.

Abbildung 1. Wie eine isolierte Insel liegt Natur in der modernen Agrarlandschaft – unerreichbar für viele Tiere. © Mauritius Images

H.R.: Warum reicht es für den Artenschutz nicht, einfach nur genügend Naturschutzgebiete und Nationalparks auszuweisen?

M.W.: Fast alle Tiere bewegen sich fort – die einen mehr, die anderen weniger. Durch unsere Forschung wissen wir, dass sehr viel mehr Tiere auf Wanderschaft gehen, als wir lange Zeit dachten. Vor allem Jungtiere müssen häufig das elterliche Revier verlassen und ziehen weg.

Wir werden das Überleben solcher Arten nicht sichern können, wenn wir sie in Schutzgebieten einsperren.

Deshalb müssen wir auch über dynamische Schutzgebiete nachdenken. Wenn also ein Ort zu einer bestimmten Jahreszeit ein wichtiger Stützpunkt für eine Art ist, sollte dieser für eine begrenzte Zeit geschützt werden. Die übrige Zeit im Jahr kann er dann wieder vom Menschen genutzt werden.

H.R.: Warum müssen Schutzgebiete miteinander verbunden sein?

M.W.: Heute leben viele Tiere und Pflanzen in voneinander isolierten Populationen, das heißt, sie können sich nicht mehr untereinander austauschen. Mit Austausch meine ich Gene, damit die Populationen nicht genetisch verarmen, aber auch Kultur, denn Tiere geben auch Wissen untereinander weiter. Wenn zum Beispiel unterschiedliche Storchenpopulationen nicht mehr zusammenkommen, können sie ihr Wissen über verschiedene Flugrouten in die Überwinterungsgebiete nicht mehr weitergeben.

H.R.: Ist dieses Thema schon im öffentlichen Bewusstsein angekommen?

M.W.: Viel zu wenig – ökologische Vernetzung ist noch immer ein Randthema für Spezialisten. Wir sperren Wildtiere in Schutzgebieten weg und denken, alles ist gut. Im Anthropozän brauchen wir ein völlig neues Verhältnis zwischen Mensch und Tier: Die Beziehung muss enger werden.

Dazu kennen wir die Bedürfnisse der verschiedenen Arten aber noch zu wenig. Mit unserem Icarus-Projekt [4] können wir Tiere auf ihren Reisen begleiten. Abbildung 2. Sie erzählen uns dann förmlich, was sie brauchen. Dieses Wissen können wir dann nutzen, um die richtigen Lebensräume unter Schutz zu stellen.

Abbildung 2. Icarus - eine Revolution in der Verhaltensbiologie. Oben: mit einem Minisender ausgerüstete Tiere, links: Amsel; rechts: Prachtbiene. Die Sender können neben Orts- und Bewegungsdaten auch Informationen über die körperliche Verfassung erheben (z.B: Körpertemperatur, Blutdruck, Puls , Zucker- und Sauerstoffgehalt des Bluts) und mittels Minikameras was ein Tier frisst oder wie viele Junge es hat. Unten: die von den Sendern aufgezeichneten und via Satelliten in Echtzeit versendeten Daten werden in eine frei zugängliche Datenbank - Movebank - eingespeist (https://www.movebank.org/) Der Forscher sitzt unter Umständen tausende von Kilometern entfernt in seinem Forschungslabor und kann sofort mit der Auswertung der Messergebnisse beginnen. (Bilder: MPI f. Ornithology/ MaxCine)

H.R.: Mit welchen Maßnahmen können Lebensräume miteinander verbunden werden?

M.W.: Schutzgebiete können durch Korridore miteinander verbunden, Straßen mittels Wildbrücken überquert werden. Oft braucht es aber gar keine aufwändigen Maßnahmen. Viel wäre zum Beispiel schon gewonnen, wenn wir eine strukturreiche Landschaft erhalten würden, die Tiere durchwandern können, oder wenn wir unsere Gartenzäune für Tiere durchlässig machen würden.

H.R.: Wie steht es denn in Deutschland um die Vernetzung von Schutzgebieten?

M.W.: Ein auch im internationalen Maßstab herausragendes Beispiel ist das Grüne Band. Weite Strecken der ehemaligen innerdeutschen Grenze sind nach der Wende unter Schutz gestellt worden. Diese Flächen sind heute sehr wertvolle Lebensräume und bieten vielen Tieren und Pflanzen die Möglichkeit zur Ausbreitung.

Bei uns in Baden-Württemberg gibt es einen Fachplan „Landesweiter Biotopverbund“. Er soll ökologische Wechselbeziehungen in der Landschaft wiederherstellen und die Ausbreitung von Tieren und Pflanzen ermöglichen. Luchse aus der Eifel wandern entlang dieser Korridore zum Beispiel immer wieder in den Schwarzwald. Wir sind zum Beispiel gerade dabei, einen Luchs ausfindig zu machen, der in der Eifel mit einem Signalsender ausgestattet worden und nun in den Schwarzwald gezogen ist.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves,09:05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Elena Levashina, 16.05.2019: Zum Einsatz genetisch veränderter Moskitos gegen Malaria. http://scienceblog.at/genetisch-ver%C3%A4nderte-moskitos-gegen-malaria

[4] Icarus Erdbeobachtuing mit Tieren. http://www.icarus.mpg.de/de


*Das Interview mit Martin Wikelski ist unter dem Titel „Earth Day 2019: Wir können Tiere nicht in Schutzgebiete sperren“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/13364502/earth-day-2019-wikelski?c=13364284 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Abbildung 2 wurde von der Redaktion aus Bildern der Icarus-Seite zusammengestellt (http://www.icarus.mpg.de/de).


Weiterführende Links

Max-Planck -Institut für Verhaltensbiologie (Radolfzell).
https://www.ab.mpg.de/verhaltensbiologie

Icarus: Erdbeobachtung durch Tiere. http://www.icarus.mpg.de/34708/icarus-mission-wikelski

Max-Planck Gesellschaft; Icarus initiative: Wildlife Observation from Space (2018). Video 6:31 min. https://www.youtube.com/watch?time_continue=3&v=e_KNyhQMjOY

Max-Planck Gesellschaft; Countdown to Icarus (2014). Video 5:17 min. https://www.youtube.com/watch?time_continue=11&v=O4djQDne2RM

ICARUS - Einladung zur Mitarbeit an einem globalen Beobachtungsnetzwerk von kleinen Objekten (Tieren). http://www.icarus.mpg.de/38126/ICARUS_Flyer.pdf

Menschen schränken Tierwanderungen ein. https://www.mpg.de/11892226/mensch-tierwanderungen


 

Redaktion Thu, 20.06.2019 - 07:28

Energie. Wende. Jetzt - Ein Prolog

Energie. Wende. Jetzt - Ein Prolog

Do, 13.06.2019 - 07:06 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftEin beschleunigter Umbau des Energiesystems ist unabdingbar. Da aber alle Elemente der Energieversorgung – Energieträger, Energiewandlung und Energienutzung – mehrfach miteinander verbunden sind, muss das Energiesystem in seiner Gesamtheit betrachtet und die Abhängigkeiten untereinander berücksichtigt werden. Zweifellos ist ein solcher Umbau eine Aufgabe für Generationen, bedarf einer klaren Zieldefinition aber auch eines Bewusstseins für notwendige Veränderungen in Politik, Wirtschaft und Gesellschaft. In einem, nicht nur für Deutschland richtungsweisenden Eckpunktepapier "Energie. Wende. Jetzt" appelliert Robert Schlögl, Direktor am Max-Planck-Institut für Chemische Energiekonversion (Mülheim a.d.R.) für einen beschleunigten Umbau - eine Revolution - des Energiesystems. Im folgenden bringt ScienceBlog den ersten Teil des Artikels, der auf Grund seiner Länge in mehreren Teilen erscheint.*

Der Klimawandel findet schon länger statt, er ist aber jetzt für viele Menschen unmittelbar sichtbar geworden. Dies wird unter anderem durch das Ausmaß der Temperatur-Anomalie in Mitteleuropa erkennbar. Abbildung 1.

Abbildung 1. Bodentemperaturverteilung in der Welt und in Europa Anfang 2019. Die Karten geben lediglich Momentaufnahmen wieder. Sie beschreiben das „Wetter“ und nicht das Klima. Sie belegen aber klar, wie weit die Erderwärmung (am Boden) bereits zugenommen hat. Man erkennt weiter die großen Unterschiede und den daraus resultierenden „kleinen“ globalen Mittelwert.

Für Deutschland (und ebenso für Österreich; Anm. Redn.) ist derzeit die „2 Grad Grenze“ bereits überschritten, die Welt hat einen Wert von 1,1 Grad erreicht. Damit wird eine drastische Anstrengung für die wirksame Defossilisierung des Energiesystems jetzt notwendig.

Es fehlen Eckwerte für ein neues Energiesystem

Den Akteuren fehlt eine Verständigung über die Eckwerte für ein neues Energiesystem. Eine wesentliche Konsequenz daraus ist, dass sich der Zubau von unabdingbar nötigen Wandlern für Erneuerbare Energie in Europa verlangsamt. Dies kann sehr gut aus Abbildung 2 abgelesen werden. Für Deutschland wird klar, dass der Kohleausstieg in der Tat vordringlich ist. Die Widersprüche, die mit der Festlegung von Eckwerten einhergehen, erkennt man weiter daraus, dass der Ausstieg aus der Kernenergie rein aus der Sicht einer schnellstmöglichen CO2-Reduktion nicht nachvollziehbar ist.

Abbildung 2. Vergleiche der Primärenergiestruktur von EU (28) und Deutschland und Zeitreihen der Nutzung von Energiequellen für die Stromerzeugung für EU (28) und Deutschland. Quelle: https://data.europa.eu/euodp/data/dataset/information-on-energy-markets-in-eu-countries-with-national-energy-profiles/resource/fbb4045a-0552-4bb1-b88c-b9e3d465718c

Weiterhin erkennt man den immer noch geringen Anteil der Erneuerbaren Energien im Gesamtsystem der Energieversorgung. Der dringende Handlungsbedarf wird noch deutlicher, wenn man bedenkt, dass der Anteil von Wasserkraft und Biomasse an diesen „Erneuerbaren“ wesentlich größer ist als derjenige von Wind- und Sonnenenergie, welche die wesentlichen skalierbaren Quellen erneuerbarer Energie sind. Vergleicht man dies mit den Erfordernissen für die Stabilisierung des Weltklimas (1), welche ein exponentielles Wachstum der Erneuerbaren dringend einfordern, so wird klar, dass hier unmittelbar und tiefgreifend gehandelt werden muss.

Unsicherheiten und regulatorische Fragmentierung

in Deutschland und Europa sind mit als Ursachen für den völlig unzureichenden zeitlichen Verlauf des Energiesystem-Umbaus anzusehen. Im europäischen Kontext wirkt es sich stark negativ aus, dass Deutschland eine retardierende Gesamthaltung einnimmt und nicht als Vorreiter fungiert.

Die Energiepolitik in Deutschland wird vor allem durch Regierungshandeln ohne intensivere Beteiligung des Parlaments bestimmt. Es formieren sich „Bewegungen“, die schnelle Aktionen fordern. Diese sind eine Mischung aus eindeutig notwendigen Aktionen und kaum erfüllbaren „Sofortmaßnahmen“, die nicht nötig wären, wenn der Umbau der Energieversorgung systemisch und mit wirklichem Nachdruck angegangen würde. Wenig wird darauf geachtet, dass der Umbau des Energiesystems eine Aufgabe für Generationen ist, die sich über zahlreiche Legislaturperioden hinzieht und daher einen stabilen Beteiligungsrahmen der Gesellschaft erfordert. Die Gesellschaft ist schließlich Nutzerin dieses Systems und sie finanziert den gesamten Aufwand.

Mit dem Entwurf des Klimaschutzgesetzes setzt die Regierung eine Vorgabe der EU um, die von allen Mitgliedsländern bis 2020 eine gesetzliche Grundlage der Einsparungen von Treibhausgasen verlangt. Der Gesetzentwurf geht davon aus, eine Unterteilung des regulatorischen Rahmens voranzutreiben um in zuständigen Bundesministerien „Verantwortliche“ benennen und belangen zu können. Damit übernimmt der Staat (Bund, Länder) die Aufgabe der Organisation des Energiesystem-Umbaus.

Dieser Ansatz steht im Widerspruch zu unserem politischen System. Danach kommt dem Staat vor allem die Organisation der Willensbildung des Volkes und die Ermöglichung der Umsetzung durch einen verlässlichen regulatorischen Rahmen zu. Die technisch-wirtschaftliche Realisation obliegt der Industrie und den Bürgern/Kunden. Der Staat wiederum hat die Einhaltung des regulatorischen Rahmens zu kontrollieren und ggf. auch zu erzwingen.

In der jetzigen Konzeption tritt der Staat als Akteur und Kontrolleur gleichzeitig auf. Es ist zu erwarten, dass sich bei der Durchführung erhebliche Widerstände einstellen, welche die Umsetzung der gewünschten Ziele behindern. Weiter ist nach den bisherigen Erfahrungen mit Eingriffen des Staates in das Energiesystem zu erwarten, dass die resultierenden komplexen Regelwerke systemisch unerwünschte Effekte hervorbringen und Schlupflöcher zur Vermeidung missliebiger Aktionen verbleiben.

Elemente eines prototypischen heutigen Energiesystems

Das vorliegende Papier wirbt für eine andere Aufteilung der Aufgaben und Verantwortlichkeiten beim Umbau des Energiesystems, um damit in breiter Übereinstimmung mit den Akteuren schneller zum Ziel zu gelangen. Es stellt sich hier bereits die Frage, was das Ziel einer Energiewende sein soll. Weiterhin ist der Rahmen zu definieren, in dem ein Umbau der Energieversorgung durchgeführt wird. Dies betrifft sowohl den geographischen Raum als auch den Anwendungsraum von Energie. Hier herrscht traditionell eine Fragmentierung in Sektoren vor. Abbildung 3 zeigt sehr vereinfacht die Elemente eines prototypischen heutigen Energiesystems.

Abbildung 3. Generische Elemente eines Energiesystems heute. Man erkennt von unten nach oben die Ebenen der Energieträger, der Grundanwendungen und der differenzierten Anwendungen (Sektoren).

Derzeit versucht die Politik jedes Element und jede Relation einzeln regulatorisch differenziert zu behandeln. Sie erhofft sich dadurch optimale Regelungen und Anpassungsfähigkeiten für Ausnahmen. Die Folge ist allerdings ein komplexes und widersprüchliches Regulatorium, das andauernde Ergänzungen und Verbesserungen erfordert. Die resultierenden Unsicherheiten wiederum führen zu einer abwartenden Haltung der ausführenden Akteure (Märkte und Firmen) mit der Folge, dass sich zahlreiche Hemmnisse in der schnellen Umsetzung ergeben.

Ein systemischer Ansatz ist nötig

Im Versuch, die Hemmnisse durch Anpassungen zu beseitigen ergeben sich mit der Zeit derartige Komplexitäten, dass der unbedingt nötige systemische Ansatz (z. B. bei Betrachtungen zu Einspareffekten oder Effizienzen) verloren geht. Gleichzeitig geht die Übersicht der Bürger über das Thema Energiewende verloren. Dies wiederum ermöglicht es interessierten Gruppierungen, ideologische Argumente in die Diskussion einzuweben. Vor allem mit dem Mittel des Szenarios und seiner Auslegung lassen sich Positionen so untermauern, dass punktuelle Ziele sinnvoll erscheinen, auch wenn sie systemisch schädlich sind.

Ein aktuelles Beispiel dafür ist die Diskussion um die e-Mobilität. Abbildung 4.

Abbildung 4. Energieaufwand für einen Pkw mit unterschiedlichen Antriebssträngen. Blau: Effizienz im Fahrzeug, rot: Effizienz im europäischen Energiesystem. (Nach Lombardi L., et al., Int J Life Cycle Assessment. 2017;22(12):1989-2006.)

So richtig es ist, dass sie lokale regulierte Emissionen beseitigt und so sehr sie eine Prozesseffizienz bietet, so wenig wird sie in den kommenden Jahrzehnten zur Einsparung von Treibhausgasen beitragen und vielmehr die Aufgabe erschweren, das Stromsystem zu defossilisieren. Zudem erzeugt sie durch die Notwendigkeit erheblicher zusätzlicher Netzausbauleistungen Pfadabhängigkeiten, die sich schwer korrigieren lassen und erhebliche finanzielle Ressourcen binden, die man effizienter zur Defossilisierung des gesamten Systems einsetzen kann.


1. Rockstrom J., Gaffney O., Rogelj J., Meinshausen M., Nakicenovic N., Schellnhuber HJ. CLIMATE POLICY A roadmap for rapid decarbonization. Science. 2017;355(6331):1269-71


* Dies ist Teil 1 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt ; bis auf wenige Überschriften erscheint der Text unverändert.

 


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden? https://energiesysteme-zukunft.de/kurz-erklaert-co2-emissionen/


Artikel zum Thema Energie/Energiewende im ScienceBlog:

Artikel von Gerhard Glatzel:

Artikel des IIASA

Andere Autoren


 

Redaktion Thu, 13.06.2019 - 06:24

Ist Migration eine demographische Notwendigkeit für Europa?

Ist Migration eine demographische Notwendigkeit für Europa?

Do, 06.06.2019 — IIASA

IIASAIcon Politik & GesellschaftIm Jahr 2060 wird ein Drittel der Bevölkerung in der EU mindestens 65 Jahre alt sein. Ein gemeinsam von der Europäischen Kommission und dem International Institute of Applied Systems Analysis (IIASA) herausgegebener exemplarischer Bericht [1] zeigt, dass ein derartiger Anstieg unvermeidlich ist, auch unter Berücksichtigung von höherer Fertilität oder Migration. Allerdings sind eine Steigerung der Erwerbsbeteiligung (insbesondere von Frauen) und eine verbesserte Ausbildung sowohl von Einheimischen als auch von Migranten in der Lage die mit der Alterung verbundenen Probleme lösen. Der Report wurde in einer Auftaktveranstaltung am 4. Juni 2019 in Brüssel vorgestellt [2].*

Um Entscheidungen über unsere Zukunft zu treffen, ist es wesentlich zu wissen wie viele Menschen dann leben werden und wo sie leben und arbeiten werden.

Entscheidungsträger gehen häufig davon aus, dass entweder eine höhere Geburtenrate oder eine verstärkte Migration in der Lage sein werden, Lösungen für die demografischen Herausforderungen der EU zu erbringen. „Eine zunehmend älter werdende Zusammensetzung der Bevölkerung ist zwar unvermeidlich, dies muss aber kein gravierendes Problem sein, wenn die Menschen in Zukunft eine bessere Ausbildung erhalten und sich mehr am Erwerbsleben beteiligen als heute“, sagt Wolfgang Lutz, Direktor des IIASA-Weltbevölkerungsprogramms und leitender Wissenschaftler des Kompetenzzentrums für Bevölkerung und Migration (CEPAM).

Das CEPAM wurde von der Europäischen Kommission und dem IIASA als Antwort auf die Migrationsströme des Jahres 2015 gegründet, welche mit ihren dramatischen Szenen weltweit Aufmerksamkeit erregten. Wenn damals auch aus aktuellem Anlass entstanden, so sollte die Aufgabe des CEPAM darin bestehen, den Fokus auf ausgedehntere Zeiträume zu legen und Analysen zu den allmählichen, aber langfristig resultierenden demografischen Veränderungen innerhalb der EU und in der ganzen Welt zu erstellen.

Bevölkerungsentwicklung,…

Wie CEPAM-Untersuchungen nun ergeben haben, sind selbst Szenarien mit einem unrealistisch hohen Anstieg der Geburtenrate (+ 50%) oder einer doppelt so hohen Einwanderungsrate (ca. 20 Millionen Menschen in jeweils 5 Jahren) nicht in der Lage, die Altersstruktur der europäischen Bevölkerung grundlegend zu verändern. Abbildung 1.

Abbildung 1. Der Anteil der 65+ Bevölkerung in der EU wird 2060 auf rund 32 % ansteigen (links) und selbst eine Verdopplung der Migration oder eine stark steigende Geburtenrate werden darauf nur wenig Einfluss haben (rechts). Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

„Ungeachtet der deutlichen Dynamik in Richtung einer älter werdenden Bevölkerung, ist es wichtig, dass man auch die im Mittel steigende Zahl von Lebensjahren in Aktivität und Gesundheit berücksichtigt, die höhere Produktivität und den möglichen Verlust von Arbeitsplätzen aufgrund des technologischen Fortschritts - all dies hat tiefgreifende Auswirkungen auf das künftige Potential an Arbeitskräften. ” erklärt Lutz.

Solche Veränderungen stellen den konventionellen Ansatz in Frage, der nur die Altersstruktur der Bevölkerung in Betracht zieht.

Modellierungen unterschiedlicher Szenarien…

Mit Hilfe modernster demografischer Modelle konnte CEPAM unterschiedliche Szenarien hinsichtlich des Ausmaßes von Migration und des Bildungsniveaus der Migranten durchspielen, basierend auf kanadischen, japanischen und anderen Ansätzen. Einer der wesentlichsten, aus dieser Untersuchung resultierenden Zusammenhänge, zeigt, dass Migration die Gesamtbevölkerung zwar erheblich vergrößern kann, aber - wie im Falle der Altersstruktur - einen viel geringeren Einfluss auf das Verhältnis von Nichtarbeitenden zu Arbeitnehmern hat.

Dagegen kann eine in der EU erwartete, wachsende Erwerbsbeteiligung von Frauen den potenziellen Anstieg von sozial Abhängigen ausgleichen. Abbildung 2.

Abbildung 2. Mit der Zunahme der älteren Bevölkerung muss ein kleiner werdender, aber besser ausgebildeter Anteil Beschäftigter die Nicht-Erwerbstätigen erhalten. Eine gesteigerte Erwerbsbeteiligung von Frauen (wie bereits heute in Schweden) kann die Relation sozial Abhängiger zu Arbeitenden verbessern. Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

…und Migration innerhalb Europas

Der neue Bericht befasst sich auch mit der Bevölkerungsdynamik innerhalb der EU, einschließlich der Abwanderung in den Westen. In einigen südlichen und östlichen Mitgliedstaaten war bereits ein deutlicher Bevölkerungsrückgang zu verzeichnen. Wenn sich dieser Trend fortsetzt, schrumpfen dort die Bevölkerungszahlen bis 2060 um mindestens 30%. Abbildung 3.

Derartige Veränderungen lassen Bedenken aufkommen, dass aus solchen Ländern Fachkräfte abwandern, dass Begabungen verloren gehen.

Dies gilt nicht nur in der EU, sondern ist in vielen Ländern der Welt von Bedeutung.

Abbildung 3. Bevölkerungswandel, wenn die interne EU-Bewegung gestoppt wird oder weitergeht (2015-2060). Beispiele: Vereinigtes Königreich, Österreich, Deutschland, Litauen, Lettland und Rumänien. Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

Die globale Perspektive

Global betrachtet zeigt der Bericht, wie stark die Zukunft des Bevölkerungswachstums davon abhängt, wie es mit der Bildung in Afrika - der mit Abstand am schnellsten wachsenden Region der Welt - weitergeht. Bildung ist eine wichtige Voraussetzung, um Frauen in die Lage zu versetzen, dass sie bewusste Entscheidungen über ihre Geburtenhäufigkeit treffen.

Die Geburtenraten in Afrika gehen langsam zurück, bleiben aber im Vergleich zu allen anderen Kontinenten sehr hoch (durchschnittlich 4,7 Kinder pro Frau). Wenn die Trends in der Bildung in gleicher Weise wie in den letzten Jahren weitergehen, wird im Jahr 2060 die Weltbevölkerung 9,6 Milliarden Menschen erreichen. Wenn die Bildung aber stehen bleibt, gefolgt von einem ähnlich verzögerten Rückgang der Geburtenrate, könnte die Weltbevölkerung dann auf rund 11 Milliarden anwachsen. Je nachdem wie rasch das Bevölkerungswachstum erfolgt, kann es den Ausbau von Infrastruktur überflügeln und zu einem Afrika führen, in dem die Bevölkerung schlechter ausgebildet ist als heute. Abbildung 4.

Abbildung 4. Szenarien der Bevölkerungsentwicklung 2015 - 2060 in Afrika: a) rasche, weitreichende Bildung für aller Mädchen, b) bisherige Bildungstrends setzen sich fort, c) Bildung "bleibt stehen". Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

"Die Hoffnung besteht, dass Afrika einen sich selbst verstärkenden Kreislauf mit niedrigerer Sterblichkeit, geringerer Fruchtbarkeit und - durch Bildung bedingt - stärkerer Entwicklung einschlägt", fügt Lutz hinzu. "Dies ist genau das Rezept, das wir brauchen, wenn wir Nachhaltigkeit und internationale Entwicklung ernst nehmen."

Fazit

Mit diesem Bericht wurde versucht, die Migrationspolitik von kurzfristigen Überlegungen wegzuleiten, um langfristig ein realistisches und wissenschaftlich fundiertes Planen zu erreichen.
Migrationspolitik und verwandte Gebiete erfordern demografische Grundlagen und kompetentes Handeln. Zu diesem Zweck schließt der Bericht mit der Identifizierung bestehender blinder Flecken, die sich durch eine Verbesserung der demografischen Daten und der Forschungskapazität auf europäischer Ebene minimieren lassen. Insbesondere sollte der Fokus auf multidimensionalen Analysen liegen und Afrika und andere Nachbarregionen, stärker berücksichtigt werden.


[1] Lutz W, et al. (2019): "Demographic Scenarios for the EU - Migration, Population and Education" Report, http://pure.iiasa.ac.at/id/eprint/15942/

[2]  Demographic Scenarios for the EU - Migration, Population and Education. (Video) https://webcast.ec.europa.eu/demographic-scenarios-for-the-eu-migration-population-and-education.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 4.Juni 2019 auf der IIASA Webseite unter dem Titel: " Is there a demographic need for migration in Europe?" erschienen ( (http://www.iiasa.ac.at/web/home/about/news/190604-demography-and-migration.html). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen aus dem zugrundeliegenden Report [1] ergänzt.


Weiterführende Links

Artikel im ScienceBlog


 

Redaktion Thu, 06.06.2019 - 06:47

Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme

Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme

Do, 30.05.2019 - 16:26 — Francis S. Collins

Francis S. CollinsIcon MedizinIn den letzten Jahren sind hoch-prozessierte Lebensmittel/ Fertiggerichte immer populärer geworden und gleichzeitig ist die Zahl der Übergewichtigen stark gestiegen. Dass ein Zusammenhang zwischen diesen Essvorlieben und Übergewicht bestehen könnte, wurde schon lange vermutet. Diese Annahme fand nun in einem kontrollierten randomisierten klinischen Versuch erste Bestätigung - allerdings an einer nur kleinen Probandenzahl [1]. Francis Collins, Direktor der US National Institutes of Health (NIH), berichtet über diese Studie, in der prozessierte Nahrung offensichtlich zu vermehrter Kalorienzufuhr anregte und damit zur Gewichtszunahme führte.*

Hat man jemals versucht ein paar Kilo abzunehmen oder einfach nur ein einigermaßen "gesundes" Gewicht zu halten, so ist man wahrscheinlich auf ein verwirrendes Angebot an Diäten gestoßen, wobei jede dieser Diäten begeisterte Anhänger hat; es sind Diäten, die kohlenhydratarm, fettarm sind, Keto-, paläo-, vegane-, mediterrane Diäten und so fort. In einem sind sich die meisten Ernährungsexperten allerdings einig: am besten ist es, wenn man sich von stark-verarbeiteten Lebensmitteln fern hält. Nun gibt es einige solide wissenschaftliche Hinweise, die diese Empfehlung stützen.

Prozessierte versus nicht-prozessierte Nahrung

Eine erste von NIH-Forschern ausgeführte, randomisierte, kontrollierte Studie hat die Auswirkungen von stark prozessierten Lebensmitteln mit denen von unverarbeiteten Lebensmitteln verglichen. Dabei stellten die Forscher fest, dass gesunde Erwachsene etwa ein Pfund pro Woche zunahmen, wenn sie eine tägliche Diät zu sich nahmen, die reich an stark verarbeiteten Lebensmitteln war. Solche Nahrungsmittel enthalten häufig Zusätze wie beispielsweise hydrierte Fette, Maissirup mit hohem Fruktosegehalt, Aromastoffe, Emulgatoren und Konservierungsmittel. Wenn diese Personen aber unverarbeitete Vollwertkost aßen, verloren sie an Gewicht.

Interessanterweise traten die Gewichtsunterschiede zwischen den beiden Diäten auf, auch wenn beide Arten von Lebensmitteln unter ernährungsphysiologischen Gesichtspunkten sorgfältig abgeglichen worden waren, einschließlich Kalorienzahl, Gehalt an Ballaststoffen, Fetten, Zucker und Salz. Ein Frühstück aus der stark prozessierten Gruppe von Nahrungsmitteln konnte so zum Beispiel aus einem Bagel mit Frischkäse und Putenschinken bestehen, während bei den nicht verarbeiteten Nahrungsmitteln Haferflocken mit Bananen, Walnüssen und Magermilch angeboten wurden. Abbildung 1.

Abbildung 1. Von hoch- prozessierten Lebensmitteln wird mehr gegessen als von nicht- prozessierten - als Folge steigt das Körpergewicht bereits nach kurzer Zeit an (Bild: Credit: Hall et al., Cell Metabolism, 2019; von Redn. deutsch beschriftet)

Warum derartige Unterschiede zwischen den beiden Diäten auftraten, kann offensichtlich damit erklärt werden, dass es den Studienteilnehmern freigestellt war so wenig oder so viel zu den Mahlzeiten zu essen, wie sie wollten, und auch zwischendurch einen Snack zu sich zu nehmen. Dabei stellte sich heraus, dass die Leute von den stark verarbeiteten Mahlzeiten signifikant mehr aßen - durchschnittlich etwa 500 zusätzliche Kalorien pro Tag - als von den unverarbeiteten Gerichten. Und wie man ja weiß: Ein Mehr an Kalorien ohne ein Mehr an Bewegung führt in der Regel zu einer Gewichtszunahme!

Dies mag uns ja nicht neu zu erscheinen. Immerhin versucht man in den USA schon seit einiger Zeit einen Zusammenhang zwischen dem Boomen der Fertiggerichte und der Zunahme des Körperumfangs herzustellen. Aber so plausibel es auch scheinen mag, dass solche Lebensmittel zu übermäßigem Essen anregen können, vielleicht aufgrund ihres hohen Salz-, Zucker- und Fettgehalts, so bedeutet Korrelation keineswegs Ursache, und kontrollierte Studien darüber, was Menschen tatsächlich essen, sind schwierig durchzuführen. Infolgedessen gab es bis jetzt keine definitive Evidenz, die stark prozessierte Lebensmittel direkt mit Gewichtszunahme verknüpfen konnte.

Die Studie

Dieser mögliche Zusammenhang wurde nun untersucht und die Ergebnisse im Fachjournal Cell Metabolism berichtet [1]. Es war dies eine Zusammenarbeit von NIH-Forschern am National Institute of Diabetes and Digestive and Kidney Diseases mit denen an der Metabolic Clinical Research Unit in Bethesda, MD, die speziell für die Untersuchung von Fragen im Zusammenhang mit Ernährung und Stoffwechsel ausgestattet sind.

Die Forscher rekrutierten 20 gesunde Männer und Frauen mit stabilem Gewicht, die dann 28 Tage im Labor lebten. Nach dem Zufallsprinzip erhielt jeder der Freiwilligen über zwei aufeinanderfolgende Wochen entweder eine stark-prozessierte Diät oder eine nicht-prozessierte Diät. Nach den zwei Wochen wurde dann für weitere zwei Wochen auf die jeweils andere Diät umgestellt.

Beide Diäten bestanden täglich aus drei Mahlzeiten, wobei die Versuchspersonen so viel essen durften, wie sie wollten. Ein wichtiger Punkt war dabei, dass ein Team von Diätassistenten die stark verarbeiteten und die unverarbeiteten Mahlzeiten sorgfältig so entworfen hatte, dass sie in Bezug auf Gesamtkalorien, Kaloriendichte, Makronährstoffen, Ballaststoffen, Zucker und Salz gut vergleichbar waren.

Zum Mittagessen bestand beispielsweise eine der verarbeiteten Mahlzeiten der Studie aus mit Käse gefüllten Tortillas (Quesadillas), Bohnenpürree und Diätlimonade. Ein unverarbeitetes Mittagessen bestand aus einem Spinatsalat mit Hähnchenbrust, Apfelscheiben, Bulgur und Sonnenblumenkernen mit Trauben als Beilage.

Der wesentliche Unterschied zwischen beiden Diäten war der Anteil der Kalorien, die aus hoch-verarbeiteten versus unverarbeiteten Lebensmitteln stammte, entsprechend der Definition im NOVA-Diätklassifizierungssystem. Es ist dies ein System, das Lebensmittel mehr nach Art, Ausmaß und Zweck der Lebensmittelverarbeitung einteilt als nach ihrem Nährstoffgehalt.

Die Forscher bestimmten nun wöchentlich Energieverbrauch, Gewicht und die Veränderungen der Körperzusammensetzung aller Versuchspersonen. Nach zwei Wochen hatten die Personen mit der stark prozessierten Diät durchschnittlich etwa zwei Pfund zugenommen. Im Vergleich dazu wiesen Diejenigen, die nicht-prozessierte Diät gegessen hatten, einen Gewichtsverlust von ungefähr zwei Pfund auf.

Stoffwechseltests ergaben, dass die Probanden für die stark verarbeitete Diät zwar mehr Energie aufwendeten, diese allerdings nicht ausreichte, um den erhöhten Kalorienverzehr zu kompensieren. Infolgedessen nahmen die Teilnehmer Pfunde und Körperfett zu. Die Studie weist einige Einschränkungen auf, z. B. geringfügige Unterschiede im Proteingehalt der beiden Diäten. und die Forscher planen, solche Probleme in ihrer zukünftigen Arbeit anzugehen.

Während der relativ kurzen Versuchsdauer beobachteten die Forscher keine verdächtigen Anzeichen, die mit einer schlechten Stoffwechsellage einhergehen, wie beispielsweise einen Anstieg des Blutzuckerspiegels oder des Leberfetts. 

Ein paar Pfund mehr klingt vielleicht nach nicht viel, im Laufe der Zeit summieren sich aber die mit einer hoch-prozessierten Diät verbundenen zusätzlichen Kalorien und die Gewichtszunahme.

Fazit

Ein guter Ansatzpunkt, um ein gesundes Gewicht zu erreichen oder aufrechtzuerhalten, ist also, den Rat zu befolgen, den alle ansonsten widersprüchlichen Ernährungspläne teilen: Bemühen Sie sich, um hoch-verarbeitete Lebensmittel in Ihrer Ernährung zu eliminieren oder zumindest zu reduzieren, und zwar zugunsten einer ausgewogenen Vielfalt von unverarbeiteten, nährstoffreichen Lebensmitteln.

[1] Ultra-processed diets cause excess calorie intake and weight gain: An inpatient randomized controlled trial of ad libitum food intake . Hall KD et al. Cell Metab. 2019 May 16.


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 21. Mai 2019) im NIH Director’s Blog und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links


 

Redaktion Thu, 30.05.2019 - 12:36

Wie wird Korruption in Europa wahrgenommen?

Wie wird Korruption in Europa wahrgenommen?

Do, 23.05.2019 - 11:41 — Redaktion

RedaktionIcon Politik & GesellschaftEin politisches Erdbeben erschüttert unser Land - ausgelöst durch ein vor zwei Jahren in Ibiza heimlich aufgenommenes Video, das den damaligen Chef der FPÖ und späteren Vizekanzler zeigt, wie er einer vermeintlichen russischen Investorin im Gegenzug für großzügige Unterstützung des Wahlkampfs lukrative Staatsaufträge zusagt. Ein verstörender Ausnahmefall? Die letzte Umfrage unter den EU-Bürgern - das Eurobarometer 470 [1] - zeigt ein bestürzendes Bild: Im EU-28 Durchschnitt glauben mehr als zwei Drittel der Befragten, in Österreich immerhin die Hälfte, dass in ihrem Land Korruption verbreitet ist – und politische Parteien führen das negative Ranking an.

Ist Korruption - darunter fallen beispielsweise Bestechung, Vorteilsannahme, Amtsmissbrauch, Klientelismus und Vetternwirtschaft etc. - überhaupt Gegenstand für einen naturwissenschaftlichen Blog?

Für die bei Tier und Mensch beobachteten Formen von Kooperation bis hin zum Altruismus ist dies zweifellos der Fall und der Mathematiker Karl Sigmund hat diese Phänomene mit Hilfe der Spieltheorie bereits in mehreren Blogartikeln beschrieben [2 - 4]. Das Motto für Kooperation ‚Ich kratz’ dir den Rücken, und du kratzt dafür meinen’ oder ‚Ich kratz’ dir den Rücken, damit jemand anderer meinen Rücken kratzt’ - d.i. man gibt, um sich selbst einen Vorteil zu verschaffen -, kann aber ebenso Ausgangspunkt von Korruption sein. Auch hier können mit Hilfe der Spieltheorie die Vorgänge analysiert und Strategien zu ihrer Prävention geprüft werden (dazu Artikel eines Teams um Karl Sigmund [5]).

Über derartige Modelle soll im folgenden Artikel allerdings nicht berichtet werden. Vielmehr sollen erst einmal einige grundlegende Informationen zur Korruption in der Europäischen Union aufgezeigt werden: nämlich wie die EU-Bürger  in ihren jeweiligen Ländern das Ausmaß der Korruption  einschätzen, welche Bevölkerungsgruppen sie darin hauptsächlich involviert sehen und welche Konsequenzen sie befürchten. Die hier gezeigten Daten stammen aus der letzten, von der Europäischen Kommission in Auftrag gegebenen Umfrage über Korruption, dem Spezial Eurobarometer 470 [1].

Eine Umfrage zur Korruption: Spezial Eurobarometer 470

Seit 2007 war dies bereits die sechste repräsentative Umfrage, welche die EU-Kommission in Auftrag gegeben hat, um die Meinungen der EU-Bürger zum Thema Korruption zu erheben. Diese Umfrage erfolgte in den 28 Mitgliedstaaten vom 21. bis 30. Oktober 2017. (Dies war knapp nach der österreichischen Nationalratswahl am 15. Oktober 2017, deren schmutziger Wahlkampf die Meinungen aus Österreich durchaus beinflusst haben könnte). An der Umfrage nahmen insgesamt 28 080 Personen im Alter ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland - teil, die persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt wurden.

Die Vorgangsweise entsprach dabei den für derartige Umfragen geltenden Standardbedingungen (Directorate-General for Communication ).

Die Teilnehmer wurden u.a. gefragt

  • wieweit für sie Bestechung (mit Geld, Geschenken oder Gefälligkeiten) akzeptabel wäre, um Leistungen der öffentlichen Verwaltung/der öffentlichen Hand zu erhalten
  • wie sie das Ausmaß der Korruption in ihrem jeweiligen Land und die darin involvierten Bevölkerungskreise einschätzten,
  • wie sich die beobachtete Korruption in den letzten drei Jahren verändert hätte,
  • welche Bereiche der Gesellschaft die größten Probleme mit Korruption haben,
  • wie effizient Regierung, Justiz und Institutionen in der Korruptionsbekämpfung vorgehen.

Dazu gab es dann auch noch Fragen zu persönlichen Erfahrungen mit Korruption; d.i. ob man persönlich von Korruption betroffen (gewesen) wäre, man jemanden kenne, der Bestechungen gemacht/entgegen genommen hätte, ob man derartige Fälle gemeldet hätte (oder warum nicht) und welchen Stellen und wieweit diese vertrauenswürdig erschienen.

Die Ergebnisse

Zur Akzeptanz von Bestechung

Bestechung mit Geschenken, Gefälligkeiten oder zusätzlichem Geld, um im Gegenzug Leistungen der öffentlichen Verwaltung oder des öffentlichem Diensts zu erhalten, wird vom überwiegenden Teil der EU-Bürger ( im EU-28 Durchschnitt 70 % der Befragten) als inakzeptabel abgelehnt. Hier gibt es allerdings einen massiven Nordwest - Ost Trend mit Ungarn und Lettland am bereitwilligsten Bestechung zu praktizieren. Abbildung 1.

Abbildung 1. Anteile [%] der befragten Bevölkerung, die Bestechung (mit Geschenken, Gefälligkeiten oder Geld) als völlig inakzeptabel ansehen. (Quelle: QB4T, p 14 [1])

In Österreich liegt die Akzeptanz der Bestechung höher als im EU28-Schnitt: rund 28 % der Befragten würden sich zumindest manchmal mit einem Geschenk "revanchieren", 26 % mit einer Gefälligkeit und 18 % mit einem Geldbetrag.

Wie verbreitet ist Korruption in Ihrem Land?

Dieser Frage ging eine ausführliche Erklärung voraus, was alles unter Korruption zu verstehen wäre; es sollte dann auf Basis eigener Erfahrungen geantwortet werden.

Das Positive: insgesamt betrachtet ist die Korruption seit der letzten Befragung im Jahr 2013 in nahezu allen Ländern (zum Teil massiv) zurückgegangen. Dennoch bieten die Antworten noch immer ein bestürzendes Bild: Im EU28-Schnitt meinten mehr als zwei Drittel (68 %), dass Korruption in ihrem Land weit verbreitet sei (26 % sehr weit, 42 % weit verbreitet). Abbildung 2.

Als korrupteste Länder stellen sich dabei Griechenland , Spanien , Zypern, Kroatien, Litauen und Portugal dar . mehr als 90 % der Bevölkerung sind überzeugt in einm korrupten Land zu leben. Für am wenigsten korrupt halten sich die skandinavischen Länder, Holland und Luxembourg. In Österreich und Deutschland ist rund die Hälfte der Befragten der Ansicht, dass Korruption in ihrem Land weit verbreitet ist. 2013 lagen die Angaben in Österreich noch um 16 %, in Deutschland um 8 % höher.

Abbildung 2. Frage: Wie verbreitet ist Korruption in Ihrem Land ? (Quelle: QB5, p 17.[1]).

 

Ein wichtiges Detail: Diejenigen, die Korruption bereits selbst erfahren haben oder jemanden kennen, der besticht oder bestechlich ist, haben offensichtlich das Vertrauen in ihre Mitmenschen eingebüßt; sie tendieren dazu Korruption als weiter verbreitet zu betrachten als andere, unbeeinflusste Mitbürger  und Korruption eher zu akzeptieren als abzulehnen.

In welchen Gruppen der Gesellschaft Ihres Landes ist Korruption weit verbreitet?

Hier wurde den Bürgern eine Liste mit Behörden, Institutionen, öffentlichen und privaten Dienstleistern vorgelegt und gefragt, in welchen dieser Gruppen Bestechung und Machmissbrauch zum Zweck persönlicher Bereicherung wohl gängige Praktiken sind. Dabei konnten jeweils mehrere Gruppen angeführt werden.

Die Antworten zeigen ein deprimierendes Bild (Abbildung 3):

Das negative Ranking führen im EU28-Schnitt die politischen Parteien und Politiker auf Bundes-, Regional-und Kommunalebenen an (56 % resp. 53 % der Votings). Für am meisten korrupt werden Parteien und Politiker in Spanien (80 % und 74 %) und Frankreich (76 % und 68 %) gehalten, für am wenigsten korrupt in Schweden und Finnland; aber auch dort teilen noch rund 40 % der Befragten die negative Meinung über Politik und Politiker. Auch in Österreich werden Parteien und Politiker am Negativsten gesehen.

Auch das weitere Ranking weist auf eklatante Missstände hin: Um die 40 % der Bürger EU-weit aber auch in Österreich halten Beamte, die öffentliche Aufträge vergeben, die Baugenehmigungen vergeben, für korrupt. Erhebliche Bestechung und Machtmissbrauch wird auch den Kontrolleuren in diversen Bereichen der Arbeitswelt und der Gesundheit und natürlich auch der Privatindustrie zugeschrieben.

Abbildung 3. In welchen Bereichen der Gesellschaft sind Bestechung und Amtsmissbrauch gängige Praktiken? (Quelle QB7, corruption-ebs_470_fact_at_de.pdf)

Zu Konsequenzen der Korruption

Die Frage ob sie selbst von Korruption betroffen wären, bejahten im EU28-Schnitt 25 %; in Osterreich 18 % der Menschen. Obwohl die meisten EU-Bürger also keine unmittelbare Erfahrung mit Korruption hatten, vertraten sie die Ansicht, dass diese negative Auswirkungen auf Wirtschaft und Funktionieren öffentlicher Institutionen nach sich zieht. Abbildung 4.

Der bei weitem überwiegende Teil der EU-Bürger - und auch der Österreicher - meint, dass zu enge Bindungen zwischen Unternehmen und Politik zu Korruption führen und dass Günstlingswirtschaft und Korruption den Wettbewerb behindern. 6 von 10 EU-Bürgern und die Hälfte der befragten Österreicher haben sich damit abgefunden, dass Korruption einfach zur Unternehmerkultur dazugehört und etwas mehr als die Hälfte der EU-Bürger und auch der Österreicher glaubt, dass geschäftlicher Erfolg nur mit Beziehungen zur Politik möglich ist.

Abbildung 4. Korruption in Unternehmen (Quelle QB7, corruption-ebs_470_fact_at_de.pdf)

Wird Korruption angezeigt?

Die meisten Europäer (rund 80 %), die selbst Korruption erfahren oder Korruption beobachten, verzichten auf eine Anzeige. Einerseits wissen viele (z.B. in Ungarn und Bulgarien) nicht, wie und wo sie dies melden sollten. Ein Hauptgrund besteht aber darin, dass es schwer ist stichhaltige Beweise zu liefern, dass es für die Täter selten zu Konsequenzen kommt und dass diejenigen, die Korruption anzeigen, keinen Schutz erhalten.

Unzulängliche  Maßnahmen zur Korruptionsbekämpfung

Ähnlich pessimistisch wie im Fall der Anzeige von Korruption wird auch die Effizienz von Maßnahmen gesehen, welche die Korruption verhindern, bekämpfen oder sanktionieren sollen. Nur ein Drittel der EU-Bürger hält die Bemühungen ihrer Regierungen zur Bekämpfung der Korruption für ausreichend, der Großteil der EU-Bürger findet, dass es nicht genug erfolgreiche Strafverfolgungen gibt, um Korruption wirklich abzuschrecken.

Fazit

Korruption ist ein weltweites Problem, das auch in der EU enorme wirtschaftliche Schäden verursacht. Korruption bedroht damit Wohlstand und Sicherheit der Bürger, belastet das soziale Miteinander der Bürger  und höhlt deren Vertrauen in öffentliche Institutionen, Regierungen und in die Staaten selbst aus. Der Großteil der EU-Bürger behauptet zwar korrupte Praktiken selbst abzulehnen, sieht merkwürdigerweise aber weite Gruppen der Mitbürger  als korrupt an. Die Gefahr dabei: In einem Umfeld, das korrupt agiert, tendieren Einzelne eher dazu sich an solche Praktiken zu adaptieren anstatt dagegen vorzugehen. Die relativ hohe Akzeptanz korrupter Praktiken in den neueren EU-Mitgliedsstaaten ist mit einer sehr weiten Verbreitung der Korruption verbunden.

Korruption wird sich nur sehr schwer reduzieren/ausmerzen lassen. Auch in den Ländern mit der niedrigsten wahrgenommenen Korruption glauben maximal drei Viertel der Befragten, dass dieses Phänomen in ihrem Land (eher) selten auftritt. Auch in diesen Ländern führen politische Parteien, Politiker und auch bestimmte Beamtengruppierungen den korrupten Reigen an. Es ist evident, dass hier der Hebel angesetzt werden sollte, dass diese Vertreter und Diener des Volkes Korruption in allen Spielarten aus ihren Reihen verbannen müssten,  um integer ihr Amt ausführen zu können und als Vorbild für "good Practice" zu dienen. Ein unerfüllbarer Wunsch?  Jedenfalls sollten EU-weit  alle Anstrengungen unternommen werden, um möglichst effiziente Strategien zur Prävention, Bekämpfung und auch Sanktionierung von Korruption zu entwickeln.  Zweifellos  handelt es sich hier um eine überaus komplexes System, für das  - ähnlich wie im Klimasystem - an Hand verschiedenster möglicher Szenarien (pathways) durchaus aussagekräftige Modelle gebaut werden können. Die eingangs erwähnten Spieltheoretischen Modelle sind ein Anfang. 


[1] Special Eurobarometer 470 - October 2017 "Corruption" Report. Survey conducted by TNS opinion & social at the request of the European Commission,Directorate-General for Migration and Home Affairs (DG HOME). doi:10.2837/513267

[2] Karl Sigmund: Die Evolution der Kooperation http://scienceblog.at/die-evolution-der-kooperation.

[3] Karl Sigmund: Homo ludens – Spiel und Wissenschaft http://scienceblog.at/homo-ludens-%E2%80%93-spiel-und-wissenschaft (Spieltheorie, eine Theorie der Interessenskonflikte)

[4] Karl Sigmund: Homo ludens – Spieltheorie http://scienceblog.at/homo-ludens-spieltheorie. (Gefangenendilemma. Das Paradoxon: durch Eigennutz schaden wir uns selbst!)

[5] Lee et al., (2015) Games of corruption: How to suppress illegal logging. https://doi.org/10.1016/j.jtbi.2014.10.03


 

Redaktion Thu, 23.05.2019 - 10:50

Zum Einsatz genetisch veränderter Moskitos gegen Malaria

Zum Einsatz genetisch veränderter Moskitos gegen Malaria

Do, 16.05.2019 - 06:48 — Elena Levashina

Elena LevashinaIcon BiologieDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung, Permafrostmoore im Klimawandel, die Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel. In der Synthetischen Biologie, der "Neugestaltung unserer Umwelt" wird das Erbgut von Organismen verändert, sodass für den Menschen nützliche Eigenschaften entstehen. Nach dem Interview zur Freisetzung genetisch veränderter infektiöser Viren in der Vorwoche [2] bezieht nun Prof. Elena Levashina (Forschungsgruppenleiterin am Max-Planck-Institut für Infektionsbiologie) Stellung zur Anwendung solcher Technologien im Kampf gegen Malaria-Erreger.

Wenn sich Gene schneller in einer Population ausbreiten als normal, spricht man von einem sogenannten Gene Drive [3]. Wissenschaftler wollen diesen Mechanismus zur Bekämpfung von Infektionskrankheiten nutzen, indem sie die Überträger von Krankheitserregern, zum Beispiel Moskitos, unfruchtbar machen. Für Elena Levashina vom Max-Planck-Institut für Infektionsbiologie in Berlin könnte die Technik eine wichtiger Bestandteil im Kampf gegen Infektionskrankheiten werden.

H.R.: Kann es Ihrer Meinung nach gelingen, mit Gene Drive Mückenpopulationen auszurotten und damit Infektionskrankheiten zu eliminieren?

E.L.: Der Gene Drive ist ein faszinierender Mechanismus, mit dem wir sehr schnell eine Population verändern können. Es geht aber nicht nur darum Mücken auszurotten. Man könnte die Tiere auch zum Beispiel resistent gegen bestimmte Krankheitserreger machen oder eine Population durch eine andere ersetzen.  Abbildung 1.

Abbildung 1. Die Ägyptische Tigermücke kann verschiedene Krankheiten übertragen, darunter Gelb- und  Dengue-Fieber. Genetisch veränderte Mücken aus dem Labor sollen die wildlebenden Vorkommen dezimieren und so die Infektionsgefahr für den Menschen verringern. ©Science Photo Library / Agentur Focus

Der Gene Drive wird sicherlich nicht das Allheilmittel gegen Infektionskrankheiten sein. Dafür sind die Verhältnisse vor Ort zu unterschiedlich. In Afrika zum Beispiel, wo durch Mücken übertragene Malaria jedes Jahr immer noch unzählige Menschenleben fordert, werden wir verschiedene Maßnahmen kombinieren müssen, um die Krankheit zu besiegen. Der Gene Drive kann hierzu einen wichtigen Beitrag leisten.

H.R.: Was weiß die Wissenschaft über die Auswirkungen des Gene Drive?

E.L.: Auf genetischer Ebene ist der Gene Drive inzwischen recht gut erforscht. Laborergebnisse zeigen, dass sich damit Moskito-Populationen zuverlässig eliminieren lassen.

H.R.: Was ist mit den ökologischen Folgen in der freien Natur?

E.L.: Hier besteht in der Tat noch Forschungsbedarf. Manche Moskito-Arten haben komplexe Populationsstrukturen. Außerdem haben wir es manchmal mit verschiedenen Arten zu tun, die eine Krankheit übertragen können. Was passiert, wenn wir eine dieser Arten ausrotten oder genetisch verändern?

Unsere eigenen Forschungsergebnisse haben beispielsweise gezeigt, dass eine der beiden Malaria-Mücken in Afrika ein Resistenz-Gen gegen die Erreger (das sind einzellige Parasiten - Plasmodien; Anm. Redn.) besitzt. Wenn nun ausgerechnet diese mittels Gene Drive eliminiert wird, kann sich die Art ohne Resistenz möglicherweise ausbreiten. Dies könnte zu höheren Infektionsraten führen als zuvor (siehe: Weiterführende Links).

Bei anderen Mückenarten wie den Überträgern des Zika-Virus sind die Verhältnisse einfacher. Deshalb werden hier schon Freilandstudien durchgeführt.

In jedem Fall müssen die möglichen Folgen genau überprüft und Vor- und Nachteile gegeneinander abgewogen werden, bevor genetisch veränderte Moskitos in die Umwelt entlassen werden.

Und natürlich muss die Bevölkerung vor Ort in solche Entscheidungen mit einbezogen werden. Das Gespräch hat Dr.Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves, 9.5.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Video, Akademie der Naturwissenschaften, Schweiz: Gene Drives - Wundermittel? Biowaffe? Hype? (Fast Forward Science 2018). 6:19 min. (Quelle: https://naturwissenschaften.ch/topics/synbio/applications/gene_drive) https://www.youtube.com/watch?time_continue=3&v=ezR3CzOi8j8


*Das Interview mit Elena Levashina zum Einsatz genetisch veränderter Moskitos gegen Malaria ist unter der Headline " „Ein Maßnahmenbündel gegen Infektionskrankheiten“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen (https://www.mpg.de/13364284/earth-day-2019-levashina?c=13363910) und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Einige Links wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Infektionsbiologie. http://www.mpiib-berlin.mpg.de/

Vector Biology (Leitung: Elena Levashina). http://www.mpiib-berlin.mpg.de/research/vector_biology

Malaria: Auf die Mücke kommt es an. http://www.mpiib-berlin.mpg.de/1872316/malaria-it-s-all-about-the-mosquito

Ein bewegliches Ziel. Interview mit Elena Levashina zum Stand der Malariaforschung, 24. April 2019. https://www.mpg.de/newsroom/Infektionsbiologie/de

Ein Stich gegen Malaria. https://www.mpg.de/4327238/W001_Biologie-Medizin_056-063.pdf

Kampf gegen Malaria: Können wir gewinnen? | Projekt Zukunft.(2015) Video 3:47 min. Ein Gepsräch über die Seuche Malaria und die Schwierigkeiten, einen Impfstoff dagegen zu entwickeln. Dr. Kai Matuschewski ist Forscher am Max-Planck-Institut für Infektionsbiologie Berlin. https://www.youtube.com/watch?v=qim6d-OMSsA

WHO: World malaria report 2018. https://www.who.int/malaria/publications/world-malaria-report-2018/report/en/

Artikel im ScienceBlog

Bill and Melinda Gates Foundation, 02.05.2014: Der Kampf gegen Malaria. http://scienceblog.at/der-kampf-gegen-malaria.

Redaktion, 09.10.2015: Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin. http://scienceblog.at/nobelpreis-2015-medizin.

Peter Seeberger, 16.05.2014: Rezept für neue Medikamente http://scienceblog.at/rezept-fuer-neue-medikamente


 

Redaktion Thu, 16.05.2019 - 06:02

Zur Freisetzung genetisch veränderter Organismen in die Natur

Zur Freisetzung genetisch veränderter Organismen in die Natur

Do, 09.05.2019 - 05:48 — Guy Reeves

Guy ReevesIcon Politik und GesellschaftDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ Herausforderungen auf, welche die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung , Permafrostmoore im Klimawandel, die Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel. Auf diesen Gebieten arbeitende Max-Planck-Forscher beziehen dazu Stellung. Am Beginn steht die "Synthetische Biologie", in welcher das Erbgut von Organismen so verändert wird, dass für den Menschen nützliche Eigenschaften entstehen. Im folgenden Interview sieht Dr.Guy Reeves (Max-Planck-Institut für Evolutionsbiologie in Plön) vor allem die Freisetzung genetisch veränderter infektiöser Viren mit Sorge.*

Dank neuer Techniken wie der Genschere Crispr/Cas9 [2] und des sogenannten Gene Drive [3] können Forscher das Erbgut sehr viel schneller verändern und diese Veränderungen in kurzer Zeit selbst in großen Populationen verbreiten. Im Labor werden genetisch veränderte Organismen schon seit einiger Zeit erfolgreich eingesetzt, zum Beispiel in der Grundlagenforschung oder in der Produktion von Medikamenten. Nun sollen genetisch veränderte Organismen auch in die Natur entlassen werden.

H.R.: Wie beurteilen Sie die verschiedenen Projekte, bei denen Wissenschaftler oder Unternehmen genetisch veränderte Organismen freisetzen möchten?

G.R.: Was mich besonders besorgt, ist die Freisetzung infektiöser gentechnisch veränderter Viren, die zur Manipulation des Immunsystems von Säugetieren entwickelt wurden. Gentechnisch veränderte Viren dieser Art wurden bereits entwickelt, um Säugetiere immun gegen Krankheiten zu machen oder zu sterilisieren. Ein gentechnisch verändertes Virus, das sich in Wildkaninchenpopulationen ausbreitet, um dann gegen zwei Krankheiten immun zu machen, wurde im Jahr 2000 auf den spanischen Balearen getestet. Ein weiteres Virus, das dazu bestimmt ist, Mäuse zu sterilisieren, soll seit 2003 für Feldversuche in Australien bereit sein.

Ein weiteres Beispiel ist ein Forschungsprogramm, das derzeit bei der Forschungsagentur DARPA (Defense Advanced Research Projects Agency) des US-Verteidigungsministeriums läuft, in dem Insekten zur Übertragung gentechnisch veränderter Viren auf Mais- und Tomatenpflanzen eingesetzt werden. Derzeit finden die Experimente noch in sicheren Gewächshäusern statt.

Während Viren Patienten in Krankenhäusern und Wissenschaftlern im Labor bereits sehr geholfen haben, erfordern Techniken, die genetisch veränderte Viren absichtlich in die Umwelt entlassen, eine sehr sorgfältige Prüfung. Obwohl diese Technologien schon weit gediehen sind, stehen wir bei ihrer Prüfung immer noch ganz am Anfang.

Abbildung 1. Forschungsprogramm mit Potenzial für militärischen Einsatz: Wissenschaftler befürchten, dass das US-amerikanische Programm andere Länder dazu verleiten könnte, selbst Biowaffen zu entwickeln. © MPG/ D. Duneka

H.R. Warum sind Viren denn so problematisch?

G.R.: Kaum ein anderes biologisches System kann sich so schnell auf eine komplette Population auswirken – nämlich schon innerhalb einer einzigen Generation. Im Vergleich dazu ist der zurzeit viel diskutierte „Gene Drive“ eine Schnecke. Hinzu kommt, dass das Wirtsspektrum eines Virus sehr breit sein kann. Es lässt sich also mitunter nur schwer vorhersagen, welche Arten ein Virus infizieren kann.

H.R:. Lehnen Sie die Freisetzung genetisch veränderter Organismen in jedem Fall ab, wenn es sich nicht um landwirtschaftliche Nutzpflanzen handelt?

G.R.: Nein, überhaupt nicht. Es geht nicht darum, neue Technologien zu verhindern. Wir müssen jedoch vorsichtig sein und den potenziellen Nutzen gegen die Risiken abwägen. Deshalb sollte besonders die Freisetzung infektiöser genetisch veränderter Organismen nur nach sorgfältiger Prüfung erfolgen. Zudem halte ich es in den meisten Fällen nicht für sinnvoll, Viren mit schwer kontrollierbaren Risiken einzusetzen, wenn es alternative Techniken gibt, mit denen man die gleichen Ziele erreichen kann.

H.R.: Sie haben den sogenannten „Gene Drive“ schon angesprochen. Damit kann man erreichen, dass sich ein Gen viel schneller in einer Population ausbreitet als normal. Ein Gen für Unfruchtbarkeit soll so innerhalb kurzer Zeit Moskitos ausrotten und so die Übertragung von Malaria verhindern. Was ist denn falsch daran, Mücken auszurotten?

G.R.: Gene Drive ist wie gesagt gar nicht so schnell, wie viele Menschen glauben. Selbst bei einem Tier mit einer so kurzen Generationszeit wie einer Mücke würde es selbst unter idealen Bedingungen möglicherweise acht Jahre oder länger dauern, bis eine Population durch Gene Drive fortpflanzungsunfähig werden würde. Außerdem haben wir durch unsere Erfahrungen mit Insektenvernichtungsmitteln gelernt, wie schnell sich Insekten anpassen können, wenn der Selektionsdruck nur hoch genug ist. Und eine Resistenz gegen ein Unfruchtbarkeitsgen ist wie ein Sechser im Lotto.

Ich bin sicher, dass sich große Insekten-Populationen an solch einen Gene Drive anpassen und ihn ausschalten werden. Die Moskitos werden sich so folglich auf diese Weise sehr wahrscheinlich nicht ausrotten lassen.

H.R.: Reichen die derzeitigen Gesetze aus, mit denen solche Versuche geregelt sind?

G.R.; Die Herausforderung, vor der die Regulierungsbehörden stehen, ist gewaltig. Sie müssen ungeheuer komplexe mathematische Modelle berücksichtigen – eine Aufgabe, die schon für gut ausgestattete Behörden in Industriestaaten schwierig zu bewältigen ist. Viele der angedachten Projekte werden aber Schwellenländer betreffen, die dafür überhaupt nicht gerüstet sind. Und natürlich halten sich Viren und Insekten nicht an Ländergrenzen.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019)
https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Video, MaxPlanckSociety (2016): Gen-editing mit CRISPR/Cas9. 3:13 min.
https://www.youtube.com/watch?v=ouXrsr7U8WI&t=33s

[3] Video, Akademie der Naturwissenschaften, Schweiz: Gene Drives - Wundermittel? Biowaffe? Hype? (Fast Forward Science 2018). 6:19 min. (Quelle: https://naturwissenschaften.ch/topics/synbio/applications/gene_drive)
https://www.youtube.com/watch?time_continue=3&v=ezR3CzOi8j8


*Das Interview mit Guy Reeves zur Freisetzung genetisch veränderter Organismen in die Natur ist unter der Headline " Earth Day 2019: „Viren können eine gesamte Population in kurzer Zeit verändern“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen (https://www.mpg.de/13363910/earth-day-2019-reeves?c=2191) und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Einige Links wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Evolutionsbiologie. https://www.evolbio.mpg.de/

Homepage von Guy Reeves

Ein Schritt zur biologischen Kriegsführung mit Insekten?
https://www.mpg.de/12316482/darpa-insect-ally

Artikel im ScienceBlog

Dem Themenkreis ist ein Schwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts gewidmet , der bereits mehr als 20 Artkiel enthält.
http://scienceblog.at/synthetische-biologie-%E2%80%94-leitwissenschaft-des-21-jahrhunderts


 

Redaktion Wed, 08.05.2019 - 21:26

Was die EU-Bürger von Impfungen halten - aktuelle europaweite Umfrage (Eurobarometer 488)

Was die EU-Bürger von Impfungen halten - aktuelle europaweite Umfrage (Eurobarometer 488)

Do, 02.05.2019 - 10:48 — Inge Schuster

vIcon Politik und GesellschaftImpfungen sind der beste Weg um sich selbst und andere gegen schwere Infektionskrankheiten zu schützen, die auch in Europa noch zu Ausbrüchen führen können und Todesopfer fordern. Eine von der Europäischen Kommission in Auftrag gegebene Umfrage hat in den letzten Märzwochen 2019 Einstellung und Wissen der EU-Bürger zu Impfungen erhoben. Die nun, knapp vier Wochen später, vorgestellten Ergebnisse [1] geben im Mittel eine durchaus positive Haltung der EU-Bürger zu Impfungen wieder, allerdings gibt es starke regionale und soziodemographische Unterschiede hinsichtlich des Wissenstands über Impfungen, der Falschmeinungen und damit in Zusammenhang der Durchimpfungsrate. Auch in Österreich sollte man danach trachten die Wissenslücken zu füllen und falsche Informationen zu korrigieren.

Impfungen bieten den besten Schutz vor schweren, lebensbedrohenden Infektionskrankheiten. Gesamt betrachtet ist in der EU die Durchimpfungsrate erfreulich hoch; allerdings gibt es Regionen mit unzureichendem Impfschutz -einerseits auf Grund eines ungleichen, schwierigeren Zugangs zu Impfstoffen, andererseits bedingt durch wachsende Skepsis hinsichtlich der Wirksamkeit und Sicherheit der Impfungen. So kommt es zu Ausbrüchen von Krankheiten, die durch Impfungen vermieden werden könnten.

Vermeidbare Tragödien

Aktuell macht der starke Anstieg der hochansteckenden Masern Schlagzeilen, einer Viruserkrankung, die zu schwersten bleibenden Schäden bis hin zu Todesfolgen führen kann. Laut WHO starben im Jahr 2017 weltweit etwa 110 000 Personen an Masern; vorläufige Daten zum ersten Quartal 2019 nennen bereits mehr als 112 000 Infektionen in 170 Ländern [2], die Dunkelziffer dürfte beträchtlich höher sein. In der Europäischen Region erkrankten im vergangenen Jahr rund 83 000 Menschen an Masern (3 mal so viele wie 2017) und 72 Kinder und Erwachsene starben. Dabei wiesen Nachbarstaaten der EU wie die Ukraine (über 72 000 Fälle), Albanien und Serbien aber auch EU-Länder wie die Slowakei und Griechenland hohe Inzidenzen auf (Daten 03.2018 - 01.2019; [3]).

Vermeidbar ist auch bakteriell verursachte Meningitis. Im Jahr 2016 gab es in 30 europäischen Ländern 3280 Fälle, davon 304 mit Todesfolgen. Durch Impfung vermeidbar sind auch Infektionen mit dem Hepatitis B Virus, von denen rund 4,7 Millionen Menschen im Europäischen Raum betroffen sind und an denen mehr Menschen sterben als an HIV/AIDS und Tuberkulose zusammengenommen [1].Vermeidbar wären 2017 auch 89 Tetanus-Fälle gewesen, die in 14 Fällen letal ausgingen [1].

Ein enormes Problem für das Gesundheitssystem stellen Influenzaepidemien dar. Allein in Österreich geht man (nach dem FluMOMO-Modell) von jährlich mehreren 100 bis mehreren Tausend durch Virusgrippe ausgelösten Todesfällen aus (Grippesaison 2016/17: 4454 Fälle, Saison 2017/18: 2868 Fälle, 2018/19: 616 Fälle [4]). Auch, wenn die aktuellen Impfstoffe noch Mängel aufweisen, bieten sie derzeit dennoch die wirksamste Möglichkeit der Influenza vorzubeugen.

Während die Impfpolitik in die Zuständigkeit der nationalen Behörden fällt, unterstützt die Europäische Kommission die Länder bei der Koordinierung ihrer Strategien zur Erhöhung und Überprüfung der Durchimpfungsraten. In Hinblick auf Impfstoffe will die EU i) den Zugang zu diesen für alle sicherstellen, ii) alle Impfstoffe kontrollieren, um höchste Sicherheitsstandards zu garantieren, iii) übersichtliche, unabhängige und transparente Informationen vermitteln und iv) die Forschung zur Entwicklung neuer Impfstoffe intensivieren.

Um die Einstellung der EU-Bürger zu Impfungen, ihr Wissen über Impfungen und Gründe für ihre Impfskepsis kennenzulernen, hat die Kommission eine EU-weite Umfrage in Auftrag gegeben, deren Ergebnisse nun in Form des Eurobarometer 488 Reports vorliegen [1].

Die EU-weite Umfrage…

Die Umfrage wurde in den 28 EU-Ländern durch das Kantar Netzwerk im Zeitraum 15. bis 29. März 2019 durchgeführt. In jedem Mitgliedsstaat wurden dabei jeweils rund 1000 aus verschiedenen sozialen und demographischen Gruppen stammende Personen im Alter über 15 Jahren in ihrem Heim und in ihrer Muttersprache interviewt - insgesamt waren es 27.524 Personen. In diesen persönlichen Interviews wurden die Personen in allen Ländern in der gleichen Weise zu folgenden Themenkreisen befragt:

  • zu ihrer Einschätzung der Vermeidbarkeit von Krankheiten durch Impfungen und zu deren Wirksamkeit
  • zu ihren Erfahrungen mit Impfungen (Gründe für Zustimmung/Ablehnung)
  • zum Wissensstand über die Wirkungen von Impfungen
  • zur ihrer Einstellung bezüglich der Wichtigkeit von Impfungen
  • woher sie Informationen über Impfungen beziehen und wieweit sie diesen vertrauen.

…und ihre Ergebnisse [1]

Vermeidbarkeit von Krankheiten durch Impfungen und deren Wirksamkeit

Eingangs wurde eine Liste von Krankheiten gezeigt - Influenza, Meningitis, Hepatitis, Masern, Tetanus, Polio - und gefragt, welche davon in der EU heute noch Todesopfer fordern (siehe dazu oben: Vermeidbare Katastrophen). In dieser Bewertung gab es große regionale Unterschiede; im EU28-Mittel führte Influenza (56 %) und Meningitis (53 %) die Rangliste an, wesentlich weniger nannten Hepatitis (40 %), Masern (37 %) und Tetanus (22 %). Vergleichbare Bewertungen kamen auch aus Österreich.

Die zweite Frage lautete: "Alle in Frage 1 genannten Krankheiten sind Infektionskrankheiten, die verhindert werden können. Halten Sie hier Impfungen für wirksam?"

Hier war in allen Ländern die überwiegende Mehrheit der Befragten der Ansicht, dass Impfungen definitiv (im EU28-Mittel 52 % ) oder zumindest wahrscheinlich (im EU28-Mittel 33 % ) ein wirksames Mittel sind, um ansteckende Krankheiten zu vermeiden. Besonders hohes Vertrauen in die definitive Wirksamkeit von Impfungen (bis zu 81 %) gibt es in den nördlichen Ländern (NL, FI, SE, DK), am unteren Ende der Skala stehen Rumänien, Bulgarien, Lettland und (leider auch) Österreich. Abbildung 1.

Abbildung 1. Die überwiegende Mehrheit (m EU28-Mittel 85 % ) der Befragten ist der Ansicht, dass Impfungen definitiv oder wahrscheinlich ein wirksames Mittel sind, um ansteckende Krankheiten zu vermeiden (Zahl der Befragten: 27 524)

Die Einschätzung der Wirksamkeit geht dabei parallel mit dem Wissenstand über Impfstoffe, dem Bildungsgrad und dem sozialen Status der Befragten.

Zur Erfahrung mit Impfungen

Auf die Frage ob sie selbst oder Familienmitglieder in den letzten 5 Jahren geimpft worden wären, antworteten im Mittel 45 % der EU-Bürger, dass sie selbst geimpft worden wären, 27 %, gaben ihre Kinder an und 20 % andere Familienmitglieder. Wie bereits bei der Frage nach der Wirksamkeit von Vakzinen gibt es ein starkes West-Ost-Gefällemit einer besonders niedrigen Impfrate in den ehemaligen Ostblockländern Bulgarien, Kroatien, Polen, Ungarn und Rumänien. Österreich liegt im Mittelfeld. Abbildung 2.

Abbildung 2. Frage 3: Haben Sie in den letzten 5 Jahre eine Impfung erhalten? (Zahl der Befragten: 27 524)

Einen Impfpass besitzen im EU28-Mittel 47 % der Befragten (AT: 69%)

Diejenigen, die geimpft worden waren, nannten als Grund für die Impfung vor allem die Empfehlung durch medizinisches Fachpersonal , insbesondere durch den Hausarzt aber auch durch Gesundheitsbehörden (in Österreich trifft beides auf 92 % der Geimpften zu).

Wird eine höhere Durchimpfungsrate angestrebt, ist es besonders wichtig zu erfahren, warum sich Menschen nicht impfen ließen. Hier standen eine Reihe von Begründungen zur Auswahl (Abbildung 3): Von den EU-weit insgesamt 15 156 Befragten wurde am häufigsten genannt, dass man keine Notwendigkeit zur Impfung sehe und dass noch von früheren Impfungen Schutz bestehe. Dazu kommen Ausreden (der Doktor hat keine Impfung empfohlen), Falschmeinungen (Impfungen sind nur etwas für Kinder) und Furcht vor Nebenwirkungen. Auch Kosten und "Strapazen" haben Personen vom Impfen abgehalten Für die Befragten aus Österreich besteht offensichtlich Bedarf für mehr Information durch den Hausarzt und Gesundheitsinstitutionen.

Abbildung 3. Frage 4: Warum haben Sie sich in den letzten 5 Jahren nicht impfen lassen? (EU28-Mittel basiert auf 15156 Interviews, Österreich auf 513 Interviews)

Zum Wissensstand über Impfungen

Frage 7.4.: Werden Impfstoffe rigoros getestet bevor sie die Zulassung erhalten? Die EU-Bürger sind sich da weitgehend sicher: Im Mittel bejahen dies 80 % der EU-Bürger; die geringsten Zweifel daran haben Staaten im Nordwesten (88 - 93 % Zustimmung), am unsichersten sind Staaten wie Bulgarien, Rumänien, Lettland.

Frage 7.1.: Überlasten und schwächen Vakzinen das Immunsystem? Hier herrscht ein Falschmeinung vor.  Dass dies nicht der Fall ist, wissen im EU28-Mittel nur 55 % der Befragten; in den nördlichen Staaten (NL, SE, DK. FI) geben 70 - 79 % die richtige Antwort, in Staaten wie Bulgarien, Lettland, Tschechien, Slowenien sind es unter 40 %.

Frage 7.2.: Können Vakzinen die Krankheit hervorrufen, gegen die sie schützen? Auch dies ist eine Falschmeinung. Dies wissen im Mittel nur 49 % der EU-Bürger. Wieder ist der Wissenstand in Ländern wie Schweden (61 %) und Holland (57 %) am höchsten, in Ländern wie Slowenien (39 %) oder Bulgarien (37 %) am niedrigsten.

Frage 7.3.: Lösen Vakzinen häufig schwere Nebenwirkungen aus?  Dies ist nicht der Fall - im Mittel sind es aber nur 41 % der Befragten, die die richtige Antwort geben (Abbildung 4). In nur 4 Ländern - wiederum sind es Schweden, Holland, Dänemark und Finnland - wissen das mehr als 50 % der Bürger (auch hier sind also Wissenslücken).

Abbildung 4. Eine Mehrheit der EU-Bürger befürchtet fälschlicherweise schwere Nebenwirkungen durch Impfstoffe. (Zahl der Befragten: 27 524)

Zur Einstellung bezüglich der Wichtigkeit von Impfungen

Dass Impfungen wichtig sind, um sich selbst und andere zu schützen, bejahen im Schnitt 86 % der EU-Bürger. In Österreich und Rumänien findet sich die niedrigste Zustimmung mit immerhin auch noch 75 %. Dass die Impfung anderer - der Herdenschutz - von entscheidender Bedeutung für Menschen ist, die selbst nicht geimpft werden können - beispielsweise neugeborene Babys, immungeschwächte oder schwerkranke Personen - wird ebenfalls von der überwiegenden Mehrheit der Europäer (87 %) bejaht. Auch dazu finden sich die meisten negativen/neutralen Stimmen in Österreich und Rumänien.

Ein wesentliches Missverständnis liegt in der Ansicht vor, dass Impfungen nur für Kinder wichtig sind. Dem stimmen aber in einigen Ländern (BG, HR, HU, IT, RO, PL) zwischen 42 und 52 % der Befragten völlig oder eher zu, dagegen nur 9 - 14 % in den skandinavischen Ländern.

Woher EU-Bürger Informationen über Impfungen beziehen

In einer Zeit, in der die sozialen Netzwerke boomen, sind die Ergebnisse überraschend . Abbildung 5. Die überwiegende Mehrheit der EU-Bürger (79 %) wendet sich auch heute primär vertrauensvoll an den Hausarzt oder den Kinderarzt, dann an anderes medizinisches Fachpersonal (29 %), an Gesundheitsbehörden (25 %) und an den Apotheker (20). Information aus dem Internet spielt nur in den skandinavischen Ländern eine größere Rolle, soziale Netzwerke werden offensichtlich nicht sehr bemüht.

Auf die Frage, ob sie im letzten Halbjahr irgendeine Information über Impfungen aus den Medien gesehen oder gehört hätten, nannten im Mittel 51 % der Befragten das TV, wesentlich weniger Personen - und dies sehr stark länderabhängig - gaben Zeitungen und Journale (17 %) und Radio (14 %) an, 10 resp. 12 % soziale Netzwerke und Internet. Insgesamt 34 % erklärten nichts gesehen oder gehört zu haben.

Abbildung 5. Information über Impfungen: "Frag' den Arzt oder Apotheker"

Schlussfolgerungen

Die erste Umfrage zur Einstellung der Europäer zu Impfungen brachte teils erfreuliche teils beunruhigende Ergebnisse.

Erfreulich ist, dass die überwiegende Mehrheit der Europäer Impfungen für wirksam und notwendig erachtet um sich und andere vor schweren ansteckenden Krankheiten zu schützen. Die EU-Bürger sind auch von der Qualität der Impfstoffe überzeugt, da diese strengste Prüfungen erfolgreich durchlaufen müssen, bevor sie die Zulassung erhalten und angewendet werden können. Auch die Qualität der Informationen über Impfungen ist gut: Man wendet sie sich vertrauensvoll an Personen mit einschlägiger Expertise: den Arzt, medizinisches Fachpersonal, Gesundheitsbehörden und Apotheker.

Beunruhigend ist aber, dass viele Europäer falsche Vorstellungen von Wirkung und Nebenwirkungen von Impfstoffen haben, dass sie meinen, diese hätten häufig schwere Nebenwirkungen und lösten die Krankheiten aus, vor denen sie schützen sollten. Derartige Meinungen führen zu Impfskepsis und einer unzureichenden Durchimpfungsrate, die Ausbrüche und Epidemien von Infektionen ermöglicht. Besonders beunruhigend ist dabei ein massiver Nordwest - Ost-Trend: eine Zunahme der Impfskepsis bei gleichzeitiger Abnahme des Wissenstands.

Das Füllen von Wissenslücken und Korrigieren von falschen Informationen muss daher zur vordringlichen Aufgabe in ganz Europa, insbesondere in den östlichen Regionen werden.


[1] Special Eurobarometer 488: Europeans’ attitudes towards vaccination. http://ec.europa.eu/commfrontoffice/publicopinion/index.cfm/Survey/getSurveyDetail/instruments/SPECIAL/surveyKy/2223

[2] WHO: New measles surveillance data for 2019. https://www.who.int/immunization/newsroom/measles-data-2019/en/

[3] Measles Updates including 2019. https://www.slideshare.net/who_europe/measles-and-rubella-monthly-update-for-the-who-european-region-140574101?next_slideshow=1

[4] Grippe - Mortalität: https://www.ages.at/themen/krankheitserreger/grippe/


Weiterführende Links

Im ScienceBlog gibt es bereits mehr als 25 Artikel über Infektionskrankheiten; diese stammen von verschiedenen Autoren und geben einen breiten Überblick über das Gebiet. Titel und Links zu diesen Artikeln finden sich in den Themenschwerpunkten Mikroorganismen und in Pharmazeutische Wissenschaften unter Infektionen


 

Redaktion Thu, 02.05.2019 - 09:10

Big Data in der Biologie - die Herausforderungen

Big Data in der Biologie - die Herausforderungen

Do, 25.04.2019 - 12:03 — Redaktion

vIcon MINTMit Hilfe neuester Technologien ist es möglich geworden biologische Vorgänge in Zellen, Organen und Organismen experimentell im Detail zu erfassen. Daraus resultieren immer größer werdende Datensätze - Big Data. Deren Verfügbarkeit und Nutzbarmachung kann viele Disziplinen der Lebenswissenschaften umgestalten und neue Wege der Forschung eröffnen. Big Data werfen aber auch grundlegende, wissenschaftstheoretische Fragen auf: Was ist beispielsweise ein guter Datensatz, und wie kann aus Big Data verlässliches Wissen extrahiert werden? Um solche und andere Fragen zu beantworten, bedarf es einer Kooperation zwischen Biologen, Datenwissenschaftlern und Wissenschaftstheoretikern.*

Bereits seit langem sind die Lebenswissenschaften mit großen Datenmengen umgegangen; die neuen experimentellen Möglichkeiten haben nun aber die Datenmengen, die gespeichert und analysiert werden müssen, enorm gesteigert. Zwar hat sich auch die den Forschern zur Verfügung stehende Rechnerleistung mit der Zeit verbessert, doch Menge und Heterogenität der Daten schlagen üblicherweise mehr zu Buche als vorhandene Strategien und Mittel zur Datenerhebung und - Analyse. Abbildung 1.

Abbildung 1. Das Wachstum von Datenmengen zu Big Data . Diese sind charakterisiert durch das Daten-Volumen (die Menge an erzeugten und gespeicherten Messdaten), die Varietät der Daten und die Geschwindigkeit ihrer Generierung und Prozessierung (Bild von Redn. eingefügt. Quelle: Wikipedia;Ender005 CC BY-SA 4.0)

Das derzeit nutzbare Datenvolumen, insbesondere in den Bereichen "Omics" (Genomis, Proteomics, etc., Anm. Redn.) wirft zudem grundlegende Fragen zum Forschungsprozess auf, etwa welche Rolle hier die Theorie spielt, welche Bedeutung Zusammenhängen beigemessen wird und welchen Zweck das Know-how bei der Interpretation der Daten hat.

Beispielsweise gibt es eine breite Debatte darüber, in welchem Umfang Wissenschaftler mit den Protokollen und Instrumenten vertraut sein müssen, die zur Generierung der Daten verwendet werden, und auch mit der relevanten Biologie von untersuchten Organismen, um Daten interpretieren zu können. Ebenfalls umstritten ist das Ausmaß, in dem Algorithmen kausale Zusammenhänge in Daten zuverlässig identifizieren können: entdeckt man, dass ein bestimmter Genpfad häufig mit einem bestimmten phänotypischen Merkmal verbunden ist, bedeutet das noch lange nicht nicht, dass man versteht warum dies der Fall ist und ob das Gen kausal den Phänotyp verursacht.

Es gibt viele andere Fragen, die für Wissenschaftstheoretiker von Interesse sind:

  • Verlässt man sich auf Big Data, wie ändert dies die gesamte Idee der biologischen Entdeckung und was zählt dann als biologisches Wissen?
  • Welche Rolle spielen Theorien in der datenintensiven Forschung und in welcher Relation steht Big Data-Biologie zu Hypothesen gesteuerter Forschung, die beobachtet und untersucht?
  • Wie beeinflusst die automatisierte Datenanalyse die Zuverlässigkeit der Ergebnisse?
  • Was ist der Unterschied zwischen Daten und statistischem Rauschen und was sind Daten überhaupt?

Biologen denken vielleicht, dass solche Fragen zwar interessant und wichtig sind, mit ihrem Arbeitsalltag aber kaum zu tun haben, für diesen wohl irrelevant sind.

Der folgende Text möchte dieser Ansicht entgegenwirken und einige der wichtigsten Herausforderungen in der Verwendung von Big Data in der Biologie herausstreichen.

Big Data-Biologie trifft auf biologischen Pluralismus

Die Biologie ist bekanntermaßen nach ihren Methoden, Instrumentarium, Konzepten und Zielen in Bereiche unterteilt. Selbst innerhalb ein und desselben Teilbereichs widersprechen sich aber unterschiedliche Arbeitsgruppen häufig hinsichtlich der bevorzugten Terminologie, der Modellorganismen und der experimentellen Methoden und Protokolle. Folglich kann sich ein Begriff auf verschiedene Vorgänge beziehen, aber es können auch unterschiedliche Definitionen für denselben Begriff gelten. Diese tiefgreifende Fragmentierung, die Philosophen als Pluralismus bezeichnen, spiegelt sich in den zahlreichen und Bereichs-spezifischen Standards wider, mit denen Daten generiert, gespeichert, gemeinsam genutzt und analysiert werden.

Wege zur Bekämpfung des Pluralismus zu finden, ist eine der größten Herausforderungen für die Big Data-Biologie.

Man kann diese Schwierigkeiten leicht als rein technische Fragen abtun, die man überwinden kann, indem man beispielsweise kompatible Datenbanken und Dateiformate verwendet, um Daten aus unterschiedlichen Quellen zu integrieren, sodass sie bei einer Vielzahl von Forschungskontexten verwendet und wiederverwendet werden können.

Es gibt jedoch tiefere konzeptionelle und philosophische Schwierigkeiten.

Zugriff auf Big Data

Auf Datenbanken muss über ein gemeinsames Abfragesystem zugegriffen werden. Dies wirft die Frage auf, welche Terminologien verwendet werden sollten, um die Daten zu klassifizieren und mit anderen Daten zu integrieren. Welche Auswirkungen hat eine solche Auswahl? Der beträchtliche Arbeitsaufwand bei der Entwicklung verlässlicher Abfragesysteme für biologische Datenbanken spricht für die Schwierigkeit dieser Aufgabe: Diese Schwierigkeit zeigt sich auch in den lebhaften Debatten über die Definitionen von Begriffen wie "Pathogen" und "Metabolismus" in der Gene Ontology - Datenbank (http://geneontology.org/; The Gene Ontology Consortium, 2019).

Die Auswirkungen auf die Big-Data-Biologie sind erheblich. Das computergestützte Data-Mining (Datenschürfen) von Big Data ist keineswegs „das Ende der Theorie“, sondern beinhaltet erhebliche theoretische Zugeständnisse. Die Auswahl und Definition von Schlüsselwörtern, die zum Klassifizieren und Abrufen von Daten verwendet werden, sind für die nachfolgende Interpretation enorm wichtig. Das Verknüpfen verschiedener Datensätze bedeutet, über die Konzepte zu entscheiden, durch welche die Natur am besten dargestellt und untersucht wird. Mit anderen Worten, die Netzwerke der Konzepte, die mit Daten in Infrastrukturen von Big-Data-verbunden sind, sollten als Theorien betrachtet werden: als Sichtweisen auf die biologische Welt, die wissenschaftliches Denken und Forschungsrichtungen leiten, die aber häufig überarbeitet werden, um neue Entdeckungen zu berücksichtigen. Die Suche nach Datenintegration im großen Maßstab macht es für alle biologischen Disziplinen erforderlich, solche Theorien zu identifizieren und deren Auswirkungen für die Modellierung und Analyse von Big Data zu diskutieren.

Klassifizierungen und Terminologien

Philosophen haben lange die theoretische Bedeutung von Praktiken zu Klassifizierungen und Bezeichnungen in der Biologie diskutiert - oft in Zusammenarbeit mit Taxonomen und gelegentlich mit Molekular- und Entwicklungsbiologen. Beispielsweise haben Forscher dem Konzept des Gens mehrfache Bedeutungen zugeschrieben; Philosophen haben es als Teil einer umfassenderen Untersuchung der geistigen Grundlagen und Auswirkungen des "molekularen Zugs" definiert, der die letzten 50 Jahre der biologischen Forschung dominiert hat.

Diese Studien zeigten, dass biologische Konzepte - egal wie beiläufig sie auch definiert werden - immer in breitere theoretische Vorstellungen eingebettet sind, wie die Natur arbeitet.

Dies bedeutet nicht, dass die Big-Data-Biologie vollständig durch bereits bestehende Hypothesen bestimmt wird. Sie greift vielmehr auf aktuelle Theorien und Hypothesen zurück, lässt diese jedoch keine Forschungsergebnisse vorgeben. Es ist auch wichtig zu beachten, dass Beobachtungen und Messungen unabhängig von der verwendeten Methode immer in einem bestimmten Rahmen liegen. Unabhängig davon, wie standardisiert wird, werden die zur Erstellung dieser Daten verwendeten Instrumente so gebaut, dass sie bestimmten Forschungsprogrammen entsprechen. Dies bedeutet also: wir müssen akzeptieren, dass keine Daten als „roh“ anzusehen sind, d.i. unbeeinflusst von menschlicher Interpretation.

Darüber hinaus können Daten unterschiedlich verarbeitet werden. Es ist daher wichtig, die konzeptionellen Entscheidungen zu verstehen, welche die Generierung und Klassifizierung von Daten geprägt haben. Forscher, die Big Data verwenden, müssen erkennen, dass die theoretischen Strukturen, welche die Produktion und Verarbeitung der Daten beeinflusst haben, ihre zukünftige Verwendung beeinflussen werden.

Man könnte fragen, ob Pluralismus ein Hindernis für die Integration von Daten aus verschiedenen Quellen und für die Gewinnung verlässlichen und genauen Wissens aus diesen Daten darstellt. Wissenschaftstheoretiker haben argumentiert, dass Pluralismus tatsächlich von Vorteil sein kann, wenn versucht wird Wissen über die hochkomplexen und variablen Prozesse in den Lebenswissenschaften zu gewinnen. Divergierende Traditionen der Forschung entstehen durch jahrhundertelange Feinjustierung von Instrumenten, um einen bestimmten Prozess oder eine bestimmte Spezies so detailliert wie möglich untersuchen zu können. Dies macht es zwar schwieriger, diese Tools und das daraus resultierende Wissen zu verallgemeinern, stellt jedoch auch sicher, dass die gesammelten Daten robust und die Schlussfolgerungen genau sind.

Für die Big-Data-Biologie ist es entscheidend, auf diesem Erbe aufzubauen, indem Wege geschaffen werden, mit Daten aus verschiedenen Quellen zu arbeiten, ohne deren Herkunft falsch zu interpretieren oder deren Einsichten in die Komplexität des Lebens einzubüßen.

Zur Beurteilung der Datenqualität

Biologen zeigen oft ein Unbehagen bezüglich der Qualität von Daten und Metadaten, die in Online-Datenbanken gefunden werden, insbesondere wenn die betreffenden Datenbanken nicht von Experten auf dem jeweiligen Gebiet und/oder für den jeweiligen Organismus kuratiert werden. Viele Datenbanken werden nicht einem Peer-Review unterzogen oder kuratiert, und selbst wenn sie es sind, sind Qualitäts- und Zuverlässigkeitsbewertungen häufig für bestimmte Forschungsbereiche spezifisch und können nicht ohne weiteres auf andere Forschungsbereiche oder andere Arten von Studien im selben Forschungsbereich übertragen werden.

Das Potenzial für einen Verlust der Datenqualität wächst, je mehr Datenbanken interoperabel werden, da eine umfassende Datenverbindung es unzuverlässigen Datenquellen ermöglicht, die Gesamtzuverlässigkeit von Online-Datensammlungen zu beeinträchtigen.

Dies ist ein weiterer Bereich, in dem Pluralismus ein Problem für die Big Data-Biologie zu sein scheint. Weist ein mangelnder Konsens hinsichtlich der Beurteilung der Qualität von Daten auf eine deutliche Schwäche hin, wie die Biologie Big Data-Forschung betreiben kann (und sollte)?

Eine mögliche Antwort besteht darin, dass man den Datenkomplex, auf den sich das Problem bezieht, in Frage stellt. Daten an sich als gut oder schlecht zu verstehen - unabhängig von Kontext und Untersuchungszielen - bedeutet, sie als statische Repräsentationen der Natur zu betrachten, die nützlich sind, weil sie ein Merkmal der Welt zu einem bestimmten Zeitpunkt und an einem bestimmten Ort genau und objektiv dokumentieren. Diese Sichtweise motiviert sicherlich die Suche nach endgültigen, universellen und kontextunabhängigen Methoden zur Beurteilung, welche Daten zuverlässig sind und welche es nicht sind. Dabei wird jedoch nicht berücksichtigt, dass Daten häufig extensiv erarbeitete Artefakte sind, die aus sorgfältig geplanten Interaktionen mit der Welt resultieren. Es wird auch der Beobachtung nicht gerecht, dass Biologen unterschiedliche Ansichten davon haben, was als verlässliche Daten oder überhaupt als Daten gilt. Was für eine Gruppe (und/ oder einen Forschungszweck) als Rauschen gilt, kann eine andere Gruppe daher als Daten betrachten.

Daten sind "relational"

Basierend auf diesen Erkenntnissen argumentiert die Autorin, dass Daten „relational“ - in Beziehung zu etwas zu sehen - sind: Mit anderen Worten, die Objekte, die am besten als Daten dienen, können sich je nach den Standards, Zielen und Methoden ändern, die zum Generieren, Verarbeiten und Interpretieren dieser Objekte als Beweismittel verwendet werden. Dies erklärt, warum sich die Beurteilung der Datenqualität immer auf eine bestimmte Untersuchung bezieht. Es ist auch darauf zurückzuführen, dass die Forscher nur ungern Datenquellen vertrauen, deren Herkunft nicht eindeutig dokumentiert ist, und dem damit verbundenen Drang, Metadaten über die Herkunft von Daten zu sammeln.

Datenwissenschaftler unterschätzen manchmal, wie wichtig es ist, Datenbanken mit den physischen Proben zu verknüpfen, aus denen die Daten ursprünglich gesammelt wurden (wie Gewebeproben, Zell- und Mikrobenkulturen). Es hat sich gezeigt, dass der Zugang zu Originalproben die Reproduzierbarkeit von Daten verbessert und Forschern bessere Möglichkeiten bietet, Experimente zu replizieren und Daten wiederzuverwenden. Der Zugang zu Originalproben bietet auch einen konkreten Punkt an dem sich Forschungstraditionen und -ansätze berühren, Unterschiede identifiziert und kritisch untersucht werden können.

Das Akzeptieren einer "relationalen" Sicht auf Daten bedeutet einen Übergang von generischen Ansätzen zur Datenkuration hin zu kontextsensitiven Ansätzen, die fein abgestimmte Deskriptoren für die Daten enthalten, auch wenn dies das Forschungstempo verlangsamen kann.

Schlussfolgerungen

Zweifellos hat Big Data Mining eine starke heuristische Funktion: Es ist oft der erste Schritt in jeder biologischen Untersuchung, um die Richtung und den Umfang der Forschung zu bestimmen. (Abbildung 2)

Abbildung 2. Big Data - Ein erster Schritt zu neuen Untersuchungen in den Lebenswissenschaften. (Bild: Pixabay, gemeinfrei.)

Mithilfe von Big Data können Biologen Muster und Trends effektiver erkennen, und in der Tat beginnen Philosophen zu erkunden, wie Data Mining dazu beitragen kann, mechanistische Hypothesen zu erforschen, zu entwickeln und zu überprüfen. Gleichzeitig zeigt die "relationale" Sicht, wie die Interpretation und Zuverlässigkeit der Schlussfolgerungen aus Big Data von zwei entscheidenden Faktoren abhängt: erstens von einem regelmäßigen Vergleich mit anderen Forschungsmethoden, Modellen und Ansätzen; und zweitens davon, dass die Daten in einen Kontext zur Sichtweise, den Zielen und Methoden des Untersuchers gesetzt werden.

Um eine "relationale" Sicht auf Daten zu haben, muss man die werte- und theorielastige Geschichte von Datenobjekten ernst nehmen. Dies fördert auch die Bemühungen, diese Historie in Datenbanken zu dokumentieren, so dass spätere Datennutzer die Qualität der Daten für sich selbst und nach ihren eigenen Standards beurteilen können.

Die automatisierte Datenanalyse bietet eine aufregende Aussicht auf biologische Entdeckungen. Menschliches Urteilsvermögen wird dabei keineswegs entbehrlich - die wachsende Leistungsfähigkeit von Rechenalgorithmen erfordert einen proportionalen Anstieg von kritischem Denken. Die Zusammenarbeit von Wissenschaftstheoretikern und Biologen kann dabei wesentliche Überlegungen fördern, welche Teile des Daten-Suchens und der Datenintegration mithilfe von Algorithmen durchgeführt werden sollten und wie Ergebnisse interpretiert werden sollten. Die Zusammenarbeit zwischen Philosophen und Bioinformatikern (und anderen Arten von Datenwissenschaftlern) kann der Entwicklung von Dateninfrastrukturen dienen, welche die Herkunft der Daten gebührend erfassen, und die Benutzer anregen, die Qualität und Relevanz der Daten in Bezug auf ihre Forschungsfragen einzuschätzen.


*Der von Sabine Leonelli (University Exeter, UK) stammende Artikel ist am 5, April 2019 unter dem Titel: " The challenges of big data biology" in den Collections "Philosophy of Biology" in eLife 2019;8:e47381 doi: 10.7554/eLife.47381. erschienen. Der unter einer cc-by-Lizenz stehende Text wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt, durch Abbildungen ergänzt, enthält aber keine Literaturzitate. Diese können im Originaltext nachgesehen werden.


Weiterführende Links:

  • Sabine Lionelli homepage: https://socialsciences.exeter.ac.uk/sociology/staff/leonelli/biography/

 

Artikel zu verwandten Themen in ScienceBlog.at:


 

Redaktion Thu, 25.04.2019 - 07:48

Ein Schalter reguliert das Kopieren menschlicher Gene

Ein Schalter reguliert das Kopieren menschlicher Gene

Do, 18.04.2019 - 07:06 — Patrick Cramer

vIcon BiologieUm die Erbinformation in Zellen zu nutzen, müssen Gene aktiviert werden. Die Aktivierung der Gene erfolgt während der sogenannten Transkription, eines Kopiervorgangs, bei der eine Kopie der DNA in Form von RNA erstellt wird. Der Biochemiker Patrick Cramer (Direktor am Max-Planck Institut für biophysikalische Chemie, Göttingen) erforscht mit seinem Team, wie die Kopiermaschinen ("RNA-Polymerasen") im Detail aufgebaut sind, wie sie arbeiten und gesteuert werden. Hier beschreibt er neueste Ergebnisse wie die Kopiermaschine RNA-Polymerase II mit Hilfe eines Schalters am Beginn eines Gens reguliert wird.*

Damit sich ein Organismus entwickeln kann, müssen zu bestimmten Zeiten und an bestimmten Stellen des Embryos Teile der Erbinformation aktiviert werden. Die Erbinformation liegt in allen Zellen in Form von DNA vor und umfasst Zehntausende von Genen. Diese werden durch den Prozess der Gen-Expression aktiviert.

Der erste Schritt dieses Prozesses, der zur Synthese von Proteinen führt, ist die Transkription. Während der Transkription eines Gens wird eine RNA-Kopie von einem DNA-Abschnitt erstellt. Die Transkription wird von Enzymen bewerkstelligt, den sogenannten RNA-Polymerasen.

Um zu verstehen, wie Gene aktiviert oder abgeschaltet werden, ist es notwendig, die Struktur und Funktion der RNA-Polymerasen zu studieren. Diese Untersuchungen müssen sowohl im Reagenzglas (in vitro) wie auch in der lebenden Zelle (in vivo) durchgeführt werden.

Der Genkopierer heißt RNA-Polymerase II

In eukaryotischen Zellen gibt es mehrere RNA-Polymerasen, die verschiedene Arten von Genen kopieren. Unter diesen hat die RNA-Polymerase II eine herausragende Bedeutung, da sie alle Gene kopiert, die Bauanleitungen für Proteine enthalten. Proteine nehmen im Organismus die unterschiedlichsten Funktionen wahr; sie sind für alle Lebensprozesse von essenzieller Bedeutung [1]. Unsere Arbeitsgruppe konnte Bilder der molekularen Struktur der RNA-Polymerase II in vielen verschiedenen Zuständen erhalten und daraus Filme über den Transkriptionsvorgang erstellen. Nun können wir dem Kopiervorgang in atomarem Detail zusehen.

Wie der Beginn des Gens gefunden wird

Vor kurzem konnten wir sogar in drei Dimensionen darstellen, wie die Transkription beginnt [2].

Die RNA-Polymerase II benötigt dazu mehrere zusätzliche Proteinfaktoren; nur so kann sie den Startpunkt der Transkription finden, die DNA-Doppelhelix öffnen und die Synthese der RNA-Kopie beginnen.

Die Strukturanalyse dieser Vorgänge ist äußerst schwierig, da viele Dutzend Proteinfaktoren beteiligt sind und der Prozess sehr dynamisch ist. Diese technischen Schwierigkeiten konnten durch eine Kombination verschiedener Methoden überwunden werden. Dabei spielen die Kryo-Elektronenmikroskopie, die Röntgenkristallografie und die Massenspektrometrie eine wichtige Rolle.

Die dank dieser Techniken ermittelte 3D-Struktur der RNA-Polymerase II zeigt das Enzym eingebettet in einen sogenannten Initiationskomplex, und diese Strukturbilder ermöglichen viele Einblicke in den Mechanismus des Beginns der Transkription. So konnten wir etwa vorschlagen, wie einer der beteiligten Faktoren die DNA öffnet und ins aktive Zentrum des Enzyms lädt, wo sie als Matrize für die RNA-Synthese dient.

Wenn der Kopiervorgang stockt

Nachdem die Transkription erfolgreich gestartet ist, bleibt die Polymerase allerdings oft gleich wieder stehen. Das Enzym pausiert dann ganz am Beginn des Gens und wartet auf weitere Signale der Zelle. Es ist schon lange bekannt, dass solche positiven Signale in der Lage sind, einen Austausch von negativen, hemmenden Faktoren gegen positive Faktoren zu bewerkstelligen und so dafür zu sorgen, dass die Polymerase bis ans Ende des Gens kopiert, sodass eine vollständige RNA-Kopie erstellt wird und nachfolgend das Gen in der Zelle aktiv ist.

Abbildung 1: Ein Schalter für die Genaktivierung. Gezeigt sind drei Strukturen der RNA Polymerase II (silber) mit verschiedenen Faktoren (farbig) an der DNA (blaue Doppelhelix). Die linke Struktur markiert den Beginn des Gens und stellt den Initiationskomplex dar. Die mittlere Struktur stellt die pausierte Polymerase mit einer kurzen RNA (rot) dar und birgt den hemmenden Elongationsfaktor NELF (orange, blau, magenta). Die rechte Struktur stellt die Polymerase mit aktivierenden Faktoren dar. Der Übergang von der pausierten in die aktivierte Form (grüner Pfeil) geschieht während der frühen Transkription am Beginn des Gens aufgrund positiver Signale in der Zelle. Die pausierte Polymerase wirkt sich negativ auf die Initiation aus (roter Pfeil). Die gezeigten Strukturen wurden durch eine Kombination von Kryo-Elektronenmikroskopie und Röntgenkristallografie ermittelt. © Max-Planck-Institut für biophysikalische Chemie/Cramer

Wir konnten nun mithilfe der Strukturbiologie zeigen, wie die Polymerase pausiert und wie sie wieder aktiviert wird [3, 4]. Ein negativer Faktor (NELF) ist dazu in der Lage, den inaktiven Zustand der pausierten Polymerase zu stabilisieren: In diesem inaktiven Zustand sind die DNA und RNA im aktiven Zentrum des Enzyms nämlich nicht korrekt angeordnet. Mehrere positive, aktivierende Faktoren (P-TEFb, PAF, SPT6) können nun wiederum den negativen Faktor NELF ablösen und so eine hohe Aktivität der RNA-Polymerase II bewirken. Ein Vergleich der Molekülstrukturen der pausierten und aktivierten RNA-Polymerase II konnte dies sehr eindrucksvoll zeigen (Abbildung 1).

Wie der Genschalter funktioniert

Trotz diesen detaillierten Einsichten blieb die Frage offen, wie es überhaupt möglich sein kann, dass Gene durch die Pausierung der Polymerase kontrolliert werden. Da die Pausierung oft nur einige Minuten besteht, die RNA-Synthese aber oft Stunden dauert, ist es keineswegs klar, wie durch eine Änderung der Pausierung die Menge an RNA-Produkt maßgeblich geändert werden kann. Mit anderen Worten:

Wie kommt es, dass kleine Änderungen in der Pausierung die Menge an synthetisierter RNA grundlegend modifizieren können?

Wir konnten dieses Rätsel mithilfe verschiedener Methoden der sogenannten funktionalen Genomik in Zellen und mittels Bioinformatik aufklären [5]. Uns gelang der Nachweis, dass die pausierte Polymerase am Beginn des Gens die Initiation der Transkription limitieren kann. Genau aufgrund dieser Tatsache beeinflusst die Dauer der Pausierung der Polymerase die Anzahl derjenigen Initiationsereignisse, die in einem gegebenen Zeitraum an einem Gen stattfinden könnten. Das wiederum führt zu einer Änderung der Anzahl an RNA-Produkten und somit der Genaktivität.

Dieser Mechanismus der Genkontrolle ist es, der wie ein Schalter für Gene wirkt; er geschieht besonders oft während der Differenzierung von Zellen in verschiedene Zelltypen. Zukünftig können wir nun, basierend auf dieser Erkenntnis, die Aktivierung von Genen während der Zelldifferenzierung studieren.


Literaturhinweise

  1. Hantsche, M.; Cramer, P.The structural basis of transcription: 10 years after the Nobel Prize in Chemistry. Angewandte Chemie International Edition 55, 15972-15981 (2016)
  2. Schilbach, S.; Hantsche, M.; Tegunov, D.; Dienemann, C.; Wigge, C.; Urlaub, H.; Cramer, P. Structures of transcription pre-initiation complex with TFIIH and Mediator. Nature 551, 204-209 (2017)
  3. Vos, S.M.; Farnung, L.; Boehning, M.; Wigge, C.; Linden, A.; Urlaub, H.; Cramer, P. Structure of activated transcription complex Pol II-DSIF-PAF-SPT6. Nature 560, 607-612 (2018)
  4. Vos, S.M.; Farnung, L.; Urlaub, H.; Cramer, P. Structure of paused transcription complex Pol II-DSIF-NELF. Nature 560, 601-606 (2018)
  5. Gressel, S.; Schwalb, B.; Decker, T.M.; Qin, W.; Leonhardt, H.; Eick, D.; Cramer, P. CDK9-dependent RNA polymerase II pausing controls transcription initiation. eLife 6: e29736 (2017). DOI

* Der im Jahrbuch 2019 der Max-Planck Gesellschaft unter dem Titel "Ein Schalter für menschliche Gene" erschienene Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert. Die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.


Weiterführende Links

Redaktion Thu, 18.04.2019 - 07:28

Personalisierte Medizin: Die CAR-T-Zelltherapie

Personalisierte Medizin: Die CAR-T-Zelltherapie

Do, 11.04.2019 - 07:06 — Norbert Bischofberger

vIcon MedizinDie CAR-T-Zelltherapie ist eine auf den individuellen Patienten zugeschnittene Behandlungsform, welche mit einem gentechnisch modifiziertem T-Zellrezeptor (CAR) die Fähigkeit menschlicher T-Zellen zur Erkennung und Eliminierung von Tumorzellen verstärkt. Seit den ersten klinischen Erfolgen vor rund sieben Jahren und der kürzlich erfolgten Markteinführung von zwei CAR-Konstrukten (Kymriah™ von Novartis und Yescarta® von KitePharma/Gilead) haben klinische Studien über sensationelle Heilungen von bereits austherapierten Patienten mit rezidivierenden Leukämien und Lymphomen berichtet. Der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio ) berichtet über das neue immunologische Prinzip dieser Tumortherapie.*

Ein kurzer Abriss der Krebstherapien

Lässt man die Behandlungsmethoden von Krebserkrankungen Revue passieren, so nahm die Chemotherapie in den 1940er Jahren ihren Anfang. Der erste Vertreter dieser Therapieform war Chlormethin - ein sogenannter Stickstofflost, der gleichermaßen gesunde wie entartete Zellen tötete (und ursprünglich als Kampfstoff entwickelt worden war; Anm. Redn). Zu einem Ersetzen der völlig unspezifisch wirkenden Substanzen kam es dann erst in den 1990er Jahren , mit sogenannten "Targeted Therapies" - zielgerichteten Ansätzen, in denen man Antikörper direkt gegen spezifische (übermäßig exprimierte) Moleküle auf der Oberfläche der Tumorzelle richtete, welche diese zur Teilung, zu unkontrolliertem Wachstum und zur Metastasierung anregen. Beispiele sind Antikörper wie Avastin, welcher die Angiogenese (Bildung neuer Blutgefäße) und damit die Versorgung des Tumors mit Sauerstoff und Nährstoffen blockiert, sowie Antikörper gegen den Rezeptor des Epithelialen Wachstumsfaktors (EGF), der eine zur Zellteilung führende Signalkaskade in den Tumorzellen auslöst.

Mit zunehmenden Einblicken in die Tumorbiologie kam es im letzten Jahrzehnt zu beachtlichen therapeutischen Fortschritten. Um 2010 wurden die ersten "Checkpoint Inhibitoren" eingeführt. Es werden dabei sogenannte Checkpoints des Immunsystems blockiert, an denen Tumorzellen die Immunantwort des Wirts abschalten können. Diese Checkpoint-Inhibitoren sind also Immunstimulantien; sechs derartige Medikamente - es sind Antikörper - sind in den US und auch in Europa zugelassen. Für ihre bahnbrechenden Arbeiten, die ein ganz neues Verfahren der Krebsbehandlung begründet haben, wurden James P. Allison und Tasuku Honjo mit dem Nobelpreis 2018 für Medizin ausgezeichnet. Die aktuelle, jüngste Entwicklung ist eine personalisierte, also für den Patienten maßgeschneiderte (individualisierte) Zelltherapie. Es ist eine Immuntherapie, bei der T-Lymphozyten (kurz T-Zellen) eines Patienten im Labor gentechnisch so verändert werden, dass sie spezielle Oberflächenproteine auf den Krebszellen erkennen und -in den Patienten zurückinfundiert - eine Immunantwort auslösen, die zur Zerstörung der Krebszellen führt. Zwei derartige Behandlungsformen - sogenannte CAR-T-Zelltherapien - wurden kürzlich in den USA und auch in der EU (im August 2018) zugelassen: Kymriah™(Novartis) zur Behandlung von akuter lymphatischer Leukämie bei Kindern und jungen Erwachsenen bis 25 Jahren und Yescarta® (Kite Pharma/Gilead) zur Behandlung erwachsener Lymphom-Patienten.

Wie erkennen T-Zellen aber Tumorzellen und zerstören diese dann?

Dazu müssen zwei Wechselwirkungen erfolgen, die Signale in der T-Zelle auslösen. Erst beide Wechselwirkungen zusammen führen zur Aktivierung der T-Zelle und diese zerstört in Folge die Tumorzelle (Abbildung 1).

  • Signal 1: Der sogenannte T-Zell-Rezeptor (TCR), ein auf der Oberfläche der T-Zelle verankerter, aus mehreren Proteinen bestehender Komplex, erkennt ein Tumor-spezifisches Antigen (ein Peptid, das auf der Tumorzelle präsentiert wird) und bindet daran. Dies reicht aber zur Aktivierung der T-Zelle noch nicht aus.
  • Signal 2: Es wird ein sogenanntes kostimulatorisches Signal benötigt, das durch Bindung des Oberflächenproteins CD28 der T-Zelle an das Protein CD80 auf der Tumorzelle bewirkt wird.

Abbildung 1. Die Aktivierung der T-Zelle benötigt 2 Signale. Die Bindung des an der Oberfläche der Tumorzelle präsentierten Antigens an den T-Zellrezeptor löst das erste Signal aus. Ein zweites, kostimulatorisches Signal wird durch die Wechselwirkung des Oberflächenproteins CD28 mit CD80 (CD86) auf der Tumorzelle generiert .In Folge werden Zytokine freigesetzt, welche die Immunantwort steuern.

Vom T-Zellrezeptor (TCR) zum Chimären Antigenrezeptor (CAR)

Der TCR ist ein Komplex aus mehreren unterschiedlichen Proteinen (Abbildung 2a). Aus dem TCR wird ein sogenannter chimärer Antigenrezeptor" - CAR -erzeugt, indem die intrazelluläre Domäne aus dem TCR, die sogenannte Zeta-Domäne, mit einem Fragment aus der variablen Domäne eines Antikörpers kombiniert wird, das ein möglichst nur auf der Tumorzelle vorkommendes Antigen spezifisch bindet.

Anfängliche Versionen von so generierten CAR-T-Zellen waren allerdings wenig erfolgreich. Dies änderte sich erst als man erkannte, dass die kostimulatorische Domäne wichtig ist; man fügte die CD28- Domäne (und/oder auch die kostimulatorische Domäne 4-1BB) in den chimären Rezeptor ein. CAR-T-Zellen der 3. Generation arbeiten nun mit zwei kostimulatorischen Domänen; dadurch wird die Aktivierung der T-Zellen verstärkt. Die chimären Rezeptoren vereinigen also beide Funktionen: spezifische Antigen Bindung und T-Zell Aktivierung in einem Molekül (Abbildung 2B).

Abbildung 2. Vom T-Zellrezeptor zum chimären Antigenrezeptor (CAR). Das Design des CAR enthält eine extrazelluläre Domäne, welche mittels Antikörperfragmenten VL und VH ein auf der Tumorzelle präsentiertes Antigen spezifisch bindet, eine Transmembransequenz, die für die Verankerung in der Zellmembran verantwortlich ist und eine intrazelluläre Signalsequenz, welche die Aktivierung der T-Zelle auslöst.

Der Beginn eines Erfolgs

Wie viele Dinge in der Medizin und in der Wissenschaft fing es mit einem Zufall an. Emily Whitehead, ein kleines Mädchen in Pennsylvania litt an der bei Kindern häufigsten Krebserkrankung, der akuten lymphatischen Leukämie (ALL). ALL ist mit Chemotherapie recht gut behandelbar, 85 % der Patienten sprechen darauf an und in den meisten Fällen bleibt ALL eine Kinderkrankheit. Für die 15%, die nicht darauf ansprechen, ist die Prognose allerdings sehr schlecht. Emily Whitehead gehörte zu diesen Unglücklichen; nach mehreren von Rückfällen gefolgten Zyklen Chemotherapie wurde ihr - wie so oft in der Medizin -empfohlen- nach Hause zu gehen, weil man nichts mehr für sie tun könne.

Die Eltern gaben aber nicht auf. Sie hörten von einer neuen Zelltherapie, die im Rahmen einer klinischen Studie am Cancer Center des Children Hospital of Philadelphia verfügbar war. Man ging dorthin, das Mädchen wurde mit der CAR-T -Zell Therapie behandelt und erlebte eine wundersame Genesung. (Seit mehr als 6 Jahren gilt sie als geheilt; Anm. Redn.)

Dazu gibt es allerdings eine Randbemerkung.

Derartige Zelltherapien sind nicht ohne Risiken, es kann sich ein lebensbedrohender Zustand daraus entwickeln. Das passierte auch in diesem Fall. Die Ärzte überwachten die Zytokinspiegel des Mädchens und beobachteten einen enormen Anstieg des sogenannten Interleukin 6 (IL-6; ein Schlüsselprotein in Entzündungsprozessen, Anm. Redn.). Durch puren Zufall hatte die Spitalsapotheke Tocilizumab - einen Antikörper gegen IL-6 - verfügbar, der eigentlich für die Behandlung von Rheumatoider Arthritis zugelassen ist. Damit konnte IL-6 blockiert und das Leben des Mädchens gerettet werden. Ohne einen solchen Antikörper wäre das Mädchen gestorben und mit ihm vermutlich das ganze neue CAR-TC-Gebiet.

Wie geht man in der CAR-T-Zelltherapie vor?

Diese Zelltherapie besteht aus fünf aufeinanderfolgenden Schritten, die in Abbildung 3 schematisch dargestellt sind. Erst wird das Blut eines Patienten abgenommen, einer Leukophorese unterzogen und es werden die T-Zellen isoliert (1). Dann wird das für ein Tumorantigen spezifische CAR-Konstrukt über einen Vektor in die DNA der T-Zellen eingebaut (2). Zellen, die nun an ihrer Oberfläche das CAR-Protein exprimieren werden anschließend in Kultur gebracht und vermehrt ("expandiert") (3) und schließlich in den Patienten infundiert (4). Hier binden die CAR-T-Zellen an die Tumorzellen und zerstören diese (5). (Da Abnahme des Bluts und Reinfundierung am selben Patienten erfolgen, spricht man von autologer T-Zelltherapie.)

Abbildung 3. Personalisierte Krebstherapie: Wie T-Zellen verändert werden, sodass sie nun die Tumorzellen eines Patienten angreifen und zerstören. Die aufwendige, auf jeden Patienten zugeschnittene Herstellung der CAR-T-Zellenbedingt sehr hohe Therapiekosten: Das für ALL zugelassene Kymriah™(Novartis) wird um über 400 000 US$ gehandelt, Yescarta® (Kite Pharma/Gilead) zur Behandlung erwachsener Lymphom-Patienten mit rund 300 000 US$. (Bild und Text von der Redn.zugefügt; das Bild ist gemeinfrei und stammt aus: National Cancer Institute;CMS ID: 1126719; NCI Annual Plan and Budget Proposal FY 2020.)

Erfolge der CAR-T-Zelltherapie bei malignen hämatologischen Erkrankungen

Sehr viele maligne hämatologische Erkrankungen - Lymphome, Leukämien - werden durch anormale B-Lymphozyten verursacht. B-Zellen, wie auch T-Zellen leiten sich von der lymphoiden Linie der auf eine Stammzelle zurückgehenden Blutzellen ab. (Die andere - myeloide - Linie generiert Granulozyten, Erythrozyten, Thrombozyten, Makrophagen und Mastzellen).

Betrachtet man die Differenzierung von B-Zellen - von der Stammzelle zur Plasmazelle - so findet man mit Ausnahme der Stammzelle das Oberflächenprotein CD19 auf der B-Zelle in allen Stadien der Differenzierung exprimiert. CD19 ist damit ein optimales Zielmolekül für CAR-T-Zellen - man will ja anormale B-Zellen und nicht die Stammzellen und damit das gesamte Knochenmark auslöschen.

In der CAR-T-Zell Therapie werden nun die isolierten T-Zellen eines Patienten mit einem gegen CD19 gerichteten CAR-Konstrukt (Anti-CD19-CAR) transfiziert, expandiert und dem Patienten dann wieder infundiert. Die Anti-CD19 T-Zellen erkennen die abnormen B-Zellen und töten sie ab.

Die bis jetzt mit CD19 CAR-T-Zellen erhobenen klinischen Ergebnisse an einer größeren Zahl von Patienten mit rezidivierter akuter lymphatischer Leukämie zeigen eine Therapie, die alles verändert: 80% der Patienten erreichen eine langfristige Remission (ich scheue mich das Wort Heilung zu verwenden); für Menschen, die sonst eine Lebenserwartung von durchschnittlich 3 Monaten gehabt hätten, ist dies ein Wunder.

Dass solche Zelltherapien nicht ohne Risiken sind, habe ich bereits erwähnt. Es gibt zwei Arten von lebensbedrohenden Nebenwirkungen: den sogenannten Zytokinsturm und schwerste neurotoxische Auswirkungen. In der Mehrzahl der Fälle lassen sich beide Nebenwirkungen beherrschen und sind dann reversibel - Ärzte haben gelernt, damit umzugehen. Die Häufigkeit solcher Nebenwirkungen hat sich seit den ersten Anwendungen der CAR-T-Zellen stark verringert.

Wie geht es weiter mit der T-Zell Therapie?

Die eigenen Immunzellen so modifizieren zu können, dass sie Krebszellen erkennen und effizient eliminieren, bedeutet eine Revolution in der Tumortherapie. Entsprechend intensiv wird an der Optimierung von CAR-Konstrukten für diverse Indikationen geforscht und mehrere Hundert klinische Studien mit CAR-T-Zellen sind in Planung und im Laufen. Abbildung 4.

Wesentliche Aspekte sind dabei Verbesserung und Kontrolle der T-Zellaktivierung, höhere Spezifität der T-Zellen, Verhinderung eines Entkommens der Tumorzellen, Reduktion der Nebenwirkungen und vor allem Ausweitung der Therapien auf solide Tumoren.

Abbildung 4. CAR T-Zell Therapie: Registrierte klinische Studien und wo diese stattfinden/ stattfanden. (Bild links: aus the NCI Annual Plan and Budget Proposal FY 2020; rechts: CAR-T-cell therapy - Results on Map - ClinicalTrials.gov. https://clinicaltrials.gov/ct2/results?cond=&term=CAR-T-cell+therapy&cntry=&state=&city=&dist=. gemeinfrei)

Anschalten der Aktivierung

Ein Problem der CAR-T-Zellen besteht darin, dass man die Kontrolle über sie verliert, sobald sie in den Patienten infundiert werden. Man kann gegen ihre schweren Nebenwirkungen vorgehen, aber man weiß nicht wirklich, was diese aktivierten Zellen tun. Eine Lösung dafür besteht darin das CAR-Konstrukt so zu organisieren, dass es erst in situ durch einen Schalter auf "on", d.i. auf Aktivierung der Zelle, gestellt werden kann. Technisch lässt sich dies so lösen, dass die beiden Domänen: extrazelluläre Domäne der Antigenerkennung und intrazelluläre Aktivierungsdomäne in der Zellmembran als separierte Fragmente vorliegen. Durch Zusatz von bestimmten bereits zugelassenen Arzneistoffen (beispielsweise funktionieren hier kleine Moleküle vom Typ des Rapamycin; Anm. Redn.) können die beiden Fragmente dann "vereinigt" - dimerisiert - und damit die CAR-T-Zellen aktiviert werden.

Erhöhung der Spezifität von CAR-T-Zellen

Ein erhebliche Limitierung für die CAR-T-Zelltherapie ist es ein Zielantigen zu finden, das ausschließlich auf der Tumorzelle vorkommt, aber auf keinem anderen der 200 Zelltypen des Menschen zu finden ist. Wird das Antigen auch auf einer normalen Zelle exprimiert, so kann dies zu schwersten Toxizitäten führen (wie beispielsweise im Fall einer Brustkrebspatientin, deren Tumor den Wachstumsfaktor HER-2 überexprimierte. Da HER-2 aber auch auf Lungenzellen vorkommt, griffen die CAR-T-Zellen auch diese Gewebe an und die Patientin starb an einem Lungenödem).

Eine mögliche Strategie ist hier in einer T-Zelle zwei unterschiedliche CAR gegen zwei verschiedene Tumorantigene zu exprimieren, wobei eine Aktivierung der T-Zelle nur dann eintritt, wenn beide Antigene auf der Tumorzelle exprimiert sind (die Bezeichnung dafür: AND-gate stammt aus der Halbleitertechnik).

Das ultimative Ziel: Immunotherapie solider Tumoren…

Solide Tumoren sind ungleich komplexer als maligne hämatologische Erkrankungen. Wenn man - z.B durch Abtasten oder durch Magnetresonanzuntersuchung - einen soliden Tumor feststellt, so hat dieser bereits einen Durchmesser in der Größenordnung von 2 cm, besteht aus über einer Milliarde Zellen, hat sich differenziert und ist viele Male mutiert (in vielen Tumoren bewegt sich die sich die Zahl der Mutationen zwischen 15 und 150 pro exprimiertem Gen; Anm. Redn). Geeignete Zielantigene zu identifizieren ist - wie oben erwähnt - sehr schwierig; auch können Krebszellen im Lauf der Differenzierung solche Antigene verlieren und damit der Immuntherapie entkommen.

Eine Möglichkeit besteht hier darin die Taktik zu nutzen, mit der unser körpereigenes Überwachungssystem - in Form patrouillierender T-Zellen - laufend normale und entartete Zellen erkennt und die entarteten eliminieren kann.

…via Erkennung von Neoantigenen

Diese Erkennung erfolgt über Fragmente - kurze Peptide -, die beim Abbau der zellulären Proteine entstehen und an der Oberfläche der Zellen gebunden an die Proteine des Haupthistokompatibilitätskomplex (MHC) präsentiert werden. Während der T-Zellrezeptor mit den aus körpereigenen Proteinen entstandenen Peptid-Komplex nicht interagiert (sogenannte Selbsttoleranz), bindet er an solche aus mutierten (und fremden) Proteinen und kann so die Zerstörung der entarteten Zelle einleiten. Solche Neoantigene sind also tumorspezifisch - nicht auf anderen Zelltypen anzutreffen - und damit als Zielmoleküle für das Design von effizienten CAR-Konstrukten ohne Organtoxizität besonders geeignet.

Der Weg zu solchen Konstrukten ist allerdings sehr aufwendig: Die Identifizierung des großen Repertoires an Mutationen erfolgt aus dem Tumormaterial des Patienten mittels hochsensitiver Sequenzierung (deep sequencing) des Exoms (d.i. dem Protein-kodierenden Teils des Genoms). Daraus werden dann mittels analytischer Verfahren (Massenspektrometrie) und auch durch in silico Methoden und Modellierungen solche Fragmente herausgefiltert, die wahrscheinlich als potente Neoantigene in Frage kommen, die dann in Funktionstests validiert werden.

Fazit: Mutationen, die zu Entstehung und Wachstum eines soliden Tumors führen, können also auch Zielstrukturen für die Immunzellen darstellen, um den Tumor in Schach zu halten.


* Dies ist der dritte Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (24.05.2018:Auf dem Weg zu einer Medizin der Zukunft.). Teil 2 hat über Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie berichtet (16.08.2018:Mit Künstlicher Intelligenz zu einer proaktiven Medizin) Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Immunonkologie – Dr. Johannes Wimmer erklärt die CAR-T-Zell-Therapie 3:08 min.

Publikationen zur CAR-T-Zelltherapie:
https://www.creative-biolabs.com/car-t/references.aspx

Redaktion Thu, 11.04.2019 - 07:02

Pharma im Umbruch

Pharma im Umbruch

Sa, 24.02.2019 - 02:38 — Inge Schuster

vIcon MedizinIm letzten Jahrzehnt hat ein Paradigmenwechsel stattgefunden: der Pharmasektor hat sich von Produkten mit relativ niedriger Gewinnspanne aber riesigem Markt auf den Weg zu personalisierten Therapien - also kleiner Markt und enorm hoher Preis - begeben und einige Durchbrüche in der Behandlung von Subtypen von Krankheiten und sogenannten seltenen Krankheiten erreicht (die dann allerdings extrem teuer sein konnten).

Eine Jubelmeldung im Jänner 2019: Die alles dominierende US-amerikanische Behörde FDA - zuständig für die Überwachung von Lebensmitteln (Food) und Zulassung neuer Arzneimittel (and Drugs)- hat 2018 die seit langem höchste Zahl an neuen Arzneimitteln zugelassen (1). Nach einer von 2000 bis 2010 dauernden Flaute waren ab dann die Zulassungen gestiegen und haben 2018 mit insgesamt 59 neuen Medikamenten ein Allzeithoch erlebt. Abbildung 1. An der Spitze der Indikationen stand mit 26 % die Onkologie. Wie auch in den letzten Jahren waren bereits rund ein Drittel der neuen Arzneimittel Biologika, d.i. mittels biotechnologischer/gentechnischer Methoden hergestellte Proteine (zumeist Antikörper) oder Nukleinsäuren.

Abbildung 1. Nach einem jahrelangen Einbruch hat In den letzten Jahren die Zahl der neuzugelassenen Arzneimittel wiederzugenommen; bereits ein Drittel davon sind Biologika. (Daten aus Nature Drug Discovery, https://www.nature.com/articles/d41573-019-00004-z.(1) Analysiert man die Neuzulassungen im Detail, so zeigt sich, dass sich gegenüber der Vergangenheit Grundlegendes verändert hat:

  • Der Großteil der Neuzulassungen - 58 % - widmet sich nun sogenannten "orphan diseases". Es sind dies seltene Krankheiten, die bezüglich ihrer Schwere und Inzidenz in einzelnen Ländern unterschiedlich definiert werden; in der EU sind davon weniger als 1 von 2000 Patienten betroffen, in den USA weniger als 1: 1500.
  • Bei nur rund 20 % der Neuzulassungen erwartet man, dass sie sich zu sogenannten Blockbustern entwickeln werden, d.i . Umsätze von mindestens 1 Milliarde US-Dollar im Jahr erzielen werden.
  • Neue Player sind ins Spiel gekommen: Der Anteil der von Big Pharma - den Top 20 Pharmakonzernen - erzielten Zulassungen ist von rund 70 % in den Jahren 2010 - 2014 auf nun rund 37 % gesunken.

Die Zeit von "Eine Pille für alle" scheint vorbei zu sein…

Noch bis vor wenigen Jahren war die Größe des voraussichtlichen Markts dafür ausschlaggebend ob ein neuer Wirkstoff entwickelt oder fallengelassen wurde. Schließlich sollten zumindest die Kosten der Forschung und Entwicklung (F&E) eines neuen Arzneimittels wieder herein gespielt werden. Vor allem infolge immer rigoroserer Auflagen in den Phasen der klinischen Prüfung waren diese Kosten in den letzten Jahrzehnten enorm gestiegen - von im Mittel 413 Mio US $ im Zeitraum 1985 - 1995 auf 2,5 Mrd US $ in den Jahren 2006 - 2015 (2). Dies führte auch zu einer Entwicklungsdauer, die nun bis zur Zulassung rund 13 Jahren dauert, sodass bei einem Patentschutz von 20 Jahren rund 7 Jahre bleiben, in denen ein neues Medikament am Markt Alleinstellung hat, bevor dann billige Generika in Konkurrenz treten. Abbildung 2.

Abbildung 2 – 2. Der lange Weg der Forschung & Entwicklung (R&D) eines neuen chemisch-synthetischen Arzneimittels (NCE; new chemical entity) oder biologischen Arzneimittels (nbe; new biological entity. (Bild: https://efpia.eu/media/361960/efpia-pharmafigures2018_v07-hq.pdf ; cc-by-nc.)

Blockbuster für den Einsatz bei chronischen Erkrankungen…

In Hinblick auf einen möglichst großen Markt konzentrierte man sich daher auf chronische Erkrankungen, von denen Millionen Menschen betroffen sind - Herz-Kreislauferkrankungen, Diabetes, Arthritis, etc. Synthetisch hergestellte Substanzen (kleine Moleküle - NCEs) für derartige Indikationen können bei relativ billigen Abgabepreisen dennoch Milliarden Umsätze erzielen - Blockbuster werden - und damit die enorm hohen Kosten ihrer Entwicklung in kurzer Zeit herein spielen (und auch für die anderen weniger erfolgreichen neuen Arzneimittel aufkommen: nur 2 von 10 neue Medikamente erzielen Gewinne, welche die Gestehungskosten decken).

…und die Patentklippe ("patent cliff"),…

Ab 2012 begannen die Patente auf zahlreiche der in den 1990er Jahren eingeführten niedermolekularen Blockbuster auszulaufen und die Umsätze brachen abrupt ein. Die Pharmazeutische Industrie stand vor einer neuen Herausforderung - der Patentklippe:

Jahrelang hatte der Cholesterinsenker Lipitor von Pfizer mit jährlichen Umsätzen bis über 12 Milliarden US Dollar den Rekord unter den Blockbustern gehalten, wurde quer durch die gesamte Weltbevölkerung verschrieben. Mit dem Auslaufen des Patents (2011 - 2012) und dem Umstieg auf billige Generika, brach der Umsatz auf nun knapp 2 Milliarden US Dollar ein. Große Verluste für Pfizer bedeuten auch das Auslaufen anderer Patente, u.a. auf das gegen Neuropathien und Muskelschmerzen angewandte Lyrica (Umsatz 2018: 5 Mrd US $) und Viagra (Umsatz 2016: > 1,5 Mrd US $). Auch andere Konzerne erlitten beträchtliche Verluste. Um nur einige Blockbuster zu nennen, die heute bereits weitestgehend durch Generika ersetzt sind: Plavix (Bristol-Myers-Sqibb), Diovan (Novartis), Singulair (MSD), Zyprexa (Lilly).

…die bei Biologika weniger dramatische Folgen haben dürfte

Zu einem Auslaufen der Patente kommt es auch bei einer Reihe von Biologika, die besonders teuer sind und - bei diversen Krebserkrankungen und/oder Autoimmunerkrankungen angewandt - einen großen Markt bespielen. Insbesondere der Pharmariese Roche ist mit seinen Antikörpern Rituxan, Herceptin und Avastin davon betroffen, die zusammengenommen mit rund 20 Mrd US $ etwa 40 % des jährlichen Umsatzes von Roche ausmachen. Auch das umsatzstärkste biotechnologisch hergestellte Medikament Humira (von Abbvie), mit derzeit rund 19 Mrd US $ im Jahr, hat in der EU bereits 2018 den Patentschutz verloren.

Das Problem einer Konkurrenz durch billige Nachfolgeprodukte ist bei Biologika derzeit allerdings wesentlich geringer als bei den niedermolekularen Substanzen. Versuchen andere Hersteller solche komplexen Biomoleküle zu kopieren, so erfordert dies eine ziemlich lange (durchschnittlich 6 Jahre dauernde)und dementsprechend kostspielige Forschungs- und Entwicklungsarbeit, die sich dann, verglichen mit dem Original, in einem nur wenig niedrigeren Preis niederschlägt und zudem kaum zu identen Produkten - Generika - sondern zu sogenannten Biosimilars führt. Diese können gegenüber dem Original veränderte Wirksamkeiten/Nebenwirkungen aufweisen, sodass nach wie vor die originalen Brands bevorzugt werden und die zu erwartenden Umsatzeinbußen wesentlich niedriger ausfallen. Prognosen für das oben erwähnte Humira rechnen mit einem Umsatzverlust von nur etwa 20 % im Jahr 2022 [3].

Ein Umdenken in den Führungsetagen von Big Pharma

Insgesamt betrachtet betrifft das Auslaufen von Patenten im Zeitraum 2012 - 2020 Arzneimittel mit jährlichen Umsätzen von rund 280 Mrd US $, davon rund 31 Mrd. allein im Jahr 2018 (Schätzungen von EvaluatePharma (4)). Zweifellos schafft dies hervorragende Voraussetzungen für Firmen, die Generika herstellen.

Für Big Pharma hat dies über mehrere Jahre hinweg aber sinkende Umsätze und parallel dazu fallende Aktienkurse bedeutet. Dazu ließen schwache "pipelines" (d.i. Substanzen in präklinischer und klinischer Entwicklung) kaum gesteigerte Hoffnung auf Blockbuster der alten Art - gegen chronische Krankheiten mit großem Marktpotential -aufkommen; die "low-hanging fruits" waren offensichtlich bereits gepflückt worden.

Kleiner Markt - hochpreisige Arzneimittel

Ein Umdenken setzte ein, als einige Unternehmen mit hochwirksamen Arzneimitteln Durchbrüche bei seltenen Krankheiten mit vordem geringen Überlebenschancen erreichten und sehr hohe Preise für die Therapien ansetzten.

Dies war beispielsweise der Fall bei dem von Novartis entwickelten Glivec, das spezifisch bei chronisch myeloischer Leukämie wirkt und lebenslang genommen werden muss. Bei jährlichen Kosten in Europa von rund 40 000 € (in den US rund doppelt so viel) bescherte dies Novartis - trotz des kleinen Marktes - über Jahre Umsätze von über 4 Mrd US $ (bis 2016 das Patent auslief).

Vor allem war der Erfolg des US-Pharmaunternehmens Gilead beeindruckend, das 2013 mit Solvadi erstmals ein (niedermolekulares) Medikament auf den Markt brachte, das bis zu 95 % der an Hepatitis C Erkrankten heilen konnte. Die Nachfrage war enorm und die anfänglich sehr hohen Preise (84 000 US $) für die 12 Wochen dauernde Therapie ließen den weltweiten Umsatz im Jahr 2014 bereits auf über 10 Mrd US $ hochschnellen. Verhandlungen mit dem Hersteller und auch beginnende Konkurrenz haben die Behandlungskosten (in der EU nun rund 30 000 €) und damit den Umsatz deutlich reduziert.

Für die Indikation Mukoviszidose - eine seltene Erkrankung (einige Hundert Fälle in Österreich) hat die US-Firma Vertex Symdeko auf den Markt gebracht. Anders als bei Solvadi bringt die Behandlung mit Symdeko Besserung aber keine Heilung und muss daher lebenslang fortgesetzt werden. Bei aktuellen monatlichen Kosten von 13 000 US $ kann Vertex mit jährlichen Umsätzen von mehreren Mrd. US $ rechnen.

Extrem teuer sind auch erfolgsversprechende neue Entwicklungen in der Tumortherapie, die das körpereigene Immunsystem so aufrüsten, dass es bestimmte Tumorzellen erkennen und zerstören kann. Sogenannte Checkpoint-Inhibitoren wie das bei metastasierendem Melanom und fortgeschrittenen nicht-kleinzelligen Lungenkarzinom angewandte Nivolumab ("Opdivo", Bristol Myers Squibb) oder das für diese und weitere onkolologische Indikationen zugelassene Pembrolizumab ("Keytruda", Merck) haben im Jahr ihrer Einführung (2014) über 100 000 US $ pro Behandlungszyklus gekostet. Umsätze von 3,8 Mrd $ (Keytruda) und 5,7 Mrd US $ (Opdivo) werden laut Prognosen auf 12, 7 und 11,2 Mrd US $ im Jahr 2022 ansteigen.

Aus heutiger Sicht noch kostspieliger gestaltet sich die CAR T-Zelltherapie - eine auf jeden Patienten persönlich zugeschnittene Tumortherapie, in der die Immunzellen jedes einzelnen Patienten entnommen, spezifisch für seine Krebszellen scharf gemacht und dann wieder in den Patienten infundiert werden. Für die 2017 und 2018 zugelassenen CAR-Konstrukte KymriahTM gegen akute lymphatische Leukämie bei Jugendlichen (Novartis) und Yescarta R gegen Lymphome Erwachsener(Gilead) ergeben sich Behandlungskosten von 300 000 bis über 400 000 US $ pro Zyklus.

Strukturwandel im Pharmasektor

Im letzten Jahrzehnt hat ein Paradigmenwechsel stattgefunden: der Pharmasektor hat sich von Arzneimitteln mit relativ niedriger Gewinnspanne aber riesigem Markt auf den Weg zu personalisierten Therapien begeben und einige Durchbrüche in der Behandlung von Subtypen von Krankheiten und sogenannten seltenen Krankheiten erreicht (die dann allerdings extrem teuer sein konnten). Dementsprechend setzen sich die aktuellen Pipelines nun zusammen: sie enthalten mehr und mehr Produkte - niedermolekulare Verbindungen wie auch Biologika -, die gegen spezifische Subtypen von Erkrankungen und gegen bestimmte seltene Krankheiten Wirkung versprechen. (Nach wie vor erreichen aber nur die wenigsten der am Ende der präklinischen Entwicklung verbliebenen Hoffnungsträger die Marktzulassung ).Vor allem in der Onkologie sind Biologika zu wesentlichen Umsatzträgern geworden; Gentherapie und Zelltherapien stehen im Fokus vieler Konzerne.

Dass bei seltenen Erkrankungen, bei personalisierter Therapie viel weniger Patienten rekrutiert werden können und müssen, um den klinischen Erfolg eines Arzneimittels zu demonstrieren, dass solcherart gefundene Therapeutika wesentlich weniger aggressives Marketing benötigen um wirtschaftlich erfolgreich zu sein, führt zu einem Umbau altgewohnter Strukturen. Big Pharma ist also im Umbruch: weg von alten, weniger erfolgversprechenden Sparten und hin zu neuen, medizinisch herausfordernden (und voraussichtlich lukrativen) Gebieten, für die das dazu nötige Know-How um Milliarden eingekauft wird. Es braucht aber auch kreative Forscher , welche die wissenschaftlichen Grundlagen erarbeiten und verstehen sollten. Vas Narasimhan, seit einem Jahr CEO von Novartis, hat in einem Interview ausgedrückt, wie primitiv unser Wissen über den menschlichen Organismus ist (5):

"Man vergisst oft, ist wie unglaublich schwierig es ist überhaupt ein Arzneimittel für den Menschen zu finden. Jeder Mensch besteht aus 40 Billionen Zellen, die zusammenwirken. Nur von einem Bruchteil der Proteine verstehen wir, was sie tun; ein Bruchteil kann als Zielstrukturen für Arzneimittel dienen ("drugable"). Wir wissen nicht, was der Großteil der RNA macht, die nicht kodierende RNA, was der überwiegende Teil des Genoms erzählt. Seit der Gründung der FDA (vor mehr als 100 Jahren; Anm. Redn.) sind insgesamt nur etwa 1500 neue Wirkstoffe entdeckt worden, ......jedes neue Arzneimittel ist wie ein Wunder. "


(1) 2018 FDA drug approvals. News 15.01.2019. https://www.nature.com/articles/d41573-019-00014-x

(2) efpia, The Pharmaceutical Industry in Figures. Key Data 2018. https://efpia.eu/media/361960/efpia-pharmafigures2018_v07-hq.pdf

(3) Top 50 Arzneimittel weltweit nach Umsatz im Jahr 2017 und Prognose für das Jahr 2014. (https://de.statista.com/statistik/daten/studie/312865/umfrage/arzneimitt...).

(4) http://www.evaluate.com/products-services/pharma

(5) a16zPodcast: The Science and Business of Innovative Medicines (01.2019). Vas Narasimhan im Interview. https://a16z.com/2019/01/13/pharma-business-innovation-medicine-next-the...


inge Sat, 23.02.2019 - 11:20

Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Do, 14.02.2019 - 10:04 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Zusätzlich zu Gedächtnisverlust und Verwirrung leiden viele Menschen mit Alzheimer-Krankheit auch an Schlafstörungen. Nun hat ein von der NIH finanziertes Forscherteam Beweise dafür, dass auch das Umgekehrte zutrifft: Ein chronischer Schlafmangel kann die Krankheit und den damit verbundenen Gedächtnisverlust verschlimmern. Francis Collins, Direktor der US National Institutes of Health, berichtet hier über diese Untersuchungen, die zeigen, dass Schlafentzug die Ausbreitung des Tau-Proteins in Form toxischer Fibrillen im Gehirn fördert.*

Die neuen Ergebnisse konzentrieren sich auf das sogenannte Tau-Protein, das sich im Gehirn von Menschen mit Alzheimer-Krankheit in Form verklumpter Fibrillen ansammelt. Bei einem gesunden Gehirn setzen die aktive Neuronen während des Wachzustands für gewöhnlich etwas Tau-Protein frei; dieses wird aber üblicherweise während der Schlafphase beseitigt. Unser Gehirn verfügt ja tatsächlich über ein System, um dem Müll zu beseitigen, während wir uns im Traumland aufhalten.

Neueste Studien an Mäusen und Menschen weisen darauf hin, dass Schlafentzug dieses Gleichgewicht von Freisetzung und Beseitigung stört: dadurch kann mehr freigesetztes Tau-Protein akkumulieren und sich in Form toxischer Fibrillen in Gehirnbereichen ausbreiten, die für das Gedächtnis von Wichtigkeit sind. Die Ergebnisse legen nahe, dass regelmäßiger und tiefer Schlaf eine unvermutet wichtige Rolle spielen kann, um den Beginn der Alzheimer-Krankheit hinaus zu zögern oder ihren Fortschritt zu verlangsamen.

Ablagerungen von Tau-Protein......

Es ist bereits seit langem bekannt, dass die Alzheimer-Krankheit mit der allmählichen Anreicherung von Beta-Amyloid-Peptiden und Tau-Proteinen verbunden ist, die Plaques (unlösliche Proteinablagerungen außerhalb der Nervenzellen, Anm. Red.) und verklumpte Tau-Fibrillen (innerhalb der Zellen, Anm. Red.) bilden, welche als Erkennungszeichen der Krankheit gelten. Erst vor kurzem wurde klar, dass Beta-Amyloid zwar ein frühes Anzeichen für die Krankheit ist, Tau-Ablagerungen jedoch mit dem Fortschreiten der Erkrankung und dem kognitiven Verfall einer Person präziser einhergehen. Abbildung 1.

Abbildung 1. Beta-Amyloid Plaques und Tau-Protein Fibrillen im Gehirn von Alzheimer-Kranken. Beta-Amyloid Peptide klumpen zu Plaques zwischen den Neuronen zusammen (braun) und stören deren Funktion, Ansammlungen von Tau-Protein (blau) bilden Fibrillen innerhalb der Neuronen und verletzen die synaptische Kommunikation zwischen den Neuronen. (Bild: NIH Image Gallery. National Institute on Aging, NIH; cc-by-sa-Lizenz. Mehr Information: www.nia.nih.gov/health/what-happens-brain-alzheimers-disease)

Solche Befunde liessen Forscher um David Holtzman (Washington University School of Medicine, St. Louis) hoffen, dass Strategien, die auf das Tau-Protein abzielen, die verheerende Krankheit verlangsamen könnten. Wenn man auch von der Entwicklung geeigneter Medikamente das meiste erwartete, konzentrierten sich einige Forscher auch auf den Schlaf und seine Fähigkeit in der Nacht die Harmonie des Stoffwechsels im Gehirns wieder herzustellen.

....sind mit dem Wach-Schlaf-Zyklus verknüpft

In der nun im Fachjournal Science veröffentlichten Studie untersuchte das Team um Holtzman, ob die Spiegel des Tau-Proteins im Gehirn auf natürliche Weise mit dem Schlaf-Wach-Zyklus verknüpft sind [1]. Von früheren Untersuchungen war bekannt, dass das Tau-Protein von aktiven Neuronen in geringen Mengen freigesetzt wird. Werden die Nervenzellen jedoch ständig aktiviert, so wird mehr Tau freigesetzt.

Steigen die Konzentrationen des Tau-Proteins also, wenn wir wach sind und fallen sie, wenn wir schlafen?

Das Holtzman-Team hat im Tierversuch gezeigt, dass dies tatsächlich der Fall ist. Die Forscher haben dazu die Konzentration des Tau-Proteins in der Hirnflüssigkeit von Mäusenbestimmt, die sie während deren üblichen Wach- und Schlafzeit gesammelt hatten. (Da Mäuse nachtaktiv sind, schlafen sie hauptsächlich tagsüber.) Die Forscher stellten fest, dass sich die Spiegel des Tau-Proteins im Gehirn fast verdoppelten, wenn die Tiere wach waren. Sie wiesen auch nach, dass Schlafentzug die Tau-Spiegel in der Gehirnflüssigkeit nochmals verdoppelte.

Diese Befunde waren besonders interessant, weil das Team um Holtzman bezüglich des Beta-Amyloids bereits ein analoges Ergebnis am Menschen gefunden hatte. Das Team hatte festgestellt, dass gesunde Erwachsene, die eine Nacht durcharbeiten mussten, einen Anstieg des ungesunden Beta-Amyloids in ihrer Rückenmarksflüssigkeit (Liquor cerebrospinalis -CSF) um durchschnittlich 30 Prozent verzeichneten.

Die Forscher griffen nun auf die damaligen, noch existierenden menschlichen Proben zurück und analysierten sie nochmals, nun auch auf das Tau-Protein: Tatsächlich fanden sie die Tau-Spiegel erhöht - im Durchschnitt um etwa 50 Prozent.

Schlafmangel fördert die Ausbreitung von Tau-Protein

Sobald sich das Tau-Protein im Hirngewebe ansammelt, kann es sich entlang neuronaler Verbindungen von einer Gehirnregion zur nächsten Gehirnregion ausbreiten. Holtzmans Team fragte sich nun, ob ein über längere Zeit bestehender Schlafmangel auch dazu führen könnte, dass sich das Tau-Protein ausbreitet.

Um dies herauszufinden, wurden Mäuse genetisch erst so manipuliert, dass sie menschliche Tau-Fibrillen in ihrem Hirn exprimierten, und dann dazu gebracht, länger als üblich wach zu bleiben und über mehrere Wochen schlechteren Schlaf zu bekommen. Das Ergebnis war, dass weniger Schlaf die ursprüngliche Ablagerung des Tau-Proteins im Gehirn zwar nicht veränderte, aber zu einer signifikanten Erhöhung der Tau-Ausbreitung führte. Interessanterweise traten bei den Tieren verklumpte Tau-Fibrillen in den gleichen Gehirnregionen auf, die auch bei Alzheimer-Patienten betroffen waren.

Ein weiterer Bericht des Holtzman-Teams, der Anfang letzten Monats im Journal Science Translational Medicine erschien, fand noch eine zusätzliche Verbindung zwischen dem Tau-Protein und Schlafstörungen. Diese Studie setzte PET-Scans(Postron-Emission Tomographie) ein und zeigte, dass ältere Menschen mit mehr Tau-Fibrillen im Gehirn, weniger tiefen (slow wave) Schlaf hatten [2].

Fazit

In Summe deuten diese neuen Erkenntnisse darauf hin, dass Alzheimer-Krankheit und Schlaflosigkeit enger miteinander zusammenhängen, als man bisher angenommen hatte. Die Ergebnisse weisen darauf hin, dass gute Schlafgewohnheiten und /oder Behandlungen, welche die Qualität des Schlafs erhöhen, eine wichtige Rolle im Hinauszögern der Alzheimer-Krankheit spielen könnten. Schlechter Schlaf kann andererseits den Zustand verschlechtern und ein frühes Warnzeichen für Alzheimer sein.

Die Ergebnisse erinnern uns zunächst daran, dass wir uns alle bemühen sollten regelmäßig eine gute Nachtruhe zu erreichen. Schlafentzug ist wirklich kein guter Weg, um mit einem anstrengenden Leben fertig zu werden (ich rede hier mit mir selbst). Es ist zwar noch nicht klar, wieweit bessere Schlafgewohnheiten die Alzheimer-Krankheit verhindern oder verzögern werden, aber sie können sicherlich nicht schaden.

---------------------------------------

[1] The sleep-wake cycle regulates brain interstitial fluid tau in mice and CSF tau in humans. Holth JK, Fritschi SK, Wang C, Pedersen NP, Cirrito JR, Mahan TE, Finn MB, Manis M, Geerling JC, Fuller PM, Lucey BP, Holtzman DM. Science. 2019 Jan 24. [2] Reduced non-rapid eye movement sleep is associated with tau pathology in early Alzheimer’s disease. Lucey BP, McCullough A, Landsness EC, Toedebusch CD, McLeland JS, Zaza AM, Fagan AM, McCue L, Xiong C, Morris JC, Benzinger TLS, Holtzman DM. Sci Transl Med. 2019 Jan 9;11(474).


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 5. Feber 2019) im NIH Director’s Blog, https://directorsblog.nih.gov/2019/02/05/sleep-loss-encourages-spread-of... und wurde geringfügig für den ScienceBlog adaptiert Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH)

Alzheimer’s Disease and Related Dementias (National Institute on Aging/NIH)

Accelerating Medicines Partnership: Alzheimer’s Disease (NIH)

Holtzman Lab (Washington University School of Medicine, St. Louis)

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min

Planet Wissen - Diagnose Alzheimer Video 58:17 min

Artikel im ScienceBlog:

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz: 03.07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich


 

inge Thu, 14.02.2019 - 11:07

Menschliche Intelligenz: Was uns einzelne Neuronen erzählen können

Menschliche Intelligenz: Was uns einzelne Neuronen erzählen können

Do, 07.02.2019 - 14:05 — Redaktion

RedaktionIcon Gehirn

Ganz allgemein geht man davon aus, dass menschliche Intelligenz auf der effizienten Verarbeitung von Signalen durch Neuronen in unserem Gehirn beruht. Dass Dicke und Aktivität der grauen Substanz im Bereich des Schläfenlappens und Frontallappens mit den IQ-Werten korrelieren, ist bekannt, nicht aber, wie dies auf dem Niveau der einzelnen Neuronen zu verstehen ist. Eine eben im Journal eLife erschienene Untersuchung des Teams um Natalia Goriounova zeigt nun erstmals einen Zusammenhang zwischen morphologischen und physiologischen Eigenschaften bestimmter Neuronen (der sogenannten Pyramidenzellen) im temporalen Cortex und menschlicher Intelligenz.*

Sie erinnern sich wahrscheinlich, dass Sie als Kind in der Schule gelernt haben, wie man rechnet, wie man Geschichten liest und versteht und wie man Rätsel löst. Solche Aufgaben erscheinen Ihnen jetzt vielleicht einfach, tatsächlich sind sie aber recht anspruchsvoll, da sie ein hohes Maß an Verarbeitungsleistung unseres Gehirns erfordern.

IQ-Tests

Seit Jahrzehnten arbeiten Wissenschaftler an Methoden, um unsere Fähigkeit, Wissen in uns aufzunehmen und es auf neue Situationen anzuwenden - also unsere Intelligenz - zu quantifizieren. Sie haben auch die Merkmale des menschlichen Gehirns untersucht, welche zu individuellen Leistungsunterschieden bei solchen Aufgaben beitragen.

IQ-Tests werden zur Quantifizierung von Intelligenz verwendet, indem die individuelle Reaktion auf Fragen zu verbalem Verstehen, schlussfolgerndem Wahrnehmen und zum Arbeitsgedächtnis in vorgegebener Zeit bewertet wird. Viele Hypothesen wurden entwickelt, um neuronale Merkmale mit individuellen Unterschieden in den IQ-Testergebnissen zu verknüpfen.

Einige Studien am Menschen haben darauf hingedeutet, dass das Gehirns in seiner ganzen Größe mit dem Intelligenzniveau korreliert; andere Arbeiten wiederum haben gezeigt, dass es bessere Verbindungen zwischen bestimmten Hirnregionen, wie zwischen dem präfrontalen und dem parietalen Cortex, sind, die mit dem Intellekt zusammenhängen (McDaniel, 2005; Hearne et al., 2016). Des weiteren legen Vergleiche zwischen Säugetierarten nahe, dass die aktive kognitive Leistungsfähigkeit mit der Gehirngröße oder mit der bloßen Zahl von Neuronen in der Großhirnrinde korrelieren kann (MacLean et al., 2014; Herculano-Houzel, 2017). Wenn derartige Erkenntnisse auch dazu beitragen, dass man versteht, wie Gehirne aufgebaut sind, um komplexe Kalkulationen anzustellen, so ist es allerdings bis jetzt nie möglich gewesen zu prüfen, ob die Feinstruktur von Neuronen mit der Unterschiedlichkeit des menschlichen Intellekts korreliert.

Der methodische Ansatz

In eLife berichten Natalia Goriounova (Vrije Universiteit Amsterdam) und Kollegen, dass die mikroskopische Anatomie von Neuronen und deren physiologischen Eigenschaften mit individuellen Unterschieden bei den IQ-Werten zusammenhängen (Goriounova et al., 2018). Die Gruppe hatte eine gute Chance intakte Biopsien des temporalen Cortex zu untersuchen, die bei Operationen von Hirntumoren und von Epilepsiepatienten entfernt wurden. Abbildung 1.

Abbildung 1. Untersuchungen an Patienten (IQ-Tests) und an intakten Proben gesunden Gewebes aus derem Cortex (schwarzes Quadrat: Ort der Probennahme).Bestimmt wurden die Dicke des Cortex (mittels Magnetresonanz), die Morphologie einzelner Pyramidenzellen (mittels Mikroskopie) und deren Physiologie (Messung der Aktionspotentiale). Mit Hilfe von Computermodellenwurde simuliert, wie morphologische Veränderungen der Dendriten die Funktionsweise der Neuronen beeinflussen. (Die Abbildung stammt aus der zugrundeliegenden Arbeit Goriounava et al.,(2018), steht unter einer cc-by Lizenz und wurde von der Redaktion eingefügt.)

Goriounova und ihr Team untersuchten in diesen Geweben einige Eigenschaften der Neuronen und zeichneten deren elektrische Aktivität auf. Dann untersuchten sie, ob diese Variablen mit Intelligenzbewertungen auf Basis von IQ-Tests in Verbindung gebracht werden könnten. Einen einzelnen IQ-Wert dem Intellekt eines Individuums zuzuordnen, war kontrovers diskutiert worden (Gould, 1981), das Team verwendete als geeignete Messgröße aber IQ-Scores, die mehrere Aspekte der kognitiven Informationsverarbeitung widerspiegeln dürften.

Höhere IQ-Scores korrelieren mit einem dickeren Cortex und längeren und stärker verästelten Dendriten der Pyramidenzellen

Basierend auf Bestimmungen von präoperativ ausgeführten Magnetresonanz (MRI)-Scans bestätigten die Forscher zunächst, dass höhere IQ-Scores mit einem dickeren temporalen Cortex korrelieren. Dann wählten sie aus den oberen Cortex-Schichten jedes Patienten zwei oder drei Pyramidenzellen aus und untersuchten diese. Bei diesen großen Zellen handelt es sich um den dominierenden Typ von Neuronen, die man im Cortex (der Großhirnrinde) findet. Abbildung 2.

Pyramidenzellen erhalten Informationen von benachbarten Zellen über Dendriten, d.i. über verästelte Fortsätze, die in als Synapsen bezeichneten Strukturen an anderen Neuronen anknüpfen. Zur Weiterleitung der Information "feuern" dann die Pyramidenzellen. Abbildung 2. Die Architektur einzelner Neuronen im menschlichen Cortex und die IQ-Scores hängen zusammen. Rechts: Der temporale Cortex des menschlichen Gehirns ist in Schichten aufgebaut, welche Pyramidenzellen (schwarz) enthalten. Diese Neuronen- links im Detail gezeigt - sammeln Informationen von ihren Nachbarn über verästelte Strukturen - sogenannte Dendriten - integrieren diese Informationen und leiten sie in andere Regionen des Cortex weiter. Goriounova et al. entdeckten, dass ein höherer IQ-Score (linke Seite des rechten Bildes) mit einem dickeren temporalen Cortex korreliert war, der Pyramidenzellen mit ausgeprägteren dendritischen Netzwerken aufweist, die schneller feuern (Kurve unten). Ein niedrigerer IQ-Wert (rechte Seite, rechts) war mit einem dünneren temporalen Cortex assoziiert, in welchem die Pyramidenzellen weniger komplexe dendritische Netzwerke besitzen und langsamer feuern.(Bild links von Redn eingefügt; es stammt von Fabuio, Wikipedia und steht unter cc-by 4.0 Lizenz.)

Unterschiede in Länge und Verästelungen der Dendriten konnten rund 25% der inter-individuellen Varianz von IQ-Scores in einem Kollektiv von 25 Patienten erklären. Längere Dendriten haben eine vergrößerte Oberfläche - dies mag dazu beitragen, dass das Neuron eine höhere Zahl an Synapsen bilden kann. Mit einem Mehr an solchen Verbindungswegen können Pyramidenzellen ein Ausgangssignal erzeugen, das pro Zeiteinheit mehr Input-Signale von benachbarten Neuronen integriert.

Schließlich wurden dann Computermodelle angewandt, um zu untersuchen, wie Änderungen in der Morphologie von Dendriten die Funktionsweise der Neuronen beeinflussen könnten. Die Analysen ergaben, dass Pyramidenzellen mit größeren dendritischen Ästen schneller feuern und ihnen damit eine schnellere Übertragung von Informationen möglich wird. Als die Aktivität von Zellen in Hirnschnitten von 31 Patienten aufgezeichnet wurde, zeigte es sich tatsächlich, dass höhere IQ-Scores mit Neuronen assoziiert sind, die schneller feuern, insbesondere während einer andauernden neuronalen Aktivität. Sogar ein geringer Anstieg in der Schnelligkeit mit der Neuronen Informationen weiterleiten, kann Reaktionszeiten verbessern und letztendlich Verhaltensreaktionen beeinflussen (Nemenman et al., 2008). Bei rund 16 Milliarden Neuronen in der menschlichen Großhirnrinde können kleine Unterschiede in deren anatomischen und physiologischen Eigenschaften die intellektuelle Leistungsfähigkeit verändern (Herculano-Houzel, 2009).

Fazit

Goriounova und ihr Team haben gezeigt, dass deutliche Veränderungen in der Mikroanatomie von Pyramidenzellen die Arbeitseigenschaften dieser Zellen beeinflussen. Aus Pyramidenzellen mit komplexeren dendritischen Netzwerkenein kann wiederum ein dickerer Cortex entstehen. Dies kann dann zu einer schnelleren Informationsverarbeitung und letztendlich zu einer Steigerung der intellektuellen Leistungsfähigkeit führen. Ähnliche Beobachtungen wurden bei einem unserer nächsten lebenden Verwandten, dem Schimpansen, gemacht: hier konnten dickere Hirnrinden mit höheren Scores bei Intelligenztests assoziiert werden (Hopkins et al., 2018). Menschliche Hirnrinden haben robustere dendritische Netzwerke als Schimpansen - dies mag Unterschiede in den kognitiven Fähigkeiten zwischen Menschen und nicht-menschlichen Primaten erklären (Bianchi et al., 2013).

Allerdings: Merkmale auf der neuronalen Ebene erklären nur einen kleinen Teil der Variation in den IQ-Scores. Andere Eigenschaften auf Ebene der Moleküle, der Interaktionen und Regulationen können ebenfalls eine wesentliche Rolle spielen. In Summe helfen diese Ergebnisse, die neuronale Basis und die Entwicklung der menschlichen Intelligenz zu erfassen.


Literaturangaben

Bianchi S, et al, 2013. Dendritic morphology of pyramidal neurons in the chimpanzee neocortex: regional specializations and comparison to humans. Cerebral Cortex 23:2429–2436. DOI: https://doi.org/10.1093/cercor/bhs239 , PMID: 22875862

Goriounova NA, et al; 2018. Large and fast human pyramidal neurons associate with intelligence. eLife 7:e41714. DOI: https://doi.org/10.7554/eLife.41714 PMID: 30561325

Gould SJ. 1981. The Mismeasure of Man. New York: Norton.

Hearne LJ, Mattingley JB, Cocchi L. 2016. Functional brain networks related to individual differences in human intelligence at rest. Scientific Reports 6:32328. DOI: https://doi.org/10.1038/srep32328 , PMID: 27561736

Herculano-Houzel S. 2009. The human brain in numbers: a linearly scaled-up primate brain. Frontiers in Human Neuroscience 3:1–11. DOI:  https://doi.org/10.3389/neuro.09.031.2009 PMID: 19915731

Herculano-Houzel S. 2017. Numbers of neurons as biological correlates of cognitive capability. Current Opinion in Behavioral Sciences 16:1–7. DOI: https://doi.org/10.1016/j.cobeha.2017.02.004

Hopkins WD, Li X, Roberts N. 2018. More intelligent chimpanzees (Pan troglodytes) have larger brains and increased cortical thickness. Intelligence. DOI: https://doi.org/10.1016/j.intell.2018.11.002

MacLean EL, et al., 2014. The evolution of self-control. PNAS 111:E2140–E2148. DOI: https://doi.org/10.1073/pnas.1323533111 PMID: 24753565

McDaniel M. 2005. Big-brained people are smarter: a meta-analysis of the relationship between in vivo brain volume and intelligence. Intelligence 33:337–346. DOI:  https://doi.org/10.1016/j.intell.2004.11.005

Nemenman I, et al., 2008. Neural coding of natural stimuli: information at sub-millisecond resolution. PLoS Computational Biology 4:e1000025. DOI: https://doi.org/10.1371/journal.pcbi.1000025 , PMID: 18369423


*Der von Elaine N Miller und Chet C Sherwood stammende Artikel: "Human Intelligence: What single neurons can tell us" ist am 5. Feber 2019 erschienen in: eLife 2019;8:e44560 doi: 10.7554/eLife.44560 erschienen. Es ist eine leicht verständliche Zusammenfassung ("Insight") der oben zitierten Untersuchung von Natalia A Goriounova et al. "Large and fast human pyramidal neurons associate with intelligence". Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, Abbildung 1 aus Wikipedia). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Weiterführende Links

Artikel von der Website: dasgehirn.info, u.a.: Ragnar Vogt (2014): Intelligenz in Zahlen

Christian Wolf (2014): Was uns schlau macht

inge Thu, 07.02.2019 - 14:05

Wie regionale Klimainformationen generiert und Modelle in einem permanenten, zyklischen Prozess verbessert werden

Wie regionale Klimainformationen generiert und Modelle in einem permanenten, zyklischen Prozess verbessert werden

Do, 31.01.2019 - 17:56 — carbon-brief Vorname ZunameIcon MINT

Wenn die Modellierung des globalen Klimas auch bereits recht gute Ergebnisse liefert, so besteht doch ein enormer gesellschaftlicher Bedarf für Modelle mit höherer Auflösung, welche die regionale Klimaentwicklung beschreiben können. Dieser Aspekt und auch die fortwährende Verbesserung von Klimamodellen sind Thema des vorliegenden Artikels. Es sind die beiden letzten Teile der 2018 auf der britischen Website Carbon Brief erschienenen Serie "Q&A: How do climate models work?". Dort bemüht sich ein Team von Naturwissenschaftern, etablierten Klimaexperten und Wissenschaftsjournalisten um leicht verständliche, klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels zu verbessern. ScienceBlog.at dankt für die Zustimmung diese großartige Serie gesamt und in übersetzter Form [1,2,3,4,5,6,7,8] den Lesern im deutschen Sprachraum präsentieren zu können!*

Wie erzeugen Wissenschaftler regionale Klimalinformationen?

Globale Klimamodelle (siehe [2]) unterliegen einer wesentlichen Limitierung, nämlich der räumlichen Abmessung der Gitterzellen, die den Modellen zugrundeliegen: in mittleren Breiten beträgt die horizontale Gitterpunktweite rund 100 km. Bedenkt man, dass beispielsweise Großbritannien nur etwas mehr als 400 km breit ist, so bedeutet dies, dass das Land in einem globalen Klimamodell bloß durch eine Handvoll Gitterboxen dargestellt wird.

Eine solche grobe Auflösung bedeutet, dass den Globalen Modellen die geografischen Besonderheiten fehlen, welche für einen bestimmten Standort charakteristisch sind. Es gibt Inselstaaten, die so klein sind, dass ein Globales Klimamodell diese nur als einen Flecken "Ozean" betrachten könnte (Abbildung 1), merkt Professor Michael Taylor an, Senior Lecturer an der University of the West Indies und koordinierender Hauptautor des Sonderberichts des IPCC's special report on 1,5 C . Taylor erklärt dies Carbon Brief gegenüber [9]:

"Wenn Sie an die östlichen Karibikinseln denken, so liegt eine einzelne östliche Karibikinsel innerhalb einer Gitterbox und wird in globalen Klimamodellen also als Wasser dargestellt."

„Selbst die größeren karibischen Inseln werden durch eine oder höchstens zwei Gitterboxen dargestellt - so erhalten Sie Informationen für nur eine oder zwei Gitterboxen. Dies bedeutet eine Limitierung für die kleinen Inseln der Karibikregion und für kleine Inseln ganz allgemein. So erhält man keine präziseren, besser aufgelösten Informationen für die kleinen Inseln auf Sub-Country-Ebene."

Abbildung 1. Die grobe Auflösung der Globalen Klimamodelle kann geografische Besonderheiten nicht wiedergeben, die für eine bestimmte Region charakteristisch sind - beispielsweise für kleine Inselstaaten. Hier: Tobago Cays and Mayreau Island, St. Vincent and The Grenadines.(Credit:robertharding/Alamy Stock Photo).

Von grob aufgelösten globalen Modellen zu regionalen Modellen

Wissenschaftler überwinden dieses Problem, indem sie globale Klimainformationen auf die lokale oder regionale Ebene downscalen – „herunterskalieren“ -. Im Grunde bedeutet dies, dass man Informationen nimmt, die von einem Globalen Klimamodell oder von Aufzeichnungen bei grober Auflösung stammen und diese auf einen bestimmten Ort oder eine bestimmte Region anwendet. Für kleine Inselstaaten können Wissenschaftler mithilfe dieses Vorgehens geeignete Daten für bestimmte Inseln oder sogar für Bereiche innerhalb von Inseln erhalten, erklärt Taylor [9]:

"Der gesamte Prozess des Herunterskalierens versucht dann die Informationen, die man aus der groben Auflösung erhalten kann, auf den lokalen Maßstab oder auf den Inselmaßstab oder bis hin zum Subinselmaßstab zu beziehen."

Es gibt zwei Arten von Methoden für das Downscaling. Die erste ist:

Dynamisches Downscaling…

Im Grund sind das Simulationen an Modellen, die ähnlich arbeiten wie die Globalen Modelle, allerdings begrenzt auf bestimmte Regionen. Da diese regionalen Klimamodelle (RCMs) ein kleineres Gebiet abdecken, können sie bei einer weit höheren Auflösung arbeiten als die Globalen Modelleund dabei eine vernünftige Laufdauer haben. Dr.Dann Mitchell, Dozent an der School of Geographic Sciences der University of Bristol, nennt dafür ein Beispiel:

"Ein regionales Klimamodell, das Gitterzellen mit horizontalen Abmessungen von 25 km aufweist und ganz Europa abdeckt, würde ungefähr 5 - 10 mal länger laufen als ein globales Modell mit 150 km Auflösung."

…ein Beispiel aus Großbritannien

Bei den UK Climate Projections 2009 (UKCP09) handelt es sich beispielsweise um eine Reihe von Klimaprojektionen, die speziell für Großbritannien mit einem regionalen Klimamodell erstellt wurden - dem HadRM3-Modell des Met Office Hadley Centre (siehe dazu [5]). HadRM3 verwendet Gitterzellen von 25 km x 25 km, wodurch Großbritannien in 440 Felder aufgeteilt wird. Dies war bereits eine Verbesserung gegenüber der Vorgängerversion („UKCIP02“), die Projektionen mit einer räumlichen Auflösung von 50 km produzierte. Die nachstehende Karte zeigt, um wie viel detaillierter das 25-km-Raster (sechs Karten rechts) ist, als das 50-km-Raster (zwei Karten ganz links). Abbildung 2. Regionale Klimamodelle wie HadRM3 können lokale Faktoren wie den Einfluss von Seen, Gebirgszügen und Meeresbrisen besser – wenn auch noch limitiert – darstellen.

Abbildung 2. Wie sich - unter der Annahme von Szenarien mit hohen Emissionen - die saisonalen Durchschnittstemperaturen im Winter (oben) und im Sommer (unten) in den 2080er Jahren entwickeln werden. Prognosen mit dem gröberen Modell UKCIP02 (ganz links) und mit UKCP09 für drei Wahrscheinlichkeitsniveaus (10, 50 und 90%). Eine dunklere rote Schattierung bedeutet eine größere Erwärmung. © UK Climate Projections 2009

Auch, wenn regionale Klimamodelle auf ein bestimmtes Gebiet begrenzt sind, müssen sie immer noch das weitere Klima berücksichtigen, das Einfluss auf das Gebiet hat. Wissenschaftler tun dies, indem sie Informationen von globalen Modellen oder von Messungen einspeisen. Taylor erklärt, wie das auf seine Forschungen in der Karibik zutrifft [9]:

„Für dynamisches Downscaling muss man zunächst das Gebiet definieren, über das man die Simulation ausführen möchte - in unserem Fall definieren wir eine Art Karibik- / Intra-Amerikas-Domäne, auf die wir die Modellierung beschränken. Aber natürlich speist man die Ergebnisse der globalen Modelle in die Ränder dieser Domäne ein - es sind also aus der groben Auflösung kommende Informationen, die das Modell mit der höheren Auflösung treiben. Und das ist das dynamische Downscaling - man modelliert im Wesentlichen mit höherer Auflösung, allerdings in einem begrenzten Gebiet und speist an den Rändern Informationen ein."

Es ist auch möglich mehrere regionale Klimamodelle in ein globales Klimamodell einzubetten ("Nesting") ; dies bedeutet, dass Wissenschaftler mehr als ein Modell gleichzeitig ausführen können und parallel mehrere Ebenen von Ergebnissen erhalten.

Statistisches Downscaling…

Die zweite Art der Downscaling -Methoden ist das "statistische Downscaling". Dabei werden Datensätze aus Messungen verwendet, um einen statistischen Zusammenhang zwischen dem globalen und dem lokalen Klima herzustellen. Mit Hilfe dieser Beziehung leiten die Wissenschaftler dann lokale Änderungen auf Basis der Simulationen von grob-aufgelösten globalen Modellen oder Messungen ab.

…als Beispiel der Wettergenerator

Ein Beispiel für statistisches Downscaling ist ein Wettergenerator. Ein Wettergenerator erzeugt synthetische Zeitreihen von täglichen und/oder stündlichen Daten für einen bestimmten Ort. Er verwendet dazu eine Kombination aus beobachteten lokalen Wetterdaten und aus Prognosen für das zukünftige Klima, um Hinweise zu erhalten, wie zukünftiges Wettergeschehen über kurze Zeiträume aussehen könnten. (Wettergeneratoren können auch Zeitreihen des Wetters im aktuellen Klima erzeugen.)

Der Wettergenerator kann zu Planungszwecken verwendet werden, z. B. bei einer Abschätzung des Hochwasserrisikos, um im Modell zu sehen, ob die bestehenden Hochwasserschutzmaßnahmen voraussichtlichen künftigen Starkniederschlägen gewachsen sein werden. Derartige statistische Modelle können im Allgemeinen schnell ausgeführt werden - in der Zeit, die ein einzelner globaler Modell-Lauf benötigt, können Wissenschaftler viele statistische Simulationen durchführen.

…ausschlaggebend ist die Qualität der eingespeisten Information

Es ist wichtig darauf hinzuweisen, dass Ergebnisse des Downscaling nach wie vor stark von der Qualität der Informationen abhängen, die eingespeist wurden, d.i. von den Datensätzen aus Beobachtungen und den Ergebnissen der globalen Klimamodelle. Das Herunterskalieren liefert nur mehr standortspezifische Daten, beseitigt aber keine Unsicherheiten, die sich aus den eingegebenen Informationen ergeben.

Insbesondere das statistische Downscaling muss sich auf die gemessenen Datensätze verlassen können, da aus diesen ja der statistische Zusammenhang abgeleitet wird. Downscaling geht auch davon aus, dass die statistischen Beziehungen, die im aktuellen Klima gelten, auch in einer wärmeren Welt noch gültig sein werden, so Mitchell. Er sagt zu Carbon Brief:

„[Statistisches Downscaling] kann für gut untersuchte Zeiträume oder gut untersuchte Orte in Ordnung sein. Wenn man jedoch das lokale System zu weit treibt, bricht die statistische Beziehung zusammen. Aus diesem Grund ist das statistische Downscaling für zukünftige Klimaprojektionen wenig geeignet.“

Dynamisches Downscaling ist robuster, sagt Mitchell, aber nur, wenn ein regionales Klimamodell die relevanten Prozesse gut erfasst und die Daten, die sie antreiben, zuverlässig sind:

„In der Klimamodellierung ist die Implementierung von Wetter- und Klimaprozessen im dynamischen Modell oftmals recht ähnlich wie im gröberen globalen Modell, das der Treiber ist. Daher bietet das dynamische Downscaling nur eine eingeschränkte Verbesserungsfähigkeit der Daten. Wenn dynamisches Downscaling jedoch gut durchgeführt wird, kann es für ein lokales Verständnis von Wetter und Klima wertvoll sein; es erfordert jedoch ein enormes Maß an Modellvalidierung und in einigen Fällen Modellentwicklung, um Prozesse darzustellen, die mit der höheren Auflösung erfasst werden können.“

Wie verläuft der Prozess der Modellverbesserung?

Die Entwicklung eines Klimamodells ist ein langfristiges Unterfangen, das mit der Veröffentlichung des Modells noch nicht zu Ende ist. Die meisten Modellierungszentren aktualisieren und verbessern ihre Modelle in einem kontinuierlichem Zyklus, mit einem Entwicklungsprozess, in welchem Wissenschaftler über Jahre hin die nächste Version ihrer Modelle aufbauen. Sobald die neue Modellversion mit allen Verbesserungen fertig ist, kann sie veröffentlicht werden, sagt Dr. Chris Jones vom Met Office Hadley Center (siehe dazu [5]):

„Es ist ein bisschen so, als würden Autokonzerne das nächste Modell eines bestimmten Fahrzeugs bauen, das sie seit Jahren gleich belassen hatten - aus der Entwicklung kommt aber plötzlich etwas Neues heraus. Mit unseren Klimamodellen gehen wir in der gleichen Weise vor.“

Am Beginn eines jeden Zyklus wird das vom Modell simulierte Klima mit Aufzeichnungen verglichen, um festzustellen, wo die größten Probleme liegen, erklärt Dr. Tim Woollings (Dozent für physikalische Klimawissenschaft an der Universität Oxford).

"Sobald diese identifiziert sind, geht man üblicherweise dazu über die physikalischen Prozesse zu bewerten, welche erfahrungsgemäß einen Einfluss auf diese Probleme haben, und versucht deren Darstellung [im Modell] zu verbessern."

Wie dies geschieht, ist von Fall zu Fall verschieden, sagt Woollings, endet aber im Allgemeinen mit einem neuen, verbesserten Code:

„Dies können ganze Codezeilen sein, um einen Prozess in leicht veränderter Art zu führen, es kann manchmal aber auch ein bereits vorhandener Parameter einfach auf einen besseren Wert geändert werden. Dies kann auf Grund neuer Forschungen oder der Erfahrung anderer [Modellierungszentren] erfolgen."

In diesem Vorgang stellen Wissenschaftler manchmal fest, dass einige Probleme andere kompensieren, sagt Woollings:

„Beispielsweise wurde Prozess A wurde als zu stark befunden, dies schien jedoch Prozess B kompensiert zu werden, der zu schwach war. In solchen Fällen wird generell Prozess A fixiert, auch wenn dadurch das Modell kurzfristig schlechter wird. Dann wendet man sich der Festlegung von Prozess B zu. Schlussendlich stellt das Modell die Physik beider Prozesse besser dar und wir haben insgesamt ein besseres Modell.“

Im Met Office Hadley Center sind mehrere Teams – „Prozess Evaluierungsgruppen“ - in den Entwicklungsprozess involviert , die versuchen, unterschiedliche Elemente des Modells zu verbessern, erklärt Woollings:

„Die Prozess Evaluierungsgruppen sind grundsätzlich Taskforces, die sich um bestimmte Aspekte des Modells kümmern. Während das Modell sich entwickelt, überwachen sie in ihrem Bereich Abweichungen (Bias) und testen neue Methoden, um diese zu reduzieren. Diese Gruppen treffen sich regelmäßig, um ihr Gebiet zu besprechen, häufig sind Mitglieder aus Hochschulkreisen ebenso wie Wissenschaftler des Met Office vertreten."

Die Verbesserungen, an denen jede Gruppe arbeitet, werden dann in dem neuen Modell zusammengeführt. Sobald es komplettiert ist, kann das Modell zu seriösen Läufen starten, sagt Jones:

"Am Ende eines zwei- oder dreijährigen Prozesses haben wir dann ein Modell der neuen Generation, von dem wir glauben, dass es besser ist als das letzte. Wir können dann beginnen es auf wissenschaftliche Fragen anzuwenden, die wir bereits früher gestellt hatten und sehen ob wir sie nun besser beantworten können.“

Nachsatz

Hier endet dieses Kapitel.

Carbon Brief hat 22 führende Klimawissenschaftler befragt welche Verbesserungen an Klimamodellen sie für dringlichst erachten. Die Antworten reichen von Aussagemöglichkeiten zu Wetter- und Klimaextrema, über die Einbeziehung natürlicher Variabilität bis hin zum Einfluss von Landnutzung, Verschmutzung und Nährstoffen - sie geben einen Eindruck wie und wohin sich die Klimamodelle in nächster Zeit entwickeln werden. Die Antworten sind im Detail nachzulesen unter: https://www.carbonbrief.org/in-depth-scientists-discuss-how-to-improve-c...


Carbon Brief Serie über Klimamodelle

(1) 19.04.2018: Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

(2) 31.05.2018: Klimamodelle – von einfachen zu hochkomplexen Modellen

(3) 21.06.2018: Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

(4) 23.08.2018: Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

(5) 20.09.2018: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

(6) 01.11.2018: Klimamodelle: wie werden diese validiert?

(7) 06.12.2018: Grenzen der Klimamodellierungen

(8 – dieser Artikel): Wie regionale Klimainformationen generiert und Modelle in einem permanenten Zyklus verbessert werden

[9] Carbon Brief (2018) interviews Michael Taylor: Why might small islands be missed from climate models? Video 4:23 min. https://www.youtube.com/watch?v=NuBwB4M1FFo. Lizenz CC-by


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work ). Unter den Titeln " How do scientists produce climate model information for specific regions?" und "What is the process for improving models?" ist es der Abschluss einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us
Carbon Brief: What's causing global warming? Video 1:22 min. (14.12.2017) https://www.youtube.com/watch?v=sKDWW9WlPSc

David Attenborough: 'Climate Change - Britain Under Threat' Video 1:00:14 (2013) https://www.youtube.com/watch?v=Cq1oFhTINXE

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&v=ouPRMLirt5k. Standard YouTube Lizenz.

Der Themenschwerpunkt "Klima - Klimawandel" Im ScienceBlog enthält knapp 30 Artikel: http://scienceblog.at/klima-klimawandel


 

inge Thu, 31.01.2019 - 17:56

Comments

Clickbaits – Köder für unsere Aufmerksamkeit

Clickbaits – Köder für unsere Aufmerksamkeit

Do, 24.01.2019 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Clickbaits – auf deutsch etwa „Klickköder“ - sollen die Besucher von Webseiten und sozialen Medien zu Aktionen verleiten - sowohl in kommerzieller als auch in politischer Hinsicht. Die Köder - meist reißerische Überschriften - wecken die Neugier der Leser, clicken diese auf die verlinkten Inhalte, so führt dies dann zwar oft zur Enttäuschung, ergibt insgesamt aber mehr User, höhere Reichweite (Werbung) und hat einige Websitebetreiber schon sehr reich gemacht. Leider haben Clickbaits auch in Naturwissenschaften und Medizin Eingang gefunden: auffallend oft werden „Durchbrüche“ oder gar „Revolutionen“ verkündet - Übertreibungen, die unerfüllbare Hoffnungen erwecken. Wie Clickbaiting funktioniert und warum wir psychologisch chancenlos dagegen sind, erklärt der deutsche Biologe und Wissenschaftsjournalist Michael Simm im folgenden Artikel.*

Was haben Sonderangebote und Katzenbilder, die Affären der Promis und irrwitzige Schlagzeilen gemeinsam? Antwort: Sie alle sind beliebte Köder für das wertvollste Gut in der alles beherrschenden Medienlandschaft: Unsere Aufmerksamkeit. Denn Aufmerksamkeit lässt sich im Gegensatz zu Geld und materiellen Besitztümern nicht aufsparen oder vermehren. Sie ist begrenzt – und das macht sie enorm wertvoll. Wertvoll für den Absender, wohlgemerkt. Wir als Empfänger werfen sie oft den banalsten Botschaften hinterher.

Dies mag der Grund sein, warum Tricks und Täuschungen, die früher Marktschreiern, unseriösen Boulevardblättern und demagogischen Politikern vorbehalten schienen, im Zeitalter des Internets und der sozialen Medien florieren: Als „Klickköder“ (englisch „Clickbaits“) sollen sie Besucher dazu bringen, hinzuschauen, zuzuhören, sich zu engagieren – und am Ende natürlich etwas zu kaufen.

Zwar gibt es zu den neurowissenschaftlichen Grundlagen des Clickbaitings nur wenige Forschungsarbeiten, und die Köder werden vorwiegend anhand der Erfahrungen von Marketingfachleuten ausgelegt. Bewusst oder unbewusst nutzt man dabei aber die Mechanismen, mit denen das Gehirn seine Aufmerksamkeit steuert, und versucht, Wichtiges von Unwichtigem zu trennen. Wie "erfolgreiche" Titel aussehen können, zeigt Abbildung 1.

Abbildung 1. Überschriften, die unsere Aufmerksamkeit wecken. (Bild: https://www.dasgehirn.info/entdecken/clickbaiting)

Wut verkauft sich gut

Emotionen spielen dabei eine überragende Rolle, denn sie markieren, was wir als besonders erachten. Und umgekehrt: Jonah Berger, Marketingspezialist, Bestsellerautor („Invisible Influence“) und Professor an der Wharton School der University of Pennsylvania, hat untersucht, warum manche Online-Inhalte wie Werbung, oder Videos sich schneller verbreiten als andere. Er wertete dazu die Inhalte aus, die während dreier Monate in der New York Times erschienen waren, und wie oft sie in sozialen Medien wie Facebook und Twitter mit „Likes“ und „Teilen“ positiv bewertet und weitergereicht wurden. Die Bilanz seiner Arbeit, erschienen unter dem Titel „What Makes Online Content Viral?“, lautet:

Erfolgreich ist, was Staunen verursacht, Wut oder Angst. Inhalte, die weniger erregende oder deaktivierende Emotionen hervorrufen, wie Traurigkeit, bekamen dagegen weniger Aufmerksamkeit.

Eine andere Studie, bei der fast 70.000 Nachrichten der britischen BBC, der New York Times, der Agentur Reuters und der Tageszeitung Daily Mail ausgewertet wurden, fand heraus, dass schlechte Nachrichten klar in der Überzahl waren, gefolgt von neutralen und einem kleinen Anteil positiver Nachrichten. Den größten Anteil negativer Nachrichten hatte dabei das Boulevardblatt Daily Mail mit 65 Prozent. Dem Publikum gefiel das offensichtlich, denn ausgerechnet jene Texte, deren Überschriften die Forscher als höchst emotional bewertet hatten, wurden per Twitter am häufigsten weitergeleitet.

Clickbaiting nimmt zwar auch positive Emotionen wie Humor oder Überraschung ins Visier, ist damit aber weniger erfolgreich, als mit schlechten Nachrichten. Die Forschung bestätigt somit eine alte Journalistenweisheit: „Only bad news is good news.“ Im Umgang mit Gewinn und Verlust ist das Gehirn nämlich alles andere als rational, argumentiert der Träger des Wirtschaftsnobelpreises von 2002, Daniel Kahneman. Tendenziell überwiegt die Angst, andererseits wird auch die Aussicht auf einen Lottogewinn extrem überschätzt – und beides spielt gewieften Verkäufern schon seit jeher in die Hände.

Das Gehirn ist leicht zu überlisten

Eine ähnlich große Rolle wie die Emotionen spielen unsere Gewohnheiten. Wie mächtig sie sind, merken wir auch daran, dass wir oftmals Texte, Bilder und Videos aufrufen, obwohl uns bereits die Überschrift signalisieren sollte: Achtung, hier wird mächtig übertrieben.

In seinem Bestseller „Schnelles Denken, langsames Denken“ fasst Kahneman die Forschungen mehrerer Jahrzehnte zusammen und unterscheidet ein schnelles, instinktives und emotionales Denksystem von einem langsamen, berechnenderen und damit auch anstrengenderen System. Beide Mechanismen könnten als Einfallstore für die Tricks der „Clickbaiter“ dienen:

So müssen in der Regel starke Worte her, um Ereignisse aufzuwerten, die sonst wenig Beachtung fänden: So produzieren Winzer offenbar am Fließband „Jahrhundertjahrgänge“, Musikfans feiern ihre Bands jeweils als die „Beste aller Zeiten“, und in der Wissenschaft oder der Medizin ist auffallend oft von „Durchbrüchen“ oder gar „Revolutionen“ die Rede, obwohl es sich bei näherer Betrachtung doch um eher kleine Fortschritte handelt.

Eine prominente Erklärung dafür, warum wir immer wieder auf die leeren Versprechungen der Clickbaits hereinfallen, stammt von George Loewenstein, Professor für Wirtschaftswissenschaften und Psychologie an der Carnegie Mellon University in Pittsburgh (USA). Er postulierte Mitte der 1990er Jahre die Theorie von der „Neugierlücke“. Sie besagt, dass wir es als Mangel und sogar Belastung empfinden, wenn wir weniger wissen, als wir wissen wollen. Dieses Unwohlsein verspüren wir als Neugier. Aus Loewensteins Sicht ist sie ein Trieb, dem wir uns nur schwer entziehen können, und dem wir wie Drogensüchtige folgen, um uns kurzfristige Erleichterung zu verschaffen. Die Theorie wird gerne zitiert, wird aber längst nicht von allen Psychologen unterstützt. Ein wichtiger Kritikpunkt lautet, dass es sich bei der „Neugierlücke“ lediglich um eine Idee handelt, zu der kaum empirische Studien durchgeführt wurden. Tatsache ist jedoch, dass die nach diesem Prinzip aufgebauten Inhalte gerne geklickt werden. Das gilt auch für Listen nach dem Muster:

Noch drei Dinge, auf die jeder abfährt:

  1. Katzenbilder
  2. Babys
  3. Listen

Listen werden gerne gelesen vermutet Kahneman, weil vermeintlich neue Informationen dort bereits vorstrukturiert sind. Ihr Umfang sei dann leichter abzuschätzen. In einer zunehmend komplexeren Welt vermitteln Listen womöglich auch das gute Gefühl, den Überblick zu haben.

Katzen und Hunde dagegen sind attraktive Werbebotschafter, weil ein Großteil der Bevölkerung sie als Haustiere und Begleiter hält. Durch die vermeintliche Gemeinsamkeit wird das Interesse geweckt, und die positiven Erfahrungen mit dem treuen Begleiter daheim werden umgemünzt in einen Vertrauensvorschuss gegenüber einem Unbekannten. Zufrieden klicken wir: „Gefällt mir“. Und steigern damit Rating und Attraktivität der bewerteten Seite.

Babys – sowohl tierische, als auch menschliche – bedienen dagegen das so genannte Kindchenschema. Wie schon der VerhaltensforscherKonrad Lorenz zeigen konnte, wirkt die Kombination aus bestimmten körperlichen Merkmalen – wie große Augen, rundes Gesicht und eine kleine Nase – als Schlüsselreiz, der ein angeborenes Brutpflegeverhalten auslösen kann.

Aufmerksamkeit ist die neue Währung, und wer sie schafft, ist König. Facebook, Google und Amazon sind Paradebeispiele für Geschäftsstrategien, die auf einem tiefen Verständnis der Ökonomie der Aufmerksamkeit beruhen. Gemeinsam erwirtschafteten sie im Jahr 2017 einen Umsatz von 329,4 Milliarden Dollar (ca. 291 Milliarden Euro).

Spezialisten steuern unsere Aufmerksamkeit

Binnen 20 Jahren ist eine neue Branche mit hochspezialisierten Jobs entstanden. Einige tun nichts anderes, als die Inhalte von Webseiten so zu optimieren, dass sie bei den allmächtigen Suchmaschinen möglichst weit oben gelistet werden. Ist der Besucher erst einmal angelockt, verfolgen andere Spezialisten den Fluss der Aufmerksamkeit. So bietet der Branchenführer Google mit „Analytics“ einen Dienst, mit dem jeder Betreiber einer Webseite genauestens verfolgen kann, welche Seiten wie oft und wann aufgerufen wurden, welche Suchworte die Besucher bei welchen Suchmaschinen eingegeben haben, bevor sie bei ihm gelandet sind, ob sie früher schon einmal da waren, oder auch wie lange sie auf einer Seite geblieben sind. Ergänzt werden die schier endlosen Möglichkeiten der Auswertung mit weiteren Werkzeugen zur „Optimierung“ und Aktualisierung der Seiten, Datenanalysen, Kundenbefragungen und weiteren Marketing-Angeboten.

Auch Amazon unterstützt seine Verkaufs- und Werbepartner darin, die Aufmerksamkeit der Webseiten-Besucher zu lenken und damit möglichst viel Geld zu verdienen. Dafür werden die Inhalte und die Platzierung von Werbeflächen optimiert. Ausgeklügelte Algorithmen sorgen im Hintergrund dafür, dass jeder individuelle Benutzer exakt die Anzeigen zu sehen bekommt, die mit größter Wahrscheinlichkeit geklickt werden.

Die Folge ist, dass der Wert einer Webseite sich heute kaum mehr an Zuverlässigkeit oder journalistischer Qualität bemisst. Auch die Reichweite allein – also die Zahl der Leser – ist nicht mehr entscheidend. Viele Leser sind zwar gut. Was jedoch wirklich zählt, ist die Zahl derer, die auch auf die Anzeigen reagieren. Das wussten zwar auch früher die Anzeigenabteilungen der Zeitungen, Magazine und Sender. Doch während die alten Medien dem Anzeigenkunden lediglich einen „Tausenderkontaktpreis“ berechnen konnten – der festlegt, wie viele Euro für jeweils 1000 potenzielle Leser zu bezahlen waren, – lässt sich heute im Online-Geschäft anhand der Klicks exakt nachvollziehen, wie viele Besucher tatsächlich auf eine Anzeige reagiert haben – und ob sie danach einen Kauf getätigt haben. Im Internet ist heute jeder ein gläserner Kunde.

Schon immer waren die Gesetzmäßigkeiten, mit denen unser Gehirn auf äußere Reize reagiert, die Grundlage für Manipulationen durch andere. Das Internet und die sozialen Medien haben jedoch völlig neue Möglichkeiten geschaffen, unser Verhalten und unsere Entscheidungen automatisch zu erfassen, auszuwerten und zu speichern. Die Sorgen um die manipulative Macht des Clickbaiting sind gerechtfertigt. Schaden kann es jedenfalls nicht, vor der nächsten großen Entscheidung Handy und Computer auszuschalten und sich die Wirklichkeit vor der eigenen Haustüre anzuschauen.


*Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info im Dezember 2018 erschienen, in dessen Fokus "Clickbaiting" stand: https://www.dasgehirn.info/clickbaiting/clickbaiting. Der Artikel steht unter einer cc-by-nc-nd Lizenz und wurde von der Redaktion unverändert verwendet.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

(nur frei zugängliche Quellen)

Weitere 12 Artikel zum Thema clickbaiting auf https://www.dasgehirn.info/entdecken/clickbaiting

Julio Reis et al.: Breaking the News: First Impressions Matter on Online News, Proceedings of the Ninth International AAAI Conference on Web and Social Media [https://www.aaai.org/ocs/index.php/ICWSM/ICWSM15/paper/viewFile/10568/10535]

Editorial: Avoid hype (10 October 2017); DOI: 10.1038/s41551-017-0151-4. www.nature.com/natbiomedeng

Mike Klymkosky, 12.04.2018: Ist ein bisschen Naturwissenschaft ein gefährlich' Ding? http://scienceblog.at/ist-ein-bisschen-naturwissenschaft-ein-gef%C3%A4hrlich-ding.


 

inge Thu, 24.01.2019 - 16:54

Der "Stammbusch" der Menschwerdung

Der "Stammbusch" der Menschwerdung

Do, 17.01.2019 - 09:06 — Herbert Matis

Herbert MatisIcon BiologieWann und wie ist der Übergang vom Tier zum Menschen erfolgt? Die Vorstellung eines linearen Stammbaums, der von Vormenschen und Frühmenschen bis zum Homo sapiens führt, ist durch neue Funde von Fossilien und Werkzeugen nicht mehr haltbar. Stattdessen haben über lange Zeiträume mehrere (Vor)Menschenarten parallel existiert und sich auch untereinander gekreuzt - der Stammbaum ist also ein verzweigter Stammbusch. "Das Mosaik der Menschwerdung", ein faszinierendes neues Buch des deutschen Biophysikers und Wissenschaftshistorikers Dierk Suhr, fasst den aktuellen Stand der Forschung zusammen und versucht ein Gesamtbild der Humanevolution zu zeichnen [1]. Der Wirtschafts- und Sozialhistoriker Herbert Matis (emer. Prof. Wirtschaftsuniversität Wien) bespricht dieses Buch.

Bis vor wenigen Jahren schien die Entstehung der Gattung Mensch weitgehend geklärt, und der menschliche Stammbaum erschien, bis auf einige wenige missing links, vollständig in einer linearen Abstammungslinie darstellbar: Entstanden in Afrika, soll sich unsere Gattung in einer aufsteigenden Linie vom Vor- und Frühmenschen, über den Urmenschen bis hin zum modernen Homo sapiens entwickelt haben. Auslöser dieser Entwicklung sollen der Übergang zum aufrechten Gang, die Fähigkeit zur Werkzeugherstellung und das- nicht zuletzt durch neue Nahrungsquellen beförderte - Hirnwachstum gewesen sein.

Doch so einfach stellt sich die Sachlage nach aktueller Forschung nicht mehr dar: Neue Fossil- und Werkzeugfunde zeigen, dass Vormenschen sich schon Millionen Jahre auf zwei Beinen fortbewegten – ohne nachweisbare Fortentwicklung oder wachsende Gehirne; dass die Werkzeugherstellung älter ist als die Gattung Homo; dass über lange Zeiträume mehrere Menschenarten parallel existierten.

Ein verzweigter ›Stammbusch‹,…

Die neuen Erkenntnisse der Paläogenetik machten aus dem bisherigen übersichtlichen ›Stammbaum‹ einen verzweigten ›Stammbusch‹ mit zum Teil bisher unbekannten Menschenarten, die sich nachweislich untereinander kreuzten. Archaische Hominiden haben somit genetisch zum Genpool des modernen Homo sapiens beigetragen. Dessen Gene lassen sich nicht ausschließlich von einer einzigen isolierten Population ableiten, sondern von verschiedenen Vorfahren, die unterschiedliche ökologische Nischen in und außerhalb der afrikanischen Pleistozän-Landschaft besetzten. Es gibt also keine durchgehende Abstammungslinie, in die sich die einzelnen Fossilfunde einordnen lassen, vielmehr müssen wir von verschiedenen untereinander verflochtenen geographischen und zeitlichen Varianten von homininen Arten ausgehen.

…der noch nicht geklärt ist

Der ›Stammbusch‹ des Menschen ist heute somit keinesfalls geklärt – und die Unsicherheit nimmt aktuell eher zu als ab: Neue Funde bringen oft unerwartete Hinweise auf mögliche Verzweigungen (Bifurkationen) und damit neue Diskussionen über mögliche Verwandtschaftsverhältnisse und neue Hypothesen zur Menschwerdung, auch sind viele Fossilien in ihrer Einordnung umstritten. Dazu kommt, dass die mit Hilfe der sog. molekularen Uhr erstellten Angaben zu den Zeitpunkten der Aufspaltung von einzelnen Abstammungslinien oft um mehrere Millionen bzw. hunderttausende Jahre differieren, weshalb diese nur Näherungswerte liefern. Neuere molekularbiologische und paläoanthropologische Erkenntnisse haben unser Bild von der Abstammung des Menschen in den letzten Jahren stark verändert.

Das Mosaik der Menschwerdung

Das hier besprochene neue Buch von Dierk Suhr zeichnet den aktuellen Stand der Forschung nach und versucht, aus den einzelnen Mosaiksteinen an alten und neuen Erkenntnissen ein Gesamtbild der Menschwerdung zusammenzufügen. Abbildung 1.

Abbildung 1. Dierk Suhr (2018), Das Mosaik der Menschwerdung. Vom aufrechten Gang zur Eroberung der Erde: Humanevolution im Überblick [1].

Wie begann alles?

Wer sind wir? Wo kommen wir her? Wo gehen wir hin?

Diese für das Leben sinnstiftenden Fragen nach Herkunft und Bestimmung des Menschen beschäftigen uns wohl schon seitdem die Gattung Mensch die Fähigkeit zur Selbstreflexion besitzt. Schon seit grauen Vorzeiten versuchte man, in überlieferten Mythen und Sagen sowie in religiösen Weltdeutungen Antworten auf solche essentiellen Fragen zu finden. Gemeinsam ist diesen tradierten Narrativen, dass sie im Allgemeinen von einem singulären Schöpfungsakt und einer damit vorgegebenen Konstanz der Arten ausgehen, und dass sie vielfach den Menschen als den End- und Höhepunkt der Schöpfung betrachten und ihm somit eine Sonderstellung unter allen Lebewesen einräumen.

In seinem 236 Seiten starken Werk, das sowohl in gedruckter als auch in digitaler Fassung vorliegt, versucht der deutsche Wissenschaftshistoriker und Biophysiker Dierk Suhr wichtige Aspekte der Menschwerdung vorzustellen. Er greift dazu weit über das eigentliche Thema hinaus und geht zurück bis zum Ursprung des Universums mit dem ›Urknall‹ vor etwa 13,7 Mrd. Jahren, der Entstehung der ersten Spiral-Galaxien aus durch Kernfusion gebildeten Sternen vor etwa 8,8 Mrd. Jahren, der Ausformung unseres Sonnensystem mir seinen Planeten vor 4,6 Mrd. Jahren, bis hin zur Entstehung der ersten Formen organischen Lebens auf dem Planet Erde.

Biologische Evolution über 4 Milliarden Jahre und…

Von den ersten Anfängen des Lebens bis zur Entwicklung der heutigen biologischen Vielfalt, von den ersten Einzellern bis zur Entstehung des Menschen sind rund vier Milliarden Jahre der ›biologischen Evolution‹ vergangen.

Der Mensch nimmt dabei im biologischen System der Organismen keine Sonderstellung ein und er ist auch nicht der Endpunkt des prinzipiell offenen Evolutionsprozesses. Und trotzdem scheint diese Gattung Mensch etwas Besonderes zu sein, denn sie hat sich im Zuge der ›kulturellen Evolution‹ diesen Planeten Erde und alles andere Leben darauf untertan gemacht – etwas, das keiner anderen Tierart »im natürlichen phylogenetischen System der Organismen« (G. Heberer) gelungen ist.

…akzelerierte Evolution durch den Menschen wird möglich

Der Mensch hat sich zuletzt als erste Spezies mit dem in der jüngsten Zeit entwickelten neuesten molekularbiologischen Methodenkomplex (Sequenzierung des Genoms, CRISPR/cas9 und genome editing) in die Lage versetzt, an der Basis seiner eigenen genetischen Ausstattung gezielt zu manipulieren, und damit gleichsam ein neues Zeitalter einer akzelerierten Evolution einzuleiten: Es ist nicht mehr alleine die gesamte Umwelt, die den Selektionsdruck (Survival of the fittest) ausmacht, sondern der Mensch selbst tritt plötzlich in einer Art Feedback-Schleife in den Mittelpunkt das Selektionsmechanismus.

Durch die Fortschritte in der synthetischen Biologie wird es möglich, dass der Mensch erstmals die Möglichkeit erhält, in den Prozess der Evolution selbst aktiv einzugreifen, indem er mittels molekularbiologischer Methoden das Erbgut von Pflanzen, Tieren und Menschen verändert. Es wird dabei nicht ausgeschlossen, dass auf diese Weise auch neue Arten entstehen könnten. Der 2002 von Paul Crutzen und Eugene F. Stoermer in den wissenschaftlichen Diskurs eingeführte Begriff für ein das Holozän ablösendes neues Erdzeitalter Anthropozän, der zum Ausdruck bringt, dass der Mensch selbst nunmehr zum wesentlichen Einflussfaktor gravierender geologischer, ökologischer und atmosphärischer Veränderungen der Lebensumwelt geworden ist, wird damit durch den aktuellen Paradigmenwandel in der Biologie ergänzt und erweitert.

Wann wird der Mensch zum Menschen?

Angesichts dieser Situation ist es interessant, sich des Ausgangspunkts der Menschwerdung zurückzubesinnen: Wann wird der Mensch zum Menschen?

Was unterscheidet den Menschen von allen anderen Lebewesen?

Die Erforschung des Ursprungs des Menschen sieht sich allerdings mit der Schwierigkeit konfrontiert, dass sämtliche Hypothesen über den Menschwerdungsprozess bloß auf Grundlage von einzelnen beobachtbaren Fakten zu erklären sind, und man versuchen muß, aus einzelnen mit Mosaiksteinchen vergleichbaren paläontologisch-historischen Fundmaterialien ein konsistentes Gesamtbild von der Stammesgeschichte des Menschen zu entwickeln.

Es erscheint heute demgemäß plausibel, dass die Trennung der zu Homo und zu den Schimpansen führenden Entwicklungslinien erst vor 5 bis 6 Millionen Jahren erfolgte, und in Ostafrika im oberen Pleistozän vor rund 3 Mio. Jahren humane Hominiden erstmals zweckmäßige Werkzeuge herstellten. Eine wichtige Bedeutung hatten dabei auch periodisch auftretende mit Verlagerungen der Erdachse zusammenhängende Klimaschwankungen. Denn diese brachten unterschiedliche ökologische Lebensbedingungen im Evolutionsprozess mit sich und lösten damit auch verschiedene Anläufe des Menschwerdungsprozesses aus, die schließlich auch unsere eigene Stammeslinie hervorbrachten.

Wesentliche Fortschritte

ergaben sich im Verlauf dieses Prozesses aus dem Übergang zum aufrechten Gang, damit der Spezialisierung der oberen Gliedmaßen, aus dem Wandel der Ernährungsgewohnheiten, und der Ausbildung einer adäquaten Gehirnstruktur, welche neue psycho-physische Möglichkeiten eröffnete. Bereits ein besonderer Zweig von frühen Homininen, der auch als Vormensch bezeichnet wird, entwickelte Werkzeuge und in weiterer Folge die Fähigkeiten zur Abstraktion, zum Denken in Begriffen, zur Kooperationsfähigkeit, zur Ausbildung eines Kommunikationssystems, und damit der Möglichkeit, gemachte Erfahrungen innerhalb der sozialen Verbände über Sprache zu tradieren.

Die ersten Vertreter der Gattung Homo.

Dabei lebten fast zwei Millionen Jahre mehrere Formen von Vormenschen (Sahelpithecinen, Australopethicinen, Paranthropinen, Orronin) und Urmenschen (erste Vertreter der Gattung Homo wie H. habilis, H. rudolfensis) nebeneinander, wobei man davon ausgeht, dass jedenfalls die »Wiege der Menschheit« in Afrika stand. Aus einer Art der Gattung Australopithecus entwickelten sich vor drei bis zwei Millionen Jahren die ersten Vertreter der Gattung Homo. Abbildung 2.

Abbildung 2, Evolution der Gattung Homo in den letzten 2 Millionen Jahren. Über lange Zeiträume lebten mehrere Formen von Vormenschen (pink:Paranthropus) und Urmenschen nebeneinander (Bild von Redn, eingefügt. Quelle: File:Homo-Stammbaum (2017), Version Stringer-en.svg.Dbachmann. Wikipedia; Lizenz: CC-BY-SA)

Bereits der Homo erectus und seine vielen Unterformen (wie H. ergaster, H. rhodesiensis, H. heidelbergensis), die zu den Vormenschen gezählt werden, verfügten vor rund 1,5 Mio. bis 700 000 Jahren bereits über ein Gehirnvolumen von etwa 1 000 cm3, sie beherrschten das Feuer, erzeugten Faustkeile, und waren geschickte Jäger, die große Teile der alten Welt besiedelten.

Homo erectus galt lange als die erste Art der Gattung Homo, die sich über Afrika hinaus verbreitete und weite Teile Eurasiens bis nach Südostasien besiedelte. Allerdings werden derart unterschiedliche Schädel und Zähne dem Homo erectus zugeschrieben, dass es mehr als fraglich ist, ob man diese tatsächlich zu einer einzigen Art zusammenfassen kann.

Vor ca. 800 000 Jahren entwickelte sich aus Homo erectus eine Form mit größerem Gehirn, die meist als Homo heidelbergensis bezeichnet wird; er gilt als ein Zwischenglied zwischen Homo erectus und Neandertaler (H. neanderthalensis) in Europa und Denisova-Mensch in Asien. Unterschiede in der DNA lassen darauf schließen, dass sich bereits vor etwa 600 000 Jahren die frühmenschlichen Abstammungslinien von Denisova-Mensch, Neandertaler, und verschiedenen neuerdings identifizierten afrikanischen Vorformen von derjenigen des modernen Menschen trennten, was aber nicht bedeutet, dass es nicht auch weiterhin zu einer Vermischung des Erbguts kommen konnte, denn die verschiedenen Menschenarten lebten über hunderttausende Jahre nebeneinander. Abbildung 3.

Homo sapiens

Aus den in Afrika verbliebenen Populationen des Homo erectus ging in der Zeitspanne zwischen 300 000 bis 200 000 Jahren in Ostafrika der archaische Homo sapiens hervor. Vor 70 000 Jahren begann sich dieser in ganz Afrika und dem Nahen Osten auszubreiten, vor 45 000 Jahren hatte er bereits ganz Asien und Europa besiedelt. Scharfe Trennungslinien zwischen einzelnen Arten und Gattungen lassen sich nicht ziehen und werden sich angesichts des spärlichen Fossilbestands vermutlich auch niemals mit Sicherheit ziehen lassen. Abbildung 3.

Abbildung 3. Die ältesten Homo sapiens-Funde sind 300 000 Jahre alt und es gab mehrmals Einmischungen archaiischer DNA. (Bild von Redn, eingefügt. Quelle: File:Homo sapiens lineage.svg (2018), Dbachmann. Wikipedia; Lizenz: CC-BY-SA 4. 0)

Die ältesten Homo sapiens-Funde sind 300 000 Jahre alt und stammen aus Marokko; 100 000 Jahre jünger sind die bisher ältesten Funde aus Äthiopien. Dieses Alter passt hervorragend zu Studien, die den Zeitpunkt der Trennung des modernen Menschen von seinen archaischen Vorfahren genetisch auf einen Zeitraum zwischen 260 000 und 350 000 Jahren festlegten.

Allerdings gab es bis vor etwa 30 000 bis 20 000 Jahren vor unserer Zeitrechnung noch, wie Analysen der Erbanlagen aus Zellkernen und Mitochondrien von Fossilien anzeigen, mehrmals Einmischungen von recht archaischer DNA in Afrika, und in Europa und Asien haben sich moderne Menschen mit Neandertalern und Denisova-Menschen gekreuzt, und es finden sich Teile von deren beider Erbgut selbst noch in heutigen Menschen aus Europa, Asien und Melanesien. Vor allem Schädel und Skelett des Neandertalers sind durch zahlreiche Funde gut bekannt, die Neandertaler sind heute die am besten untersuchte Frühmenschenart, deren Genom vollständig entschlüsselt ist. Die ältesten Funde von Neandertalern in Europa wurden auf 175 000 Jahre datiert. Der Neandertaler lebte noch bis rund 30 000 Jahren vor unserer Zeitrechnung in Europa und Westasien und ist damit bereits als ein Zeitgenosse des Jetztmenschen (Homo sapiens sapiens) anzusehen.


Viele Theorien und Hypothesen versuchen, das Rätsel der Menschwerdung zu erklären. Dieses Buch hat zum Ziel, all diese Theorien nebeneinander zustellen und aus den einzelnen Mosaiksteinen ein Gesamtbild der Humanevolution zusammenzusetzen – ein Vorhaben, das durchaus gelungen erscheint. Wie der Autor Dierk Busch den Stammbusch der Menschwerdung sieht, ist in Abbildung 4 vereinfacht dargestellt.

Abbildung 4. Der Stammbusch der Menschwerdung. Vereinfachte Darstellung nach Dierk Suhr (p. 110 (2018)) [1]. (Abb. von Redn. eingefügt. Bilder der Homininen sind Rekonstruktionen aus Wikipedia und stammen von 1:Mateus Zica, 2: Cicero Moraes, 3: Lillyundfreya, 4: Schnaubelt & N. Kieser, 5: Cicero Moraes. Alle Bilder stehen unter CC-BY-SA Lizenz)


[1] Dierk Suhr, Das Mosaik der Menschwerdung. Vom aufrechten Gang zur Eroberung der Erde: Humanevolution im Überblick, Springer Nature Verlag (2018), 236 Seiten, 53 Abbildungen, ISBN 978-3-662-56829-3; e-book ISBN 978-3-662-56830-9;

https://doi.org/10.1007/978-3-662-56830-9 


Weiterführende Links

Dr. Dierk Suhr, Geschäftsführer: Verein zur MINT-Talentförderung e. V., Düsseldorf, https://www.plus-mint.de/

Aug in Aug mit dem Neandertaler (2017). Klaus Wilhelm https://www.mpg.de/11383679/F001_Fokus_018-025.pdf

Mutter Neandertalerin, Vater Denisovaner! (22.8.2018) https://www.mpg.de/12205753/neandertaler-denisovaner-tochter

Great Transitions: The Origin of Humans — HHMI BioInteractive Video (veröffentlicht Dezember 2014, großartiges Video aus dem Howard Hughes Medical Institute, leicht verständliches Englisch) 19:44 min https://www.youtube.com/watch?v=Yjr0R0jgct4&feature=youtu.be

Artikel im ScienceBlog


 

inge Thu, 17.01.2019 - 09:06

Die Wälder unserer Welt sind in Gefahr

Die Wälder unserer Welt sind in Gefahr

Do, 10.01.2019 - 08:10 — IIASA IIASA

Icon Wald

Klimawandel und übermäßige Nutzung durch den Menschen stellen ernsthafte Bedrohungen für unsere Wälder dar - von den kühlen Wäldern der nördlichen Breiten bis hin zu den tropischen (Regen)Wäldern. Forscher am International Institute for Applied Systems Analysis (IIASA) erproben Lösungsansätze mit dem Ziel die Umwelt zu schützen und die nachhaltige Bewirtschaftung der enorm wichtigen Ressource Wald sicherzustellen.*

Der Klimawandel bedeutet für die Wälder der Welt eine erhebliche Bedrohung. Ein Anstieg von Extremsituationen, wie lange und starke Hitzewellen und Wasserstress, weil Regenfälle ausbleiben oder ungleichmäßig verteilt sind, führt dazu, dass die Widerstandsfähigkeit der Waldökosysteme abnimmt und verursacht manchmal ein explosive Zunahme von natürlich bedingten Störungen wie von Waldbränden (Abbildung 1)und Schädlingsbefall. Abbildung 1. Waldbrand in der kanadischen Taiga. Bei Beaver Village, Yukon Flats National Wildlife Refuge. (Bild von Redn. eingefügt; Quelle: Wikipedia, gemeinfrei)

Waldbrände

Im vergangenen Sommer gab es in der gesamten nördlichen Hemisphäre extreme Hitzewellen. Mit der Trockenheit der Luft und der Vegetation kam es in vielen Ländern zu einer ungewöhnlich hohen Zahl von Waldbränden. In Griechenland waren es die schlimmsten Waldbrände in diesem Jahrzehnt und es fielen Dutzende Menschen diesen zum Opfer, in Schweden erstreckten sich die Waldbrände bis hin zum Polarkreis und in den Vereinigten Staaten brannten riesige Flächen nieder, vor allem im Westen des Landes. Die meisten dieser Brände waren Waldbrände.

Die wärmeren Durchschnittstemperaturen und eine Zunahme extremer, Klimawandel-bedingter Wettersituationen verlängern die Brandsaisonen und führen zu einer Ausdehnung der feuergefährdeten Gebiete. Dies wiederum führt zu häufigeren, ausgedehnteren und heftigeren Bränden. IIASA-Untersuchungen zeigen, dass - verglichen mit den Mittelwerten zwischen 2000 und 2008 - die abgebrannten Gebiete in Europa und in der borealen Zone Eurasiens sich aufgrund des Klimawandels bis 2090 verdreifachen könnten, sofern keine Maßnahmen dagegen ergriffen werden.

In dicht besiedelten Gebieten werden 90% der durch menschliches Zutun entstandenen Feuer fast "sofort" gelöscht, da eine gute Infrastruktur vorhanden ist. In abgelegenen Gebieten, in denen nur geringe Kapazitäten vorhanden sind, um Feuerausbrüche zu kontrollieren, können von Menschen entfachte Feuer zu verheerenden Katastrophen führen. Fernab, in Gegenden ohne menschliche Aktivitäten, werden Feuer durch Blitze entzündet und können über Wochen oder sogar Monate brennen.

Das FLAM-Modell (Wildfire Climate Impacts and Adaptation Model)…

Ist ein Feuer einmal ausgebrochen, so hängt es von vielen Faktoren ab, wie groß es werden wird und wie lange es brennt. Es hängt beispielsweise davon ab, ob der Wind die Ausbreitung der Flammen begünstigt, wie viel trockene Vegetation als Brennmaterial vorhanden ist und welche Ressourcen zum Löschen zur Verfügung stehen. Alle diese Faktoren sind im FLAM-Modell (Wildfire Climate Impacts and Adaptation Model) enthalten, das im Rahmen des IIASA Ecosystems Services and Management Program entwickelt wurde. Abbildung 2.

Abbildung 2. Flowchart der Faktoren, die in das FLAM-Modell eingehen. FLAM berechnet drei Wahrscheinlichkeiten für die Entfachung von Bränden in Abhängigkeit i) von Wetterbedingungen,ii) von vorhandenem Brennmaterial und iii) von menschlichen Aktivtäten oder natürlichen Umständen. (Bild von Redn. aus der, dem Artikel zugrundeliegenden Arbeit [1]: Krasovskii A, et al., (2018) eingefügt (Lizenz: cc-by).

…auf Indonesien angewandt

Vor kurzem haben die Forscher ihr Modell auf Indonesien angewendet, das besonders stark von langen und heftigen Waldbränden betroffen ist - zum Teil ist dies auf die dort übliche Praxis zurückzuführen Feuer zur Landrodung einzusetzen. Das FLAM-Modell war imstande niedergebrannte Flächen sehr gut zu erfassen, insbesondere bei Großbränden. Abbildung 3.

Abbildung 3. Brände in den Sumpfregenwäldern Indonesiens. Oben: Sumpfregenwälder auf Borneo und Sumatra (Daten: Landwirtschaftsministerium Indonesiens. Jeder Pixel enthält einen der Farbe entsprechenden Anteil an Sumpfland). Unten: abgebrannte Flächen laut GFED Datenbank (Global Fire Emissions Database) und FLAM-Modellierung. Die Messungen von2000 - 2009 wurden zur Kalibrierung des Modells herangezogen, die Validierung von 2010 bis 2016 zeigte gute Übereinstimmung von beobachteten und simulierten Brandflächen. (Bilder von Redn. aus der, dem Artikel zugrundeliegenden Arbeit: Krasovskii A, et al., (2018) [1] eingefügt (Lizenz: cc-by).

"Festzustellen welche Gegenden besonders anfällig für Waldbrände sind, wird den politischen Entscheidungsträgern helfen, Strategien zur Verhinderung von Bränden umzusetzen und liefert wichtige Informationen für den Aufbau einer kostengünstigen und effizienten Infrastruktur zur Brandbekämpfung", erklärt der IIASA-Forscher Andrey Krasovskii.

Die öffentliche Debatte dreht sich oft um die Verringerung der Kohlenstoffemissionen, die bei der Verbrennung von fossilen Brennstoffen entstehen. Aufgrund des Niederbrennens von Wäldern in großen Moorgebieten sind die Emissionen Indonesiens tatsächlich mit den aus fossilen Brennstoffen stammenden jährlichen CO2-Emissionen in Ländern wie Japan und Indien vergleichbar. Dies zeigt die essentielle Bedeutung der Wälder für unser Klima sind und wie große Feuer sie leicht von CO2-Senken zu CO2-Emittenten machen können.

Gefahr für die kühlen Wälder

Die Bedrohungen, denen Wälder aufgrund des Klimawandels ausgesetzt sind, gehen weit über die Waldbrände hinaus. Die Klimaerwärmung ist im zirkumpolaren borealen Gürtel - den nördlichsten Regionen von Alaska, Kanada, Russland und Skandinavien - am extremsten. In diesen Gebieten befinden sich die borealen Wälder (die Taiga; Anm. Redn.), die - abgesehen von den Ozeanen - das größte Ökosystem der Welt darstellen, welches ein Drittel aller Wälder weltweit umfasst. Abbildung 4. Diese hauptsächlich aus Nadelbaumarten (Fichten, Kiefern, Tannen und Lärchen; Anm. Redn.) bestehenden Wälder wurden durch die Anpassung an ein kaltes Klima geformt und hängen essentiell von diesem ab - ein Umstand, der sie besonders anfällig für den Klimawandel macht.

Abbildung 4. Die borealen Wälder (Taiga) - ein Waldgürtel zwischen etwa dem 50. und dem 70. Breitegrad der nördlichen Hemisphäre (oben) - sind - nach den Ozeanen - das größte Ökosystem der Erde. Unten: Der Jack London See bei Kolyma, Ostsibiriren (Bild oben: GeForce3 - Wiki Commons -Distribution Taiga.png; CC-BY-SA 3.0. Bild unten: Wikipedia, Bartosh Dmytro, Kiev; CC-BY.)

In den letzten drei Jahrzehnten haben IIASA-Forscher boreale Wälder intensiv untersucht. Im September 2018 hat IIASA in Zusammenarbeit mit der International Boreal Forest Research Association, dem Pan-Eurasian Experiment und der International Union of Forest Research Organizations eine Konferenz mit dem Titel "Kühle Wälder in Gefahr?" veranstaltet, um nachhaltige Lösungen zur Bewahrung dieses wichtigen Ökosystems zu finden.

Gemeinsame Initiative zum Schutz der Wälder

Über eine Konferenz hinaus war diese Veranstaltung auch der Startschuss einer gemeinsamen Initiative von Wissenschaftlern, Waldmanagern und anderen Interessengruppen zum Schutz der borealen Wälder und auch der Bergwälder und zur Sensibilisierung der Öffentlichkeit und der Fachwelt für die Gefahr, welcher diese Wälder ausgesetzt sind.

„Wir hoffen, dass das Wissen, das wir mit unserer Forschung, der Themenvielfalt und den eingehenden Diskussionen auf der Konferenz generieren, es Ländern mit kühlen Wäldern erleichtern wird zu einer anpassungsfähigen, risiko-belastbaren nachhaltigen Waldbewirtschaftung überzugehen“, sagt Florian Kraxner, Tagungsleiter und IIASA-Forscher.

Zu einer nachhaltigen Waldbewirtschaftung gehört jedoch nicht nur der Schutz der Wälder vor den Folgen des Klimawandels, sondern auch die Regulierung der Abholzung, der offensichtlichsten Gefahr, der Wälder durch die Aktivitäten des Menschen ausgesetzt sind. Der Kern des Problems ist ziemlich einfach: Da wir mit dem Abholzen von Bäumen zur Herstellung von Holz- oder Papierprodukten Geld verdienen können, beuten wir Wälder schneller aus als sie regenerieren können. Leider ist dieses Problem nicht einfach zu lösen. Das Projekt Equitable Governance of Common Goods hat nun das Know-How der IIASA-Programme Risiko und Resilienz und Evolution und Ökologie kombiniert, um herauszufinden, welche Arten von Regulierungen am besten geeignet sind, um eine gerechte Aufteilung der Ressourcen zu gewährleisten und die sogenannte "Tragödie des Gemeinguts" ("tragedy of the commons") zu verhindern - den Niedergang einer Ressource aufgrund des eigennützigen Verhaltens von Individuen.

Ein Ansatz, um Lösungen zu finden, besteht in der Verwendung experimenteller Spiele, wie beispielsweise des von IIASA entwickelten „Forest Game“. In diesem Spiel wird eine Gruppe von fünf bis zehn Spielern aufgefordert in mehreren Runden Entscheidungen über die Bewirtschaftung eines Waldes zu treffen. Indem Forscher die Entscheidungsprozesse der Spieler analysieren, können sie herausfinden, welche Rolle Kommunikation und persönliche Wertvorstellungen im Ressourcenmanagement spielen.

Fazit

Für die Wälder der Erde haben wir eine Reihe unterschiedlicher Probleme untersucht; frühere und aktuelle IIASA-Studien zeigen aber, dass wir auch Teil der Lösung sein können. Dies gibt Anlass zur Hoffnung, dass wir die Wälder erhalten können, auf die wir in Bezug auf Klima, Wirtschaft und Biodiversität so stark angewiesen sind.

[1] Krasovskii A, Khabarov N, Pirker J, Kraxner F, et al. (2018). Modeling Burned Areas in Indonesia: The FLAM Approach. Forests 9 (7): e437


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist im IIASA Magazin Options Winter 2018/19 unter dem Titel: "Forests under threat" erschienen (Text by Melina Filzinger): http://www.iiasa.at/web/home/resources/publications/options/opt18w.pdf. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen u.a. aus Krasovskii A, et al., (2018) [1, siehe oben] ergänzt.


Weiterführende Links

IIASA homepage: http://www.iiasa.ac.at/

Das Waldökosystemmodell Land: http://iLand.boku.ac.at

Europäische Wissensplattform zur Rolle der funktionalen Diversität in Wäldern (in Englisch) http://www.fundiveurope.eu/

Resilience Alliance (in Englisch) http://www.resalliance.org/

Artikel im ScienceBlog

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel.

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Rattan Lal, 14.12.2015: Der Boden – Grundlage unseres Lebens.

Johannes Kaiser & Angelika Hell, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet.

Hans-Rudolf Bork, 15.11.2014: Die Böden der Erde: Diversität und Wandel seit dem Neolithikum.

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um.

Gerhard Glatzel, 11.07.2014: Hat die Menschheit bereits den Boden unter den Füßen verloren?.

Peter Schuster, 31.5.2012: Die Tragödie des Gemeinguts.


 

inge Thu, 10.01.2019 - 08:10

Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Do, 03.01.2019 - 09:00 — Inge Schuster Inge SchusterIcon Medizin

Wir leben in untrennbarer Gemeinschaft mit unserem Mikrobiom - Mikroorganismen, die unsere Stoffwechselfunktionen beeinflussen, wie wir die ihren. Der überwiegende Teil der Mikroorganismen ist im Darm angesiedelt und hat wesentlichen Einfluss darauf, in welchem Ausmaß und in welcher Form Fremdstoffe aus Nahrung und Umwelt - darunter auch Arzneimittel - in unseren Organismus gelangen. Wenn Personalisierte Therapien von Erkrankungen wirksam sein sollen, müssen auch die komplexen Beziehungen zwischen Wirtsorganismus und Mikrobiom in ihre Strategien einbezogen werden.

Noch vor wenigen Jahrzehnten wurden Mikroorganismen, wie sie u.a. unseren Darm besiedeln, im Wesentlichen als Verursacher von Infektionen betrachtet. Auf die Frage ob und in welcher Weise solche Keime unseren Stoffwechsel beeinflussen können, erntete man in Fachkreisen kaum mehr als ein Achselzucken. Im letzten Jahrzehnt hat sich das Bild komplett gewandelt. Vor allem die Summe der Mikroorganismen, das Mikrobiom eines Organs oder des ganzen Organismus, hat enorme Popularität gewonnen: in PubMed, der größten textbasierten Datenbank im Bereich Biomedizin, sind seit 2008 unter den Stichworten "gut microbiota" und "human" 10166 Arbeiten in Fachjournalen erschienen. (Dazu kommen noch massenhaft entsprechende Arbeiten an Tiermodellen.)

Unser Mikrobiom

Mikroorganismen - Bakterien, Archaea, Pilze, Protozoen - und Viren (darunter auch Bakteriophagen) sind essentielle Mitbewohner unseres Organismus. Diese, in ihrer Gesamtheit als Mikrobiom bezeichneten Keime stellen ein unglaublich komplexes System aus Tausenden mikrobieller Spezies dar, von denen sich die meisten kaum isoliert kultivieren lassen.

Rund 39 Billionen Mikroorganismen leben in und auf uns und sind damit etwa gleich stark vertreten wie unsere 30 Billionen körpereigenen Zellen, die allerdings Tausendfach größer sind, aber viel, viel niedrigere Stoffwechselaktivitäten aufweisen [1]. Der überwiegende Teil der Mikroorganismen ist im Verdauungstrakt und hier insbesondere im Dickdarm angesiedelt, wobei mehr als 99 % davon - rund 0,3 % unseres Körpergewichts - aus Bakterien bestehen. Abbildung 1.

Abbildung 1. Der Darm, insbesondere der Dickdarm ist ein enorm dicht besiedeltes Habitat von Mikroorganismen.

Um ein besseres Verständnis für das mikrobielle Makeup des Menschen zu erreichen, haben die US-National Institutes of Health (NIH) vor rund einem Jahrzehnt ein Mega-Projekt, das Human Microbiome Project (HMP), gestartet, basierend auf Sequenzierungen des mikrobiellen Genoms - des sogenannten Metagenoms - von 265 gesunden Amerikanern [2].

Viele der neuen Studien beschäftigen sich mit der Charakterisierung unserer winzigen Mitbewohner. Von besonderem Interesse ist jedoch die Frage, wie Mikrobiom und Wirtsorganismus sich gegenseitig beeinflussen. Welche Vorteile kann der Wirt von seinen Mietern erwarten, welche Nachteile muss er in Kauf nehmen und wie setzt sich ein optimales Mikrobiom zusammen?

Bereits im Altertum hatte Hippokrates (430 -370 v. Chr.) konstatiert: Der Darm ist der Vater aller Trübsal. Dass Änderungen in der Diversität der Darmflora mit dem Auftreten von Krankheiten assoziiert sind und zu deren Entstehen vielleicht sogar kausal beitragen, wird nun mehr und mehr bestätigt. Das Spektrum solcher Mikrobiom-assoziierter Erkrankungen reicht von Stoffwechselerkrankungen wie Adipositas und Diabetes, entzündlichen Darmerkrankungen, Immundefekten, Tumoren bis hin zu diversen neurogenerativen Erkrankungen einschließlich der Alzheimerkrankheit.

Fremdstoffe und Darm-Mikrobiom

Viele Studien belegen auch, dass unsere unterschiedlich zusammengesetzten Sets an Mikroorganismen - unsere "personalisierten" Mikrobiome - wesentlichen Einfluss darauf haben in welchem Ausmaß und in welcher Form wir Fremdstoffe aus Nahrung und Umwelt - darunter auch Arzneimittel - in den Organismus aufnehmen können. Dies kann schädliche Auswirkungen für uns haben, aber auch für den Körper von Nutzen sein.

Beispielsweise können Darmbakterien unverdauliche Nahrungskomponenten aufschließen und dem Körper als hochwertige Stoffe zuführen. Sie können auch körpereigene Stoffe modifizieren wie beispielsweise die in der Leber produzierten, zur Fettemulgierung in den Darm sezernierten Gallensäuren: im sogenannten enterohepatischen Kreislauf recyceln Bakterien diese kostbaren Substanzen, machen sie für die Wiederaufnahme in den Organismus und in Folge in die Leber verfügbar.

Ob Nahrungskomponenten oder andere Fremdstoffe: alles, was geschluckt wird, trifft zuerst auf das im Darmtrakt ansässige Mikrobiom bevor es die Darmwand erreicht und über die Darmzellen in den Organismus aufgenommen- resorbiert - werden kann.

Schlecht resorbierbare Substanzen - und zu diesen zählen auch viele Arzneistoffe - werden zum Teil mit dem Kot unverändert ausgeschieden und sind auf ihrer weiten Passage durch den Darm den dauernden Angriffen von Darmbakterien ausgesetzt. Eine Fülle an Beispielen beweist, dass Arzneimittel und andere Fremdstoffe von den Keimen im Darm modifiziert- metabolisiert - werden können.

Die Metabolisierung durch das Mikrobiom hat entscheidende Folgen für die Wirksamkeit einer verabreichten aktiven Substanz: In vielen Fällen führt die Modifikation zu einer Reduktion oder gar zum Verlust der Aktivität; was in den Körper resorbiert wird, reicht nicht aus um die gewünschte therapeutische Wirkung zu erzielen.

  • Dies ist der Fall bei dem schon seit langem bei Herzinsuffizienz und Vorhofflimmern angewandten Digitalisgykosid Digoxin, das durch Bakterien in inaktive Metabolite gespalten wird.
  • Auch das gegen Infektionen mit Fadenwürmern und auch maligne Tumoren wirksame Levamisole wird durch Darmbakterien zu unwirksamen Metaboliten umgewandelt Werden gleichzeitig mit Digoxin und Levamisole Antibiotika eingenommen, so reduziert dies den Einfluss der Bakterien und führt zu gesteigerter Wirksamkeit der Arzneimittel

in einigen Fällen macht man sich die Modifikation durch Darmbakterien zu Nutze:

  • beispielsweise im Fall von Sulfasalazine, das insbesondere in der Behandlung entzündlicher Darmerkrankungen und rheumatoider Arthritis Anwendung findet. Diese Verbindung ist eine sogenannte "prodrug", d.h. sie ist vorerst inaktiv und wird erst im Dickdarm (durch bakterielle Azo-Reduktasen) in die aktiven Komponenten gespalten.

Unerwünschte Auswirkungen hat dagegen die bakterielle Metabolisierung

  • von Nitrazepam (durch eine Nitroreduktase), eines Vertreters aus der Klasse der Benzodiazepine, das bei Schlafstörungen und in der juvenilen Epilepsie eingesetzt wird. Bakterien produzieren daraus die Vorstufe zu einer teratogenen Substanz.
  • Besonders negativ ist der Einfluss der Bakterien auf den antiviralen Wirkstoff Sorivudine, der 1993 auf den Markt kam und bei Patienten, die gleichzeitig 5-Fluoruracil erhielten, insgesamt zu 18 Todesfällen führte. Der Grund dafür: eine Bacteroides-Art metabolisierte Sorivudine zu einem Produkt, das den Abbau von 5-Fluoruracil hemmte und so davon toxische Konzentrationen erzeugte. Die Substanz wurde umgehend vom Markt zurückgezogen.

 

Die aus einer rezenten Veröffentlichung stammende Abbildung 2 fasst zusammen, wie das Mikrobiom des Darms die Wirkung von Arzneimitteln modifizieren kann.

Abbildung 2. Im Darmlumen angesiedelte Mikroorganismen können Arzneimittel metabolisieren und sind damit ausschlaggebend für Ausmaß und Wirksamkeit der in den Organismus gelangenden Substanzen. Das Darmepithel (ocker) ist auf der Seite des Darmlumens von einer dicken Mukusschicht bedeckt, darüber sind Mikroorganismen - vor allem Bakterien (rot und blau) angesiedelt. In das Darmlumen gelangende Arzneimittel können - wie im Fall der Prodrug Sulfasalazine - durch Bakterien aktiviert werden, wie bei Digoxin oder Levamisole zu inaktiven Produkten abgebaut werden. Wie bei Sorivudine können auch toxische Produkte entstehen (Bild: A.Whang, R. Nagpal and H. Yadav, Bi-directional drug-microbiome interactions of anti-diabetics, EBioMedicine, https://doi.org/10.1016/j.ebiom.2018.11.046 Lizenz: cc-by-nc-nd 4.0. Text: I. Schuster)

Ausblick

Lange hat das Gebiet der mit uns in Symbiose lebenden Mikroorganismen ein Aschenbrödeldasein geführt. In den letzten Jahren ist es zum Hot Topic geworden und führt nun eine neue Ebene der Komplexität in die Struktur, Funktion und Regulierung unserer Lebensvorgänge ein. Zu den Genen, Proteinen und Metaboliten unseres eigenen Organismus kommen jetzt noch die Genome, Proteome und Metabolome Tausender anderer Spezies mit all den Wechselwirkungen, die zwischen diesen und uns auftreten. Projekte wie das Human Microbiome Project der NIH sind ein mutiger Einstieg in ein überaus komplexes Gebiet, das aus enormen Datenmengen ein neues Bild unserer Existenz schaffen kann. Die Aussicht damit innovative Ansätze zur Erkennung von Krankheitsursachen und zu deren Vermeidung zu finden, ist überaus verlockend.[3]

Personalisierte Therapien von Erkrankungen werden jedenfalls die komplexen Beziehungen zwischen Wirtsorganismus und Mikrobiom in ihre Strategien einbeziehen müssen.

[1] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus? http://scienceblog.at/kenne-dich-selbst-aus-wie-vielen-und-welchen-k%C3%B6rperzellen-und-mikroben-besteht-unser-organismus

[2] Francis S. Collins, 28.9.2017: Ein erweiterter Blick auf das Mikrobiom des Menschen. http://scienceblog.at/ein-erweiterter-blick-auf-das-mikrobiom-des-menschen

[3] Human Microbiome Project Highlights. https://commonfund.nih.gov/hmp/programhighlights


Weiterführende Links

Ron Milo: A sixth sense for understanding our cells. TEDxWeizmannInstitute . Video 15:01 min. Veröffentlicht am 20.08.2014 Dario R. Valenzano, 28.6.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts. http://scienceblog.at/mikroorganismen-im-darm-sind-schl%C3%BCsselregulatoren-f%C3%BCr-die-lebenserwartung-ihres-wirts

Francis S. Collins, 29.11.2018: Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen. http://scienceblog.at/krankenhausinfektionen-%E2%80%93-keime-k%C3%B6nnen-auch-aus-dem-mikrobiom-des-patienten-stammen .


 

inge Thu, 03.01.2019 - 09:00