2025
2025 inge Thu, 09.01.2025 - 13:56Die Impfung gegen Gürtelrose senkt das Risiko an Demenz zu erkranken
Die Impfung gegen Gürtelrose senkt das Risiko an Demenz zu erkrankenMi, 9.04.2025— Redaktion
In den letzten Jahren mehren sich die Hinweise, dass Herpesviren eine Rolle bei der Entstehung von Demenzen spielen dürften und eine Herpes-Impfung Schutz vor diesen Erkrankungen bieten könnte. Eine neue Studie nutzt die einzigartige Art und Weise, in der der Gürtelrose-Impfstoff Zostavax in Wales eingeführt wurde, um in überzeugender Weise darzulegen, dass offensichtlich ein kausaler Zusammenhang zwischen der Impfung und der Reduktion von Demenzerkrankungen besteht. Über einen Nachbeobachtungszeitraum von sieben Jahren hat die Impfung die Diagnose von neuen Demenzerkrankungen um etwa 20 % gesenkt - eine nebenwirkungsfreie und dabei wirksamere und kostengünstigere Intervention als die bestehenden pharmazeutischen Maßnahmen.
Von Feuchtblattern zur Gürtelrose......
Das zur Gruppe der Herpesviren gehörende Varicella-Zoster-Virus (VZV) ist ein weltweit verbreitetes neurotropes - d.i. Nervengewebe infizierendes - Virus. VZV ist hochansteckend und löst primär Feuchtblattern (Windpocken) aus, eine Hauterkrankung, an der vor allem Kinder erkranken und die mit Fieber und juckendem bläschenförmigen Ausschlag aber meistens ohne schwere Komplikationen einhergeht. Eine Impfung gegen das Virus gibt es bereits seit mehr als 30 Jahren; dies hat die Zahl der Fälle und vor allem der seltenen schweren Komplikationen enorm verringert. Über 90 % der Erwachsenen in Europa weisen Antikörper gegen das Virus auf, weil sie entweder mit VZV infiziert waren oder als Kinder dagegen geimpft wurden - dies macht sie gegen einen neuen Feuchtblattern-Ausbruch immun.
Abbildung 1. Zur Infektion mit dem Varicella-Zoster-Virus.Vereinfachtes Schema. Die Erstinfektion mit dem Virus (rechts oben) erfolgt in der Regel durch Einatmen hochinfektiöser Partikel von akut an einer Varizelleninfektion erkrankten Personen. Man nimmt an, dass VZV die Epithelschleimhaut (Mukosa) in den oberen Atemwegen und dabei lokale dendritische Zellen infiziert (links), über die das Virus in die Lymphknoten übertragen wird, wo es T-Zellen infiziert. Über die Blutbahn wird das Virus in der Haut verbreitet und führt dort zu den juckenden Bläschen der Feuchtblattern. Daneben gelangt VZV in die sensorischen Nervenzellen der Spinalganglien (DRG - dorsal root ganglia) und verbleibt dort in latenter, d.i. reaktivierbarer Form. Dies geschieht im Alter und/oder bei geschwächtem Immunsystem; das Virus gelangt wieder in die Haut und löst nun den charakteristischen Herpes-Zoster-Ausschlag aus. (Bild links modifiziert aus: Chelsea Gerada et al., Front. Immunol. 2020 Sec. Viral Immunology. Vol 11. https://doi.org/10.3389/fimmu.2020.00001; Lizenz CC-BY. Bild oben rechts: NIAID - Electron micrograph of Varicella-zoster Virus, https://commons.wikimedia.org/w/index.php?curid=39933260 CC BY 2.0. Bild unten rechts: Gürtelrose, https://commons.wikimedia.org/wiki/File:DGK_Guertelrose.jpg, CC-BY-SA.) |
Wenn die Feuchtblattern-Infektion abgeklungen ist, ist das Virus allerdings nicht völlig aus dem Organismus verschwunden. Über die Nervenbahnen in Nervenzellen des Rückenmarks (in den dorsalen Spinalganglien) und auch in Hirnnerven gelangt verbleibt es dort - solange es von der antiviralen Immunantwort in Schach gehalten wird - in einem inaktiven (latenten) Zustand. Ist aber das Immunsystem infolge des Alterungsprozesses, schweren Erkrankungen oder Therapien - schwächer geworden, so kann das Virus auch noch nach Jahrzehnten reaktiviert werden, sich vermehren und über die Nervenbahnen ausbreiten - in den entsprechenden Hautabschnitten (Dermatomen) können dann Gürtelrose und in vielen Fällen sehr schmerzhafte Post-Zoster-Neuralgien ausgelöst werden.
Zu Feuchtblattern führende Primärinfektion und Gürtelrose auslösende Reaktivierung des VZV sind in Abbildung 1 vereinfacht dargestellt.
...........und zu kognitiven Beeinträchtigungen
Wie auch das nahe verwandte Herpes simplex Virus kann VZV im zentralen Nervensystem Hirnentzündung (Enzephalitis) und Hirnhautentzündung (Meningitis) auslösen.
Darüber hinaus mehren sich die Hinweise, dass das Virus eine Rolle in der Pathogenese von Demenzerkrankungen, insbesondere der Alzheimerkrankheit spielen dürfte: Untersuchungen haben gezeigt, dass VZV zu zerebralen Vaskulopathien (Gefäßerkrankungen), Amyloidablagerungen, Aggregation von Tau-Proteinen und Neuroinflammation und in Folge zu kognitiven Beeinträchtigungen führen kann.
Wenn also VZV maßgeblich in diese Pathogenese involviert sein dürfte, sollte die (für ältere Menschen empfohlene) Impfung gegen Gürtelrose das Risiko für Demenzerkrankungen reduzieren. Dies haben in jüngster Zeit eine Reihe von epidemiologischen Studien berichtet, die elektronische Gesundheitsdaten heranzogen, um Kohorten, die eine Gürtelrose-Impfung erhalten hatten mit solchen zu vergleichen, die nicht geimpft wurden. Allerdings leiden solche Korrelationen unter dem Bias, dass sich solche Kohorten in (auch mit Demenz zusammenhängenden) Merkmalen unterscheiden können, insbesondere da gesundheitsbewusste/-kompetente Menschen sich eher impfen lassen und weniger häufig an Demenz erkranken.
Ein "natürliches" Experiment
Eine transdisziplinäres Team von Wirtschaftswissenschaftern und Medizinern aus den US, Deutschland und Österreich konnte an Hand von vollständigen elektronischen Gesundheitsdaten- d.i. über erhaltene Impfungen, primäre und sekundäre Gesundheitsversorgung, Geburts- und Sterbedaten -, wie sie in Wales (SAIL-Datenbank) erhoben werden, nun in überzeugender Weise zeigen, dass offensichtlich ein kausaler Zusammenhang zwischen der Gürtelrose-Impfung und der Reduktion von Demenzerkrankungen besteht [1].
In Wales wurde am 1. September 2013 die Impfung mit der abgeschwächten Lebendvakzine Zostavax (dem damals einzigen Gürtelrose-Impfstoff) für 70 bis 79 Jährige eingeführt. Das Impfprogramm zeigte dabei eine Besonderheit, die es möglich machte äußerst ähnliche Kohorten von Geimpften und Nichtgeimpften zu vergleichen: Da die Wirksamkeit des Impfstoffs für Personen ab 80 Jahren niedriger ausfällt und damit als nicht kosteneffizient galt, wurden nur Personen zur Impfung zugelassen, die mit dem Stichtag 1. September 2013 jünger als 80 Jahre (also nach dem 2. September 1933 geboren) waren [2].
Die Forscher verglichen nun über eine Nachbeobachtungsperiode von sieben Jahren die Gesundheitsdaten, das Auftreten von Gürtelrose, Post-Zoster-Neuralgien und von Demenzerkrankungen von Senioren, die eine Woche vor dem Stichtag 80 geworden waren und daher von der Impfung ausgeschlossen waren, mit denen, die in der Woche nach dem Stichtag 80 wurden und daher berechtigt waren geimpft zu werden (47 % dieser Impfberechtigten ließ sich auch impfen). Vom minimalen Altersunterschied abgesehen lagen daher zwei weitestgehend gleichartig zusammengesetzte Personengruppen (also auch hinsichtlich der Impfwilligen und Impfunwilligen) vor, die sich nur durch den Faktor Impfung unterschieden. Besser als diese, von den Forschern als "natürliches Experiment" bezeichnete Analyse lässt sich auch der Goldstandard klinischer Untersuchungen, die randomisierte, Placebo-kontrollierte Studie nicht designen!
Abbildung 2. Die Zulassung zur Gürtelrose-Impfung bewirkt einen großen Sprung (Diskontinuität) in der Wahrscheinlichkeit innerhalb der folgenden sieben Jahre an Demenz zu erkranken. Regression-Diskontinuitäts-Analyse. Normiert auf den Anteil der tatsächlich geimpften Personen, resultiert eine Reduktion der neuen Demenzfälle um 3,5 % (95% CI = 0.6–7.1; p= 0.019) oder rund 20 % der neuen Demenzdiagnosen. (Bild modifiziert aus Fig.3.in Eyting et al. 2025 [1]; Lizenz CC-BY) |
Diese "Quasi-Randomisierung" wurde dann in Regressions-Diskontinuitäts-Analysen benutzt, statistischen Verfahren, die in den Wirtschaftswissenschaften häufig Verwendung findenum auf kausale Effekte zu testen; es handelt sich dabei um statistische Verfahren, die in den Wirtschaftswissenschaften häufig Verwendung finden, aber in die klinische Forschung noch kaum Eingang gefunden haben.
Auswirkungen der Gürtelrose-Impfung
Getestet auf die eigentlichen Targets der Impfung zeigten die Analysen, dass der Impfstoff Zostavax die neuen Gürtelrose-Diagnosen in vergleichbarem Ausmaß (um rund 37 %) verringerte, wie dies aus vorangegangenen klinischen Studien (von Sanofi Pateur MSD) bekannt war. Es gab auch einen starken Hinweis darauf, dass der Impfstoff die Wahrscheinlichkeit einer Post-Zoster Neuralgie reduziert.
Getestet auf das Off-Target Demenzerkrankungen demonstrierte die Analyse eine große signifikante Diskontinuität in der Wahrscheinlichkeit innerhalb der nächsten sieben Jahre an Demenzen zu erkranken: bezogen auf zur Impfung Berechtigte und Nichtberechtigte betrug dieser Sprung absolut 1,3 %, (Abbildung 2), auf tatsächlich Geimpfte und Nichtgeimpfte bezogen waren es 3,5 %. Relativ zur Inzidenz der Erkrankungen entsprach dies rund 20 % der neuen Demenzdiagnosen.
Zostavax reduziert spezifisch die Inzidenz von Gürtelrose und Demenz. An Hand der Gesundheitsdaten testeten die Forscher auch, ob Zostavax einen Einfluss auf das Auftreten der in Wales führenden zehn Ursachen für Morbidität und Mortalität (darunter Herz-Kreislauferkrankungen, Nierenkrankheiten, Rheuma, Leukämien) haben könnte. Sie konnten keinen statistisch signifikanten Effekt auf diese Krankheiten feststellen und ebenso auch nicht auf die Inanspruchnahme präventiver Gesundheitsmaßnahmen (andere Impfungen oder Medikamente)der Geimpften vor und nach Beginn des Impfprogramms.
Abbildung 3. Die Gürtelrose-Impfung reduziert in den folgenden acht Jahren die Wahrscheinlichkeit und Häufigkeit von Demenzdiagnosen insgesamt um -3,5 % (Abbildung 2); bei Frauen aber viel stärker (-5,6 %) als bei Männern (-01 %). (Bild modifiziert aus Supplement Fig.22. in Eyting et al. 2025 [1]; Lizenz CC-BY). |
Die gegen Demenz schützende Wirkung von Zostavax ist bei Frauen viel stärker ausgeprägt als bei Männern. In Bezug auf die Wirkung der Wirkung des Impfstoffs auf die Diagnose von Gürtelrose und Post-Zoster-Neuralgien hatte es keinen signifikanten Geschlechtsunterschied gegeben. Dagegen betrug die Reduktion neuer Demenzdiagnosen bei geimpften Frauen 5,6 % (p= 0,001), während bei Männern eine 0,1 % -ige Reduktion statistisch nicht signifikant (p= 0,94) war. Abbildung 3.
Die Unterschiede können möglicherweise u.a. auf geschlechtsspezifische Immunreaktionen auf Impfstoffe und/oder eine unterschiedliche Pathogenese der Demenz bei Männern und Frauen zurückzuführen sein.
Ausblick
Ein Manko der Studie: Die untersuchte abgeschwächte Lebendvakzine Zostavax ist vor wenigen Jahren in sehr vielen Ländern durch den wesentlich wirksameren rekombinanten Totimpfstoff Shingrix® (GlaxoSmithKline) - mit unbekanntem Effekt auf Demenzen - abgelöst worden. Basierend auf den elektronischen Gesundheitsdaten in den US stellte der dort im Oktober 2017 erfolgte Umstieg für eine englische Forschergruppe ein "natürliches" Experiment dar, um auf die Wirksamkeit des neuen Impfstoffs gegen Demenzen zu prüfen. In dieser Beobachtungsstudie (Kausalität wurde nicht nachgewiesen) wurde die Schutzwirkung bestätigt, wobei diese bei Frauen um 9 % größer war als bei Männern, aber wie in den Waliser Ergebnissen nicht durch einen besseren Schutz vor Gürtelrose bei Frauen als bei Männern erklärt werden kann [3].
Zweifellos sollten nun weitreichende randomisierte klinische Studien folgen, um ein optimales Impfprogramm zum Schutz vor Demenzen zu ermitteln.
Ohne hier auf Hypothesen auf den Mechanismus eingehen zu wollen, wie die Gürtelrose-Impfung Demenzerkrankungen beeinflussen könnte, machen die Untersuchungen klar: Die Impfungen wirken offensichtlich besser gegen Demenz als die bislang verfügbaren Arzneimittel!
Oder wie es die Autoren der Waliser Studie formulieren:
" Wenn diese Ergebnisse wirklich kausal sind, so impliziert die beträchtliche Größe unseres Effekts verbunden mit den relativ geringen Kosten des Gürtelrose-Impfstoffs, dass dieser weitaus wirksamer und auch kosteneffizienter als bestehende pharmazeutische Maßnahmen sein wird, um Demenz vorzubeugen oder zu verzögern."
[1] Eyting, M., Xie, M., Michalik, F. et al. A natural experiment on the effect of herpes zoster vaccination on dementia. Nature (2025). https://doi.org/10.1038/s41586-025-08800-x.
[2] Vaccination against shingles for adults.https://111.wales.nhs.uk/pdfs/am%20i%20at%20risk%20hep%20b/qas%20for%20welsh%20govt%20leaflets/shingles%20qa%20for%20health%20care%20professionals.pdf
[3] Taquet M, Dercon Q, Todd JA, Harrison PJ. The recombinant shingles vaccine is associated with lower risk of dementia. Nat Med. 2024 Oct;30(10):2777-2781. doi: 10.1038/s41591-024-03201-5.
Videos zur Studie:
Stanford Medicine, Shingles vaccine may reduce the risk of dementia: Interview mit Pascale Geldsetzer, einem der Studienautoren: Video, 2:20 min. https://www.youtube.com/watch?v=unnePZUqi1o
Could the shingles vaccine also help prevent dementia? Video 1:27 min. AJE VideoBytes https://www.youtube.com/watch?v=o-PRFD_DN4M
Diese bekannte Impfung schützt auch vor Demenz. Video 1:35 min. MSN. https://www.msn.com/de-de/video/other/diese-bekannte-impfung-sch%C3%BCtzt-auch-vor-demenz/vi-AA1Cssd1
Proxima Fusion - auf dem Weg zur marktreifen Fusionsreaktoranlage
Proxima Fusion - auf dem Weg zur marktreifen FusionsreaktoranlageFr, 28.03.2025 — Andreas Merian
Ein Fusionskraftwerk verspricht quasi unerschöpfliche und saubere Energie. Daran arbeiten weltweit zahlreiche Forschungseinrichtungen und Start-up-Unternehmen. Eines davon ist Proxima Fusion. Es ist aus dem Max-Planck-Institut für Plasmaphysik gegründet worden und setzt auf das Stellaratorprinzip, das dort maßgeblich entwickelt wurde. Der Fusionsreaktor soll relativ einfach und kostengünstig zu bauen sein, weil er kompakter ist, als es bisherige Konzepte vorsehen. Bis Anfang der 2030er-Jahre will Proxima Fusion eine marktreife Fusionsanlage entwickeln.*
Moonshot. Ein Schuss auf den Mond. Der steht seit der erfolgreichen Landung eines US-amerikanischen Astronauten auf dem Mond für ein herausforderndes und innovatives Vorhaben mit hoch gestecktem Ziel. Und so passt es nur zu gut, dass das Gründerteam des Start-ups Proxima Fusion sein Vorhaben als Moonshot bezeichnet. Denn sein Ziel ist es, ein Fusionskraftwerk zu entwickeln und auf diese Weise saubere und schier unerschöpfliche Energie bereitzustellen. Jorrit Lion, Chef-Wissenschaftler und einer der Gründer von Proxima Fusion, fertigte seine Doktorarbeit am Max-Planck-Institut für Plasmaphysik in Greifswald an und erforschte, wie aus dem dort verfolgten Reaktorkonzept ein Kraftwerk werden könnte. Und während er dort forschte, lernte er auch die meisten seiner Mitgründer kennen. Gemeinsam entwickelten sie die Idee, durch ein Start-up schneller ans Ziel Fusionskraftwerk zu kommen. „Die Grundlagenforschung zur Kernfusion hat in Deutschland über Jahrzehnte großartige Leistungen erbracht. Für die Entwicklungen hin zum kommerziellen, stromproduzierenden Kraftwerk ist jetzt das Start-up-Unternehmen die richtige Umgebung“, erklärt Lion diesen Schritt. Denn ein Unternehmen kann sich auf die technischen und ökonomischen Aspekte konzentrieren, die entscheidend sind, um einen technisch nutzbaren Fusionsreaktor zu bauen. Und so entschied sich Lion zusammen mit vier anderen Wissenschaftlern und Ingenieuren 2023 Proxima Fusion zu gründen.
Nun arbeitet Lion also nicht mehr am Forschungsinstitut in Greifswald, sondern in einer modernen, offenen Bürolandschaft in München, die Start-up-Spirit versprüht. Die Entscheidung für München fiel aus mehreren Gründen. So beheimatet die Stadt eine große Start-up-Szene und bietet jungen Unternehmen mit Innovationszentren und der Nähe zu staatlichen und privaten Geldgebern die nötige Unterstützung. Außerdem ist es auch in München nicht weit zum Max-Planck-Institut für Plasmaphysik, in diesem Fall allerdings zum Standort in Garching. Und die beiden großen Universitäten der Stadt sind sowohl mögliche Kooperationspartner als auch Talentschmieden, aus denen qualifizierte Arbeitskräfte rekrutiert werden können. Was den Arbeitsmarkt angeht, ist München schließlich auch für internationale Talente attraktiv, denn für seine Mission möchte Proxima Fusion die klügsten Köpfe gewinnen. Heute beschäftigt das Start-up 55 Mitarbeitende an drei Standorten, neben München hat es Büros in Villigen in der Schweiz und im englischen Oxford.
Um sein Vorhaben umzusetzen, hat das Team bereits 60 Millionen Euro eingeworben. Davon stammt die eine Hälfte aus öffentlichen Mitteln, die andere von privaten Investoren. Mit diesem Startkapital wollen die Gründer zeigen, dass ihr Ansatz, einen Fusionsreaktor zu konstruieren, erfolgreich sein kann. „Wenn wir das schaffen, ist der nächste Schritt, das nötige Kapital für Alpha, unseren Demonstrator, einzusammeln“, sagt Lion. Der Zeitplan von Proxima Fusion ist bewusst ambitioniert: Bereits 2027 soll der Bau von Alpha beginnen, und 2031 will das Team zeigen, dass der Demonstrator mehr Energie produziert, als er verbraucht. Denn auch zahlreiche andere Unternehmen verfolgen das Ziel, einen Fusionsreaktor für den kommerziellen Einsatz zu bauen. Das wohl vielversprechendste Vorhaben mit dem kürzesten Zeithorizont stammt aus den USA: Commonwealth Fusion Systems hat mit etwa zwei Milliarden US-Dollar bereits die nötigen finanziellen Mittel eingeworben und Ende 2021 mit dem Bau ihres Prototyps Sparc begonnen. Schon 2027 soll Sparc Energie produzieren. Ob das Unternehmen bis dahin alle technischen Hürden nehmen kann, wird sich allerdings erst noch zeigen.
Dass Skepsis angebracht ist, zeigt die Geschichte der Fusionsforschung: Seit Ende des Zweiten Weltkriegs wird an einer zivilen Nutzung der Kernfusion zur Stromerzeugung geforscht. Doch trotz aller Anstrengungen konnten Wissenschaftlerinnen und Ingenieure bisher keinen Fusionsreaktor mit einer positiven Energiebilanz realisieren. Fusionsenergie entsteht, wenn leichte Atomkerne verschmelzen. Das passiert jedoch nur, wenn extrem hoher Druck und extrem hohe Temperaturen zusammenwirken, wie es etwa in der Sonne geschieht. Dort fusionieren die Kerne von Wasserstoffatomen bei einem Druck von rund 200 Milliarden Bar und gut 15 Millionen Grad Celsius zu Helium. Unter diesen Bedingungen liegt Materie als Plasma vor, das heißt, Elektronen und positiv geladene Atomkerne sind nicht mehr aneinander gebunden. Auf der Erde technisch nutzbar wäre die Fusion von schwerem und überschwerem Wasserstoff – auch bekannt als Deuterium und Tritium. Doch aus einem solchen Wasserstoffplasma mehr Energie zu gewinnen, als insgesamt in die Erzeugung hineingesteckt wurde, ist bisher noch keinem Forschungsteam gelungen [A. Merian, 2022].
Eine Möglichkeit, die Bedingungen für die Kernfusion technisch herzustellen, besteht darin, das Plasma in einem ringförmigen Magnetfeld einzuschließen. So kann man verhindern, dass das Plasma mit der Reaktorwand in Berührung kommt. Denn dieser Kontakt würde das Plasma abkühlen, und die sich selbst erhaltende Fusionsreaktion würde zusammenbrechen. Reaktoren des Typs Tokamak oder Stellarator setzen daher auf den Magneteinschluss, um die Wechselwirkung zwischen Plasma und Wand zu minimieren und ein möglichst stabiles Plasma zu erzeugen. Ein Tokamak ist ein donutförmiges Gefäß, das verhältnismäßig einfach zu konstruieren ist, in dem die Fusion aber nicht dauerhaft aufrechterhalten werden kann. Gepulst kann ein Tokamak zwar trotzdem in einem Kraftwerk zum Einsatz kommen, doch wird eine solche Anlage unter anderem stark belastet, wenn der Betrieb ständig pausiert und wieder hochgefahren wird. Nach dem Tokamakprinzip funktionieren beispielsweise der große internationale Fusionsreaktor Iter und Sparc, der Prototyp von Commonwealth Fusion Systems.
Abbildung 1: Verdrehte Teigschlange: Proxima Fusion entwickelt einen Fusionsreaktor nach dem Vorbild von Wendelstein 7-X. In ihm schließt ein Magnetfeld, das ebene und gewundene Spulen erzeugen, das Plasma ein. Über diverse Zugänge kontrollieren und analysieren Forschende das Plasma in Wendelstein 7-X. Die Geometrie des Stellarators macht zwar dessen Konstruktion schwieriger, hat aber im Betrieb große Vorteile gegenüber konkurrierenden Konzepten. (© Max-Planck-Gesellschaft) |
Im Stellarator ähneln Plasmagefäß und Magnetfeld weniger einem Donut als einer mehrfach in sich verdrehten Teigschlange. Daher ist ein Stellarator schwerer zu konstruieren als ein Tokamak. So fehlten für die Optimierung des Magnetfelds eines Stellarators lange entscheidende physikalische Kenntnisse und auch die nötige Rechenleistung. Doch seit den 1980er-Jahren sind ausreichend genaue Berechnungen möglich, und das Institut für Plasmaphysik entwickelte mit seinen Wendelsteinanlagen das moderne Stellaratorkonzept. Stellaratoren bieten entscheidende Vorteile für den Kraftwerksbetrieb: Die Fusion ist darin leichter zu kontrollieren und kann dauerhaft aufrechterhalten werden. Auch deswegen hat sich Proxima Fusion für das Stellaratorkonzept entschieden. Abbildung.
Ein erstes Fusionskraftwerk in den 2030er-Jahren
Die nötige Temperatur für die Fusion wird in beiden Reaktortypen vor allem durch Mikrowellenstrahlung erreicht. Stimmen die Bedingungen, verschmelzen die Kerne von Deuterium und Tritium, und es entstehen ein Heliumkern und ein Neutron, beide mit beträchtlicher Bewegungsenergie. Für das ungeladene Neutron ist der Magnetkäfig durchlässig, sodass das Teilchen mit voller Wucht in die Gefäßwand eindringt. Die dabei erzeugte Wärme soll wie in einem konventionellen Kraftwerk zur Stromerzeugung genutzt werden. Somit entstehen während der Stromerzeugung durch Fusion keine Treibhausgase und keine anderen schädlichen Nebenprodukte oder Abfälle. Einzig das Wandmaterial des Reaktors muss nach einiger Zeit ausgetauscht und als leicht radioaktives Material für einige Jahrzehnte gelagert werden. Die Gefahr eines GAUs mit Kernschmelze und Explosion wie im Fall eines auf Kernspaltung basierenden Atomkraftwerks besteht bei einem Fusionskraftwerk aber nicht. Da die Ausgangsstoffe zudem quasi unerschöpflich sind, sprechen Befürworter der Fusionsforschung von praktisch unbegrenzter und sauberer Energie.
Doch trotz aller Versprechungen, Pläne und Anstrengungen ist die Fusionsforschung immer noch ziemlich weit weg von einem stromerzeugenden Kraftwerk. Deshalb sprechen manche sarkastisch von der Fusionskonstante: Die Stromerzeugung durch einen Fusionsreaktor liege immer dreißig oder gar fünfzig Jahre in der Zukunft. Doch Lion ist zuversichtlich: „In den 2030er-Jahren wird das erste Fusionskraftwerk stehen. Und in unseren Augen ist das Stellaratorkonzept mit dem geringsten technologischen Risiko verbunden. Die Ergebnisse von Wendelstein 7-X zeigen, dass der Stellarator prinzipiell funktioniert.“ Denn ausschlaggebend für die Gründung von Proxima Fusion waren wichtige wissenschaftliche Fortschritte aus den Jahren 2021 und 2022. Das Team um Lion war sich damit sicher: Ein Stellarator wie Wendelstein 7-X ist kraftwerkstauglich. Entsprechend war die Idee hinter der Gründung des Start-ups, das Konzept von Wendelstein 7-X nur da zu verändern, wo es unbedingt notwendig ist. Mit einer Re-Optimierung der komplexen Geometrie will Proxima Fusion nun in wenigen Jahren zu einem funktionierenden Kraftwerksreaktor kommen.
Proxima Fusion setzt dabei auf einen Reaktor, der kompakter ist als bisherige Konzepte und damit kostengünstiger und schneller gebaut werden kann. Doch kompaktere Reaktoren brauchen deutlich stärkere Magnetfelder als große, damit sie das Plasma einschließen und effizient Energie gewinnen können. Solche starken Felder lassen sich allerdings nur mit neuartigen Hochtemperatur-Supraleitern erzeugen, die bisher noch nicht so weit entwickelt sind, dass sie in den Magnetspulen von Fusionsreaktoren zum Einsatz kommen können. Proxima Fusion arbeitet deshalb am Standort Villigen zusammen mit Fachleuten des dortigen Paul Scherrer Instituts an solchen Hochfeldspulen. Und auch in der großen Werkhalle, die direkt neben den Münchner Büros liegt, wird getüftelt. Denn das Material des Hochtemperatur-Supraleiters ist eine brüchige Keramik, die nicht einfach für die Magnetfeldspulen aufgewickelt werden kann. Deswegen wird die Keramik auf Stahlbänder aufgebracht, die dann übereinander gestapelt und um Kupferwendeln gewickelt werden.
Damit sind allerdings noch nicht alle Herausforderungen auf dem Weg zur Hochfeldspule gemeistert, und so arbeitet das Team von Proxima Fusion hinter verschlossenen Türen weiter an einigen Details. Bis spätestens 2027 will Proxima Fusion die für ihren Stellarator nötigen Spulen entwickeln. „Wenn die Spulen funktionieren und entsprechend starke Magnetfelder erzeugen, dann haben wir es geschafft!“, sagt Jonathan Schilling, Mitgründer von Proxima Fusion und Laborleiter. Denn dann hat das Start-up nach Ansicht des Teams die größte Entwicklungshürde genommen.
Der Demonstrationsreaktor Alpha soll dann mehr Energie erzeugen, als er verbraucht. In dieser Beziehung spricht man in der Fusionsforschung oft von einem Q größer 1. Q ist das Verhältnis zwischen der Leistung, die durch die Fusionsreaktion entsteht, und der Leistung, die direkt in die Fusionsreaktion hineingesteckt wird. Bisher hat weltweit erst ein einziges Fusionsexperiment einen Q-Wert größer 1 erreicht, und zwar 2022 durch laserbasierte Trägheitsfusion in der National Ignition Facility NIF in den USA. Doch obwohl damit medial wirksam die Schallmauer der Kernfusion durchbrochen wurde, bedeutet das nicht, dass so Strom erzeugt werden kann. Denn für die Erzeugung der Laserenergie war insgesamt etwa 150-mal mehr Energie notwendig, als die Laser schließlich in die Reaktorkammer pumpten. Somit setzte die Kernfusion nur etwa ein Prozent der eingesetzten Energie als Wärme frei. Und davon könnten wiederum allenfalls etwa 50 Prozent in Strom umgewandelt werden.
Stellaris zeigt: Ein Kraftwerk ist möglich
Beim Magneteinschlussverfahren ist die Diskrepanz zwischen Energiebilanz der Fusionsreaktion und Nettoenergieausbeute des Reaktors nicht ganz so groß. Die Heizung des Plasmas und die Kühlung der Magnetfeldspulen verschlingen im Vergleich zur Erzeugung der Laserpulse weniger Energie. Proxima Fusion müsste ein Q von etwa 10 erreichen, um Strom zu erzeugen. In einer aktuellen Studie zeigen das Start-up und das Greifswalder Max-Planck-Institut für Plasmaphysik wissenschaftlich und technisch detailliert, dass ein Stellarator mit Hochfeldspulen als Kraftwerksreaktortyp geeignet ist. Der darin beschriebene Reaktor namens Stellaris hat einen Durchmesser von etwa 25 Metern und würde etwa ein Gigawatt Strom erzeugen. Das entspricht grob der Leistung eines modernen Atomkraftwerks.
Ganze Kraftwerke möchte Proxima Fusion allerdings nicht bauen. Diesen Schritt sollen, ebenso wie den Betrieb, Energiekonzerne übernehmen. Proxima Fusion selbst möchte den wärmeerzeugenden Stellarator als Produkt anbieten. Francesco Sciortino, Mitgründer und Geschäftsführer des Start-ups, sagt: „Wir stehen bereits im Austausch mit Energieunternehmen und großen Energieverbrauchern wie beispielsweise Betreibern von Rechenzentren aus Europa und den USA.“ Bis zur kommerziellen Stromerzeugung gilt es aber, neben der Nettoenergieausbeute noch einige weitere Herausforderungen zu meistern. Ein offener Punkt ist die Verfügbarkeit von Tritium. Denn während Deuterium in ausreichender Menge natürlich vorkommt, ist Tritium aktuell nur als Nebenprodukt der Kernspaltung in Atomkraftwerken verfügbar. Nachdem diese Menge aber stark limitiert ist, planen Unternehmen wie Proxima Fusion, Tritium später selbst herzustellen. Einmal gestartet, soll ein Fusionsreaktor sein eigenes Tritium ausbrüten. Als Brüten bezeichnet man den Prozess, in dem ein Teil der energiereichen Neutronen aus der Fusion in den Reaktorwänden auf Lithium treffen und so Helium sowie Tritium erzeugen. Wie genau dieser Prozess abläuft und gesteuert werden kann, ist noch nicht getestet. Momentan stehen nämlich keine Quellen derart hochenergetischer Neutronen zur Verfügung, mit denen Reaktionen im Wandmaterial experimentell untersucht werden können. Proxima Fusion setzt darauf, dass andere Unternehmen wie beispielsweise Kyoto Fusioneering die notwendige Technik entwickeln.
Auch bei weiteren Herausforderungen erwartet das Start-up, dass staatliche Institutionen und die zahlreichen Unternehmen die Bedingungen für die Fusion gemeinsam schaffen. Beispiele dafür sind die Herstellung des Wandmaterials, das im Reaktor extremen Bedingungen ausgesetzt ist, und regulatorische Themen wie Abfallbeseitigung und Reaktorsicherheit. Dazu arbeitet Proxima Fusion mit zwei weiteren deutschen Fusions-Start-ups zusammen und ist auch international gut vernetzt. Ob sich Fusionskraftwerke durchsetzen werden, wenn sie sich als technisch machbar erweisen, darüber entscheidet am Ende die Wirtschaftlichkeit und auch die Kompatibilität der Kraftwerke mit dem dann bestehenden Stromnetz. Doch bei aller Unsicherheit des Moonshots Fusionsstrom ist das Team von Proxima Fusion motiviert. Lion sagt: „Die Aussicht auf unbegrenzte und saubere Energie ist einfach zu gut, um es nicht zu versuchen.“
------------------------------------------------------
Andreas Merian, MaxPlanck-Forschung 4/2022. https://www.mpg.de/19685395/W005_Physik-Astronomie_062-069.pdf
Der Artikel ist unter dem Titel "Im Endspurt zu Fusionskraft" im Wissenschaftsmagazin - MaxPlanck-Forschung 01/2025 https://www.mpg.de/24341285/F002_Fokus_032-037.pdf im März 2025 erschienen und wird - mit Ausnahme des Titels und des fehlenden Gruppenfotos - hier unverändert wiedergegeben . Die MPG-Pressestelle hat freundlicherweise der Verwendung von Magazin-Beiträgen im ScienceBlog zugestimmt. (© Max-Planck-Gesellschaft)
Kernfusion im ScienceBlog
Roland Wengenmayr, 13.05.2021:Die Sonne im Tank - Fusionsforschung.
Felix Warmer, 28.07.2022: Das virtuelle Fusionskraftwerk.
Eurobarometer 557: Informationsstand und Kenntnisse der EU-Bürger über Wissenschaft und Technologie haben sich verschlechtert
Eurobarometer 557: Informationsstand und Kenntnisse der EU-Bürger über Wissenschaft und Technologie haben sich verschlechtertDi. 25.03.2025 — Inge Schuster
Im Abstand von einigen Jahren gibt die EU-Kommission repräsentative Umfragen in Auftrag, welche die Kenntnisse und Einstellungen der EU-Bürger zu Wissenschaft (d.i. Naturwissenschaft) und Technologie (W&T) ermitteln sollen. Die Ergebnisse der jüngsten diesbezüglichen Umfrage (Eurobarometer 557) sind im Feber 2025 veröffentlicht worden und bislang von Medien, Bildungs- und Forschungseinrichtungen weitestgehend unbeachtet geblieben. Der fast 300 Seiten starke Bericht bietet eine Zusammenfassung von Informationsstand, Kenntnissen und Einstellungen der europäischen Bürger zu W&T. Er zeigt u.a. ihre Ansichten zu den Auswirkungen von W&T auf die Gesellschaft insgesamt und auf spezielle Bereiche von Wirtschaft und wesentliche Aspekte des modernen Lebens, auf die mögliche Steuerung von W&T und die Beteiligung von Bürgern an W&T. Der aktuelle Blog-Artikel betrachtet einige dieser Aspekte in kritischer Weise, wobei auch auf die Situation in Österreich und Deutschland Bezug genommen wird.
Von jeher hat die Europäische Kommission Wissenschaft und Innovation als prioritäre Schlüsselstrategien betrachtet, die Lösungen für die wichtigsten, jeden Europäer betreffenden Fragen liefern können: es sind dies Fragen der Gesundheit, der Beschäftigung und damit Fragen der gesamten Gesellschaft und der Wirtschaft. …....Die Zukunft Europas ist die Wissenschaft!“ (Jose M. Barroso, 6. Oktober 2014)
Zum wiederholten Mal erfolgte im Auftrag der Europäischen Kommission im Herbst 2024 eine Umfrage in den 27 Mitgliedsländern, welche Kenntnisse, Informiertheit und allgemeine Ansichten der Bevölkerung zu Wissenschaft (dem englischen Begriff Science entsprechend bedeutet das Naturwissenschaften) und Technologie (W&T) erkunden sollte (auf zusätzliche Erhebungen in den Westbalkanländern, der Türkei und UK soll hier nicht eingegangen werden). Speziell ausgebildete Interviewer befragten in jedem Staat jeweils einen repräsentativen Querschnitt verschiedener sozialer und demographischer Gruppen von rund 1000 Personen ab 15 Jahren in ihrem Heim und in ihrer Muttersprache (derartige "face to face" Interviews liefern die qualitativ hochwertigsten Befragungsdaten). Dabei wurden sowohl die gleichen Standardfragen wie in früheren Umfragen (zur Vergleichbarkeit mit deren Ergebnissen) als auch wechselnde Fragen zu unterschiedlichen Themen - im rezenten Fall zum schnell wachsenden Einsatz von Künstlicher Intelligenz (KI) - gestellt. Die Ergebnisse der Umfrage sind kürzlich im Eurobarometer Spezial 557 veröffentlicht worden [1], wurden aber von Medien, Bildungs- und Forschungsinstitutionen bislang ignoriert.
Auswirkungen von W&T auf die Gesellschaft
Insgesamt herrscht ein breiter Konsens (im Mittel 83 % der EU-Bürger) darüber, dass Wissenschaft und Technologie einen sehr positiven oder einen ziemlich positiven Einfluss auf die Gesellschaft haben.
Ekaterina Zaharieva, EU-Kommissarin für Start-ups, Forschung und Innovation freut sich „Die insgesamt positive Einstellung gegenüber Wissenschaft und Technologie ist ermutigend, da sie für das Erreichen unserer Wettbewerbsziele unerlässlich ist“.
Dies täuscht aber nicht darüber hinweg, dass die positive Einstellung in 25 Mitgliedsländern gegenüber den Ergebnissen von 2021 [2] und insgesamt EU-weit um 3 % gesunken ist - in Österreich und Deutschland stärker als im EU27-Mittel von 80 auf 72 % respektive von 87 auf 81 %; dementsprechend haben hier die negativen Einstellungen auf 22 % respektive 15 % zugenommen.
Die größten Auswirkungen durch Forschung und Innovation
wird es nach Meinung der EU27-Bürger in den kommenden Jahren im Gesundheitswesen und der medizinischen Versorgung vor dem Kampf gegen den Klimawandel und der Energieversorgung geben.
Dass W&T unser Leben einfacher, gesünder und bequemer machen werden,
findet die Zustimmung der Mehrheit der EU27-Bürger (67%) , wobei es einen starken Abwärtstrend von vor allem skandinavischen Ländern (bis zu 82 % in Finnland und Schweden) zu ehemaligen Oststaaten (bis zu 49 % in Rumänien), aber auch Deutschland (59 %) und Österreich (58 %) gibt.
Die durch W&T sich ergebenden Chancen für junge Menschen
sieht die Mehrheit der Europäer optimistisch. Dass W&T mehr Möglichkeiten für die Jungen schaffen wird, glauben im Schnitt 68 % der EU-Bürger (1 % weniger als 2021, 65 % der Österreicher und 72 % der Deutschen - beide gleich viele wie 2021). Auch, dass das Interesse der Jungen an W&T maßgeblich für den zukünftigen Wohlstand ist, glauben im Mittel 82 % - 3 % weniger als 2021 - der EU27 (mit 74 % um 3 % mehr Österreicher als 2021, mit 80 % um 7 % weniger Deutsche als 2021).
W&T sollten inklusiv sein,
auch wenn dies (wie es manipulative Fragen suggerieren; s.u.) gegenwärtig nicht unbedingt der Fall ist. Dass bei der Entwicklung neuer Lösungen und Produkte die Bedürfnisse aller Gruppen von Menschen zu berücksichtigen sind, ist für die weitaus überwiegende Mehrheit der EU27 wichtig (77 % gegenüber 78 % im Jahr 2021, wobei 10 Länder mehr - darunter AT - und 14 Länder weniger - darunter D - zustimmen als 2021).
Ein eklatantes Manko der Studie
sind hier mehrere stark manipulative Fragen, die eine bestimmte Antwort oder Antwortrichtung suggerieren wie beispielsweise: Stimmen Sie zu, dass "W&T für Umweltverbesserungen und die Bekämpfung des Klimawandels eingesetzt werden könnten, aber hauptsächlich Unternehmen helfen, Geld zu verdienen“ oder, dass "W&T eingesetzt werden könnten, um das Leben aller zu verbessern, hauptsächlich dadurch aber das Leben von Menschen verbessert wird, die ohnehin bessergestellt sind", oder "Wir haben keine andere Wahl, als denen zu vertrauen, die in Wissenschaft und Technologie das Sagen haben". Derartige Fragen sollten in einer seriösen Umfrage fehl am Platz sein.
Selbsteinschätzung des Informationsstands über W&T
Die Mehrheit der Europäer fühlt sich nach eigenen Angaben sehr gut/einigermaßen gut über neue wissenschaftliche Entdeckungen und technologische Entwicklungen informiert. Am besten informiert fühlen sich die EU-Bürger über Umweltprobleme, einschließlich Klimawandel (79%). Über neue wissenschaftliche Entdeckungen und technologische Entwicklungen sowie über neue Entdeckungen in der Medizin fühlt sich hingegen nur etwas mehr als die Hälfte gut informiert. Abbildung 1.
Abbildung 1: Der Informationsstand der EU-Bürger über wissenschaftliche und technologische Themen hat seit 2021 dramatisch abgenommen. Selbsteinschätzungen von Österreichern, Deutschen und dem EU27-Mittel. Grafik aus Daten von QA1.1 - 3 [1]. |
Allerdings ist gegenüber den Erhebungen von 2021 [2] ein massiver Rückgang im selbst eingeschätzten Informationsstand festzustellen. Dieser fällt bei Umweltproblemen mit 3 % (Österreich und Deutschland jeweils 8 %) noch geringer aus, als wenn es um neue medizinische Entdeckungen geht - hier liegt der Rückgang im EU27 Schnitt bei 15 % (in Österreich bei 12 %, in Deutschland bei 17 %)- und um neue wissenschaftliche Entdeckungen und technologische Entwicklungen, wo der Rückgang EU27-weit 10 % (in Österreich 19 %, in Deutschland 14 %) beträgt. Auch verglichen mit einer früheren Erhebung im Jahr 2010 [2] liegt der aktuelle Informationsstand bei medizinischen Themen und bei W&T-Themen um jeweils 9 % niedriger - trotz der seitdem enorm gestiegenen Möglichkeiten sich mit diesen Themen auseinandersetzen zu können. Tabelle.
Tabelle. Informationsstand zu wissenschaftlichen und technologischen Themen. Sehr gut/einigermaßen gut informierte Bürger im EU27-Schnitt laut Selbsteinschätzung [%]. |
Kenntnisse und Verständnis von Wissenschaft
Ähnlich wie der Informationsstand haben auch die Kenntnisse der EU-Bürger abgenommen. Dies wurde nicht durch Selbsteinschätzung der EU-Bürger sondern an Hand von Testfragen festgestellt. Zu zehn Aussagen aus mehreren Themenbereichen, von denen einige sachlich richtig und andere frei erfunden waren, sollten die Teilnehmer angeben, ob diese ihrer Meinung nach richtig oder falsch wären (oder sie es nicht wüssten). Dieselben Fragen wurden zuvor schon 2021, 2005 und zum Teil 2001 gestellt.
Aussagen zu Naturkunde, Demographie und Geografie:
- „Die Kontinente, auf denen wir leben, bewegen sich seit Millionen von Jahren und werden sich auch in Zukunft weiter bewegen“ (RICHTIG);
- „Die ersten Menschen haben zur gleichen Zeit wie die Dinosaurier gelebt“ (FALSCH);
- „Menschen, wie wir sie heute kennen, haben sich aus früheren Tierarten entwickelt“ (RICHTIG);
- „Die Weltbevölkerung liegt derzeit bei mehr als 10 Milliarden Menschen“ (FALSCH);
Aussagen zu Naturwissenschaften und Technologie:
- „Der Sauerstoff, den wir einatmen, stammt von Pflanzen” (RICHTIG);
- „Antibiotika töten Viren genauso gut wie Bakterien” (FALSCH);
- „Laser funktionieren durch die Bündelung von Schallwellen” (FALSCH);
- „Der Klimawandel wird zum Großteil durch natürliche Zyklen anstatt durch menschliches Handeln verursacht” (FALSCH).
Aussagen zu Verschwörungstheorien:
- „Es gibt ein Heilmittel für Krebs, das jedoch aus kommerziellen Interessen vor der Öffentlichkeit zurückgehalten wird“ (FALSCH);
- „Viren wurden in staatlichen Laboren erzeugt, um unsere Freiheit zu kontrollieren“ (FALSCH).
Im Vergleich zu 2021 haben die EU-Bürger häufiger falsche Antworten gegeben, auch in Bezug auf Verschwörungstheorien. Abbildung 2.
Abbildung 2: Die Kenntnisse der EU-Bürger über viele W&T-Themen haben seit 2021 abgenommen. Falsche Antworten EU27-weit und aus Österreich und Deutschland zu Fragen aus Naturkunde, Demographie und Geografie (links oben), Naturwissenschaften und Technologie (links unten), sowie Glaube an Verschwörungstheorien (rechts). Grafik zusammengestellt aus Daten zu QA17 in [1]. |
Ebenso bedrückend ist die Zunahme der für Verschwörungstheorien affinen Bevölkerung. Die Liste wird mit bis 63 % Zustimmung von ehemaligen Ostblockländern, Griechenland und Zypern angeführt, am anderen Ende der Skala stehen skandinavische Länder aber auch Österreich und Deutschland.
Naturwissenschaftliche Grundbildung im EU-weiten Überblick
Abbildung 3: W&T Kenntnisse der EU-Bürger beurteilt aus der Beantwortung von Testfragen. 2024 (oben) wurden 10 Testfragen gestellt, 2021 waren dieselben 10 Fragen plus einer zusätzlichen Frage gestellt worden. (Bilder übernommen aus [1] und [2]). |
EU-weit gesehen sind die Befragten aus den skandinavischen Ländern am ehesten in der Lage, mehr als acht der 10 Fragen richtig zu beantworten ("Schulnote": gut - sehr gut)). In Richtung Südosten nehmen die Kenntnisse stark ab - in Zypern, Bulgarien (jeweils 55%) und Griechenland (51%) gibt es die höchsten Anteile an Befragten, die weniger als fünf Fragen richtig beantworten ("Schulnote": nicht genügend). Abbildung 3.
Die Ergebnisse von 2021 [2] zeigen ein qualitativ sehr ähnliches Bild der W&T-Kenntnisse in Europa: Der Nordwesten Europas schneidet wesentlich besser ab als der Südosten die Balkanländer, Griechenland und Zypern. Ein direkter Vergleich der Zahlen ist allerdings nicht möglich, da 2021 eine zusätzliche Testfrage gestellt worden war.
Warum finden EU-Bürger es schwierig sich mit W&T zu befassen?
Die EU-weit 3 am häufigsten genannten Gründe sind Zeitmangel (EU27: 40%; AT: 38%; D: 43%), mangelndes Interesse (EU27: 37%; AT: 43 %; D: 41 %) und Mangel an Wissen auf dem Gebiet von W&T (36%, AT: 33 %; D: 35 %). In insgesamt 19 Ländern stimmen mehr als 50 % der Befragten zu, dass W&T so kompliziert seien, dass sie nicht viel davon verstünden: 53 % im EU27-Mittel (2021: 46 %), 55 % (2021: 51 %) der Österreicher und 47 % (2021: 32 %) der Deutschen; erstaunlicherweise teilen in Rumänien - einem Land, das in Punkto Kenntnissen und Informiertheit am unteren Ende der Länderskala rangiert, aber nur 40 % (2021: 56 %) der Befragten diese Meinung.
Mangelndes Interesse dürfte auch daran liegen, dass Kenntnisse über Wissenschaft zu besitzen für das tägliche Leben vieler Europäer nicht von Bedeutung ist, und deren Anteile seit 2021 in 15 Ländern zugenommen haben. Im EU27-Mittel stimmen 36 % (2021: 33 %) dieser Aussage zu, 34 % (2021: 27 %) in Deutschland und 46 % (2021: 53 %; 2010: 57 % [2]) in Österreich. Wie auch in früheren Umfragen rangiert Österreich in der "es geht auch ohne" Reihung weit oben: nun liegt es gleichauf mit Italien hinter der Slowakei (58 %), Polen (54 %), Bulgarien (52 %) und Estland (49 %), gefolgt von anderen ehemaligen Ostblockländern und Portugal. Am anderen Ende der Liste stehen die skandinavischen Länder. Abbildung 4.
Abbildung 4: Es geht auch ohne: In 10 Ländern sehen mehr als 40 % der Befragten wissenschaftliche Kenntnisse für das tägliche Leben als nicht erforderlich an. (Grafik QA7.2 aus [1] übernommen.) |
Fazit
Eigentlich hatte die Europäische Union mit der Lissabon Strategie im Jahr 2000 das Ziel verfolgt sich bis 2010 zur weltweit wettbewerbsfähigsten und dynamischsten wissensbasierten Ökonomie zu entwickeln. Dass die Kernziele nicht annähernd erreicht würden, war bald evident. Für die von 2014 - 2020 laufende Nachfolgestrategie Horizon 2020 - die eine Reihe neuer Forschungsthemen aufnahm - wurden die Finanzmittel mit 70 Mrd € dotiert; das neue bis 2027 laufende Programm Horizon Europe dotiert mit 100 Mrd € soll schlussendlich soll die Forschung in den Bereichen Klimawandel, Ziele für nachhaltige Entwicklung (SDG) und Wettbewerbsfähigkeit der EU stärken.
In bestimmten Zeitabständen werden von der EU Umfragen beauftragt, die den Weg der Bevölkerung zur wettbewerbsfähigen Wissensgesellschaft aufzeigen und der EU Informationen zu Maßnahmen liefern sollen. Der aktuelle Bericht Eurobarometer 557 berichtet nun, dass in vielen EU-Ländern Informationsstand, Kenntnisse und Verständnis für Wissenschaft und wissenschaftliche Methoden leider abgenommen haben. Nicht angesprochen in den Ergebnissen wird der seit Anfang an bestehende große Graben, der sich von Nord-West nach Süd-Ost durch Europa zieht - von den Ländern, in denen W&T zum täglichen Leben gehört, die daran interessiert und gut informiert sind und gute Kenntnisse besitzen, zu den großteils dem ehemaligen Ostblock angehörenden Ländern, für die W&T viel zu kompliziert und ihre Kenntnisse zu dürftig sind und sie im Alltagsleben daher ohne diese auskommen.
Unangenehm fallen eine Reihe manipulativer Fragen auf, welche die suggerierten Antworten dann als wesentliche Ergebnisse der Umfrage präsentieren (siehe Schlussfolgerungen in [1].
"Man merkt die Absicht und man ist verstimmt."
[2]Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology (September 2021).
Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013, 2014 und 2021 wurde mit speziellem Fokus auf Österreich im ScienceBlog berichtet.
J.Seethaler, H.Denk, 17.10.2013:Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme.
J.Seethaler, H. Denk, 31.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?
I. Schuster, 28.02.2014:Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401).
I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch.
I. Schuster, 3.10.2021:Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit
I. Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich.
Persönlichkeit und individueller Humorsinn
Persönlichkeit und individueller HumorsinnDo, 13.03.2023 — Nora Schultz
Humor hat viele unterschiedliche Facetten und nicht jeder findet alles lustig. Woher die Unterschiede im Witzgeschmack kommen, hängt vor allem von der Persönlichkeit ab. Wir lachen miteinander, wir lachen übereinander und wenn wir Glück haben, können wir auch über uns selbst lachen. Denn lachen befreit und stärkt unser Wohlbefinden. Lachen entlarvt aber auch - psychologisch formuliert: "Sag mir. worüber Du lachst und ich sag Dir, wer Du bist." Die Entwicklungsbiologin Nora Schultz berichtet über den psychologischen Aspekt dieses Themas.*
Wie nennt man einen Keks unter einem Baum? Ein schattiges Plätzchen!
Haben die Mundwinkel gezuckt? Oder eher die Augen leicht entnervt gerollt? Kein Wunder, kaum ein Witz gefällt allen. An der Suche nach universell erfolgreichen Scherzen haben sich schon viele die Zähne ausgebissen, nicht nur auf Comedy-Bühnen und in Abreißkalendern. Auch der britische Psychologe Richard Wiseman hatte nur mäßigen Erfolg, als er im September 2001 auszog, um den besten Witz der Welt zu finden. 40.000 Witze und viele Bewertungen aus 70 Ländern später stand der Sieger fest, ein Scherz über zwei Jäger:
Zwei Jäger gehen auf die Jagd und wandern durch den Wald. Plötzlich greift sich der eine an die Kehle und stürzt zu Boden. Der andere Jäger gerät in Panik und ruft den Notarzt an: "Ich glaube mein Freund ist tot, was jetzt?" Der Arzt sagt: "Beruhigen Sie sich! Zunächst einmal müssen Sie sicher gehen, dass Ihr Freund wirklich tot ist." Kurze Pause, dann ein Schuss. Dann kommt er wieder ans Telefon. "OK, erledigt, und was jetzt?" http://www.laughlab.co.uk/.
Wer nach Lektüre des Siegerwitzes nicht lachend in der Ecke liegt, befindet sich in guter Gesellschaft. Der Witz gefällt zwar vielen Personen halbwegs gut, aber kaum jemanden so richtig. Die meisten Leute haben andere Favoriten – nur eben nicht dieselben. „Viele andere Witze wurden von bestimmten Personengruppen besser bewertet“, erklärt Wiseman im Abschlussbericht des LaughLabs.
Humor ist also Geschmackssache. Aber woher kommen die Unterschiede? „Durch nichts bezeichnen die Menschen mehr ihren Charakter als durch das, was sie lächerlich finden“, verkündete schon 1809 Johann Wolfgang von Goethe. Zweihundert Jahre später liegen auch wissenschaftliche Daten zu den Variationen des Humorsinns vor und verweisen auf komplexe Witzlandschaften. „Es geht nicht mehr nur darum, ob jemand überhaupt Humor hat oder nicht, oder einen guten oder schlechten Humorsinn“, sagt Sonja Heintz von der Universität Plymouth in England. Moderne Humorforschung versucht stattdessen, unterschiedliche Facetten von Humor und verschiedene Komikstile zu erfassen und zu kartieren, wie diese mit der Persönlichkeit zusammenhängen und sich im Leben auswirken.
Quantitative Aspekte, also zum Beispiel wie oft und wie stark jemand Humor einsetzt oder versteht, spielen dabei ebenso eine Rolle, wie Unterschiede in der Humorqualität. Der kanadische Psychologe und Humorforscher Rod Martin hat etwa 2003 einen Fragebogen zu vier Humorstilen entwickelt, die in unterschiedlichen Situationen zum Einsatz kommen. Demnach kann Humor eher positiv oder negativ geprägt sein und entweder der eigenen Person oder anderen gelten. Selbststärkender Humor kann am ehesten als lockerer Umgang mit den Schwierigkeiten des Lebens verstanden werden. Wer mit Herausforderungen humorvoll umgehen und über Missgeschicke lachen kann, praktiziert selbststärkenden Humor. Verbindender Humor ist ähnlich positiv geprägt, zielt aber vor allem darauf, andere zum Lachen zu bringen und Spannungen oder Konflikte in sozialen Situationen zu mildern. Beide Humorstile gehen mit positiven Emotionen und erhöhtem psychischen Wohlbefinden einher.
Parallelen zwischen Persönlichkeit und individuellem Humorsinn
Auch wenn sich die meisten Menschen im Alltag je nach Situation unterschiedlicher humoristischer Stilmittel bedienen, lassen sich mit den Fragebögen generelle Vorlieben für bestimmte Witzqualitäten ermitteln. „Aus den Antworten ergeben sich individuelle Humorprofile, die vermutlich ziemlich stabil sind, da sie stark mit der Persönlichkeit zusammenhängen“, sagt Heintz. Ein häufig verwendeter Ansatz, den Charakter eines Menschen zu beschreiben, misst die Ausprägung von fünf Persönlichkeitsmerkmalen, die auch als „Big Five“ bezeichnet werden:
- Offenheit für Erfahrungen (von neugierig bis konservativ),
- Gewissenhaftigkeit (von effektiv bis nachlässig),
- Extraversion (von gesellig bis zurückhaltend),
- soziale Verträglichkeit (von kooperativ bis wettbewerbsorientiert) und
- Neurotizismus bzw. emotionale Stabilität (von selbstsicher bis verletzlich).
Der individuelle Humorsinn wird von der Ausprägung dieser Persönlichkeitsmerkmale mitbestimmt. Wer zum Beispiel eher wenig sozialverträglich und gewissenhaft agiert, neigt auch häufig zu Sarkasmus und Zynismus, während Menschen mit einer Vorliebe für wohlwollenden Humor oft besonders sozial verträglich, extrovertiert, emotional stabil und offen für neue Erfahrungen sind.
Franz Hals, ein Maler des Lachens und Humors: Der Rommelpotspieler mit fünf Kindern (1618–1622) |
Auch diverse Charakterstärken korrelieren mit dem Humorgeschmack. Zwischenmenschliche Stärken wie Freundlichkeit und Teamfähigkeit etwa sind bei Fans der dunkleren Komikstile schwach ausgeprägt. Dafür punkten sie bei intellektuellen Stärken wie Kreativität und Lernbereitschaft, genau wie Menschen, die gerne Nonsens, Satire oder Witz verwenden. Witzliebhaber wie auch Freunde von Spaß und wohlwollendem Humor haben zudem besonders ausgeprägte emotionale Stärken wie Mut, Elan und Ehrlichkeit. Was sich hingegen nicht ohne weiteres aus der psychologischen Forschung ableiten lässt, ist eine Verbindung zwischen Humor und Intelligenz. Es gibt zwar Hinweise darauf, dass kluge Menschen gerade dunklen Humor besonders gut verstehen. Dass ein Hang zu Satire, Ironie und co. ein Zeichen von überdurchschnittlicher Intelligenz ist, lässt sich daraus allerdings nicht schließen. Heintz Forschung hingegen zeigt: Wer Witz, wohlwollenden Humor, Satire, Ironie und Nonsens mag, hält sich zwar oft für überdurchschnittlich intelligent. Tatsächlich messbar ist ein solcher Zusammenhang aber nur für den Komikstil Witz – und das nur schwach. Auch wenn der Charakter mit dem Humorgeschmack korreliert, so ist dieser Zusammenhang nicht unabänderlich. Zumindest das Gespür für bestimmte Formen der Witzigkeit lässt sich sehr wohl trainieren – mit messbaren Auswirkungen auf das Wohlbefinden. Viele Studien bestätigen zum Beispiel die Effektivität des in den 1990er Jahren entwickelten „7 Humor Habits Training“ von Paul McGhee, das gezielt positive Humortechniken wie eine spielerische Einstellung, die Suche nach Humor im täglichen Leben und den Einsatz von Humor unter Stress einübt. “Die Ergebnisse solcher Interventionen zeigen, dass gerade das Training wohlwollender Komikstile das Wohlbefinden stärken kann”, sagt Heintz.
Humor kann positiv und negativ sein
Wilhelm Busch: Max und Moritz: DritterStreich (1865) |
Im Gegensatz dazu werden die zwei negativen Humorstile vorwiegend von negativen Emotionen begleitet. Selbstentwertender Humor steht im Mittelpunkt, wenn man derbere Witze auf eigene Kosten oder gute Miene zu verletzenden Scherzen anderer macht. Menschen, die selbstentwertenden Humor praktizieren, zum Beispiel als Klassenclown, wirken zwar witzig, fühlen sich dabei aber oft nicht gut. Ähnliches gilt für aggressiven Humor, der darauf zielt, andere zu verspotten, zu schikanieren oder lächerlich zu machen. Solche verletzenden Scherze werden sowohl bei ihren Urhebern als auch bei denen, die sie treffen, eher von negativen Gefühlen begleitet.
Für eine noch genauere Beschreibung verschiedener Humorsinne hat Sonja Heintz gemeinsam mit den Humorforscher Willibald Ruch und weiteren Kollegen in einem ersten Schritt Vorarbeiten des Literaturwissenschaftlers Wolfgang Schmidt-Hidding aufgegriffen, der schon in den 1960er Jahren acht Kategorien von Komik identifizierte. Auf dieser Grundlage entstand 2018 ein Fragenbogen , dessen Antworten Auskunft darüber geben, welcher Art von Humor einem Menschen besonders liegt. Auf der Liste stehen vier eher liebevolle Komikstile – wohlwollender Humor, Unsinn, geistreicher Witz und harmloser Spaß – und vier dunklere Ansätze: Ironie, Satire, Sarkasmus und Zynismus. Inzwischen hat Heintz weitere Scherzvarianten ausfindig gemacht. „Unsere neue Liste wird wahrscheinlich 23 Komikstile umfassen, die sich alle klar voneinander unterscheiden lassen“, erklärt sie. „Neu dabei sind z. B. trockener Humor, schwarzer Humor oder sexueller Humor [MS1] .“
[MS1] Zwar gibt es den Fragebogen online unter https://charakterstaerken.org/. Dies erfordert jedoch eine Registrierung und die Beantwortung zahlreicher Fragen, sodass mir eine Verlinkung wie von der Autorin angeregt nicht wünschenswert scheint.
* Der vorliegende Artikel ist unter dem Titel " Ein ganz persönlicher Humorsinn" auf der Webseite www.dasGehirn.info am 28.Feber 2025 erschienen (https://www.dasgehirn.info/ein-ganz-persoenlicher-humorsinn). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurden 2 Abbildungen eingefügt.
dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).
Zum Weiterlesen
• Ruch, Willibald und Goldstein, Jeffrey. "Festschrift for Paul McGhee – Humor Across the Lifespan, Theory, Measurement, and Applications " HUMOR, 2018;31(2): 167-405. (Zum Abstract: https://doi.org/10.1515/humor-2018-0036 ).
• Bressler E, Martin R, Balshine S. Production and appreciate of humor as sexually selected traits. Evolution and Human Behavior. 2006;27: 121-130. (Zum Abstract: https://doi.org/10.1016/j.evolhumbehav.2005.09.001).
• Ruch W, Heintz S, Platt T, Wagner L, Proyer RT. Broadening Humor: Comic Styles Differentially Tap into Temperament, Character, and Ability. Front Psychol. 2018;9:6. (Zum Volltext: https://doi.org/10.3389/fpsyg.2018.00006 ).
• Willinger U, Hergovich A, Schmoeger M, et al. Cognitive and emotional demands of black humour processing: the role of intelligence, aggressiveness and mood. Cogn Process. 2017;18(2):159-167. (Zum Volltext: https://pmc.ncbi.nlm.nih.gov/articles/pmid/28101812/ )
Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die Frage
Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die FrageDo, 6.03.2025— Inge Schuster
Degenerative Veränderungen der Lendenwirbelsäule sind bei nahezu allen über 65 Jahre alten Personen in bildgebenden radiologischen Untersuchungen anzutreffen. Häufig entsteht daraus eine Stenose (Einengung) des knöchernen Spinalkanals, die je nach Ausmaß und Lage das darin eingebettete Rückenmark und die davon ausgehenden Nervenwurzeln und deren Funktionen beeinträchtigen kann - bis zu schwersten Ausfallserscheinungen, wie sie beim (allerdings sehr seltenen) Cauda equina Syndrom auftreten. Erst wenn konservative Maßnahmen keine Besserung bringen, wird eine Operation zur Dekompression des Spinalkanals empfohlen. Bislang fehlen evidenzbasierte Daten zu diagnostischen Kriterien und zu Komplikationen und (langfristigen) Prognosen von Behandlungsmethoden; widersprüchliche Angaben in der Fachliteratur ob und wann ein alter Patient operiert werden sollte, erzeugen Verunsicherung................so hat mein Weg bis zur Operation 22 Jahre gedauert.
Der Pensionsantritt brachte keine wesentliche Zäsur in meinen Tagesablauf. War ich zuvor überwiegend an die Vorgaben eines Multi-Pharmakonzerns gebunden, so war ich nun frei mit befreundeten Gruppen im In-und Ausland auch weiterhin Forschung zu ehemaligen und auch zu völlig neuen Gebieten zu betreiben. Außerdem wollte ich aber auch meine durch überlange Schreibtischtätigkeit degenerierten Muskeln durch 2 x wöchentliches Turnen und Gymnastiktraining, sowie durch Kieser-Rückentraining kräftigen; Letzteres war auf ein aktuelles CT-Bild meiner Wirbelsäule ausgelegt.
Zurückgekehrt von einem Ausflug zur (leider erfolglosen) Trüffelsuche nach Istrien, konnte ich im November 2002 plötzlich kaum mehr gehen. Ein Schmerz, der seinen Ursprung im Bereich der Lendenwirbelsäule hatte, pflanzte sich in die Beine fort, verschwand aber, wenn ich leicht vornüber gebeugt am Schreibtisch saß. Dass es sich nicht um einen sogenannten Hexenschuss handelte, war bald klar als sich über die Wochen hin die Beschwerden kaum besserten, Übungen zur Reduktion von Muskelverkrampfungen, wie sie Turnen/Gymnastik und auch das Kieser-Training anboten, wirkungslos blieben. Zur Abklärung meiner Symptome wandte ich mich schlussendlich an einen mir gut bekannten Rheumatologen, der an einem der großen Wiener Spitäler eine Abteilung leitete. Stationär aufgenommen, brachten die Untersuchungen schnell das Ergebnis: Die Magnetresonanz-Tomographie (MRT) zeigte neben anderen Verschleißerscheinungen eine hochgradige lumbale Stenose, d.i. eine Verengung des Nervenkanals (Spinalkanals) im unteren Teil der Lendenwirbelsäule:
Die Behandlung erfolgte konservativ - mit krankengymnastischen Übungen, physikalischer Therapie und Diclofenac (Voltaren), dem bekannten, von der Acetylsalicylsäure abgeleiteten, gegen Entzündung und Schmerz (anti-inflammatorisch und analgetisch) wirkenden Arzneimittel. Leider traten bei der dritten Diclofenac-Infusion ausgeprägte allergische Erscheinungen auf; später stellte sich heraus, dass auch andere Medikamente dieser Verbindungsklasse bei mir nicht anwendbar waren. Von einem chirurgischen Eingriff war damals nicht die Rede; ich erhielt eine Zeit lang physikalische Therapie.
Was bedeutet lumbale Vertebrostenose?
Degenerative Veränderungen der Wirbelsäule nehmen mit steigendem Alter zu, führen zur Verengung des knöchernen, aus 24 Wirbelkörpern zusammengesetzten Spinalkanals und können das darin eingebettete, der Signalvermittlung zwischen Gehirn und Peripherie dienende Rückenmark und die davon ausgehenden Spinalnerven komprimieren.
Insgesamt gehen vom Rückenmark 31 Paare von Spinalnerven ab, die den beweglichen Wirbeln des Halsbereichs (C1 - C8), Brustbereichs (T1 - T12) und Lendenbereichs (L1 - L5) und den zusammengewachsen Wirbeln des Kreuzbeins (S1 - S5) und Steißbeins (Co1) zugeordnet sind. Die Spinalnerven treten durch Öffnungen zwischen benachbarten Wirbeln (Neuroforamina) aus dem Spinalkanal aus und setzen sich aus Fasern zusammen, die sensorische Informationen aus anderen Körperregionen an das Gehirn weiterleiten (afferente Fasern) in Kombination mit Fasern, die motorische oder sekretorische Informationen vom Gehirn an den Körper (efferente Fasern) senden. Das von den drei Hirnhäuten - außen der sogenannte Durasack mit anhaftender Arachnoidea, innen die von der Rückenmarksflüssigkeit (Liquor) umspülte zarte Pia Mater - umhüllte Rückenmark reicht dabei nur vom Hirnstamm bis zum ersten (oder zweiten) Lendenwirbel; unterhalb ziehen die Nervenfasern als dickes, pferdeschweifartige (Cauda equina) Nervenbündel zu ihren Austrittsöffnungen an den Lendenwirbeln L2 - L5, den Kreuzbeinwirbeln S1 - S5 und am Steißbein (Co1). (Abbildung 1A).
Die im Bereich der Lendenwirbelsäule und des angrenzenden Kreuzbeins austretenden Spinalnerven steuern die wesentlichen Körperfunktionen unterhalb der Gürtellinie - von Bein- und Fußbewegungen über die Schließmuskeln von Darm und Blase bis hin zu sexuellen Funktionen im Genitalbereich.
Alters- und verschleißbedingte Veränderungen an den Wirbeln wie Höhenminderung und Protrusion der Bandscheiben, knöcherne Anbauten an den Zwischenwirbelgelenken (Facettengelenken), Verdickung des stabilisierenden Bandes zwischen den Wirbelbögen (Ligamentum flavum) und Wirbelgleiten führen zur Einengung des Wirbelkanals und auch der Neuroforamina und können eine Kompression von Nerven und Gefäßen verursachen. Abbildung 1B - D.
Abbildung 1: Zur Stenose der Lendenwirbelsäule. A) Anatomisches Präparat der menschlichen Wirbelsäule - das im Wirbelkanal eingebettete Rückenmark geht in der Höhe von L1 in ein dickes Bündel von Nervenwurzeln - Cauda equina - über. (Amada44: https://de.wikipedia.org/wiki/R%C3%BCckenmark#/media/Datei:Spinal_Cord_-_4742.jpg. Lizenz: CC-BY-SA). B) Querschnitt eines Lendenwirbels (L2 - L5) mit Kompression des Spinalkanals. C) Degenerativ veränderte Lendenwirbelstrukturen, die zur Einengung des Spinalkanals (rote Pfeile) führen. D) Seitenansicht zweier benachbarter Wirbel mit Bandscheibenvorfall, der zu eingeklemmtem Spinalnerv führt. (B und D modifiziert nach Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436.. Lizenz, CC BY 3.0.) |
Die Folge kann u.a. eine Kompression von Blutzufluss und venösem Abfluss an den Nerven, also Ischämie und Ödeme verursachen - und so die charakteristischen Beschwerden bei Belastung - aufrechtem Gehen und Stehen - hervorrufen, die in Ruhe bei Dehnung des Spinalkanals durch vorgeneigtes Sitzen zumeist sofort verschwinden.
Was tun bei lumbaler Stenose?
Als um und nach 2003 meine Beschwerden anhielten, recherchierte ich dazu ausführlich die Fachliteratur (beispielsweise [1 - 3]). Demnach zeigen MRT und CT-Aufnahmen, dass nahezu alle über 65-Jährigen von degenerativen Veränderungen der Lendenwirbelsäule betroffen sind, wobei in bis zu 60 % der Fälle Einengungen des Spinalkanals und/oder der Neuroforamina auftreten. Auf Grund der Lordose der Lendenwirbelsäule ist das Segment L4/L5 am häufigsten von Schäden und Verschleißerscheinungen betroffen, es ist sozusagen die Sollbruchstelle bedingt durch das Eigengewicht und die aufrechte Haltung. Allerdings sind die radiologischen Bilder auch heute nur bedingt aussagekräftig: sehr viele Personen mit pathologischen Aufnahmen sind klinisch ohne Symptome.
Das Fehlen valider randomisierter klinischer Studien und widersprüchliche Aussagen über die Wirksamkeit von chirurgischer im Vergleich zu konservativer Behandlung unterstützten um die Jahrtausendwende häufig die Ansicht, dass die meisten Fälle von lumbaler Wirbelkanalstenose ohne Operation mit Methoden wie Physiotherapie mit Muskel entspannenden Maßnahmen im Akutstadium gefolgt von Stärkung der Rückenmuskulatur zum Erhalt von Funktion und Mobilität plus Schmerzmedikation behandelbar sind. Erst wenn konservative Behandlungen keinen ausreichenden Nutzen gebracht hatten, wurde eine Operation zur Druckentlastung der eingeengten Nervenwurzeln empfohlen. Es waren dabei u.a. die Nebenwirkungen der Schmerzmittel gegen die Komplikationen einer OP, wie Infektionen, Blutungen, Blutgerinnsel, Nerven- und Gewebeschäden abzuwägen, insbesondere da ja eine OP hauptsächlich ältere, z.T. multimorbide Patienten betraf. Szpalski und Gunzburg konstatieren 2004:"Ein chirurgischer Eingriff zur Behandlung der lumbalen Spinalkanalstenose wird in der Regel akzeptiert, wenn die konservative Behandlung versagt hat, und zielt darauf ab, die Lebensqualität durch eine Verringerung der Symptome wie neurogene Claudicatio, unruhige Beine und ausstrahlende neurogene Schmerzen zu verbessern" [2].
Basierend auf extensiver Literaturrecherche folgert das Deutsche Ärzteblatt fast ein Jahrzehnt später: "Bei wenig verlässlich evidenzbasierten Daten zur Diagnostik und Therapie gibt es aktuell keine valide Beurteilung der Behandlungsstrategien speziell bei Patienten im höheren Lebensalter." [4].
Der letzte Cochrane-Review - eine Metaanalyse basierend auf 5 Studien an 643 Patienten - schreibt schließlich: "Wir sind uns kaum sicher, ob eine chirurgische Behandlung oder ein konservativer Ansatz bei lumbaler Spinalkanalstenose besser ist, und wir können keine neuen Empfehlungen für die klinische Praxis geben." [5].
Eine vorübergehende Besserung der Beschwerden...
Dass auch bei mir eine Operation unnötig sein dürfte, schien sich vorerst zu bestätigen. Ab 2004 begannen die Beschwerden abzuflauen, und ich konnte bald fast wie ehedem längere Strecken schwimmen, bergwandern und auch mehrstündige Vorlesungen halten. Der erfreuliche Zustand hielt bis 2011 an.
...bis zur Feststellung eines Cauda equina Syndroms (CES)
Dann wurden die Gehstrecken sukzessive kürzer. 2014 schaffte ich noch 1 km, im folgenden Jahr nur mehr 400 m, auch Schwimmen wurde immer mühsamer; nur der Wocheneinkauf im Supermarkt - gestützt auf den Einkaufswagen - funktionierte. Die Hoffnung, dass sich mit einem Übungsprogramm zur Entlastung der Wirbelsäule so wie 2004 der Prozess der Verschlechterung umkehren könnte, schlug fehl. 2021 suchte ich schließlich einen mir empfohlenen Orthopäden auf, der mich zum MRT schickte. Abbildung 2 A. Die Aufnahmen zeigten neben teils discogenen, teils knöchernen Einengungen von Spinalkanal und Spinalnerven vor allem eine hochgradige Kompression der Cauda equina.
Was bedeutet CES?
Durch raumfordernde Kompression der Cauda equina im Spinalkanal verursacht, sind neurologische Ausfallserscheinungen der unterhalb der Engstelle betroffenen Nervenwurzeln die Folge. CES ist ein sehr seltener, schwerwiegender pathologischer Zustand, von dem Schätzungen zufolge insgesamt nur 1 - 7 von 100 000 Personen betroffen sind, davon die meisten zwischen dem 30. und 50. Lebensjahr infolge eines akuten, den Spinalkanal ausfüllenden Bandscheibenvorfalls, vor allem im Bereich der Lendenwirbel L4/L5 [6]. Die Kompression betrifft dann alle unterhalb austretenden Spinalnerven und damit deren Körperfunktionen unterhalb der Gürtellinie (siehe oben). Je nach Schweregrad der Kompression kommt es zum Gefühlsverlust im sogenannten Reithosenbereich (umfasst innere Oberschenkel, Gesäß, Genitalien, Damm), zu Lumbalgien, Gefühlsverlust, motorischen Defiziten und Reflexveränderungen in den Beinen, zu Blasen- und/oder Mastdarmstörungen und zu sexueller Funktionsstörung. Ein akut auftretendes CES gilt als neurochirurgischer Notfall und sollte möglichst schnell operiert werden, um irreversible Nervenschäden zu vermeiden. Dennoch kann die Hälfte dieser Patienten auch noch nach Jahren unter neurologischen Defiziten leiden [6].
Abbildung 2: Meine Lendenwirbelsäule rund 3,5 Jahre vor und 4 Tage nach der Operation. A) MRT-Befund: Irritation und Einengung der Spinalnerven L1, L2, L4 und vor allem hochgradige knöcherne Kompression der Cauda equina auf Höhe L4/L5 (der üblicherweise 15 - 18 mm breite Spinalkanal war nur mehr 3 mm weit). B) Röntgenaufnahmen: Zustand nach Laminektomie 4/5: Deutlich erkennbar ist der anstelle der Bandscheibe zur Fusion von L4/5 eingesetzte Titankäfig und die Wirbel-stabilisierenden Titanschrauben. (Aufnahmen: A) Diagnosticum Dr. Sochor, Gersthof. B) Institut für bildgebende Diagnostik, Rudolfinerhaus.) |
Zum viel seltener diagnostizierten chronischen CES, das sich u.a. aus der in der älteren Bevölkerung häufig auftretenden lumbalen Stenose entwickeln kann und auch zu seinen postoperativen Prognosen, gibt es in der Fachliteratur wenig Konkretes. Die degenerativen Veränderungen im Spinalkanal (siehe Abbildung 1) schreiten ja langsam fort, das Nervenbündel der Cauda kann sich noch einige Zeit daran anpassen, die Betroffenen schreiben Symptome der Caudakompression auch häufig dem Alterungsprozess zu; schlussendlich kann aber die langanhaltende schwere Kompression zu irreversiblen Schäden an den Nervenfasern führen. Die Meinungen, wie chronisches Caudasyndrom zu managen ist - wann und ob überhaupt operiert wird, gehen weit auseinander; ein rezenter Artikel zitiert: "Es wurde vorgeschlagen, dass Fälle von chronischem CES, die mit einem langsamen Beginn bei degenerativer Lendenwirbelsäulenstenose einhergehen, oft keine Notfallbehandlung erfordern, aber sorgfältig überwacht werden sollten, um ein Fortschreiten zu irreversiblem CES zu vermeiden."[7]. In anderen Worten heißt das: Abwarten.
Mein Weg zur Operation
Abwarten war auch der Weg, den mir der konsultierte Orthopäde vorschlug und für's erste Physiotherapie empfahl. Trotz mehreren Blöcken Physiotherapie und täglich 20 - 25 min der empfohlenen Übungen verschlechterte sich mein Zustand zusehends. Die Beine schmerzten, die Muskeln krampften, fühlten sich dabei aber taub an. Die Reithosenfläche fühlte sich ebenfalls taub an, brannte zugleich aber wie Feuer und schließlich begannen Blase und Darm nicht mehr wie gewohnt zu funktionieren. Als die COVID-19 Lockdowns zu Ende waren, konnte ich das Haus nicht mehr verlassen, nur mehr etwa 5 Meter (mit Stock) gehen und Schlafen im Liegen war nicht mehr möglich.
Spät aber doch begann ich - online und auf Empfehlungen von Freunden - nach erfahrenen Neurochirurgen für Wirbelsäulenstenosen zu suchen. Einige der in Frage kommenden Spezialisten - darunter Dr.Sindhu Winkler, die mich dann auch operierte - waren am Wiener Rudolfinerhaus tätig, das ich von einer früheren Operation in bester Erinnerung hatte. Auf Anraten kontaktierte ich dort vorerst den Neurologen Dr. Mohammad Baghaei, der mich sofort als Akutfall einstufte und alle präoperativen Untersuchungen organisierte, die bereits 3 Tage später im Rudolfinerhaus starteten. Das neu erstellte MRT-Bild war in Einklang mit einer frühen Cauda-equina Symptomatik, zeigte absolute Spinalkanalstenose bei L4/5, degeneratives Wirbelgleiten und weitere degenerative Veränderungen. Nach Meinung der Chirurgin hatte ich praktisch bereits eine Querschnittslähmung. Die nun umgehend erfolgende Operation sollte vor allem den verengten Bereich erweitern, um damit den Druck auf die gequetschten Nervenfasern der Cauda zu reduzieren.
Der komplizierte Eingriff dauerte fast 4 Stunden unter Anwendung eines Operationsmikroskops und kontrolliert mittels CT-Bildgebung. Ein etwa 12 cm langer Hautschnitt eröffnete das Operationsgebiet. Die Dekompression des Spinalkanals erfolgte durch Laminektomie (vollständige Entfernung der Lamina plus Dornfortsatz (Abbildung 1B)) am Wirbel L4 und Versteifung (Fusion) der Wirbelkörper L4/5 unter Anwendung der TLIF-Technik ("transforaminal lumbar interbody fusion"). Dazu wurde die degenerierte Bandscheibe entfernt und durch einen 10 mm hohen, mit dem aus der Laminektomie entnommenen Knochenmaterial gefüllten Titankäfig ersetzt. Zur Stabilisierung des Wirbelsegments waren zuvor 4 Titanschrauben in die Pedikel (Abbildung 1B) von L4 und L5 eingebracht und durch 50 mm lange Titanstäbe verbunden worden. Abbildung 2B. Dr. Winkler hatte auch den gesamten Spinalkanal von L2 bis S1 - wie sie sagte -"geputzt", d.i. degenerative knöcherne Anbauten und Bindegewebe beseitigt - Spinalkanal und auch Foramina waren nun frei, sofern keine irreversible Schädigung vorlag, sollten sich die Nerven also erholen können.
Die Operation verlief erfolgreich ........
und ohne Komplikationen. Ich wurde bereits am nächsten Tag mobilisiert und konnte nach langer Zeit gleich wieder aufrecht stehen und im Liegen schlafen. Die Taubheit im Reithosenbereich war deutlich reduziert, ebenso die nächtlichen Muskelkrämpfe. Die Taubheit in den Beinen war noch da und Dr. Winkler meinte "die völlig gequetschten Nerven müssten erst wieder lernen, wie sie funktionieren sollten."
Die viel zu lange komprimierten Nerven sind noch lernfähig: 7 Wochen nach der OP und bei intensiver Physiotherapie kann ich erstmals seit 4 Jahren ohne Stützung (allerdings noch wacklig) wieder rund 75 m gehen. Schmerzmittel konnten bereits vor einer Woche abgesetzt werden; die zurückkehrende Mobilität steigert ganz ungemein die Lebensqualität. Auch wenn nicht alle Nerven wieder voll funktionieren sollten, ist der Zustand bereits jetzt wesentlich besser als vorher - ich bin sehr froh auf eine Neurochirurgin und einen Neurologen gestoßen zu sein, die das möglich gemacht haben!
Fazit
Trotz der enorm hohen, weltweiten Prävalenz der lumbalen Spinalkanalstenose gibt es derzeit weder eine Definition noch radiologische Diagnosekriterien, die allgemein anerkannt sind [8]. Es fehlen auch ausreichend evidenzbasierte Daten (z.B. Cochrane-Reviews) zu Komplikationen und Erfolgsaussichten der Behandlungsmethoden. Eine erste, 2019 angekündigte randomisierte Placebo-kontrollierte Studie zur operativen Behandlung hat bislang noch keine Ergebnisse gebracht [9]. Widersprüchliche Angaben in Fachliteratur und ärztlichen Aussagen, ob und wann ein betagter Patient operiert werden sollte, erzeugen natürlich Verunsicherung und Ängste.
Muss man sich deshalb vor einer OP fürchten? Ich denke nein; wie in vielen anderen Sparten der Medizin muss man aber wohl auch hier selbst nach erfahrenen Spezialisten suchen (lassen) - das Internet bietet heute ja alles zu Ausbildung, Praxis und Bewertung, also den Blick auf einen "gläsernen Neurochirurgen".
Dr. Sindhu Winkler. Neurochirugin am Rudolfinerhaus und im Wirbelsäulenzentrum Döbling (zusammen mit Dr. Mohammad Baghaei. https://www.ambulatorium-doebling.at/de/privataerzte-zentrum/wirbelsaeule.)
Rudolfinerhaus Privatklinik.https://www.rudolfinerhaus.at/
[1] R.Gunzburg & M.Szpalsky: The conservative surgical treatment of lumbar spinal stenosis in the elderly. Eur Spine J (2003) 12 (Suppl. 2) : S176–S180. DOI 10.1007/s00586-003-0611-2 .
[2] Marek Szpalski, and Robert Gunzburg (2004) Lumbar Spinal Stenosis in the elderly: an overview. Eur Spine J (2003) 12 (Suppl. 2) : S170–S175. DOI 10.1007/s00586-003-0612-1.
[3] Mary Ann E. Zagaria: Lumbar Spinal Stenosis: Treatment Options for Seniors. The Journal of Modern Pharmacy/ July 2004, 11 (7). https://hdl.handle.net/10520/AJA16836707_2508 .
[4] R. Kalff et al., Degenerative lumbale Spinalkanalstenose im höheren Lebensalter. Dtsch Arztebl Int 2013; 110(37): 613-24; DOI: 10.3238/arztebl.2013.0613.
[5] F. Zaina et al., (2016): Surgical versus non-surgical treatment for lumbar spinal stenosis (Review). Cochrane Database of Systematic Reviews. 2016, Issue 1. Art. No.: CD010264. DOI: 10.1002/14651858.CD010264.pub2.
[6] R.T. Schär et al., Das Cauda equina Syndrom. Swiss Med Forum. 2019;19(2728):449-454. DOI: https://doi.org/10.4414/smf.2019.08297
[7] C. Comer et al., SHADES of grey – The challenge of ‘grumbling’ cauda equina symptoms in older adults with lumbar spinal stenosis. Musculoskeletal Science and Practice 45 (2020) 102049. https://doi.org/10.1016/j.msksp.2019.102049.
[8] L. Wu et al., Lumbar Spinal Stenosis (2024). StatPearls [Internet]. https://www.ncbi.nlm.nih.gov/books/NBK531493/
[9] Anderson DB, et al. SUcceSS, SUrgery for Spinal Stenosis: protocol of a randomised, placebo-controlled trial. BMJ Open 2019;9:e024944. doi:10.1136/bmjopen-2018-024944 .
Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?
Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?So, 02.03.2025 — Ricki Lewis
Jedes Jahr findet am 28. (29.) Februar der Tag der Seltenen Erkrankungen statt, um für die 300 Millionen Menschen zu sensibilisieren, die an einer seltenen Krankheit leiden und Veränderungen für diese sowie für ihre Familien und Betreuer herbeizuführen. Veranstaltungen in 106 Ländern bringen Patienten, Wissenschaftler, Behörden und Kliniker zusammen, um neue Hypothesen, neue Daten, vorläufige Schlussfolgerungen und praktische Informationen über das Leben mit diesen Krankheiten auszutauschen und zu diskutieren. Auf lokalen, nationalen und internationalen Konferenzen über Seltene Erkrankungen kommt es dabei zu wichtigen Kontakten. In den USA sind etwa 30 Millionen Menschen von Seltenen Erkrankungen betroffen. Fassungslos berichtet die Genetikerin Ricki Lewis, dass - offensichtlich auf Grund der Entlassung von Experten und der Demontage der Infrastruktur wichtiger Institutionen - in den USA der FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben werden musste.*
Rare Disease Day (https://www.rarediseaseday.org/) |
Laut der US Nationalen Organisation für Seltene Erkrankungen aus dem Jahr 2023 "hat sich der 28. Februar zu einer wichtigen jährlichen Feier entwickelt, um die Gemeinschaft einzubinden, die Geschichten von Patienten und Familien bekannt zu machen, Spenden zu sammeln und wichtige Ressourcen und innovative Forschung für seltene Krankheiten zu fördern. " Weitere Informationen und Möglichkeiten zum Mitmachen findet man unter rarediseaseday.us. Jedes Jahr am 28. Februar ist "A Day to be Heard".
Ich habe an den Veranstaltungen zum Tag der Seltenen Erkrankungen teilgenommen und mich mit vielen Familien angefreundet, während und nachdem ich das Buch The Forever Fix: Gene Therapy and the Boy Who Saved It (2012) geschrieben habe. DNA Science berichtet seit Jahren über den Tag der Seltenen Erkrankungen (z.B.: https://dnascience.plos.org/2022/02/24/rare-disease-day-2022-juvenile-huntingtons-disease/).
Bei Tagungen über seltene Erkrankungen füllen sich die Hörsäle; Menschen studieren die auf großen Bildschirmen angezeigten Daten oder treffen sich in kleineren Gruppen, um gemeinsame Herausforderungen und Anliegen zu besprechen, von Ideen zur Mittelbeschaffung bis hin zur Auswahl der optimalen viralen Vektoren für spezifische Gentherapien. Und ein oder zwei Elternteile verkleiden sich vielleicht als Zebra, das gestreifte Säugetier, das eine seltene Krankheit unter den häufiger auftretenden Pferden symbolisiert. Für einige mögen Einhörner passen.
Ich hätte mir nie vorstellen können, dass eine so wunderbare Feier wie der Tag der Seltenen Krankheiten verschoben werden würde, außer vielleicht wegen einer Naturkatastrophe wie einem drohenden Asteroideneinschlag oder einem unmittelbar drohenden Krieg. Aber die Entlassung von Experten und die Demontage der Infrastruktur wichtiger Institutionen hat nun auch menschliche Interaktionen betroffen, die darauf abzielen, Leben zu retten, viele davon von Kindern. Selbst dieser besondere Tag ist offenbar nicht immun.
Ich war fassungslos, als ich auf die Nachrichten-Webseite der FDA zum Tag der Seltenen Krankheiten 2025 klickte:
"Verschoben- FDA-NIH Tag der Seltenen Erkrankungen
Nach reiflicher Überlegung haben wir den FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben und werden ihn in den kommenden Monaten neu ansetzen. Der Tag der Seltenen Erkrankungen ist für uns alle wichtig, und wir möchten sicherstellen, dass wir uns voll und ganz auf die Veranstaltung konzentrieren können, um sie so gut wie möglich zu gestalten. Wir wissen Ihr Verständnis zu schätzen und danken Ihnen für Ihre kontinuierliche Arbeit bei der Bewusstseinsbildung, der Entwicklung von Heilmitteln und Behandlungen und der Bereitstellung von Ressourcen, die den Millionen von Menschen in diesem Land, die von seltenen Krankheiten betroffen sind, Hoffnung geben." (Ankündigung des FDA Office of Orphan Products Development: POSTPONED - FDA-NIH Rare Disease Day.)
Die genauen Gründe für die plötzliche Verschiebung des Tages der Seltenen Krankheiten sind mir unbekannt. Wenn man zwischen den Zeilen liest, kann man vermuten, dass die Leute bei der FDA und den NIH unter den jüngsten und drohenden Kürzungen leiden - nicht unbedingt, dass das DoGE (Department of Government Efficiency) absichtlich die jährliche Gelegenheit blockiert hat, dass sich Familien mit seltenen Krankheiten mit Wissenschaftlern, Klinikern, Regulierungs- und Gesundheitsexperten treffen. Ich hoffe sehr, dass die Hilfe für die Gemeinschaft der Menschen mit seltenen Krankheiten nicht als "staatliche Verschwendung" betrachtet wird.
Verstehen die Beamten, die sich für die Kürzungen einsetzen, die zu dem "Aufschub" geführt haben, die Krankheiten, die Behandlungen oder wie Forschung tatsächlich vor sich geht? Die Fortschritte bei den Gen- und Zelltherapien sind zwar langsam, aber gleichzeitig erstaunlich. Es werden Kinder behandelt! Einige leben länger, als ihre Gene sonst diktiert hätten, und zeigen bisher unbekannte Erscheinungsformen, die als Grundlage für die Entwicklung neuer Behandlungsansätze dienen und künftige klinische Versuche inspirieren können.
Die große Ironie ist, dass der diesjährige Tag der Seltenen Krankheiten mit dem 50. Jahrestag des geschichtsträchtigen letzten Tages der Konferenz in Asilomar, Kalifornien, zusammenfallen sollte, auf der Wissenschaftler die Sicherheit der rekombinanten DNA-Technologie diskutierten, bei der DNA aus Zellen einer Art von Organismus in Zellen einer anderen Art eingebracht wird.
Die Bürger haben sich über die wissenschaftlichen Grundlagen informiert, Probleme abgewogen und den Experten Fragen gestellt. Darauf folgten Debatten. Die aktuelle Ausgabe des Fachjournals Trends in Biotechnology enthält mehrere Artikel zum Thema "50 Jahre nach der Asilomar-Konferenz", die in dieser Pressemitteilung mit Links zusammengefasst sind (https://www.eurekalert.org/news-releases/1074439?).
Zur Zeit von Asilomar waren die Menschen recht besorgt. Die Rekombination von genetischem Material - diese ist möglich, weil alle Organismen DNA besitzen und ihre Zellen denselben genetischen Code verwenden - war neu und besorgniserregend. Mein Mentor an der Hochschule nannte die Technologie um 1975 das "dreiköpfige lila Monster".
Allerdings erleichterte/ermöglichte die rekombinante DNA-Technologie die Herstellung verschiedener Medikamente. Heute werden auf dieser Technologie beruhende Medikamente zur Behandlung von Volkskrankheiten wie Diabetes, lebensbedrohlichen Blutgerinnseln, rapide sinkenden Blutwerten nach einer Chemotherapie, zur Stärkung des Immunsystems, zur Erleichterung der Atmung, zur Senkung des Blutdrucks, zur Korrektur von Enzymdefiziten und zur Heilung der Haut eingesetzt.
Ich frage mich, wie viele Patienten daran denken, dass ihr Insulin in Bakterien hergestellt wird, die eingefügte menschliche Gene "lesen"? Oder dass der menschliche Gerinnungsfaktor VIII, den Menschen mit Hämophilie A einnehmen, in kultivierten Zellen des Eierstocks oder der Niere eines chinesischen Hamsters hergestellt wird?
Die Technologie der rekombinanten DNA hat sich durchgesetzt. Sie ist einfacher als die Gentherapie, weil sie die Peptide und Proteine, die die Medikamente darstellen, in Zellen produziert, die in einem Labor wachsen.
Bei der Gentherapie hingegen, die etwa zwei Jahrzehnte später als die rekombinante DNA-Technologie einsetzte, wird DNA in bestimmte Zelltypen oder in den Körper eines Patienten eingebracht. Wenn alles gut geht, produziert der Patient dann das benötigte Protein, das die krankheitsverursachenden Mutationen ausgleichen kann. Das Konzept ist einfach, die Durchführung der Gentherapie jedoch äußerst schwierig.
Komplizierter bedeutet teurer - einige Gentherapien kosten Millionen, auch wenn es sich dabei um "einmalige" Strategien handelt. Einige wurden aus diesem Grund aus der Pipeline genommen (z.B. Glybera, das erste Gentherapeutikum zur Behandlung einer sehr seltenen Fettstoffwechsel-Erkrankung).
Fazit
Seit ich mein Buch über Gentherapie geschrieben habe, haben mir mehr und mehr Familien mit genetischen Störungen von ihren Erfahrungen berichtet, wie sie klinische Studien in die Wege geleitet haben, um ihren Angehörigen und anderen zu helfen - oft beginnend mit präklinischer Forschung (an tierischen Organismen und menschlichen Zellen).
Ich mag gar nicht über die Auswirkungen der Kürzungen bei den NIH, der FDA, der CDC und anderen wichtigen Behörden nachdenken, die sich aus den Aufschüben, Verzögerungen und Stornierungen ergeben.
*Der Artikel ist erstmals am 27. Feber 2025 in PLOS Blogs - DNA Science Blog unter dem Titel "Rare Disease Day 2025 is Postponed – Why?" https://dnascience.plos.org/2025/02/27/rare-disease-day-2025-is-postponed-why/ erschienen und steht unter einer CC-BY-Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?
Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?So, 23.02.2025 — Tim Kalvelage
Im Jahr 1958 installierte der amerikanische Chemiker Charles D. Keeling ein Messgerät für Kohlenstoffdioxid (CO2) auf dem Vulkan Mauna Loa auf der Insel Hawaii. Das Gerät stand in rund 3.400 Metern Höhe, weit weg von störenden CO2-Quellen wie Industriegebieten. Keeling wollte den CO2-Gehalt der Atmosphäre bestimmen. Bis dahin gab es dazu nur ungenaue und widersprüchliche Daten. Daher war unklar, ob sich das Treibhausgas durch das Verbrennen von Öl, Gas und Kohle in der Atmosphäre anreichert. Viele Forschende vermuteten, das dabei freigesetzte CO2 würde vom Ozean geschluckt. Die vom Menschen verursachte Erderwärmung war damals bloß eine Theorie. Der Mikrobiologe und Wissenschaftsjournalist Dr. Tim Kalvelage spricht hier über Untersuchungen zur Dynamik der terrestrischen CO2-Senken, die durch menschliche Aktivitäten und Klimawandel beeinträchtigt zu CO2-Quellen werden können.*
Keeling machte zwei Entdeckungen: Zum einen stellte er fest, dass die CO2-Konzentration innerhalb eines Jahres schwankt und dem Vegetationszyklus auf der Nordhalbkugel folgt: Im Frühjahr und Sommer nimmt sie ab, während sie in der kälteren Jahreshälfte ansteigt. Zum anderen konnte er bald nachweisen, dass der durchschnittliche CO2-Gehalt in der Lufthülle der Erde tatsächlich von Jahr zu Jahr zunimmt. Die von Keeling begonnene und bis heute fortgesetzte Messreihe gilt als bedeutendster Umweltdatensatz des 20. Jahrhunderts (Abbildung 1). Sie zeigte zum ersten Mal, wie die Biosphäre im Rhythmus des jahreszeitlich bedingten Pflanzenwachstums CO2 aus der Atmosphäre aufnimmt und wieder abgibt – und wie der Mensch das Klima des Planeten beeinflusst
Abbildung 1: Keeling-Kurve. Die Abbildung zeigt die monatliche durchschnittliche CO2-Konzentration der Luft, gemessen auf dem Mauna Loa in einer Höhe von 3.400 Metern in den nördlichen Subtropen. Die Keeling-Kurve steigt nicht gleichförmig an, sondern schwingt im Verlauf des Jahres auf und ab. Jeweils am Ende des Frühjahrs klettert der Wert auf einen neuen Höchststand. Das liegt unter anderem daran, dass die Wälder der Nordhemisphäre im Winter nur wenig Fotosynthese betreiben und monatelang kaum CO2 aus der Luft aufnehmen, während Pflanzen und Böden einen Teil des zuvor aufgenommenen Kohlenstoffdioxids durch die Atmung wieder an die Atmosphäre abgeben. Der langfristige Trend hingegen geht hauptsächlich auf die anthropogen bedingten CO2-Emissionen zurück. © Author: Oeneis; Data from Dr. Pieter Tans, NOAA/ESRL and Dr. Ralph Keeling, Scripps Institution of Oceanography / CC BY-SA 4.0 |
Natürliche Kohlenstoffspeicher
Vor Beginn der Industrialisierung herrschte zwischen Aufnahme und Freisetzung von Kohlenstoffdioxid im langfristigen Mittel ein Gleichgewicht. Der Mensch aber stört diese Balance, vor allem durch die Nutzung fossiler Rohstoffe, die heutzutage fast 90 Prozent der weltweiten Treibhausgasemissionen verursacht. Die restlichen zehn Prozent gehen auf das Konto veränderter Landnutzung. Dazu zählen die Umwandlung von Wäldern, Grasländern oder Mooren in landwirtschaftliche Nutzflächen und die Verwendung von Holz als Brennstoff, aber auch Siedlungs- und Straßenbau. Zu Beginn der industriellen Revolution waren die daraus resultierenden Emissionen sogar größer als jene aus dem Verbrennen fossiler Rohstoffe. Erst im Zuge des starken weltweiten Wirtschaftswachstums nach Ende des Zweiten Weltkriegs wurden Öl, Gas und Kohle zur bedeutendsten CO2-Quelle.
Die Erderwärmung durch die anthropogenen CO2-Emissionen wäre heute noch viel höher, gäbe es keine Ökosysteme, die einen Teil des Kohlenstoffdioxids aus der Atmosphäre aufnehmen und speichern. Wie das funktioniert und welche Faktoren dabei eine Rolle spielen, untersucht das Team von Sönke Zaehle, Direktor am Max-Planck-Institut für Biogeochemie in Jena. Die Wissenschaftlerinnen und Wissenschaftler erforschen die Kohlenstoffbilanzen von Landökosystemen. Sie wollen verstehen, wie etwa Wälder, Grasländer und Böden als Quellen und Senken von Treibhausgasen wirken und wie der Mensch und das Klima diese Ökosysteme beeinflussen. „In den vergangenen 60 Jahren haben Ozeane und Landökosysteme etwa die Hälfte der anthropogenen Kohlenstoffdioxid-Emissionen aus der Atmosphäre aufgenommen“, erklärt Sönke Zaehle (Abbildung 2). „Die Weltmeere nehmen Kohlenstoffdioxid aus der Atmosphäre auf und lösen es in Form von Kohlensäure. Auf dem Land wirken Pflanzen und Böden als Kohlenstoffspeicher.“ Die Forschung von Sönke Zaehle ist Teil eines globalen Monitorings: Klimaforschende aus der ganzen Welt erstellen jedes Jahr eine Bilanz des globalen Kohlenstoffkreislaufs. Sie beziffern im Global Carbon Report unter anderem die anthropogenen CO2-Emissionen auf der einen sowie die CO2-Aufnahme der Landbiosphäre und der Ozeane auf der anderen Seite.
Abbildung 2: Globales Kohlenstoffbudget 2023. Etwa die Hälfte des ausgestoßenen CO2 aus fossilen Energiequellen und Landnutzungsänderungen wird von Land- und Ozeansenken absorbiert, der Rest verbleibt in der Atmosphäre und trägt zum Klimawandel bei. © Global Carbon Project; Data source: Friedlingstein et al. 2023 Global Carbon Budget 2023. Earth System Science Data. // CC BY 4.0; https://globalcarbonatlas.org |
Wenn Senken zu Quellen werden
Bis heute gibt es noch keine Technologien, um Kohlenstoffdioxid in großem Maßstab aus der Atmosphäre zu entfernen. Um den Klimawandel einzudämmen, sind die natürlichen Senken daher von zentraler Bedeutung, denn ohne diese würde die doppelte Menge an CO2 in die Atmosphäre gelangen und die Erde noch schneller aufheizen. Doch die Senken sind zunehmend bedroht – durch menschliche Aktivitäten und auch durch den Klimawandel selbst. Im schlimmsten Fall kann die CO2-Abgabe die Aufnahme sogar übersteigen, sodass Pflanzen und Böden zur Netto-CO2-Quelle werden. Das passierte etwa im Jahr 2023 – bis dahin das heißeste jemals aufgezeichnete Jahr, als die Netto-Kohlenstoffaufnahme an Land zeitweise sogar zusammenbrach: Pflanzen und Böden wandelten sich von Kohlenstoffsenken in -quellen.
Menschliche Aktivitäten wie Abholzung, Brandrodung oder die Trockenlegung von Feuchtgebieten, 2020 aber auch Urbanisierung und die Versiegelung von Böden zerstören wertvolle Kohlenstoffspeicher. Der Klimawandel fördert Hitze, Dürren, Brände und Überschwemmungen, die das Pflanzenwachstum beeinträchtigen und CO2 aus dem Boden freisetzen. Die weltweite landwirtschaftliche Nutzfläche beträgt heute rund fünf Milliarden Hektar – fast 40 Prozent der globalen Landoberfläche. Insbesondere in den Tropen und in anderen Ländern mit starkem Bevölkerungs- und Wirtschaftswachstum haben Landwirtschaft und Holznutzung stark zugenommen. So geraten die natürlichen Kohlenstoffreservoirs immer mehr unter Druck. In Südostasien werden Wälder vor allem für den Anbau von Ölpalmen und Kautschukbäumen großflächig gerodet, in Westafrika für Kakaoplantagen. Im Amazonasgebiet gilt die Produktion von Rindfleisch, Soja und Zuckerrohr als Haupttreiber der Entwaldung.
Der Einfluss von El Niño
Forschungsgruppenleiter Santiago Botía und sein Team am Max-Planck-Institut für Biogeochemie konzentrieren sich unter anderem auf den Amazonas-Regenwald, der mehr als die Hälfte des weltweit noch verbliebenen tropischen Regenwalds ausmacht. Die Forschenden möchten herausfinden, welche Rolle der Wald als Kohlenstoffsenke spielt, was seine Speicherkapazität beeinflusst und welche Prozesse sich auf den Gehalt von CO2, Methan und Lachgas in der Atmosphäre auswirken. Um die Kohlenstoffflüsse nachzuverfolgen, kombinieren sie Messungen von Treibhausgasen an Bodenstationen oder per Flugzeug mit Computersimulationen, die den Gastransport in der Atmosphäre abbilden. Wichtige Messdaten liefert das 325 Meter hohe Amazon Tall Tower Observatory (ATTO) mitten im brasilianischen Regenwald (Abbildung 3). Ziel ist es, Quellen und Senken von Kohlenstoff im Amazonasgebiet zu bestimmen.
Abbildung 3: Forschungsprojekt ATTO des Max-Planck-Instituts für Biogeochemie Jena. Abseits der brasilianischen Stadt Manaus steht mitten im Regenwald ein 325 m hoher Forschungsturm aus Stahl sowie zwei weitere 80 m hohe Türme. Hier wird untersucht, wie die Wälder des zentralen Amazonasgebiets mit der Atmosphäre und dem Klima interagieren, um zu prüfen, wie sich langfristige Klimaveränderungen und die zunehmende Kohlendioxidkonzentration auswirken. © P. Papastefanou / MPI-BGC. CC-BY-NC-SA. |
„Grundsätzlich gilt der Amazonas-Regenwald als Kohlenstoffsenke“, sagt Santiago Botía, „Doch es gibt Hinweise, dass diese Senke durch menschliche Eingriffe sowie klimabedingten Trockenstress schwächer geworden ist.“ Eine wichtige Rolle dabei spielt El Niño (s. unten). El Niño ist ein natürliches Klimaphänomen, das die Folgen des menschengemachten Klimawandels wie Hitzewellen, Dürren oder extreme Niederschläge verstärken kann. Botía und sein Team haben gezeigt, dass die Dürre im Jahr 2023 das Pflanzenwachstum und damit die Kohlenstoffspeicherung beeinträchtigt hat (Abbildung. 4): „Während eines El Niño wird insbesondere in den Tropen weniger Kohlenstoff gebunden und infolgedessen ist der CO2-Anstieg in der Atmosphäre in der Regel höher als in anderen Jahren“, sagt der Max-Planck-Forscher. Als weiteres Beispiel nennt er den starken El Niño in den Jahren 2015 und 2016. „Damals gab es viele Feuer, die zahllose Bäume vernichtet haben, zusätzlich hat der Wald wegen Hitze und ausbleibender Regenfälle weniger CO2 aufgenommen.“
Abbildung 4: Wenn der Regenwald zur CO2-Quelle wird. Die gestrichelte rote Linie zeigt den zeitlichen Verlauf der CO2-Aufnahme bzw. -Abgabe des Amazonasgebiets für das Jahr 2023. Der schattierte Bereich gibt die normalen Werte der letzten zwei Jahrzehnte (2003-2023) an. Die gestrichelte schwarze Linie ist die Netto-Null-Linie, d.h. CO2-Aufnahme und -Abgabe sind ausgeglichen. Von Januar bis April 2023 war die Kohlenstoffaufnahme höher als üblich. Das änderte sich im Mai, als der Regenwald begann, mehr CO2 freizusetzen, wobei die höchsten Werte im Oktober gemessen wurden. Da die CO2-Emissionen durch Brände innerhalb der normalen Werte der letzten zwei Jahrzehnte lagen, führen die Forschenden die Anomalie auf eine verringerte CO2-Aufnahme durch den Regenwald zurück. © S. Botía, MPI für Biogeochemie / CC BY 4.0 |
Dass El Niño dabei auch zu Veränderungen der jährlichen Wachstumsrate des CO2-Gehalts in der Atmosphäre führen kann, belegt eine gemeinsame Studie von Forschenden des Max-Planck-Instituts für Biogeochemie und der Universität Leipzig: Langzeitdaten hatten gezeigt, dass der CO2-Gehalt in der Atmosphäre zwischen 1959 und 2011 phasenweise besonders stark angestiegen war. Als Ursache vermutete man langfristige klimabedingte Veränderungen des Kohlenstoffkreislaufs und damit des globalen Klimasystems. Die Forschenden überprüften diese Annahme anhand von Computersimulationen – und kamen zu einem anderen Ergebnis: Der hohe Anstieg lässt sich allein mit dem vermehrten Auftreten von El Niño -Ereignissen in den 1980er- und 1990er-Jahre erklären. Hierunter fallen auch die extremen El Niño -Phasen von 1982/83 und 1997/98, die starke Dürren und Hitzewellen in den Tropen mit sich brachten. Während dieser Phasen nahm der CO2-Gehalt in der Atmosphäre überraschend schnell zu. Die schnelle Zunahme hängt damit zusammen, dass während der El Niño -Phasen (aber auch anderer klimatischer Extremereignisse) gehäuft auftretende Brände und andere Störungen schnell viel Kohlenstoff freisetzen – und so die langfristige, vergleichsweise langsame Kohlenstoffaufnahme der ungestörten Ökosysteme kompensieren. In der Ökologie ist dies bekannt als die sogenannte „slow-in, fast-out-Dynamik“ des Kohlenstoffkreislaufs. Die langfristige Konsequenz davon ist, dass sich Veränderungen in der Häufigkeit von El Niño sich auf den CO2-Gehalt der Atmosphäre auswirken und so eine Rückkopplung zum Klimawandel verursachen können.
Kohlenstoffsenken unter Beobachtung
Das Team von Sönke Zaehle möchte mit seiner Arbeit vor allem dazu beitragen, künftige Klimamodelle zu verbessern: „Um verlässlichere Prognosen für die Zukunft zu machen, ist es entscheidend, die räumliche und zeitliche Dynamik der Kohlenstoffsenken möglichst genau zu kennen“, sagt Zaehle. Das gilt auch für Strategien, die auf Klimaneutralität abzielen: Der europäische „Green Deal“ etwa, der Netto-Null-Emissionen bis zum Jahr 2050 anstrebt, kalkuliert die Kohlenstoffaufnahme durch Landökosysteme wie Wälder mit ein. Doch auch in unseren Breiten verlieren Wälder zunehmend ihre Fähigkeit, Kohlenstoff zu speichern: Im Jahr 2022 etwa wurden in Europa rekordverdächtige Temperaturen gemessen. Fast 30 Prozent des Kontinents – insgesamt rund drei Millionen Quadratkilometer – waren von einer schweren Sommertrockenheit betroffen. Ein Forschungsteam unter Beteiligung des Max-Planck-Instituts für Biogeochemie wies nach, dass die Netto-Kohlenstoffaufnahme der Biosphäre in diesem Gebiet stark verringert war. Einige Wälder in Frankreich setzten im Sommer durch Trockenstress und Waldbrände sogar Kohlenstoff frei. „Solche temporären Schwankungen der Kohlenstoffsenken werden bislang kaum berücksichtigt“, sagt Zaehle. Ein Ziel des europäische Erdbeobachtungsprogramms Copernicus ist es daher, die Kohlenstoffbilanz kontinuierlich zu überwachen.
Ökosysteme stärken
Studien wie die der Jenaer Wissenschaftlerinnen und Wissenschaftler zeigen, wie fragil die natürlichen Kohlenstoffsenken sind. Dass wir uns auch weiterhin auf sie verlassen können, ist keineswegs sicher: „Inwieweit die terrestrischen Kohlenstoffsenken ihre Funktion als Klimapuffer in Zukunft noch erfüllen können, ist unklar“, sagt Santiago Botía. „Bei der derzeitigen globalen Erwärmung sind extreme Dürrejahre häufiger zu erwarten und werden wohl Teil der neuen Normalität“. Es ist daher entscheidend, dass wir uns auf diese Veränderungen vorbereiten und die Funktion der Ökosysteme erhalten. „Wichtig ist, die natürlichen Kohlenstoffsenken zu stärken – zum Beispiel durch Aufforstung von Wäldern, die Wiedervernässung von Mooren und eine nachhaltige Landwirtschaft, die den Kohlenstoffgehalt von Böden erhöht und weniger Treibhausgase produziert“, sagt Sönke Zaehle. „Neben dem Erhalt der natürlichen Senken ist aber eine Reduzierung der fossilen Emissionen unerlässlich, um den Klimawandel zu stoppen. Jede Tonne Kohlenstoffdioxid, die wir vermeiden, zählt.”
Zu EL Niño
Die sogenannte El Niño -Südliche Oszillation (ENSO) ist ein gekoppeltes Zirkulationssystem von Ozean und Atmosphäre im tropischen Pazifik. Normalerweise schieben die Passatwinde das Oberflächenwasser entlang des Äquators von der Westküste Südamerikas in Richtung Südostasien. Dort steigt der Meeresspiegel infolgedessen um gut einen halben Meter an. Vor Südamerika erzeugt diese westwärtige Strömung einen Sog, der kaltes Tiefenwasser zur Oberfläche strömen lässt. Das kalte Wasser heizt sich auf dem Weg nach Westen auf, was vor Südostasien für starke Verdunstung und ein regenreiches Klima sorgt. Etwa alle fünf Jahre passiert es, dass sich die Passatwinde aufgrund von Veränderungen der Luftdruckverhältnisse über dem Pazifik abschwächen oder ihre Richtung sogar umkehren. Dadurch strömt warmes Wasser aus dem Westpazifik nach Osten. An der sonst trockenen Westküste Südamerikas kommt es dadurch zu starken Niederschlägen, während in Südost-asien weniger Regen fällt. Weil das Phänomen seinen Höhepunkt typischerweise um Weihnachten erreicht, wird es El Niño, spanisch „das Christkind“, genannt.
* Der Artikel von Tim Kalvelage ist unter dem Titel: "Klimapuffer der Erde - Forschung untersucht die Dynamik von Kohlenstoffsenken https://www.max-wissen.de/max-hefte/geomax-30-klimapuffer-der-erde/ " im Geomax 30-Heft der Max-Planck-Gesellschaft im März 2025 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.
Weiterführende Links
Carbon Story: https://globalcarbonatlas.org/emissions/carbon-story/
Amazon Tall Tower (ATTO)-Projekt. Bildungsmaterialien des Max-Planck-Instituts für Biogeochemie Jena. https://www.attoproject.org/de/medien/mission-atto-forschung-im-gruenen-ozean/.
Klima/Klimawandel im ScienceBlog: https://scienceblog.at/klima-klimawandel
Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kann
Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kannDo, 06.02.2025 — Ricki Lewis
Vor 5 Jahren befürchtete man, dass die Genom-Sequenzierung bei Neugeborenen deren Privatsphäre gefährden könnte, wenn die genetischen Informationen dann beim Heranwachsen nicht angemessen geschützt würden. Dass die DNA-Analyse bei Neugeborenen einen vielleicht unerwarteten Nutzen kann berichtet die Genetikerin Ricki Lewis an Hand der Erkrankungen Marfan Syndrom und Alström Syndrom: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern, Geschwistern und anderen Naheverwandten bieten. Dieser Ansatz ercheint besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.*
Screening von Neugeborenen auf Stoffwechselprodukte, nicht auf DNA
Das Screening von Neugeborenen auf andere verdächtige Moleküle als die DNA gibt es schon seit Jahrzehnten. Kurz nach der Geburt wird aus der Ferse entnommenes Blut auf verschiedene Moleküle (Metaboliten) untersucht, die als Biomarker für bestimmte Krankheiten dienen.
Das US-amerikanische Recommended Uniform Screening Panel (RUSP) https://www.hrsa.gov/advisory-committees/heritable-disorders/rusp testet so auf 61 Erkrankungen. Die Liste variiert je nach Bundesstaat, wobei Illinois zum Beispiel auf 57 Krankheiten tested, Kalifornien auf 80. Sonderprogramme haben das RUSP im Laufe der Jahre erweitert.
Das Ziel des Neugeborenen-Screenings ist es, Krankheiten so früh zu erkennen, dass Symptome verhindert oder behandelt werden können. Allerdings sind manche Leute der Ansicht, dass das Neugeborenen-Screening "Patienten im Wartezustand" schafft, was bei frischgebackenen Eltern Ängste auslöst.
Genomsequenzierung bei Neugeborenen |
Das Neugeborenen-Screening kann zwar genetische Krankheiten aufdecken, analysiert aber nicht die DNA selbst. Es stellt nur zu hohe oder zu niedrige Werte bestimmter Aminosäuren und Acylcarnitine fest, die auf einen gestörten Eiweiß- bzw. Fettstoffwechsel hinweisen. Die dazu angewandte Technik ist die Tandem-Massenspektrometrie.
Die Sequenzierung von DNA zur Klassifizierung von Genvarianten ist etwas anderes. Gene sind die Anweisungen einer Zelle zur Verknüpfung präziser Sequenzen von Aminosäuren zu Proteinen.
Neugeborenen-Screening auf DNA: GUARDIAN und BabySeq
Zwei Programme haben kürzlich Ergebnisse zur Bedeutung der DNA-Sequenzierung eines Neugeborenen veröffentlicht.
Die GUARDIAN-Studie (Genomic Uniform-screening Against Rare Disease in All Newborns - https://guardian-study.org/ des New York-Presbyterian Hospital untersuchte 4 000 Kinder, die zwischen September 2022 und Juli 2023 in sechs Krankenhäusern in New York City geboren wurden. Dabei wurden Gene sequenziert, die für 156 früh auftretende genetische Erkrankungen und 99 mit Krampfanfällen einhergehende neurologische Entwicklungsstörungen verantwortlich sind. Die gewählten Erkrankungen sind behandelbar, insbesondere wenn sie frühzeitig erkannt werden. Die Ergebnisse wurden kürzlich im Fachjournal JAMA veröffentlicht [1].
Das Projekt BabySeq (https://www.genomes2people.org/research/babyseq/news-media/),das 2018 begann, ist breiter angelegt. Es hat Exome (den proteincodierenden Teil eines Genoms) oder ganze Genome sequenziert und 954 Gene identifiziert, bei denen Mutationen drei Kriterien erfüllen:
- die assoziierte Erkrankung beginnt in der Kindheit
- wenn eine Mutation vorhanden ist, sind auch die Symptome vorhanden (hohe Penetranz)
- die Erkrankung ist bis zu einem gewissen Grad therapiebar
BabySeq suchte auchaus der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG - https://www.ncbi.nlm.nih.gov/clinvar/docs/acmg/) nach einigen therapiebaren Erkrankungen, die nur im Erwachsenenalter auftreten, wie z. B. familiäre Krebssyndrome.
In der Ankündigung von BabySeq in Pediatrics (https://pmc.ncbi.nlm.nih.gov/articles/PMC6038274/) heißt es:
"Die größte Chance, dss sich die Genomsequenzierung ein Leben lang auswirkt, hat die Zeit unmittelbar nach der Geburt. Neugeborenenperiode. Das BabySeq-Projekt ist eine randomisierte Studie, die die medizinischen, verhaltensbezogenen und wirtschaftlichen Auswirkungen erforscht, wenn die Genomsequenzierung in die Fürsorge gesunder und kranker Neugeborener eingebaut wird."
Im Rahmen des BabySeq-Projekts wurden Kinder fünf Jahre lang beobachtet. Die ersten Ergebnisse sind in der Juli-Ausgabe 2023 des American Journal of Human Genetics veröffentlicht [2].
An dem Projekt haben 127 gesunde Säuglinge und 32 kranke Säuglinge aus Intensivstationen zweier Bostoner Krankenhäuser teilgenommen. Außerdem wurde nach einigen relevanten Erkrankungen im Erwachsenenalter gesucht, die in der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG) aufgeführt sind.
Bei 17 der Kinder wiesen die Genome relevante krankheitsverursachende Mutationen auf.
Von 14 gesunden Säuglingen entwickelten vier ein vergrößertes und geschwächtes Herz - dilatative Kardiomyopathie - aufgrund von Mutationen im TTN-Gen, das für ein Muskelprotein (Titin) kodiert. Durch häufige EKGs und Echokardiogramme können die ersten Symptome erkannt werden, die dann medikamentös oder physikalisch behandelbar sind. Betroffene Kinder sollten bestimmte Stimulanzien meiden, bestimmte Sportarten wählen und eine für das Herz gesunde Ernährung einhalten.
Ein anderes Kind hatte eine feststellbare und heilbare verengte Aorta, und ein weiteres litt an Vitaminmangel (Biotin), der mit Nahrungsergänzungsmitteln behandelbar war. Zwei Neugeborene wiesen BRCA2-Mutationen auf, was drei Verwandte zu einer Operation veranlasste, um damit assoziierte Krebserkrankungen zu verhindern. Ein weiteres Kind kann dank der Früherkennung einen Hörverlust im Teenageralter vermeiden.
Bei Babys, die wegen einer Erkrankung auf der Intensivstation lagen, wurde eine durch die DNA aufgezeigte, weitere Erkrankung festgestellt. Ein Kind, das wegen eines Herzfehlers ins Krankenhaus eingeliefert wurde, hatte auch einen Glucose-6-Phosphat-Dehydrognenase-Mangel, der beim Verzehr bestimmter Lebensmittel eine hämolytische Anämie verursacht. Und ein Säugling, der wegen Atembeschwerden ins Krankenhaus eingeliefert wurde, hatte das Lynch-Syndrom geerbt, das im Erwachsenenalter Darm-, Gebärmutter-, Magen- und Eierstockkrebs verursacht.
Einige der Kinder wiesen Mutationen auf, die sich später auf den Stoffwechsel bestimmter Krebs- und entzündungshemmender Medikamente auswirken sollten.
Ein unerwarteter Nutzen der Neugeborenen-Sequenzierung der DNA: Erklärung der Krankheiten von Verwandten
Als die BabySeq-Studie im Jahr 2018 begann, wurde kritisiert, dass Eltern mit Namen von beängstigenden Krankheiten belastet werden, die sich - wenn überhaupt - möglicherweise erst nach Jahren manifestieren. Nach den fünf Jahren der Studie zeigte sich welchen Wert die Erkennung behandelbarer Krankheiten noch vor ihrem Ausbruch hat: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern und Geschwistern, Tanten und Onkeln, Großeltern und Cousins bieten. Dieser Ansatz ist besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.
Genetiker bezeichnen mehrere, scheinbar nicht zusammenhängende Symptome, die von einer Mutation in einem einzigen Gen herrühren, als Pleiotropie. Ein Beispiel sind das seltene Marfan-Syndrom und das noch seltenere Alström-Syndrom.
Marfan-Syndrom
Einige Symptome des Marfan-Syndroms sind offenkundig, wenn man sie zusammen betrachtet: lange Arme, Beine, Finger und Zehen, ein schmales, langes Gesicht, ein eingesunkener oder hervorstehender Brustkorb aufgrund einer kollabierten Lunge sowie Plattfüße, Skoliose und sehr flexible Gelenke. Ein Patient mit nur einem oder zwei dieser Merkmale könnte allerdings unbemerkt bleiben. Und einige Marfan-Symptome treten erst im Erwachsenenalter auf, z. B. Kurzsichtigkeit, Katarakte und verrutschte Linsen.
Die Diagnose des Marfan-Syndroms wird in der Regel nach kardialen Ereignissen gestellt, z. B. undichten Herzklappen oder einer aufgespaltenen Aorta, die sich ausbeulen und reißen kann (ein Aneurysma). Wenn die Schwächung frühzeitig erkannt wird, kann ein synthetisches Transplantat den Abschnitt der Arterienwand ersetzen und das Leben des Betroffenen retten. Manchmal macht sich das Marfan-Syndrom aber auch als Notfall bemerkbar.
So erging es auch dem Dramatiker Jonathan Larson, der das Stück Rent über die Anfänge von AIDS schrieb. Er starb 1996 plötzlich, einen Tag vor der Premiere von Rent am Broadway, an den Folgen einer Aortendissektion, die später als Folge des Marfan-Syndroms erkannt wurde. Nach Angaben der Marfan Foundation "wies er viele der äußeren Anzeichen auf, war aber nie diagnostiziert worden. Zwei Notaufnahmen von Krankenhäusern in New York City erkannten nicht die Anzeichen einer Aortendissektion und auch nicht, dass Jonathan viele Merkmale des Marfan-Syndroms aufwies, was ihn einem hohen Risiko für eine Aortendissektion aussetzte."
Andere berühmte Persönlichkeiten, die das Marfan-Syndrom hatten, sind Abraham Lincoln, Julius Cäsar, König Tut und der olympische Schwimmer Michael Phelps.
Eine dominante Mutation im Gen FBN1 verursacht das Marfan-Syndrom. Das Gen kodiert das Protein Fibrillin-1, das die elastischen Fasern des Bindegewebes bildet und Blutgefäße, Knochen und Knorpel beeinflusst. In etwa 75 Prozent der Fälle wird die Krankheit von einem Elternteil vererbt, in den anderen Fällen entsteht sie durch eine neue Mutation. Die Untersuchung der Eltern eines Patienten kann Aufschluss darüber geben, ob die Mutation neu ist oder vererbt wurde, was wiederum Auswirkungen auf andere Familienmitglieder hat.
Eine Genomsequenzierung kann das Marfan-Syndrom auch dann aufdecken, wenn ein Neugeborenes nicht die verräterischen langen Gliedmaßen und den eingesunkenen oder vorstehenden Brustkorb aufweist oder wenn sein Arzt die Anzeichen nicht erkennt. So könnte eine genetische Diagnose sofort erklären, warum eine Tante an einem Aortenaneurysma gestorben ist, ein Geschwisterkind mit verrutschten Linsen und einem langen Gesicht, ein Großelternteil, der wegen seiner Plattfüße nicht zum Militär gehen konnte, und ein Cousin, der dank seiner großen Flexibilität ein begnadeter Tänzer ist.
Alström-Syndrom
Die Inzidenz (Häufigkeit in der Bevölkerung) des Marfan-Syndroms liegt bei 1 zu 5.000 (https://medlineplus.gov/genetics/condition/marfan-syndrome/#:~:text=At%20least%2025%20percent%20of,mutation%20in%20the%20FBN1%20gene), was für eine Störung an nur einem Gen recht hoch ist. Im Gegensatz dazu betrifft das Alström-Syndrom zwischen 1:10.000 und weniger als 1:1.000.000 Menschen ((https://rarediseases.org/rare-diseases/alstrom-syndrome/). Bisher sind nur 1200 Fälle bekannt. Die Sequenzierung des Genoms von Neugeborenen kann das aber ändern.
Die Liste der Symptome des Alström-Syndroms ist so lang und die Zusammenstellung der Symptome bei den Patienten so unterschiedlich, dass es verständlich ist, wenn Ärzte die zugrunde liegende genetische Ursache möglicherweise nicht erkennen. Und wie beim Marfan-Syndrom treten einige Alström-Symptome erst im Erwachsenenalter auf.
Das Alström-Syndrom beeinträchtigt das Seh- und Hörvermögen, verursacht Fettleibigkeit im Kindesalter, Insulinresistenz und Diabetes mellitus, dilatative Kardiomyopathie, degenerierende Nieren und kann Leber, Lunge und Blase sowie die Hormonsekretion betreffen. Die Intelligenz bleibt in der Regel erhalten, aber die Kinder können kleinwüchsig sein und Entwicklungsverzögerungen aufweisen.
Die vielfältigen Symptome entstehen durch eine Mutation in einem Gen, ALMS1. Es kodiert für ein Protein, das für aus der Zelle austretende schwanzartige Flimmerhärchen die Basis bildet. Die atypischen Flimmerhärchen verursachen Krankheiten, die als "Ciliopathien" bezeichnet werden, was für "kranke Flimmerhärchen" steht. Da die Flimmerhärchen die Bewegung von Substanzen in und zwischen den Zellen steuern und die Zellteilung kontrollieren, treten bei einer Beeinträchtigung viele Symptome auf.
Im Gegensatz zum dominanten Erbgang des Marfan-Syndroms, bei dem ein betroffener Elternteil die Krankheit weitergibt, ist das Alström-Syndrom rezessiv; zwei Trägereltern sind nicht betroffen, geben aber ihre Mutationen weiter. Wenn also bei der Sequenzierung des Genoms eines Neugeborenen ein Kind mit zwei Kopien einer ALMS1-Mutation identifiziert wird, dann sind die Eltern vermutlich beide Träger. Geschwister haben ein 25-prozentiges Risiko, die Krankheit zu erben.
Fazit
Um die potenziellen Auswirkungen der DNA-Sequenzierung bei Neugeborenen zu beurteilen, braucht es noch einige Zeit. Ich denke jedoch, dass die potenzielle Preisgabe der Privatsphäre bei der Identifizierung von Mutationen, insbesondere von relevanten Mutationen, verspricht die Gesundheit vieler anderer Personen zu verbessern
[1] Alban Ziegler et al., Expanded Newborn Screening Using Genome Sequencing for Early Actionable Conditions. JAMA. 2025;333(3):232-240. doi:10.1001/jama.2024.19662
[2] Robert C. Green et al., Actionability of unanticipated monogenic disease risks in newborn genomic screening: Findings from the BabySeq Project. The American Journal of Human Genetics 110, 1–12, July 6, 2023. DOI: 10.1016/j.ajhg.2023.05.007
* Der Artikel ist erstmals am 14. November2024 in PLOS Blogs - DNA Science Blog unter dem Titel "A Genetic Crystal Ball: When Newborn Genome Sequencing Findings Explain Illnesses in Relatives" https://dnascience.plos.org/2024/11/14/a-genetic-crystal-ball-when-newborn-genome-sequencing-findings-explain-illnesses-in-relatives/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Ernährungsforschung - ein Schwerpunkt im ScienceBlog
Ernährungsforschung - ein Schwerpunkt im ScienceBlogSo. 02.02.2025 — Redaktion
Die Ernährungsforschung ist eine noch eine recht junge wissenschaftliche Disziplin, die erst im 20. Jahrhundert einsetzen konnte, als die Chemie imstande war komplexe organische Materialien zu analysieren und einzelne Strukturen daraus aufzuklären. Im ScienceBlog liegt eine bereits sehr umfangreiche Artikelsammlung vor, die viele unterschiedliche Facetten der Ernährungsforschung zeigt: Diese reichen vom Mangel an Nährstoffen oder deren exzessiven Konsum und damit assoziierten Krankheiten, über die Rolle des Mikrobioms und über Vergiftungen bis hin zu Adaptierungen in Lebensweise und Konsumgewohnheiten als Folge einer sich rasch verändernden Welt. Die Artikelsammlung ist auch unter der Rubrik "Artikel sortiert nach Themenschwerpunkten" gelistet und soll durch neue Berichte entsprechend ergänzt werden.
"Deine Nahrung sei Deine Medizin, Deine Medizin sei Deine Nahrung" Offensichtlich war den Menschen seit alters her bewusst, dass Ernährung und Gesundheit untrennbar miteinander verknüpft sind. Obiges Zitat wird üblicherweise dem griechischen Arzt Hippokrates (460 - 370 BC) zugeschrieben, der als Begründer einer wissenschaftlichen Medizin gilt. Für Hippokrates galt eine gesunde Ernährung als zentrale Voraussetzung für Wohlbefinden und ein gutes Leben - diaita (davon leitet sich unser Grundbegriff Diät) - her. Abbildung 1.
Abbildung 1. Hippokrates auf dem Boden des Asklepieion von Kos sitzend, mit Asklepios, dem in einem Boot ankommenden Gott der Heilkunst in der Mitte. Mosaik aus dem 2-3.Jh n.Chr. (Bild: By Tedmek - Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15847465) |
Das von Hippokrates angestrebte Wohlbefinden findet sich heute, fast 2500 Jahre später, in der Definition der WHO wieder: "Gesundheit ist ein Zustand des vollständigen körperlichen, geistigen und sozialen Wohlbefindens. Das körperliche Wohlbefinden bezieht sich auf das Funktionieren unseres Körpers, das geistige darauf, wie wir unser Leben bewältigen und das soziale auf unsere Beziehungen zu anderen".
Was aber ist Ernährung, was eine gesunde Ernährung?
Die Wissenschaft in diesem Gebiet ist noch sehr jung. Eine Analyse, woraus sich Nahrung zusammensetzt, wurde erst mit den Anfängen der Chemie möglich, d.i. ab dem späten 18. Jahrhundert. Im Habsburgerreich gelang 1810 dem jungen Joseph Wilhelm Knoblauch eine - leider weitgehend vergessene - Pionierleistung mit seinem damals preisgekrönten, monumentalen 3-bändigen Werk “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ (siehe Artikelliste).
In der Mitte des 19. Jahrhunderts hat der Mediziner und Chemiker Vinzenz Kletzinsky erstmals den Begriff "Biochemie" als Lehre vom Stoff des Lebens geprägt und damit die Bescheibung des Kreislaufs des organischen Lebens angestrebt (siehe Artikelliste).
Bis zum Beginn des 20. Jahrhunderts
bezogen sich die Analysen von Nahrungsmitteln bloß auf deren Gehalt an Makronährstoffen, d.i. an den Stoffklassen der Proteine, Fette und Kohlenhydrate, die dem Körper Energie liefern - ohne deren Komponenten noch zu kennen. Zu den Makronährstoffen zählen auch Wasser, das keine Energie liefert und Ballaststoffe, die nicht - wie bis vor Kurzem angenommen - unverdaut ausgeschieden werden, sondern über das Mikrobiom im Darmtrakt zu energieliefernden Produkten abgebaut werden können.
In einem 1918 erschienenen Handbuch "Diet and Health" hat die US-amerikanische Ärztin Lulu Hunt Peters erstmals eine neue Methode zur Bewertung von Lebensmitteln vorgestellt - nämlich deren Nährstoffgehalt in ihrem Brennwert, d.i. in Kalorien auszudrücken. Daraus leitete sich die Möglichkeit ab durch Limitierung der aufgenommenen Kalorien "Kalorienzählen" eine Reduktion des Körpergewichts zu erzielen. Das Buch wurde ein Bestseller und hat ein Jahrhundert von Diätmoden eingeleitet, die uns bis heute hungern lassen, um unsere Körper kräftig und gesund zu erhalten.
In der ersten Hälfte des 20. Jahrhunderts gelang es essentielle Mikronährstoffe - Vitamine, Prohormone (Vitamin D, A) und Vitalstoffe - in Nahrungsmitteln zu isolieren, zu charakterisieren und schwere Mangelzustände mit spezifischen Krankheitsbildern (z.B. Skorbut, Pellagra, Anämie und Rachitis) zu assoziieren. Diese Erkenntnisse führten zur industriellen Vermarktung von Mikronährstoffen - als Supplemente und angereichert in Grundnahrungsmitteln - und eröffneten damit neue Möglichkeiten zur Behandlung von Mangelzuständen.
Die Rolle von Mangelernährung konzentrierte sich auch auf den Proteinmangel, vor allem bei Kindern in Entwicklungsländern (Folge: Marasmus und Kwashiorkor) aber auch u.a. bei geriatrischen Patienten in der westlichen Welt. Die Industrie antwortete mit der Entwicklung von eiweißangereicherten Formeln und Beikost für Entwicklungsländer.
Auch weiterhin blieb die Lebensmittelforschung in den Händen der Chemie; in Deutschland und auch in Österreich wurden erst in der zweiten Hälfte des 20 Jh. die entsprechenden Lehrstühle nicht mehr ausschließlich mit Chemikern besetzt; das Fach ist heute multidisziplinär.
Die aus einer Arbeit von Dariush Mozaffarian entnommene Abbildung 2 fasst die historische Entwicklung der Ernährungsforschung seit rund 100 Jahren zusammen.
In der zweiten Hälfte des 20. Jahrhunderts
verlagerte sich das Interesse der Ernährungsforschung auf die Rolle von Nährstoffen bei chronischen Krankheiten, vor allem bei Herz-Kreislauf-Erkrankungen, Adipositas, Diabetes und Krebserkrankungen. Man blieb bei dem für Vitaminmangel erprobten Modell die physiologische Wirkung eines einzelnen Nährstoffes zu verfolgen und daraus seine optimale Dosis zur Prävention von Krankheiten bestimmen zu wollen. Es zeigte sich, dass diese Strategie aber nur schlecht auf chronische Erkrankungen übertragbar ist, Adipositas, Diabetes und einige Krebserkrankungen stiegen an.
Abbildung 2. Wesentliche Ereignisse der modernen Ernährungswissenschaft mit Auswirkungen auf die aktuelle Wissenschaft und Politik (Bild modifiziert aus: Dariush Mozaffarian et al., BMJ 2018;361:k2392 | doi: 10.1136/bmj.k2392. Lizenz cc-by) |
Zum Unterschied zu den erfolgreichen früheren Vitaminstudien erweisen sich derartige Untersuchungen als hochkomplex und sehr teuer; deren Qualität ist häufig niedrig und das Ergebnis enttäuschend. Bei einer jahrelangen Studie zu einer bestimmten Diätform ist ja eine riesige Anzahl von Probanden nötig, um einen signifikanten Unterschied im Ergebnis nachzuweisen. Dabei ist es kaum möglich zu kontrollieren, wie weit sich die Probanden an die vorgeschriebene Diät gehalten haben und echte Placebo-Gruppen fehlen zumeist (man kann ja Probanden über Jahre nicht schweren Mangelbedingungen aussetzen).
Als Beispiel sei die 5-Jahre dauernde US-amerikanische Studie VITAL an 26 000 Probanden zur erhofften positiven Wirkung von Vitamin D-Supplementierung auf Herz-Kreislauf- und Krebserkrankungen angeführt (siehe Artikelliste). Es konnte hier kein signifikanter Unterschied zwischen Vitamin D-supplementierter Gruppe und Placebogruppe festgestellt werden, allerding lagen die Blutspiegel der Placebogruppe (die Teilnehmer durften täglich 800 IU einnehmen) bereits im Bereich erstrebenswerter normaler Vitamin D-Konzentrationen (25(OH)2D3 im Mittel 30,8 ng/ml), sodass eine weitere Steigerung in der supplementierten Gruppe (25(OH)2D3 im Mittel rund 42 ng/ml) nicht unbedingt zu zusätzlicher Wirkung führen brauchte.
Ernährung in der Zukunft
Der Klimawandel nimmt an Fahrt zu und bedroht den Bestand einiger unserer Grundlebensmittel. Unsere Konsumgewohnheiten tragen noch dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten. Wir sind zudem abhängig von einer globalisierten Versorgung mit einer "Handvoll" von Nahrungsmitteln geworden. Diese Handvoll, die zu 90 % zur Ernährung der Menschheit beiträgt, kann durch politische Unruhen, Kriege, Pandemien und andere Katastrophen bedroht werden. Nahrungsmittel müssen sich an die Gegebenheiten adaptieren, Pflanzenzucht, Landwirtschaft, Viehhaltung und Lebensmittelproduktion werden sich dementsprechend verändern und auf Verhaltensweisen und Konsumgewohnheiten einwirken, um Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, diese zu ändern.
Artikelsammlung im ScienceBlog (wird laufend ergänzt)
- Vinzenz Kletzinsky, 12.8.2021: Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren.
- Robert W. Rosner, 3.6.2021: Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift.
- Redaktion, 10.5.2018: Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren.
- IIASA, 24.6.2021: Was uns Facebook über Ernährungsgewohnheiten erzählen kann.
- Ilona Grunwald-Kadow, 11.5.2017: Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern.
- Gottfried Schatz, 18.4.2014: Meine Welt — Warum sich über Geschmack nicht streiten lässt.
Mikronährstoffe
- Redaktion, 22.09.2024: Zur unzureichenden Zufuhr von Mikronährstoffen
- Gottfried Schatz, 3.1.2013: Wie «unsichtbarer Hunger» die Menschheit bedroht.
- Gottfried Schatz, 21.6.2012: Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzählt
- Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?
- Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht.
- Inge Schuster, 05.02.2022:100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert.
- Inge Schuster, 18.09.2020: Spermidin - ein Jungbrunnen, eine Panazee?
- Inge Schuster, 24.09.2023: Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann
Übergewicht
- Nora Schultz, 02.08.2018:Übergewicht – Auswirkungen auf das Gehirn
- Jens C. Brüning & Martin E. Heß, 17.04.2015: Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?
- Jochen Müller, 19.11.2020: Warum essen wir mehr als wir brauchen?
- Francis S. Collins, 30.5.2019: Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme.
- Francis S.Collins, 25.1.2018:Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas.
Diabetes
- Inge Schuster, 15.2.2018:Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken.
- Rick Lewis, 30.3.2017: Eine neue Sicht auf Typ-1-Diabetes?
- Hartmut Glossmann, 10.04.2015:Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?
Mikrobiom
- Inge Schuster, 18.05.2023: Mit CapScan® beginnt eine neue Ära der Darmforschung
- Inge Schuster, 15.01.2023: Probiotika - Übertriebene Erwartungen?
- Inge Schuster, 3.1.2019: Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen.
- Dario R. Valenzano, 28.6.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts.
Vergiftungen
- Inge Schuster, 04.08.2024: Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?
- Günter Engel, 1.12.2016: Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart.
- Inge Schuster, 07.09.2017 Fipronil in Eiern: unverhältnismäßige Panikmache?
- Redaktion, 22.02.2018: Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren.
- Martin Kaltenpoth, 15.07.2021: Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen.
- Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?
Ernährung in einer sich verändernden Welt
- Redaktion, 27.01.2022: Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln.
- Bill and Melinda Gates Foundation, 20.5.2016: Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und Armut.
- IIASA, 12.1.2017: Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt.
- IIASA, 18.6.2018: Ökonomie des Klimawandels.
- Redaktion, 11.11.2024:Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?
- Redaktion, 16.02.2024: Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt.
- Ricki Lewis, 28.06.2024: Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der Muttermilch
- Ricki Lewis, 15.03.2024: Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?
- Redaktion, 17.08.2023: Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden.
- I. Schuster, 1.05.2022: Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen.
- I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?
Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführte
Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführteFr, 24.01.2025 — Redaktion
Das in den 1990er Jahren von der EU finanzierte Projekt Phidias hat die medizinische Welt auf den Kopf gestellt, indem es den 3D-Druck in das Gesundheitswesen einführte. Dies hat zu wesentlich besseren Ergebnissen bei komplizierten Operationen geführt und das Leben von Tausenden von Patienten verbessert.*
Der 3D-Druck ist in der Medizin inzwischen weit verbreitet. Präzise Modelle von menschliche Knochen und Organen sind eine große Hilfe bei komplexen Operationen. (© Scharfsinn, Shutterstock.com) |
1990 besuchte Fried Vancraen eine deutsche Fachmesse und war von einem dort ausgestellten 3D-Drucker so fasziniert, dass er einen solchen für sein neues Unternehmen Materialise kaufte. Gefördert von der EU trat er zwei Jahre später mit seinem kleinen belgischen Start-up eine Reise an, die die Welt der Medizin - und des 3D-Drucks - für immer verändern sollte.
Zusammen mit Partnern aus Deutschland und dem Vereinigten Königreich haben Vancraen und Materialise Pionierarbeit bei der Nutzung des 3D-Drucks für medizinische Zwecke erbracht. Auf der Grundlage medizinischer Bilder haben sie zum ersten Mal begonnen genaue Modelle menschlicher Knochen und Organe - Modelle zum Angreifen - herzustellen. Dies war eine große Hilfe für Chirurgen bei der Planung komplexer Eingriffe.
"Schon damals waren wir davon überzeugt, dass 3D-Drucker die medizinische Welt verändern würden", so Vancraen.
Nachdem sich Materialise von einem universitären Spin-off zu einem multinationalen Unternehmen entwickelt hatte, zog sich Vancraen 2024 aus der Führungsposition zurück und wurde Vorsitzender des Unternehmens. Aber er erinnert sich noch lebhaft an die Begeisterung, als sie zur Testung ihrer Ideen vor mehr als 30 Jahren Neuland betraten.
Den Anfang machte eine EU-Förderung für ihr Forschungsprojekt namens PHIDIAS. Es lief drei Jahre lang, bis Ende 1995, und sein Fokus lag auf der Erstellung genauer medizinischer Modelle auf der Grundlage verbesserter medizinischer Bilder, wobei es sich hauptsächlich um Computertomographie (CT) handelte.
"Natürlich erinnere ich mich daran", sagte Vancraen, als er danach gefragt wurde. "Ich war der Projektleiter, ich habe den [Finanzierungs-]Antrag geschrieben und die Partner zusammengebracht".
Dazu gehörten Imperial Chemical Industries aus dem Vereinigten Königreich, dessen Pharmasparte 1993 in ein eigenständiges Unternehmen, Zeneca, umgewandelt wurde, sowie Siemens, der deutsche Industrieriese, der medizinische Bildgebungsgeräte herstellt, und die Universität KU Leuven in Belgien.
Materialise, das aus der KU Leuven hervorging, beschäftigt heute rund 2 000 Mitarbeiter und ist an der Nasdaq-Börse in New York notiert.
Inzwischen ist der 3D-Druck zu einem Eckpfeiler der chirurgischen Gesundheitsversorgung geworden. 3D-Drucker werden regelmäßig zur Herstellung von Implantaten, Prothesen und Körpermodellen von Patienten verwendet, an denen Chirurgen üben können.
Als Materialise gegründet wurde, steckte die Technologie jedoch noch in den Kinderschuhen. Es gab Zweifel, wie nützlich sie sein könnte und ob Ärzte sie für die Behandlung echter Patienten einsetzen könnten.
Am 1. Januar 1993, weniger als drei Jahre nach der Gründung des Unternehmens, wurde die Arbeit ernsthaft aufgenommen.
"Das waren unsere Anfangstage", sagt Vancrean. "Damals hatten wir ein Team von etwa 20 Leuten".
Von der Salamiwurst zum Spiralscan
Für Vancraens Team ging es zunächst darum, die medizinische Bildgebung zu verbessern.
"Damals war die Aufnahme eines CT-Scans wie das Aufschneiden einer Salami", erinnert sich Vancraen. "Um den Scan zu erstellen, machte der Scanner ein Bild von einer Schicht des Körpers des Patienten und wurde dann ein paar Zentimeter nach vorne bewegt, um einen weiteren Scan zu erstellen - so als würde man eine Wurst aufschneiden."
"Jedes Mal, wenn sich der Patient auch nur geringfügig bewegte, kam es zu Problemen im Bild", sagt Vancraen und bezieht sich dabei auf die so genannten Artefakte, unbeabsichtigte Muster oder Verzerrungen in der Abbildung.
Der 3D-Druck erfordert genaue Bilder des Körpers des Patienten. Wenn man zum Beispiel ein Implantat in 3D drucken will, das nahtlos passt, braucht man ein genaues Bild des Körpers des Patienten. Artefakte im Scan bedeuten für den Patienten später medizinische Probleme und Beschwerden.
Aus diesem Grund hat das Team von Materialise die "Salami-Methode" durch einen Spiral-CT-Scan ersetzt. "Wir haben es geschafft, den Patienten in einer einzigen Bewegung zu scannen", sagt Vancraen. "Das CT bewegt sich spiralförmig um den Patienten herum."
Eine weitere Hürde wurde genommen, als Zeneca, das später mit dem schwedischen Arzneimittelhersteller Astra zu AstraZeneca fusionierte, ein menschenverträgliches Polymer entwickelte, das in 3D gedruckt werden konnte. Dieses ersetzte ältere Polymere, die für Menschen oft giftig waren und nicht für Implantate verwendet werden konnten.
Gehen vor Laufen
In dem Bestreben, seine bahnbrechende Technik zu erweitern, brachte Materialise die Technologie in das Universitätskrankenhaus von Leuven, seiner Heimatstadt. Dort testete man in enger Zusammenarbeit mit 30 Chirurgen aus Belgien, Frankreich, Deutschland und den USA, ob Chirurgen tatsächlich vom 3D-Druck profitieren können.
"Wir haben die erste echte klinische Studie zum 3D-Druck im Gesundheitswesen durchgeführt", so Vancraen. Insbesondere half sie den Chirurgen, sich auf komplexe Operationen vorzubereiten.
Das Team verwendete die Laser-Stereolithografie, eine Technik, mit der komplexe, genaue Modelle Schicht für Schicht gedruckt werden. Dabei wird ein ultravioletter Laser mit Hilfe einer computergestützten Design-Software auf ein Harz aus großen Molekülen fokussiert, die für UV-Licht empfindlich sind.
Mit ihren neuen Scannern, die eine bessere medizinische Bildgebung ermöglichen, erstellten die Forscher 3D-gedruckte Modelle von Organen und Körperteilen, an denen die Chirurgen operieren würden. Auf diese Weise konnten sich die Chirurgen darauf vorbereiten, was sie im Körper des Patienten vorfinden würden, und ihr Vorgehen anpassen.
"In mehreren Fällen ist es uns gelungen, die Anzahl der Operationen, denen sich ein Patient unterziehen musste, zu reduzieren", so Vancraen. "Bei einer Person waren drei Operationen geplant. Dank unserer Technologie konnte der Chirurg sie besser planen und den Eingriff tatsächlich in einer einzigen Operation durchführen. Das hat die Belastungen für den Körper des Patienten enorm reduziert."
Durch die Kombination von verbessertem Scannen und Drucken war PHIDIAS das Team, das den Grundstein für zukünftige Fortschritte im medizinischen 3D-Druck legte.
"Wir mussten erst gehen lernen, bevor wir laufen lernen konnten", sagt Vancraen. "PHIDIAS war der Moment, in dem wir gelernt haben, wie man läuft."
Sprungbrett
Einer von den Forschern, die heute bei Materialise tätig sind, ist Roel Wirix-Speetjens, Manager für die medizinische Forschung. Aufbauend auf der Arbeit der PHIDIAS-Forscher entwickelt er neue Lösungen.
"PHIDIAS hat unsere medizinische Abteilung geschaffen", sagt er. "Seitdem haben wir zum Beispiel mehr als 400 000 maßgeschneiderte Knieinstrumente geliefert. Darauf bin ich sehr stolz", sagt er und bezieht sich dabei auf Hilfsmittel, die Chirurgen helfen, genauer zu arbeiten.
In einem Projekt gelang es Materialise, ein detailliertes 3D-Modell der Lunge eines Patienten zu erstellen, einschließlich der Atemwege und der Lungenflügel, also der Abschnitte jeder Lunge. Dieses Modell hilft Chirurgen, die Lungenkrebs entfernen müssen, indem es ihnen erlaubt, die genaue Lage des Tumors zu bestimmen.
"Auf diese Weise wird weniger gesundes Lungengewebe entfernt", sagt Wirix-Speetjens. "Das macht die Genesung des Patienten viel weniger mühsam."
Aber sie entwickeln auch neue 3D-Drucktechnologien. Unter anderem hat Materialise Wege zur Verbesserung der Gesichtschirurgie entwickelt.
Wenn ein Patient beispielsweise eine Verletzung erlitt, die sein Gesicht deformierte, mussten Chirurgen in der Vergangenheit Standardimplantate verwenden, um den beschädigten Knochen und das Gewebe zu ersetzen. Sie mussten die Implantate während der Operation manuell biegen, damit sie sich in die verbleibende Gesichtsstruktur einfügten.
"Heute drucken wir 3D-Implantate, die auf den Patienten zugeschnitten sind", sagt Wirix-Speetjens. "Wir scannen ihre Gesichter und unsere 3D-Drucker stellen komplizierte Implantate her, mit denen die Chirurgen die Gesichtsstruktur rekonstruieren können."
Die Behandlung kann nun auf die Bedürfnisse des Einzelnen abgestimmt werden. PHIDIAS war ein wichtiger Schritt, um dies zu ermöglichen, und es gibt noch viele weitere spannende Möglichkeiten.
"Wir machen das erst seit 34 Jahren", sagt Vancraen. "Ich weiß nicht, wo wir landen werden."
*Dieser Artikel wurde ursprünglich am 21. Jänner 2025 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine" https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/trade-fair-advanced-surgery-research-project-pioneered-3d-printing-medicine?pk_source=youtube&pk_medium=social_organic&pk_campaign=health-industry" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt.
From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine. Video: 0,39 min. https://www.youtube.com/watch?v=v283Tjog2Ls
Materialise homepage:https://www.materialise.com/de/
Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und Klima
Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und KlimaSa, 18.01.2025 — Redaktion
Aerosolpartikel in der Atmosphäre kühlen das Klima ab, indem sie das Sonnenlicht direkt reflektieren und als Nukleationskeime für Wasser fungieren, d.i. für die Bildung von Wolken, die auf die Strahlungsbilanz der Erde stark einwirken. Seit der vorindustriellen Zeit haben Veränderungen der atmosphärischen Partikel so einen Teil der Erwärmung maskiert, die durch den Anstieg des Kohlendioxidgehalts verursacht wurde. Der Großteil der Aerosolpartikel entsteht durch die spontane Kondensation von Spurendämpfen, die sogenannte Nukleation. Das biogene, vor allem von tropischen Regenwäldern emittierte Isopren - der häufigste in die Atmosphäre emittierte Nicht-Methan-Kohlenwasserstoff - wurde bislang für seine Fähigkeit zur Aerosolbildung als vernachlässigbar angesehen. Ein multinationales Team hat nun im Rahmen des CERN-Experiments CLOUD festgestellt, dass Isopren die schnelle Keimbildung und das Wachstum von Partikeln in der oberen Troposphäre sehr effizient fördern kann. Es sind dies wichtige Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind.
Atmosphärische Aerosole - d.i. heterogene Mischungen aus festen oder flüssigen Schwebeteilchen in einem Gas - spielen eine zentrale Rolle auf das Klima, indem sie Sonnenenergie zurückstreuen und als Kondensationskeime für Wasser, d.i. als Wolkenkondensationskeime fungieren. Aerosolpartikel sind mikroskopisch kleine Partikel, die direkt in die Atmosphäre emittiert werden oder durch chemische Reaktionen mit Vorläufersubstanzen entstehen, wie beispielsweise schwefelhaltigen Gasen, die aus vulkanischer Aktivität und Verbrennung stammen.
Die Vorgänge spielen sich in der sogenannten Troposphäre ab. Diese die Erde bis zu einer Höhe von 15 km umhüllende Schicht enthält bis zu 90 Prozent der gesamten Luftmasse und fast den gesamten Wasserdampf der Erdatmosphäre, in dieser Schichte entstehen also Wolken und findet der Wasserkreislauf statt. Die für die Bildung der Partikel verantwortlichen Dämpfe sind noch nicht gut erforscht, insbesondere in der oberen Troposphäre. Weltweit ist der wichtigste Dampf vermutlich die Schwefelsäure, die sich in der Atmosphäre durch Oxidation von Schwefeldioxid bildet, wie es bei der Verbrennung von Brennstoffen freigesetzt wird.
Die Emissionen aus fossilen Brennstoffen haben seit der vorindustriellen Zeit zur Zunahme von Aerosolen und Wolken geführt. Dementsprechend haben diese zu einem Nettoabkühlungseffekt geführt, der etwa die Hälfte der durch den Anstieg des Kohlendioxids verursachten Erwärmung maskieren dürfte. Dies ist aber eine mit großen Unsicherheiten behaftete Schätzung. Sie erschwert die Vorhersage des Klimas in späteren Jahrzehnten, wenn anthropogene Emissionen zurückgegangen sein sollten. Wenn der Schwefeldioxidgehalt durch Emissionskontrollen gesenkt wird, werden aus biogenen Quellen entstandene Aerosolpartikel an Bedeutung gewinnen, die allerdings derzeit in Klimamodellen kaum eingehen.
Isopren als Nukleationskeim
Flugzeugsmessungen seit mehr als 20 Jahren zeigen hohe Konzentrationen frisch gebildeter Aerosol-Partikel in der oberen Troposphäre über dem Amazonas sowie über dem tropischen Atlantik und Pazifik. Jüngste Untersuchungen führen diese Partikel auf das Molekül Isopren zurück, das von Pflanzen, insbesondere tropischen Bäumen emittiert und durch Konvektion in die obere Troposphäre transportiert wird. Nach Methan ist Isopren der am häufigsten emittierte flüchtige Kohlenwasserstoff in der Atmosphäre. Die jährliche Emissionsrate liegt bei 600 Millionen Tonnen (davon allein etwa 163 Mt aus dem tropischen Südamerika) und macht damit mehr als die Hälfte aller biogenen Emissionen flüchtiger organischer Verbindungen aus.
Isopren ist eine wesentliche Komponente unserer gesamten Biosphäre (Formel C5H8: Abbildung 1 oben). Das kleine, hochreaktive flüchtige Molekül wird von Pflanzen - vor allem Laubbäumen wie, Eichen, Pappeln und Eukalyptus - aber auch von Algen in großen Mengen produziert und emittiert. In Pflanzen, Mikroorganismen wie auch in höheren Organismen bilden Isopreneinheiten das Grundgerüst von sogenannten Terpenen und Terpenoiden (oxygenierten Terpenen). Wichtige Terpenoide sind u.a. Vitamin A, Vitamin E, Coenzym Q10, Dolichole, und Squalen, von dem sich Cholesterin, Vitamin D und die Steroide herleiten. Der Cholesterinstoffwechsel führt beim Menschen u.a. zur Ausatmung von Isopren, das mit ca. 17 mg/Tag der am häufigsten vorkommende Kohlenwasserstoff in der Atemluft ist. Es darf nicht unerwähnt bleiben, dass sich zahlreiche Arzneistoffe von Terpenen/Terpenoiden ableiten.
Zurück zur Emission von Isopren durch Pflanzen.
Abbildung 1. Reaktionsschema das aus emittiertem Isopren zu einer Reihe von neuen Partikeln führt, die Nukleationskeime für Aerosole bilden. (Bild: Ausschnitt aus Fig.3 in Curtius et al., 2024; [1]. Lizenz: cc-by) |
Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das Isopren, das sich über Nacht angesammelt hat, zusammen mit dem tagsüber konvektiven Isopren mit reaktivem Sauerstoff (Hydroxylradikalen) und Stickoxyden (NOx) aus Blitzen, um sauerstoffhaltige organische Isoprenmoleküle (IP-OOM) zu erzeugen. Abbildung 1. Die IP-OOM verbinden sich mit Spuren von Säuren und erzeugen bei Temperaturen unter -30 °C hohe Konzentrationen neuer Partikel.
Die neu gebildeten Partikel wachsen über mehrere Stunden und Tage rasch an, während sie den absteigenden Luftmassen folgen. So kann eine umfangreiche Quelle von Wolkenkondensations-kernen für flache kontinentale und marine Wolken entstehen, die die Strahlungsbilanz der Erde beeinflussen. Wie und welche Partikel entstehen werden im multinationalen CLOUD ("Cosmics Leaving Outdoor Droplets") -Experiment am CERN untersucht.
Das CLOUD-Experiment
untersucht im Labor, wie sich Aerosolpartikel unter atmosphärischen Bedingungen aus reaktiven Gasen bilden und wachsen. Ein internationales Team, bestehend aus 21 Institutionen (u.a. unter Beteiligung der Universitäten Wien und Innsbruck), untersucht in der CLOUD-Kammer mit einer Vielzahl an unterschiedlichen Messgeräten den physikalischen und chemischen Zustand der Teilchen und Gase. Keimbildung und Wachstum von Partikeln werden aus genau kontrollierten Dampfmischungen bei extrem niedrigen Konzentrationen, wie sie in der Atmosphäre vorkommen, ermittelt und auch wie diese (mit einem Teilchenstrahl aus dem CERN Protonen-Synchrotron) durch Ionen aus der galaktischen kosmischen Strahlung beeinflusst werden können.
Abbildung 2. Bildung neuer Partikel aus Isopren in der oberen Troposphäre - schematische Darstellung. Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das über Nacht angesammelte Isopren zusammen mit dem tagsüber konvektiven Isopren mit Hydroxylradikalen und NOx aus Blitzen, um sauerstoffhaltige Issoprenmoleküle zu bilden. Diese verbinden sich mit Spuren von Säuren aus der Umgebung und erzeugen bei kalten Temperaturen unter -30 °C hohe Partikelkonzentrationen. Die neu gebildeten Partikel wachsen schnell über mehrere Stunden bis Tage, während sie den absteigenden Luftmassen folgen. Dieser Mechanismus kann eine umfangreiche Quelle von Kondensationskeimen für flache kontinentale und marine Wolken darstellen, die die Strahlungsbilanz der Erde stark beeinflussen. (Bild: Fig. 5 aus Shen et al., 2024; [2]. Lizenz cc-by). |
Im CLOUD-Experiment konnte nun erstmals gezeigt werden, dass die von Isopren abstammenden oxidierten organischen Moleküle unter den kalten Bedingungen der oberen Troposphäre – im Bereich von -50 °C – sehr effizient neue Teilchen bilden (typische Teilchen in Abbildung 1). In Gegenwart von geringsten Mengen an Schwefelsäure haben die Nukleationsraten auf das Hundertfache zugenommen und erklären so die hohen beobachteten Teilchenanzahlen in der oberen Troposphäre. Ein eben im Fachjournal Nature erschienener Artikel beschreibt wie die Oxidationsprodukte von Isopren zum schnellen Partikelwachstum beitragen und somit Wolkeneigenschaften und damit das Klima beeinflussen [1].Abbildung 2. In einem parallel erschienenen Artikel in Nature werden die (neu-)identifizierten Mechanismen durch direkte atmosphärische Flugzeugmessungen bestätigt [2].
Das CERN-Experiment CLOUD ergänzt damit Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind; sie helfen zu verstehen, wie sich die Dinge ändern werden, wenn die Schwefelsäure-Emissionen sinken.
[1] Curtius, J. et al. Isoprene nitrates drive new particle formation in Amazon’s upper troposphere. Nature (2024). DOI:https://doi.org/10.1038/s41586’024 -08192-4
[2] Shen, J., et al. New particle formation from isoprene under upper tropospheric conditions. Nature (2024). DOI: https://doi.org/10.1038/s41586’024 -08196-0
Auf dem Weg zu leistungsfähigen Quantencomputern
Auf dem Weg zu leistungsfähigen QuantencomputernDo, 09.01.2025 — Roland Wengenmayr
Sie sollen manche Rechnungen etwa beim Design von Windrädern und Flugzeugturbinen, in der Materialentwicklung oder der Klimaforschung einmal viel schneller ausführen als heutige Computer. Daher setzen unter anderem Microsoft, Google und IBM auf Quantencomputer. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über das Garchinger Start-up planqc, eine Ausgründung des Max-Planck-Instituts für Quantenoptik, das 2022 mit einem eigenen technischen Konzept in das Rennen eingestiegen ist. 2027 sollen die ersten Quantenrechner des Unternehmens betriebsbereit sein.*
Leuchtendes Beispiel: Bei der Entwicklung von Quantencomputern nutzt das planqc-Team Laserlicht, um Atome einzufangen und zu manipulieren. |
„Sehen Sie die Glaszelle?“, fragt Johannes Zeiher im Labor. Durch ein Labyrinth aus optischen Bauteilen. Durch ein Labyrinth aus optischen Bauteilen, Geräten und Leitungen hindurch kann man eine kleine Quarzglaszelle erspähen. Wäre das Experiment in Betrieb, dann könnte man darin eine Wolke von im Vakuum schwebenden Metallatomen leuchten sehen. Die könnte künftig den Rechenkern eines Quantencomputers bilden und dabei recht ästhetisch anmuten. Derzeit sind verschiedene Techniken im Rennen, mit denen praktisch einsetzbare Quantencomputer manche Probleme künftig viel schneller knacken sollen als heutige Rechner. Auf die Wölkchen gasförmiger Atome setzt das Start-up planqc – der Name ist ein Kunstwort aus „Planck“ und „Quantencomputer“. Johannes Zeiher ist Wissenschaftler am Max-Planck-Institut für Quantenoptik in Garching und einer der Gründer von planqc, einer Ausgründung des Instituts.
Das Start-up richtet sich gerade in einem ehemaligen Baumarkt in Garching ein. Die Wahl sei auf diesen Ort wegen des besonders soliden Tiefgeschosses gefallen, erklärt Sebastian Blatt, Chefentwickler und ebenfalls Gründer von planqc sowie Gruppenleiter am Max-Planck-Institut für Quantenoptik: „So solide Keller baut man heute nicht mehr. Dieser bleibt auch im Sommer kühl, was bei den Stromkosten der Klimaanlage spart.“ Darin wird gerade renoviert und umgebaut. Gleichzeitig entsteht in einem Reinzelt ein Labor, vielmehr die Entwicklungs- und Produktionsstätte künftiger Quantencomputer. Dort befindet sich bereits ein optischer Tisch, der die Ausmaße einer Tischtennisplatte hat und auf dem optische Apparaturen für den planqc-Rechner entwickelt und getestet werden. Darum herum sind sogenannte Racks angeordnet, technische Regale, wie man sie von Computerservern kennt. In ihnen stecken Laser sowie Test- und Messgeräte.
Vorzeigeapparatur: Bei der Eröffnung des Firmensitzes 2024 präsentierte planqc das Design einer Glaszelle. Diese soll den Kern eines Quantenrechners bilden, in dem künftig viele Atome kontrolliert werden |
Planqc entwickelt aber nicht nur eine als vielversprechend geltende Technik für einen frei programmierbaren Quantencomputer, sondern auch Rechenvorschriften – Quantenalgorithmen –, die dieser verarbeiten soll. Man kann sich einen Quantenalgorithmus als Analogon zur Software für herkömmliche klassische Computer vorstellen. Da Quantencomputer anders funktionieren als gängige Rechner, können sie möglicherweise einige spezielle Aufgaben schneller lösen. Sie werden klassische Rechner also nicht ersetzen, können sie aber bei manchen Aufgaben ergänzen. Derzeit gibt es allerdings nur wenige Rechenvorschriften für Quantencomputer. Wie vielseitig diese sich einsetzen lassen werden, hängt also auch davon ab, welche Quantenalgorithmen Forschende noch ausklügeln. Deshalb sei das Algorithmen-Team bei planqc wichtig, sagt Sebastian Blatt.
Auf der Suche nach Algorithmen
Die Entwicklung der Algorithmen leitet Martin Kiffner, der von der Universität Oxford zur Firma stieß. „Er ist ein Experte für Quantenalgorithmen, zum Beispiel speziell für die Fluiddynamik“, erklärt Blatt. „Fluiddynamikrechnungen kommen praktisch überall vor. Das ist eines unserer wichtigeren Standbeine in der Algorithmenentwicklung.“ Mit der Fluiddynamik lassen sich etwa die höchst komplexen Luft- oder Wasserströmungen um Turbinenschaufeln berechnen, was auf Computern enorme Rechenleistungen erfordert, aber für die Entwicklung effizienter Generatoren und Triebwerke nötig ist. Hier könnten Quantencomputer künftig Vorteile bringen. Auch die Entwicklung von Materialien werden sie möglicher weise beschleunigen, vor allem wenn es um Materialien geht, auf deren Quanteneigenschaften es ankommt – zum Beispiel solche für extrem empfindliche Sensoren oder neuartige Halbleiterelektronik. Denn gerade Quantencomputer dürften Quanteneigenschaften besonders effizient simulieren. Darüber hinaus könnten sie komplizierte chemische Verbindungen, etwa neue medizinische Wirkstoffe, berechnen. Manche Fachleute setzen auch darauf, dass die Rechner Logistikrouten optimieren werden oder Muster im atmosphärischen Geschehen besser erkennen und so die Wetter- und Klimavorhersagen verfeinern. Diese Anwendungen existieren bislang allerdings lediglich als Konzepte, von denen aktuell noch nicht klar ist, ob sie sich verwirklichen lassen.
Deshalb diskutiert das planqc-Team auch mit Industrievertretern, bei welchen Aufgaben Quantencomputer ihren Geschwindigkeitsvorteil ausspielen könnten. „Solche Kontakte helfen uns, zu verstehen, welche Anwendungen von Quantencomputern für die Wirtschaft interessant sind“, sagt Blatt. Erfahrung beim Brückenschlag zwischen Quantenphysik und Wirtschaft bringt Alexander Glätzle mit, der Dritte im Gründungstrio und Geschäftsführer von planqc. Er kommt aus der theoretischen Quantenphysik, hat unter anderem an der Universität von Oxford geforscht und wechselte 2018 in die Wirtschaft, wo er als Berater in der Kommerzialisierung von Quantentechnologien arbeitete. Dass einerseits so große Hoffnungen in Quantencomputer gesetzt werden, ihre Einsatzmöglichkeiten andererseits aber erst noch erforscht werden müssen, liegt daran, wie sie zu ihrer Rechenkraft kommen [Wengenmayr, 2022]. Die Technik des planqc-Rechners beruht darauf, dass sich vor allem Alkalimetallatome wie etwa Rubidium und Lithium sowie Erdalkalimetalle wie Strontium in einer geschickten Kombination aus Laserlicht und Magnetfeldern einfangen lassen.
Wenn Sebastian Blatt das Konzept vorstellt, stößt er gelegentlich auf Skepsis: „Das ist ja kein richtiger Computer, denn da gibt es ja gar keinen Chip“, bekomme er manchmal zu hören. Viele Gesprächspartner haben eine von der aktuellen Technik geprägte Vorstellung von Computerprozessoren. Dazu passen zwei Ansätze besser, die mit der planqc-Technik konkurrieren, weil es bei diesen echte Computerchips gibt. Einer dieser Ansätze nutzt als Qubits supraleitende Stromkreise, in denen also Strom bei sehr tiefen Temperaturen ohne Widerstand fließt. Daran forschen zum Beispiel IBM, Google oder das finnische Start-up IQM, das eine Niederlassung in München hat. In einem weiteren Konzept führen Ionen, sprich: elektrisch geladene Atome, die auf einem Chip in einem geschickt geformten elektrischen Feld, einer sogenannten Paul-Falle, gefangen werden, quantenlogische Operationen aus. Wie bei den elektrisch neutralen Atomen, mit denen planqc arbeitet, werden die ionischen Qubits mit Laserstrahlen angesteuert und manipuliert.
Robuste Geräte nach Industrienormen
Von dem Ansatz, den planqc verfolgt, erhofft sich das Unternehmen, dass sich in den Lichtgittern vergleichsweise leicht eine größere Zahl von Atomen, sprich Qubits, zu einem Quantenprozessor vereinen lassen. Zur Entwicklung dieses Gebiets hat die langjährige Grundlagenforschung am Max-Planck-Institut für Quantenoptik beigetragen. Auf den Ergebnissen dieser Forschung aufbauend, wurde 2022 planqc gegründet. Johannes Zeiher, der weiterhin auch Grundlagenforschung betreibt, erklärt seine persönliche Motivation so: „Für mich ist klar, dass neutrale Atome eine vielversprechende Technologie für Quantencomputer sind. Daher sollten wir erste Schritte gehen, um das Anwendungspotenzial solcher Maschinen zu untersuchen.“ Zudem bringe der intensive Austausch zwischen kommerzieller Entwicklung und Grundlagenforschung auch Letztere voran. „In der Grundlagenforschung entwickeln wir sozusagen Prototypen, die frei von kommerziellen Zwängen auf bestimmte Bereiche hin optimiert sind“, erklärt Zeiher. „Die bringen ab und zu Durchbrüche und eröffnen etwas ganz Neues.“ Auf der Basis dieser Erkenntnisse entwickelt planqc robuste kommerzielle Geräte, die auch alle Industrienormen erfüllen. Solche zuverlässigen Geräte hofft Zeiher später auch im Grundlagenlabor einsetzen zu können.
Design eines Quantenprozessors: Das planqc-Team verwendet gasförmige, aber sehr kalte Atome als Qubits. In einem optischen Gitter aus gekreuzten Laserstrahlen setzen sich die Atome an die Gitterpunkte wie Eier in einen Eierkarton. Ebenfalls mithilfe von Laserlicht führt das Team logische Operationen mit den Atomen aus. Die Ergebnisse der Rechnungen liest ein optischer Sensor aus und speist siein herkömmliche Elektronik ein. So baut planqc einen Quantencomputer als Koprozessor herkömmlicher Großrechner am Leibniz-Rechenzentrum auf. |
Planqc wächst im Quantenbiotop des Munich Quantum Valley heran. „Wir sind die erste Ausgründung im Munich Quantum Valley“, sagt Sebastian Blatt. Als Vorzeigeprojekt wird planqc auch von der Bundesregierung gefördert, und zwar über eine Kooperation mit dem Deutschen Zentrum für Luft- und Raumfahrt, kurz DLR. Für das große Interesse an dem Garchinger Start-up sorgt auch das „Handlungskonzept Quantentechnologien“ der Bundesregierung. „Darin steht, dass man gerne bis Ende 2026 einen digitalen Quantencomputer mit hundert Quantenbits hätte“, sagt Blatt: „Und das einzige kommerzielle Projekt in Deutschland mit demselben Ziel ist eines, an dem wir zusammen mit dem DLR arbeiten.“ Dieses Projekt heißt DiNAQC, das Akronym steht für „Europas ersten Digitalen Neutral-Atom-Quantencomputer“. Für den Bau des Demonstrators mit zunächst hundert Quantenbits erhält planqc 30 Millionen Euro. Die Apparatur soll im Frühjahr 2027 beim DLR in Ulm in Betrieb gehen, also kaum später, als es das sehr ambitionierte politische Handlungskonzept vorsieht. An diesem Quantencomputer sollen erste Quantenalgorithmen für praktische Anwendungen ausprobiert werden. „Wir machen dort auch die ersten Schritte in Richtung Quantenfehlerkorrektur“, erläutert Blatt.
Miniaturisierte Quantenrechner
Ein Korrekturmechanismus ist beim Quantenrechnen nötig, da Quanteninformation extrem empfindlich gegen kleinste Störungen ist. Sie muss aufwendig stabilisiert und auf Fehler geprüft werden. Zur Stabilisierung dient der Trick, jeweils mehrere physikalische Qubits, bei planqc sind es die Atome, zu logischen Qubits zusammenzufassen. Passiert ein Fehler in einem physikalischen Qubit, kann die Quantenrechnung trotzdem weiterlaufen. Zur Fehlerkorrektur führt man Hilfsqubits ein, die als Sensoren für Störungen dienen – wie Kanarienvögel im Bergwerk. Solange eine Quantenrechnung läuft, dürfen die beteiligten logischen Qubits nämlich nicht auf Fehler überprüft werden, sonst bricht die Rechnung ab. Dank der Fehlermeldungen der Hilfsqubits kann das Resultat jedoch hinterher korrigiert werden. So benötigt ein Quantencomputer letztlich Zigtausende oder sogar Millionen von physikalischen Qubits. Bislang füllt die Technik mit den optischen Geräten und Vakuumkammern, die ein planqc-Rechner benötigt, ganze Labore. Miniaturisierung ist deshalb ein Ziel des zweiten Großprojekts von planqc, das vom Bundesforschungsministerium mit 20 Millionen Euro gefördert wird. Darin baut das Start-up gemeinsam mit dem Max-Planck-Institut für Quantenoptik am Leibniz-Rechenzentrum in Garching bis Ende 2027 ein Gerät namens MAQCS, kurz für „Multikern Atomare Quantencomputing Systeme“. Dieser Rechner soll schon tausend Neutralatome als Quantenbits besitzen und gewissermaßen als Koprozessor in den dortigen konventionellen Großcomputer integriert werden, und zwar platzsparend in kompakte Racks. „Wir wollen auch die Vakuumkammer mit den Atomen in solch ein Rack hineinbringen“, erklärt Blatt: „Wir machen hier Ingenieursarbeit!“ Entsprechend benötigt planqc auch Ingenieure. „Die Firma muss jetzt wachsen, um die Projekte zeitgerecht zu schaffen.“ Da trifft es sich gut, dass das Start-up, das aktuell insgesamt rund fünfzig Mitarbeitende hat, im Sommer 2024 weitere Millionen Euro an privatem Risikokapital eingeworben hat. So kommt es aktuell auf eine Finanzierung von 87 Millionen Euro – die Anteile an den beiden Großprojekten eingerechnet.
Ob letztlich die neutralen Atome in optischen Gittern, supraleitende Schaltkreise oder aber Ionen in Paul-Fallen das Rennen um einen praktisch einsetzbaren Quantencomputer machen werden, ist derzeit noch offen. Das meint auch Piet Schmidt von der Physikalisch-Technischen Bundesanstalt in Braunschweig. Dort entwickelt der Physikprofessor extrem präzise optische Atomuhren, welche ebenfalls auf Ionen in Paul-Fallen basieren. „Technologisch teilen wir mit dem Quantencomputer dieselbe Plattform“, erklärt Schmidt, Er ist Mitgründer des deutschen Start-ups Qudora, das kommerzielle Quantencomputer auf Basis von Ionen in Paul-Fallen entwickelt – ein Konkurrent von planqc also. Von den Fortschritten bei den Neutralatomen ist Piet Schmidt beeindruckt, er meint aber auch: „Das wird sich verlangsamen, die profitieren jetzt von bereits in den anderen Gebieten entwickelten Technologien.“ Angesichts des Ziels, viele Tausend, Zehntausend und mehr Qubits zu kontrollieren, sieht er noch enorme technische Herausforderungen bei allen drei Techniken. Bei den supraleitenden Qubits liegt ein ungelöstes Problem darin, dass die Schaltkreise extrem viele Kabel benötigen, die gute Wärmeleiter sind. Diese transportieren Wärme aus der Umgebung in den Kryostaten, der als Hightech-Thermoskanne den supraleitenden Chip kühlen soll. Wie trotzdem eine große Zahl von Qubits gekühlt werden kann, ist noch unklar. Hinzu kommen Probleme, aus dem supraleitenden Material, derzeit Aluminium, möglichst gleichartige Schaltkreise zu fabrizieren. Damit sich Ionen für Quantenrechnungen nutzen lassen, müsste nach Schmidts Ansicht die Miniaturisierung noch Fortschritte machen. Bislang können nämlich nicht genug optische und elektronische Komponenten in die Fallenchips integriert werden. Auch gelingt es bislang nicht, viele Ionen in einer Falle zu fangen. Mehrere Fallenchips zu koppeln, könnte hier ein Ausweg sein. Bei den Neutralatomen in optischen Gittern sieht Schmidt eine Hürde, die nach einem technischen Detail klingt, aber trotzdem noch genommen werden muss: Die Hilfsqubits müssen sich während der Rechnung noch schneller auslesen lassen, um die Fehlerkorrektur zu ermöglichen.
Und die Zukunftsaussichten? Piet Schmidt macht sich, so wie viele Forschende, Sorgen wegen des Hypes um den Quantencomputer. Der hat in Politik und Wirtschaft sehr hohe Erwartungen geweckt. Eine langfristige Förderpolitik muss Start-ups jedoch genug Zeit einräumen, damit sie Quantencomputer Schritt für Schritt kommerzialisieren können. „Ich war allerdings kürzlich bei Kollegen in den USA, in Harvard und am MIT, die zum Teil auch ihre eigenen Start-ups haben“, sagt er: „Die sind angesichts der derzeitigen Fortschritte sehr optimistisch.“ Planqc platziert seine Technik jedenfalls schon am Markt: „Natürlich kann jeder bei uns einen Quantencomputer kaufen“, betont Sebastian Blatt. Von einer Massenproduktion sei das Unternehmen jedoch noch weit entfernt, allein schon deshalb, weil die Computer von Stück zu Stück noch weiterentwickelt werden. „Sobald wir eines Tages einen Computer gebaut haben, den die Kunden in großer Stückzahl haben möchten“, sagt Sebastian Blatt, „würde planqc natürlich auch den Schritt zur Massenproduktion gehen."
* Der eben im Forschungsmagazin 4/2024 der Max-Planck Gesellschaft unter dem Titel "Rechnen mit Atomen" erschienene Artikel https://www.mpg.de/23934242/W006_Physik-Astronomie_068-073.pdf wird - mit Ausnahme des Titels, einigen Änderungen im Abstract und ohne das Gruppenfoto - in unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)
Quantencomputer im ScienceBlog
Roland Wengenmayr, 03.10.2024: Künstliche Intelligenz: Vision und Wirklichkeit.
Roland Wengenmayr, 09.03.2023: Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten.
Roland Wengenmayr, 07.07.2022: Was Quantencomputer in den nächsten Jahren leisten können.