2025
2025 inge Thu, 09.01.2025 - 13:56Persönlichkeit und individueller Humorsinn
Persönlichkeit und individueller HumorsinnDo, 13.03.2023 — Nora Schultz
Humor hat viele unterschiedliche Facetten und nicht jeder findet alles lustig. Woher die Unterschiede im Witzgeschmack kommen, hängt vor allem von der Persönlichkeit ab. Wir lachen miteinander, wir lachen übereinander und wenn wir Glück haben, können wir auch über uns selbst lachen. Denn lachen befreit und stärkt unser Wohlbefinden. Lachen entlarvt aber auch - psychologisch formuliert: "Sag mir. worüber Du lachst und ich sag Dir, wer Du bist." Die Entwicklungsbiologin Nora Schultz berichtet über den psychologischen Aspekt dieses Themas.*
Wie nennt man einen Keks unter einem Baum? Ein schattiges Plätzchen!
Haben die Mundwinkel gezuckt? Oder eher die Augen leicht entnervt gerollt? Kein Wunder, kaum ein Witz gefällt allen. An der Suche nach universell erfolgreichen Scherzen haben sich schon viele die Zähne ausgebissen, nicht nur auf Comedy-Bühnen und in Abreißkalendern. Auch der britische Psychologe Richard Wiseman hatte nur mäßigen Erfolg, als er im September 2001 auszog, um den besten Witz der Welt zu finden. 40.000 Witze und viele Bewertungen aus 70 Ländern später stand der Sieger fest, ein Scherz über zwei Jäger:
Zwei Jäger gehen auf die Jagd und wandern durch den Wald. Plötzlich greift sich der eine an die Kehle und stürzt zu Boden. Der andere Jäger gerät in Panik und ruft den Notarzt an: "Ich glaube mein Freund ist tot, was jetzt?" Der Arzt sagt: "Beruhigen Sie sich! Zunächst einmal müssen Sie sicher gehen, dass Ihr Freund wirklich tot ist." Kurze Pause, dann ein Schuss. Dann kommt er wieder ans Telefon. "OK, erledigt, und was jetzt?" http://www.laughlab.co.uk/.
Wer nach Lektüre des Siegerwitzes nicht lachend in der Ecke liegt, befindet sich in guter Gesellschaft. Der Witz gefällt zwar vielen Personen halbwegs gut, aber kaum jemanden so richtig. Die meisten Leute haben andere Favoriten – nur eben nicht dieselben. „Viele andere Witze wurden von bestimmten Personengruppen besser bewertet“, erklärt Wiseman im Abschlussbericht des LaughLabs.
Humor ist also Geschmackssache. Aber woher kommen die Unterschiede? „Durch nichts bezeichnen die Menschen mehr ihren Charakter als durch das, was sie lächerlich finden“, verkündete schon 1809 Johann Wolfgang von Goethe. Zweihundert Jahre später liegen auch wissenschaftliche Daten zu den Variationen des Humorsinns vor und verweisen auf komplexe Witzlandschaften. „Es geht nicht mehr nur darum, ob jemand überhaupt Humor hat oder nicht, oder einen guten oder schlechten Humorsinn“, sagt Sonja Heintz von der Universität Plymouth in England. Moderne Humorforschung versucht stattdessen, unterschiedliche Facetten von Humor und verschiedene Komikstile zu erfassen und zu kartieren, wie diese mit der Persönlichkeit zusammenhängen und sich im Leben auswirken.
Quantitative Aspekte, also zum Beispiel wie oft und wie stark jemand Humor einsetzt oder versteht, spielen dabei ebenso eine Rolle, wie Unterschiede in der Humorqualität. Der kanadische Psychologe und Humorforscher Rod Martin hat etwa 2003 einen Fragebogen zu vier Humorstilen entwickelt, die in unterschiedlichen Situationen zum Einsatz kommen. Demnach kann Humor eher positiv oder negativ geprägt sein und entweder der eigenen Person oder anderen gelten. Selbststärkender Humor kann am ehesten als lockerer Umgang mit den Schwierigkeiten des Lebens verstanden werden. Wer mit Herausforderungen humorvoll umgehen und über Missgeschicke lachen kann, praktiziert selbststärkenden Humor. Verbindender Humor ist ähnlich positiv geprägt, zielt aber vor allem darauf, andere zum Lachen zu bringen und Spannungen oder Konflikte in sozialen Situationen zu mildern. Beide Humorstile gehen mit positiven Emotionen und erhöhtem psychischen Wohlbefinden einher.
Parallelen zwischen Persönlichkeit und individuellem Humorsinn
Auch wenn sich die meisten Menschen im Alltag je nach Situation unterschiedlicher humoristischer Stilmittel bedienen, lassen sich mit den Fragebögen generelle Vorlieben für bestimmte Witzqualitäten ermitteln. „Aus den Antworten ergeben sich individuelle Humorprofile, die vermutlich ziemlich stabil sind, da sie stark mit der Persönlichkeit zusammenhängen“, sagt Heintz. Ein häufig verwendeter Ansatz, den Charakter eines Menschen zu beschreiben, misst die Ausprägung von fünf Persönlichkeitsmerkmalen, die auch als „Big Five“ bezeichnet werden:
- Offenheit für Erfahrungen (von neugierig bis konservativ),
- Gewissenhaftigkeit (von effektiv bis nachlässig),
- Extraversion (von gesellig bis zurückhaltend),
- soziale Verträglichkeit (von kooperativ bis wettbewerbsorientiert) und
- Neurotizismus bzw. emotionale Stabilität (von selbstsicher bis verletzlich).
Der individuelle Humorsinn wird von der Ausprägung dieser Persönlichkeitsmerkmale mitbestimmt. Wer zum Beispiel eher wenig sozialverträglich und gewissenhaft agiert, neigt auch häufig zu Sarkasmus und Zynismus, während Menschen mit einer Vorliebe für wohlwollenden Humor oft besonders sozial verträglich, extrovertiert, emotional stabil und offen für neue Erfahrungen sind.
Franz Hals, ein Maler des Lachens und Humors: Der Rommelpotspieler mit fünf Kindern (1618–1622) |
Auch diverse Charakterstärken korrelieren mit dem Humorgeschmack. Zwischenmenschliche Stärken wie Freundlichkeit und Teamfähigkeit etwa sind bei Fans der dunkleren Komikstile schwach ausgeprägt. Dafür punkten sie bei intellektuellen Stärken wie Kreativität und Lernbereitschaft, genau wie Menschen, die gerne Nonsens, Satire oder Witz verwenden. Witzliebhaber wie auch Freunde von Spaß und wohlwollendem Humor haben zudem besonders ausgeprägte emotionale Stärken wie Mut, Elan und Ehrlichkeit. Was sich hingegen nicht ohne weiteres aus der psychologischen Forschung ableiten lässt, ist eine Verbindung zwischen Humor und Intelligenz. Es gibt zwar Hinweise darauf, dass kluge Menschen gerade dunklen Humor besonders gut verstehen. Dass ein Hang zu Satire, Ironie und co. ein Zeichen von überdurchschnittlicher Intelligenz ist, lässt sich daraus allerdings nicht schließen. Heintz Forschung hingegen zeigt: Wer Witz, wohlwollenden Humor, Satire, Ironie und Nonsens mag, hält sich zwar oft für überdurchschnittlich intelligent. Tatsächlich messbar ist ein solcher Zusammenhang aber nur für den Komikstil Witz – und das nur schwach. Auch wenn der Charakter mit dem Humorgeschmack korreliert, so ist dieser Zusammenhang nicht unabänderlich. Zumindest das Gespür für bestimmte Formen der Witzigkeit lässt sich sehr wohl trainieren – mit messbaren Auswirkungen auf das Wohlbefinden. Viele Studien bestätigen zum Beispiel die Effektivität des in den 1990er Jahren entwickelten „7 Humor Habits Training“ von Paul McGhee, das gezielt positive Humortechniken wie eine spielerische Einstellung, die Suche nach Humor im täglichen Leben und den Einsatz von Humor unter Stress einübt. “Die Ergebnisse solcher Interventionen zeigen, dass gerade das Training wohlwollender Komikstile das Wohlbefinden stärken kann”, sagt Heintz.
Humor kann positiv und negativ sein
Wilhelm Busch: Max und Moritz: DritterStreich (1865) |
Im Gegensatz dazu werden die zwei negativen Humorstile vorwiegend von negativen Emotionen begleitet. Selbstentwertender Humor steht im Mittelpunkt, wenn man derbere Witze auf eigene Kosten oder gute Miene zu verletzenden Scherzen anderer macht. Menschen, die selbstentwertenden Humor praktizieren, zum Beispiel als Klassenclown, wirken zwar witzig, fühlen sich dabei aber oft nicht gut. Ähnliches gilt für aggressiven Humor, der darauf zielt, andere zu verspotten, zu schikanieren oder lächerlich zu machen. Solche verletzenden Scherze werden sowohl bei ihren Urhebern als auch bei denen, die sie treffen, eher von negativen Gefühlen begleitet.
Für eine noch genauere Beschreibung verschiedener Humorsinne hat Sonja Heintz gemeinsam mit den Humorforscher Willibald Ruch und weiteren Kollegen in einem ersten Schritt Vorarbeiten des Literaturwissenschaftlers Wolfgang Schmidt-Hidding aufgegriffen, der schon in den 1960er Jahren acht Kategorien von Komik identifizierte. Auf dieser Grundlage entstand 2018 ein Fragenbogen , dessen Antworten Auskunft darüber geben, welcher Art von Humor einem Menschen besonders liegt. Auf der Liste stehen vier eher liebevolle Komikstile – wohlwollender Humor, Unsinn, geistreicher Witz und harmloser Spaß – und vier dunklere Ansätze: Ironie, Satire, Sarkasmus und Zynismus. Inzwischen hat Heintz weitere Scherzvarianten ausfindig gemacht. „Unsere neue Liste wird wahrscheinlich 23 Komikstile umfassen, die sich alle klar voneinander unterscheiden lassen“, erklärt sie. „Neu dabei sind z. B. trockener Humor, schwarzer Humor oder sexueller Humor [MS1] .“
[MS1] Zwar gibt es den Fragebogen online unter https://charakterstaerken.org/. Dies erfordert jedoch eine Registrierung und die Beantwortung zahlreicher Fragen, sodass mir eine Verlinkung wie von der Autorin angeregt nicht wünschenswert scheint.
Zum Weiterlesen
• Ruch, Willibald und Goldstein, Jeffrey. "Festschrift for Paul McGhee – Humor Across the Lifespan, Theory, Measurement, and Applications " HUMOR, 2018;31(2): 167-405. (Zum Abstract: https://doi.org/10.1515/humor-2018-0036 ).
• Bressler E, Martin R, Balshine S. Production and appreciate of humor as sexually selected traits. Evolution and Human Behavior. 2006;27: 121-130. (Zum Abstract: https://doi.org/10.1016/j.evolhumbehav.2005.09.001).
• Ruch W, Heintz S, Platt T, Wagner L, Proyer RT. Broadening Humor: Comic Styles Differentially Tap into Temperament, Character, and Ability. Front Psychol. 2018;9:6. (Zum Volltext: https://doi.org/10.3389/fpsyg.2018.00006 ).
• Willinger U, Hergovich A, Schmoeger M, et al. Cognitive and emotional demands of black humour processing: the role of intelligence, aggressiveness and mood. Cogn Process. 2017;18(2):159-167. (Zum Volltext: https://pmc.ncbi.nlm.nih.gov/articles/pmid/28101812/ )
Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die Frage
Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die FrageDo, 6.06.2025— Inge Schuster
Degenerative Veränderungen der Lendenwirbelsäule sind bei nahezu allen über 65 Jahre alten Personen in bildgebenden radiologischen Untersuchungen anzutreffen. Häufig entsteht daraus eine Stenose (Einengung) des knöchernen Spinalkanals, die je nach Ausmaß und Lage das darin eingebettete Rückenmark und die davon ausgehenden Nervenwurzeln und deren Funktionen beeinträchtigen kann - bis zu schwersten Ausfallserscheinungen, wie sie beim (allerdings sehr seltenen) Cauda equina Syndrom auftreten. Erst wenn konservative Maßnahmen keine Besserung bringen, wird eine Operation zur Dekompression des Spinalkanals empfohlen. Bislang fehlen evidenzbasierte Daten zu diagnostischen Kriterien und zu Komplikationen und (langfristigen) Prognosen von Behandlungsmethoden; widersprüchliche Angaben in der Fachliteratur ob und wann ein alter Patient operiert werden sollte, erzeugen Verunsicherung................so hat mein Weg bis zur Operation 22 Jahre gedauert.
Der Pensionsantritt brachte keine wesentliche Zäsur in meinen Tagesablauf. War ich zuvor überwiegend an die Vorgaben eines Multi-Pharmakonzerns gebunden, so war ich nun frei mit befreundeten Gruppen im In-und Ausland auch weiterhin Forschung zu ehemaligen und auch zu völlig neuen Gebieten zu betreiben. Außerdem wollte ich aber auch meine durch überlange Schreibtischtätigkeit degenerierten Muskeln durch 2 x wöchentliches Turnen und Gymnastiktraining, sowie durch Kieser-Rückentraining kräftigen; Letzteres war auf ein aktuelles CT-Bild meiner Wirbelsäule ausgelegt.
Zurückgekehrt von einem Ausflug zur (leider erfolglosen) Trüffelsuche nach Istrien, konnte ich im November 2002 plötzlich kaum mehr gehen. Ein Schmerz, der seinen Ursprung im Bereich der Lendenwirbelsäule hatte, pflanzte sich in die Beine fort, verschwand aber, wenn ich leicht vornüber gebeugt am Schreibtisch saß. Dass es sich nicht um einen sogenannten Hexenschuss handelte, war bald klar als sich über die Wochen hin die Beschwerden kaum besserten, Übungen zur Reduktion von Muskelverkrampfungen, wie sie Turnen/Gymnastik und auch das Kieser-Training anboten, wirkungslos blieben. Zur Abklärung meiner Symptome wandte ich mich schlussendlich an einen mir gut bekannten Rheumatologen, der an einem der großen Wiener Spitäler eine Abteilung leitete. Stationär aufgenommen, brachten die Untersuchungen schnell das Ergebnis: Die Magnetresonanz-Tomographie (MRT) zeigte neben anderen Verschleißerscheinungen eine hochgradige lumbale Stenose, d.i. eine Verengung des Nervenkanals (Spinalkanals) im unteren Teil der Lendenwirbelsäule:
Die Behandlung erfolgte konservativ - mit krankengymnastischen Übungen, physikalischer Therapie und Diclofenac (Voltaren), dem bekannten, von der Acetylsalicylsäure abgeleiteten, gegen Entzündung und Schmerz (anti-inflammatorisch und analgetisch) wirkenden Arzneimittel. Leider traten bei der dritten Diclofenac-Infusion ausgeprägte allergische Erscheinungen auf; später stellte sich heraus, dass auch andere Medikamente dieser Verbindungsklasse bei mir nicht anwendbar waren. Von einem chirurgischen Eingriff war damals nicht die Rede; ich erhielt eine Zeit lang physikalische Therapie.
Was bedeutet lumbale Vertebrostenose?
Degenerative Veränderungen der Wirbelsäule nehmen mit steigendem Alter zu, führen zur Verengung des knöchernen, aus 24 Wirbelkörpern zusammengesetzten Spinalkanals und können das darin eingebettete, der Signalvermittlung zwischen Gehirn und Peripherie dienende Rückenmark und die davon ausgehenden Spinalnerven komprimieren.
Insgesamt gehen vom Rückenmark 31 Paare von Spinalnerven ab, die den beweglichen Wirbeln des Halsbereichs (C1 - C8), Brustbereichs (T1 - T12) und Lendenbereichs (L1 - L5) und den zusammengewachsen Wirbeln des Kreuzbeins (S1 - S5) und Steißbeins (Co1) zugeordnet sind. Die Spinalnerven treten durch Öffnungen zwischen benachbarten Wirbeln (Neuroforamina) aus dem Spinalkanal aus und setzen sich aus Fasern zusammen, die sensorische Informationen aus anderen Körperregionen an das Gehirn weiterleiten (afferente Fasern) in Kombination mit Fasern, die motorische oder sekretorische Informationen vom Gehirn an den Körper (efferente Fasern) senden. Das von den drei Hirnhäuten - außen der sogenannte Durasack mit anhaftender Arachnoidea, innen die von der Rückenmarksflüssigkeit (Liquor) umspülte zarte Pia Mater - umhüllte Rückenmark reicht dabei nur vom Hirnstamm bis zum ersten (oder zweiten) Lendenwirbel; unterhalb ziehen die Nervenfasern als dickes, pferdeschweifartige (Cauda equina) Nervenbündel zu ihren Austrittsöffnungen an den Lendenwirbeln L2 - L5, den Kreuzbeinwirbeln S1 - S5 und am Steißbein (Co1). (Abbildung 1A).
Die im Bereich der Lendenwirbelsäule und des angrenzenden Kreuzbeins austretenden Spinalnerven steuern die wesentlichen Körperfunktionen unterhalb der Gürtellinie - von Bein- und Fußbewegungen über die Schließmuskeln von Darm und Blase bis hin zu sexuellen Funktionen im Genitalbereich.
Alters- und verschleißbedingte Veränderungen an den Wirbeln wie Höhenminderung und Protrusion der Bandscheiben, knöcherne Anbauten an den Zwischenwirbelgelenken (Facettengelenken), Verdickung des stabilisierenden Bandes zwischen den Wirbelbögen (Ligamentum flavum) und Wirbelgleiten führen zur Einengung des Wirbelkanals und auch der Neuroforamina und können eine Kompression von Nerven und Gefäßen verursachen. Abbildung 1B - D.
Abbildung 1: Zur Stenose der Lendenwirbelsäule. A) Anatomisches Präparat der menschlichen Wirbelsäule - das im Wirbelkanal eingebettete Rückenmark geht in der Höhe von L1 in ein dickes Bündel von Nervenwurzeln - Cauda equina - über. (Amada44: https://de.wikipedia.org/wiki/R%C3%BCckenmark#/media/Datei:Spinal_Cord_-_4742.jpg. Lizenz: CC-BY-SA). B) Querschnitt eines Lendenwirbels (L2 - L5) mit Kompression des Spinalkanals. C) Degenerativ veränderte Lendenwirbelstrukturen, die zur Einengung des Spinalkanals (rote Pfeile) führen. D) Seitenansicht zweier benachbarter Wirbel mit Bandscheibenvorfall, der zu eingeklemmtem Spinalnerv führt. (B und D modifiziert nach Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436.. Lizenz, CC BY 3.0.) |
Die Folge kann u.a. eine Kompression von Blutzufluss und venösem Abfluss an den Nerven, also Ischämie und Ödeme verursachen - und so die charakteristischen Beschwerden bei Belastung - aufrechtem Gehen und Stehen - hervorrufen, die in Ruhe bei Dehnung des Spinalkanals durch vorgeneigtes Sitzen zumeist sofort verschwinden.
Was tun bei lumbaler Stenose?
Als um und nach 2003 meine Beschwerden anhielten, recherchierte ich dazu ausführlich die Fachliteratur (beispielsweise [1 - 3]). Demnach zeigen MRT und CT-Aufnahmen, dass nahezu alle über 65-Jährigen von degenerativen Veränderungen der Lendenwirbelsäule betroffen sind, wobei in bis zu 60 % der Fälle Einengungen des Spinalkanals und/oder der Neuroforamina auftreten. Auf Grund der Lordose der Lendenwirbelsäule ist das Segment L4/L5 am häufigsten von Schäden und Verschleißerscheinungen betroffen, es ist sozusagen die Sollbruchstelle bedingt durch das Eigengewicht und die aufrechte Haltung. Allerdings sind die radiologischen Bilder auch heute nur bedingt aussagekräftig: sehr viele Personen mit pathologischen Aufnahmen sind klinisch ohne Symptome.
Das Fehlen valider randomisierter klinischer Studien und widersprüchliche Aussagen über die Wirksamkeit von chirurgischer im Vergleich zu konservativer Behandlung unterstützten um die Jahrtausendwende häufig die Ansicht, dass die meisten Fälle von lumbaler Wirbelkanalstenose ohne Operation mit Methoden wie Physiotherapie mit Muskel entspannenden Maßnahmen im Akutstadium gefolgt von Stärkung der Rückenmuskulatur zum Erhalt von Funktion und Mobilität plus Schmerzmedikation behandelbar sind. Erst wenn konservative Behandlungen keinen ausreichenden Nutzen gebracht hatten, wurde eine Operation zur Druckentlastung der eingeengten Nervenwurzeln empfohlen. Es waren dabei u.a. die Nebenwirkungen der Schmerzmittel gegen die Komplikationen einer OP, wie Infektionen, Blutungen, Blutgerinnsel, Nerven- und Gewebeschäden abzuwägen, insbesondere da ja eine OP hauptsächlich ältere, z.T. multimorbide Patienten betraf. Szpalski und Gunzburg konstatieren 2004:"Ein chirurgischer Eingriff zur Behandlung der lumbalen Spinalkanalstenose wird in der Regel akzeptiert, wenn die konservative Behandlung versagt hat, und zielt darauf ab, die Lebensqualität durch eine Verringerung der Symptome wie neurogene Claudicatio, unruhige Beine und ausstrahlende neurogene Schmerzen zu verbessern" [2].
Basierend auf extensiver Literaturrecherche folgert das Deutsche Ärzteblatt fast ein Jahrzehnt später: "Bei wenig verlässlich evidenzbasierten Daten zur Diagnostik und Therapie gibt es aktuell keine valide Beurteilung der Behandlungsstrategien speziell bei Patienten im höheren Lebensalter." [4].
Der letzte Cochrane-Review - eine Metaanalyse basierend auf 5 Studien an 643 Patienten - schreibt schließlich: "Wir sind uns kaum sicher, ob eine chirurgische Behandlung oder ein konservativer Ansatz bei lumbaler Spinalkanalstenose besser ist, und wir können keine neuen Empfehlungen für die klinische Praxis geben." [5].
Eine vorübergehende Besserung der Beschwerden...
Dass auch bei mir eine Operation unnötig sein dürfte, schien sich vorerst zu bestätigen. Ab 2004 begannen die Beschwerden abzuflauen, und ich konnte bald fast wie ehedem längere Strecken schwimmen, bergwandern und auch mehrstündige Vorlesungen halten. Der erfreuliche Zustand hielt bis 2011 an.
...bis zur Feststellung eines Cauda equina Syndroms (CES)
Dann wurden die Gehstrecken sukzessive kürzer. 2014 schaffte ich noch 1 km, im folgenden Jahr nur mehr 400 m, auch Schwimmen wurde immer mühsamer; nur der Wocheneinkauf im Supermarkt - gestützt auf den Einkaufswagen - funktionierte. Die Hoffnung, dass sich mit einem Übungsprogramm zur Entlastung der Wirbelsäule so wie 2004 der Prozess der Verschlechterung umkehren könnte, schlug fehl. 2021 suchte ich schließlich einen mir empfohlenen Orthopäden auf, der mich zum MRT schickte. Abbildung 2 A. Die Aufnahmen zeigten neben teils discogenen, teils knöchernen Einengungen von Spinalkanal und Spinalnerven vor allem eine hochgradige Kompression der Cauda equina.
Was bedeutet CES?
Durch raumfordernde Kompression der Cauda equina im Spinalkanal verursacht, sind neurologische Ausfallserscheinungen der unterhalb der Engstelle betroffenen Nervenwurzeln die Folge. CES ist ein sehr seltener, schwerwiegender pathologischer Zustand, von dem Schätzungen zufolge insgesamt nur 1 - 7 von 100 000 Personen betroffen sind, davon die meisten zwischen dem 30. und 50. Lebensjahr infolge eines akuten, den Spinalkanal ausfüllenden Bandscheibenvorfalls, vor allem im Bereich der Lendenwirbel L4/L5 [6]. Die Kompression betrifft dann alle unterhalb austretenden Spinalnerven und damit deren Körperfunktionen unterhalb der Gürtellinie (siehe oben). Je nach Schweregrad der Kompression kommt es zum Gefühlsverlust im sogenannten Reithosenbereich (umfasst innere Oberschenkel, Gesäß, Genitalien, Damm), zu Lumbalgien, Gefühlsverlust, motorischen Defiziten und Reflexveränderungen in den Beinen, zu Blasen- und/oder Mastdarmstörungen und zu sexueller Funktionsstörung. Ein akut auftretendes CES gilt als neurochirurgischer Notfall und sollte möglichst schnell operiert werden, um irreversible Nervenschäden zu vermeiden. Dennoch kann die Hälfte dieser Patienten auch noch nach Jahren unter neurologischen Defiziten leiden [6].
Abbildung 2: Meine Lendenwirbelsäule rund 3,5 Jahre vor und 4 Tage nach der Operation. A) MRT-Befund: Irritation und Einengung der Spinalnerven L1, L2, L4 und vor allem hochgradige knöcherne Kompression der Cauda equina auf Höhe L4/L5 (der üblicherweise 15 - 18 mm breite Spinalkanal war nur mehr 3 mm weit). B) Röntgenaufnahmen: Zustand nach Laminektomie 4/5: Deutlich erkennbar ist der anstelle der Bandscheibe zur Fusion von L4/5 eingesetzte Titankäfig und die Wirbel-stabilisierenden Titanschrauben. (Aufnahmen: A) Diagnosticum Dr. Sochor, Gersthof. B) Institut für bildgebende Diagnostik, Rudolfinerhaus.) |
Zum viel seltener diagnostizierten chronischen CES, das sich u.a. aus der in der älteren Bevölkerung häufig auftretenden lumbalen Stenose entwickeln kann und auch zu seinen postoperativen Prognosen, gibt es in der Fachliteratur wenig Konkretes. Die degenerativen Veränderungen im Spinalkanal (siehe Abbildung 1) schreiten ja langsam fort, das Nervenbündel der Cauda kann sich noch einige Zeit daran anpassen, die Betroffenen schreiben Symptome der Caudakompression auch häufig dem Alterungsprozess zu; schlussendlich kann aber die langanhaltende schwere Kompression zu irreversiblen Schäden an den Nervenfasern führen. Die Meinungen, wie chronisches Caudasyndrom zu managen ist - wann und ob überhaupt operiert wird, gehen weit auseinander; ein rezenter Artikel zitiert: "Es wurde vorgeschlagen, dass Fälle von chronischem CES, die mit einem langsamen Beginn bei degenerativer Lendenwirbelsäulenstenose einhergehen, oft keine Notfallbehandlung erfordern, aber sorgfältig überwacht werden sollten, um ein Fortschreiten zu irreversiblem CES zu vermeiden."[7]. In anderen Worten heißt das: Abwarten.
Mein Weg zur Operation
Abwarten war auch der Weg, den mir der konsultierte Orthopäde vorschlug und für's erste Physiotherapie empfahl. Trotz mehreren Blöcken Physiotherapie und täglich 20 - 25 min der empfohlenen Übungen verschlechterte sich mein Zustand zusehends. Die Beine schmerzten, die Muskeln krampften, fühlten sich dabei aber taub an. Die Reithosenfläche fühlte sich ebenfalls taub an, brannte zugleich aber wie Feuer und schließlich begannen Blase und Darm nicht mehr wie gewohnt zu funktionieren. Als die COVID-19 Lockdowns zu Ende waren, konnte ich das Haus nicht mehr verlassen, nur mehr etwa 5 Meter (mit Stock) gehen und Schlafen im Liegen war nicht mehr möglich.
Spät aber doch begann ich - online und auf Empfehlungen von Freunden - nach erfahrenen Neurochirurgen für Wirbelsäulenstenosen zu suchen. Einige der in Frage kommenden Spezialisten - darunter Dr.Sindhu Winkler, die mich dann auch operierte - waren am Wiener Rudolfinerhaus tätig, das ich von einer früheren Operation in bester Erinnerung hatte. Auf Anraten kontaktierte ich dort vorerst den Neurologen Dr. Mohammad Baghaei, der mich sofort als Akutfall einstufte und alle präoperativen Untersuchungen organisierte, die bereits 3 Tage später im Rudolfinerhaus starteten. Das neu erstellte MRT-Bild war in Einklang mit einer frühen Cauda-equina Symptomatik, zeigte absolute Spinalkanalstenose bei L4/5, degeneratives Wirbelgleiten und weitere degenerative Veränderungen. Nach Meinung der Chirurgin hatte ich praktisch bereits eine Querschnittslähmung. Die nun umgehend erfolgende Operation sollte vor allem den verengten Bereich erweitern, um damit den Druck auf die gequetschten Nervenfasern der Cauda zu reduzieren.
Der komplizierte Eingriff dauerte fast 4 Stunden unter Anwendung eines Operationsmikroskops und kontrolliert mittels CT-Bildgebung. Ein etwa 12 cm langer Hautschnitt eröffnete das Operationsgebiet. Die Dekompression des Spinalkanals erfolgte durch Laminektomie (vollständige Entfernung der Lamina plus Dornfortsatz (Abbildung 1B)) am Wirbel L4 und Versteifung (Fusion) der Wirbelkörper L4/5 unter Anwendung der TLIF-Technik ("transforaminal lumbar interbody fusion"). Dazu wurde die degenerierte Bandscheibe entfernt und durch einen 10 mm hohen, mit dem aus der Laminektomie entnommenen Knochenmaterial gefüllten Titankäfig ersetzt. Zur Stabilisierung des Wirbelsegments waren zuvor 4 Titanschrauben in die Pedikel (Abbildung 1B) von L4 und L5 eingebracht und durch 50 mm lange Titanstäbe verbunden worden. Abbildung 2B. Dr. Winkler hatte auch den gesamten Spinalkanal von L2 bis S1 - wie sie sagte -"geputzt", d.i. degenerative knöcherne Anbauten und Bindegewebe beseitigt - Spinalkanal und auch Foramina waren nun frei, sofern keine irreversible Schädigung vorlag, sollten sich die Nerven also erholen können.
Die Operation verlief erfolgreich ........
und ohne Komplikationen. Ich wurde bereits am nächsten Tag mobilisiert und konnte nach langer Zeit gleich wieder aufrecht stehen und im Liegen schlafen. Die Taubheit im Reithosenbereich war deutlich reduziert, ebenso die nächtlichen Muskelkrämpfe. Die Taubheit in den Beinen war noch da und Dr. Winkler meinte "die völlig gequetschten Nerven müssten erst wieder lernen, wie sie funktionieren sollten."
Die viel zu lange komprimierten Nerven sind noch lernfähig: 7 Wochen nach der OP und bei intensiver Physiotherapie kann ich erstmals seit 4 Jahren ohne Stützung (allerdings noch wacklig) wieder rund 75 m gehen. Schmerzmittel konnten bereits vor einer Woche abgesetzt werden; die zurückkehrende Mobilität steigert ganz ungemein die Lebensqualität. Auch wenn nicht alle Nerven wieder voll funktionieren sollten, ist der Zustand bereits jetzt wesentlich besser als vorher - ich bin sehr froh auf eine Neurochirurgin und einen Neurologen gestoßen zu sein, die das möglich gemacht haben!
Fazit
Trotz der enorm hohen, weltweiten Prävalenz der lumbalen Spinalkanalstenose gibt es derzeit weder eine Definition noch radiologische Diagnosekriterien, die allgemein anerkannt sind [8]. Es fehlen auch ausreichend evidenzbasierte Daten (z.B. Cochrane-Reviews) zu Komplikationen und Erfolgsaussichten der Behandlungsmethoden. Eine erste, 2019 angekündigte randomisierte Placebo-kontrollierte Studie zur operativen Behandlung hat bislang noch keine Ergebnisse gebracht [9]. Widersprüchliche Angaben in Fachliteratur und ärztlichen Aussagen, ob und wann ein betagter Patient operiert werden sollte, erzeugen natürlich Verunsicherung und Ängste.
Muss man sich deshalb vor einer OP fürchten? Ich denke nein; wie in vielen anderen Sparten der Medizin muss man aber wohl auch hier selbst nach erfahrenen Spezialisten suchen (lassen) - das Internet bietet heute ja alles zu Ausbildung, Praxis und Bewertung, also den Blick auf einen "gläsernen Neurochirurgen".
Dr. Sindhu Winkler. Neurochirugin am Rudolfinerhaus und im Wirbelsäulenzentrum Döbling (zusammen mit Dr. Mohammad Baghaei. https://www.ambulatorium-doebling.at/de/privataerzte-zentrum/wirbelsaeule.)
Rudolfinerhaus Privatklinik.https://www.rudolfinerhaus.at/
[1] R.Gunzburg & M.Szpalsky: The conservative surgical treatment of lumbar spinal stenosis in the elderly. Eur Spine J (2003) 12 (Suppl. 2) : S176–S180. DOI 10.1007/s00586-003-0611-2 .
[2] Marek Szpalski, and Robert Gunzburg (2004) Lumbar Spinal Stenosis in the elderly: an overview. Eur Spine J (2003) 12 (Suppl. 2) : S170–S175. DOI 10.1007/s00586-003-0612-1.
[3] Mary Ann E. Zagaria: Lumbar Spinal Stenosis: Treatment Options for Seniors. The Journal of Modern Pharmacy/ July 2004, 11 (7). https://hdl.handle.net/10520/AJA16836707_2508 .
[4] R. Kalff et al., Degenerative lumbale Spinalkanalstenose im höheren Lebensalter. Dtsch Arztebl Int 2013; 110(37): 613-24; DOI: 10.3238/arztebl.2013.0613.
[5] F. Zaina et al., (2016): Surgical versus non-surgical treatment for lumbar spinal stenosis (Review). Cochrane Database of Systematic Reviews. 2016, Issue 1. Art. No.: CD010264. DOI: 10.1002/14651858.CD010264.pub2.
[6] R.T. Schär et al., Das Cauda equina Syndrom. Swiss Med Forum. 2019;19(2728):449-454. DOI: https://doi.org/10.4414/smf.2019.08297
[7] C. Comer et al., SHADES of grey – The challenge of ‘grumbling’ cauda equina symptoms in older adults with lumbar spinal stenosis. Musculoskeletal Science and Practice 45 (2020) 102049. https://doi.org/10.1016/j.msksp.2019.102049.
[8] L. Wu et al., Lumbar Spinal Stenosis (2024). StatPearls [Internet]. https://www.ncbi.nlm.nih.gov/books/NBK531493/
[9] Anderson DB, et al. SUcceSS, SUrgery for Spinal Stenosis: protocol of a randomised, placebo-controlled trial. BMJ Open 2019;9:e024944. doi:10.1136/bmjopen-2018-024944 .
Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?
Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?So, 02.03.2025 — Ricki Lewis
Jedes Jahr findet am 28. (29.) Februar der Tag der Seltenen Erkrankungen statt, um für die 300 Millionen Menschen zu sensibilisieren, die an einer seltenen Krankheit leiden und Veränderungen für diese sowie für ihre Familien und Betreuer herbeizuführen. Veranstaltungen in 106 Ländern bringen Patienten, Wissenschaftler, Behörden und Kliniker zusammen, um neue Hypothesen, neue Daten, vorläufige Schlussfolgerungen und praktische Informationen über das Leben mit diesen Krankheiten auszutauschen und zu diskutieren. Auf lokalen, nationalen und internationalen Konferenzen über Seltene Erkrankungen kommt es dabei zu wichtigen Kontakten. In den USA sind etwa 30 Millionen Menschen von Seltenen Erkrankungen betroffen. Fassungslos berichtet die Genetikerin Ricki Lewis, dass - offensichtlich auf Grund der Entlassung von Experten und der Demontage der Infrastruktur wichtiger Institutionen - in den USA der FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben werden musste.*
Rare Disease Day (https://www.rarediseaseday.org/) |
Laut der US Nationalen Organisation für Seltene Erkrankungen aus dem Jahr 2023 "hat sich der 28. Februar zu einer wichtigen jährlichen Feier entwickelt, um die Gemeinschaft einzubinden, die Geschichten von Patienten und Familien bekannt zu machen, Spenden zu sammeln und wichtige Ressourcen und innovative Forschung für seltene Krankheiten zu fördern. " Weitere Informationen und Möglichkeiten zum Mitmachen findet man unter rarediseaseday.us. Jedes Jahr am 28. Februar ist "A Day to be Heard".
Ich habe an den Veranstaltungen zum Tag der Seltenen Erkrankungen teilgenommen und mich mit vielen Familien angefreundet, während und nachdem ich das Buch The Forever Fix: Gene Therapy and the Boy Who Saved It (2012) geschrieben habe. DNA Science berichtet seit Jahren über den Tag der Seltenen Erkrankungen (z.B.: https://dnascience.plos.org/2022/02/24/rare-disease-day-2022-juvenile-huntingtons-disease/).
Bei Tagungen über seltene Erkrankungen füllen sich die Hörsäle; Menschen studieren die auf großen Bildschirmen angezeigten Daten oder treffen sich in kleineren Gruppen, um gemeinsame Herausforderungen und Anliegen zu besprechen, von Ideen zur Mittelbeschaffung bis hin zur Auswahl der optimalen viralen Vektoren für spezifische Gentherapien. Und ein oder zwei Elternteile verkleiden sich vielleicht als Zebra, das gestreifte Säugetier, das eine seltene Krankheit unter den häufiger auftretenden Pferden symbolisiert. Für einige mögen Einhörner passen.
Ich hätte mir nie vorstellen können, dass eine so wunderbare Feier wie der Tag der Seltenen Krankheiten verschoben werden würde, außer vielleicht wegen einer Naturkatastrophe wie einem drohenden Asteroideneinschlag oder einem unmittelbar drohenden Krieg. Aber die Entlassung von Experten und die Demontage der Infrastruktur wichtiger Institutionen hat nun auch menschliche Interaktionen betroffen, die darauf abzielen, Leben zu retten, viele davon von Kindern. Selbst dieser besondere Tag ist offenbar nicht immun.
Ich war fassungslos, als ich auf die Nachrichten-Webseite der FDA zum Tag der Seltenen Krankheiten 2025 klickte:
"Verschoben- FDA-NIH Tag der Seltenen Erkrankungen
Nach reiflicher Überlegung haben wir den FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben und werden ihn in den kommenden Monaten neu ansetzen. Der Tag der Seltenen Erkrankungen ist für uns alle wichtig, und wir möchten sicherstellen, dass wir uns voll und ganz auf die Veranstaltung konzentrieren können, um sie so gut wie möglich zu gestalten. Wir wissen Ihr Verständnis zu schätzen und danken Ihnen für Ihre kontinuierliche Arbeit bei der Bewusstseinsbildung, der Entwicklung von Heilmitteln und Behandlungen und der Bereitstellung von Ressourcen, die den Millionen von Menschen in diesem Land, die von seltenen Krankheiten betroffen sind, Hoffnung geben." (Ankündigung des FDA Office of Orphan Products Development: POSTPONED - FDA-NIH Rare Disease Day.)
Die genauen Gründe für die plötzliche Verschiebung des Tages der Seltenen Krankheiten sind mir unbekannt. Wenn man zwischen den Zeilen liest, kann man vermuten, dass die Leute bei der FDA und den NIH unter den jüngsten und drohenden Kürzungen leiden - nicht unbedingt, dass das DoGE (Department of Government Efficiency) absichtlich die jährliche Gelegenheit blockiert hat, dass sich Familien mit seltenen Krankheiten mit Wissenschaftlern, Klinikern, Regulierungs- und Gesundheitsexperten treffen. Ich hoffe sehr, dass die Hilfe für die Gemeinschaft der Menschen mit seltenen Krankheiten nicht als "staatliche Verschwendung" betrachtet wird.
Verstehen die Beamten, die sich für die Kürzungen einsetzen, die zu dem "Aufschub" geführt haben, die Krankheiten, die Behandlungen oder wie Forschung tatsächlich vor sich geht? Die Fortschritte bei den Gen- und Zelltherapien sind zwar langsam, aber gleichzeitig erstaunlich. Es werden Kinder behandelt! Einige leben länger, als ihre Gene sonst diktiert hätten, und zeigen bisher unbekannte Erscheinungsformen, die als Grundlage für die Entwicklung neuer Behandlungsansätze dienen und künftige klinische Versuche inspirieren können.
Die große Ironie ist, dass der diesjährige Tag der Seltenen Krankheiten mit dem 50. Jahrestag des geschichtsträchtigen letzten Tages der Konferenz in Asilomar, Kalifornien, zusammenfallen sollte, auf der Wissenschaftler die Sicherheit der rekombinanten DNA-Technologie diskutierten, bei der DNA aus Zellen einer Art von Organismus in Zellen einer anderen Art eingebracht wird.
Die Bürger haben sich über die wissenschaftlichen Grundlagen informiert, Probleme abgewogen und den Experten Fragen gestellt. Darauf folgten Debatten. Die aktuelle Ausgabe des Fachjournals Trends in Biotechnology enthält mehrere Artikel zum Thema "50 Jahre nach der Asilomar-Konferenz", die in dieser Pressemitteilung mit Links zusammengefasst sind (https://www.eurekalert.org/news-releases/1074439?).
Zur Zeit von Asilomar waren die Menschen recht besorgt. Die Rekombination von genetischem Material - diese ist möglich, weil alle Organismen DNA besitzen und ihre Zellen denselben genetischen Code verwenden - war neu und besorgniserregend. Mein Mentor an der Hochschule nannte die Technologie um 1975 das "dreiköpfige lila Monster".
Allerdings erleichterte/ermöglichte die rekombinante DNA-Technologie die Herstellung verschiedener Medikamente. Heute werden auf dieser Technologie beruhende Medikamente zur Behandlung von Volkskrankheiten wie Diabetes, lebensbedrohlichen Blutgerinnseln, rapide sinkenden Blutwerten nach einer Chemotherapie, zur Stärkung des Immunsystems, zur Erleichterung der Atmung, zur Senkung des Blutdrucks, zur Korrektur von Enzymdefiziten und zur Heilung der Haut eingesetzt.
Ich frage mich, wie viele Patienten daran denken, dass ihr Insulin in Bakterien hergestellt wird, die eingefügte menschliche Gene "lesen"? Oder dass der menschliche Gerinnungsfaktor VIII, den Menschen mit Hämophilie A einnehmen, in kultivierten Zellen des Eierstocks oder der Niere eines chinesischen Hamsters hergestellt wird?
Die Technologie der rekombinanten DNA hat sich durchgesetzt. Sie ist einfacher als die Gentherapie, weil sie die Peptide und Proteine, die die Medikamente darstellen, in Zellen produziert, die in einem Labor wachsen.
Bei der Gentherapie hingegen, die etwa zwei Jahrzehnte später als die rekombinante DNA-Technologie einsetzte, wird DNA in bestimmte Zelltypen oder in den Körper eines Patienten eingebracht. Wenn alles gut geht, produziert der Patient dann das benötigte Protein, das die krankheitsverursachenden Mutationen ausgleichen kann. Das Konzept ist einfach, die Durchführung der Gentherapie jedoch äußerst schwierig.
Komplizierter bedeutet teurer - einige Gentherapien kosten Millionen, auch wenn es sich dabei um "einmalige" Strategien handelt. Einige wurden aus diesem Grund aus der Pipeline genommen (z.B. Glybera, das erste Gentherapeutikum zur Behandlung einer sehr seltenen Fettstoffwechsel-Erkrankung).
Fazit
Seit ich mein Buch über Gentherapie geschrieben habe, haben mir mehr und mehr Familien mit genetischen Störungen von ihren Erfahrungen berichtet, wie sie klinische Studien in die Wege geleitet haben, um ihren Angehörigen und anderen zu helfen - oft beginnend mit präklinischer Forschung (an tierischen Organismen und menschlichen Zellen).
Ich mag gar nicht über die Auswirkungen der Kürzungen bei den NIH, der FDA, der CDC und anderen wichtigen Behörden nachdenken, die sich aus den Aufschüben, Verzögerungen und Stornierungen ergeben.
*Der Artikel ist erstmals am 27. Feber 2025 in PLOS Blogs - DNA Science Blog unter dem Titel "Rare Disease Day 2025 is Postponed – Why?" https://dnascience.plos.org/2025/02/27/rare-disease-day-2025-is-postponed-why/ erschienen und steht unter einer CC-BY-Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?
Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?So, 23.02.2025 — Tim Kalvelage
Im Jahr 1958 installierte der amerikanische Chemiker Charles D. Keeling ein Messgerät für Kohlenstoffdioxid (CO2) auf dem Vulkan Mauna Loa auf der Insel Hawaii. Das Gerät stand in rund 3.400 Metern Höhe, weit weg von störenden CO2-Quellen wie Industriegebieten. Keeling wollte den CO2-Gehalt der Atmosphäre bestimmen. Bis dahin gab es dazu nur ungenaue und widersprüchliche Daten. Daher war unklar, ob sich das Treibhausgas durch das Verbrennen von Öl, Gas und Kohle in der Atmosphäre anreichert. Viele Forschende vermuteten, das dabei freigesetzte CO2 würde vom Ozean geschluckt. Die vom Menschen verursachte Erderwärmung war damals bloß eine Theorie. Der Mikrobiologe und Wissenschaftsjournalist Dr. Tim Kalvelage spricht hier über Untersuchungen zur Dynamik der terrestrischen CO2-Senken, die durch menschliche Aktivitäten und Klimawandel beeinträchtigt zu CO2-Quellen werden können.*
Keeling machte zwei Entdeckungen: Zum einen stellte er fest, dass die CO2-Konzentration innerhalb eines Jahres schwankt und dem Vegetationszyklus auf der Nordhalbkugel folgt: Im Frühjahr und Sommer nimmt sie ab, während sie in der kälteren Jahreshälfte ansteigt. Zum anderen konnte er bald nachweisen, dass der durchschnittliche CO2-Gehalt in der Lufthülle der Erde tatsächlich von Jahr zu Jahr zunimmt. Die von Keeling begonnene und bis heute fortgesetzte Messreihe gilt als bedeutendster Umweltdatensatz des 20. Jahrhunderts (Abbildung 1). Sie zeigte zum ersten Mal, wie die Biosphäre im Rhythmus des jahreszeitlich bedingten Pflanzenwachstums CO2 aus der Atmosphäre aufnimmt und wieder abgibt – und wie der Mensch das Klima des Planeten beeinflusst
Abbildung 1: Keeling-Kurve. Die Abbildung zeigt die monatliche durchschnittliche CO2-Konzentration der Luft, gemessen auf dem Mauna Loa in einer Höhe von 3.400 Metern in den nördlichen Subtropen. Die Keeling-Kurve steigt nicht gleichförmig an, sondern schwingt im Verlauf des Jahres auf und ab. Jeweils am Ende des Frühjahrs klettert der Wert auf einen neuen Höchststand. Das liegt unter anderem daran, dass die Wälder der Nordhemisphäre im Winter nur wenig Fotosynthese betreiben und monatelang kaum CO2 aus der Luft aufnehmen, während Pflanzen und Böden einen Teil des zuvor aufgenommenen Kohlenstoffdioxids durch die Atmung wieder an die Atmosphäre abgeben. Der langfristige Trend hingegen geht hauptsächlich auf die anthropogen bedingten CO2-Emissionen zurück. © Author: Oeneis; Data from Dr. Pieter Tans, NOAA/ESRL and Dr. Ralph Keeling, Scripps Institution of Oceanography / CC BY-SA 4.0 |
Natürliche Kohlenstoffspeicher
Vor Beginn der Industrialisierung herrschte zwischen Aufnahme und Freisetzung von Kohlenstoffdioxid im langfristigen Mittel ein Gleichgewicht. Der Mensch aber stört diese Balance, vor allem durch die Nutzung fossiler Rohstoffe, die heutzutage fast 90 Prozent der weltweiten Treibhausgasemissionen verursacht. Die restlichen zehn Prozent gehen auf das Konto veränderter Landnutzung. Dazu zählen die Umwandlung von Wäldern, Grasländern oder Mooren in landwirtschaftliche Nutzflächen und die Verwendung von Holz als Brennstoff, aber auch Siedlungs- und Straßenbau. Zu Beginn der industriellen Revolution waren die daraus resultierenden Emissionen sogar größer als jene aus dem Verbrennen fossiler Rohstoffe. Erst im Zuge des starken weltweiten Wirtschaftswachstums nach Ende des Zweiten Weltkriegs wurden Öl, Gas und Kohle zur bedeutendsten CO2-Quelle.
Die Erderwärmung durch die anthropogenen CO2-Emissionen wäre heute noch viel höher, gäbe es keine Ökosysteme, die einen Teil des Kohlenstoffdioxids aus der Atmosphäre aufnehmen und speichern. Wie das funktioniert und welche Faktoren dabei eine Rolle spielen, untersucht das Team von Sönke Zaehle, Direktor am Max-Planck-Institut für Biogeochemie in Jena. Die Wissenschaftlerinnen und Wissenschaftler erforschen die Kohlenstoffbilanzen von Landökosystemen. Sie wollen verstehen, wie etwa Wälder, Grasländer und Böden als Quellen und Senken von Treibhausgasen wirken und wie der Mensch und das Klima diese Ökosysteme beeinflussen. „In den vergangenen 60 Jahren haben Ozeane und Landökosysteme etwa die Hälfte der anthropogenen Kohlenstoffdioxid-Emissionen aus der Atmosphäre aufgenommen“, erklärt Sönke Zaehle (Abbildung 2). „Die Weltmeere nehmen Kohlenstoffdioxid aus der Atmosphäre auf und lösen es in Form von Kohlensäure. Auf dem Land wirken Pflanzen und Böden als Kohlenstoffspeicher.“ Die Forschung von Sönke Zaehle ist Teil eines globalen Monitorings: Klimaforschende aus der ganzen Welt erstellen jedes Jahr eine Bilanz des globalen Kohlenstoffkreislaufs. Sie beziffern im Global Carbon Report unter anderem die anthropogenen CO2-Emissionen auf der einen sowie die CO2-Aufnahme der Landbiosphäre und der Ozeane auf der anderen Seite.
Abbildung 2: Globales Kohlenstoffbudget 2023. Etwa die Hälfte des ausgestoßenen CO2 aus fossilen Energiequellen und Landnutzungsänderungen wird von Land- und Ozeansenken absorbiert, der Rest verbleibt in der Atmosphäre und trägt zum Klimawandel bei. © Global Carbon Project; Data source: Friedlingstein et al. 2023 Global Carbon Budget 2023. Earth System Science Data. // CC BY 4.0; https://globalcarbonatlas.org |
Wenn Senken zu Quellen werden
Bis heute gibt es noch keine Technologien, um Kohlenstoffdioxid in großem Maßstab aus der Atmosphäre zu entfernen. Um den Klimawandel einzudämmen, sind die natürlichen Senken daher von zentraler Bedeutung, denn ohne diese würde die doppelte Menge an CO2 in die Atmosphäre gelangen und die Erde noch schneller aufheizen. Doch die Senken sind zunehmend bedroht – durch menschliche Aktivitäten und auch durch den Klimawandel selbst. Im schlimmsten Fall kann die CO2-Abgabe die Aufnahme sogar übersteigen, sodass Pflanzen und Böden zur Netto-CO2-Quelle werden. Das passierte etwa im Jahr 2023 – bis dahin das heißeste jemals aufgezeichnete Jahr, als die Netto-Kohlenstoffaufnahme an Land zeitweise sogar zusammenbrach: Pflanzen und Böden wandelten sich von Kohlenstoffsenken in -quellen.
Menschliche Aktivitäten wie Abholzung, Brandrodung oder die Trockenlegung von Feuchtgebieten, 2020 aber auch Urbanisierung und die Versiegelung von Böden zerstören wertvolle Kohlenstoffspeicher. Der Klimawandel fördert Hitze, Dürren, Brände und Überschwemmungen, die das Pflanzenwachstum beeinträchtigen und CO2 aus dem Boden freisetzen. Die weltweite landwirtschaftliche Nutzfläche beträgt heute rund fünf Milliarden Hektar – fast 40 Prozent der globalen Landoberfläche. Insbesondere in den Tropen und in anderen Ländern mit starkem Bevölkerungs- und Wirtschaftswachstum haben Landwirtschaft und Holznutzung stark zugenommen. So geraten die natürlichen Kohlenstoffreservoirs immer mehr unter Druck. In Südostasien werden Wälder vor allem für den Anbau von Ölpalmen und Kautschukbäumen großflächig gerodet, in Westafrika für Kakaoplantagen. Im Amazonasgebiet gilt die Produktion von Rindfleisch, Soja und Zuckerrohr als Haupttreiber der Entwaldung.
Der Einfluss von El Niño
Forschungsgruppenleiter Santiago Botía und sein Team am Max-Planck-Institut für Biogeochemie konzentrieren sich unter anderem auf den Amazonas-Regenwald, der mehr als die Hälfte des weltweit noch verbliebenen tropischen Regenwalds ausmacht. Die Forschenden möchten herausfinden, welche Rolle der Wald als Kohlenstoffsenke spielt, was seine Speicherkapazität beeinflusst und welche Prozesse sich auf den Gehalt von CO2, Methan und Lachgas in der Atmosphäre auswirken. Um die Kohlenstoffflüsse nachzuverfolgen, kombinieren sie Messungen von Treibhausgasen an Bodenstationen oder per Flugzeug mit Computersimulationen, die den Gastransport in der Atmosphäre abbilden. Wichtige Messdaten liefert das 325 Meter hohe Amazon Tall Tower Observatory (ATTO) mitten im brasilianischen Regenwald (Abbildung 3). Ziel ist es, Quellen und Senken von Kohlenstoff im Amazonasgebiet zu bestimmen.
Abbildung 3: Forschungsprojekt ATTO des Max-Planck-Instituts für Biogeochemie Jena. Abseits der brasilianischen Stadt Manaus steht mitten im Regenwald ein 325 m hoher Forschungsturm aus Stahl sowie zwei weitere 80 m hohe Türme. Hier wird untersucht, wie die Wälder des zentralen Amazonasgebiets mit der Atmosphäre und dem Klima interagieren, um zu prüfen, wie sich langfristige Klimaveränderungen und die zunehmende Kohlendioxidkonzentration auswirken. © P. Papastefanou / MPI-BGC. CC-BY-NC-SA. |
„Grundsätzlich gilt der Amazonas-Regenwald als Kohlenstoffsenke“, sagt Santiago Botía, „Doch es gibt Hinweise, dass diese Senke durch menschliche Eingriffe sowie klimabedingten Trockenstress schwächer geworden ist.“ Eine wichtige Rolle dabei spielt El Niño (s. unten). El Niño ist ein natürliches Klimaphänomen, das die Folgen des menschengemachten Klimawandels wie Hitzewellen, Dürren oder extreme Niederschläge verstärken kann. Botía und sein Team haben gezeigt, dass die Dürre im Jahr 2023 das Pflanzenwachstum und damit die Kohlenstoffspeicherung beeinträchtigt hat (Abbildung. 4): „Während eines El Niño wird insbesondere in den Tropen weniger Kohlenstoff gebunden und infolgedessen ist der CO2-Anstieg in der Atmosphäre in der Regel höher als in anderen Jahren“, sagt der Max-Planck-Forscher. Als weiteres Beispiel nennt er den starken El Niño in den Jahren 2015 und 2016. „Damals gab es viele Feuer, die zahllose Bäume vernichtet haben, zusätzlich hat der Wald wegen Hitze und ausbleibender Regenfälle weniger CO2 aufgenommen.“
Abbildung 4: Wenn der Regenwald zur CO2-Quelle wird. Die gestrichelte rote Linie zeigt den zeitlichen Verlauf der CO2-Aufnahme bzw. -Abgabe des Amazonasgebiets für das Jahr 2023. Der schattierte Bereich gibt die normalen Werte der letzten zwei Jahrzehnte (2003-2023) an. Die gestrichelte schwarze Linie ist die Netto-Null-Linie, d.h. CO2-Aufnahme und -Abgabe sind ausgeglichen. Von Januar bis April 2023 war die Kohlenstoffaufnahme höher als üblich. Das änderte sich im Mai, als der Regenwald begann, mehr CO2 freizusetzen, wobei die höchsten Werte im Oktober gemessen wurden. Da die CO2-Emissionen durch Brände innerhalb der normalen Werte der letzten zwei Jahrzehnte lagen, führen die Forschenden die Anomalie auf eine verringerte CO2-Aufnahme durch den Regenwald zurück. © S. Botía, MPI für Biogeochemie / CC BY 4.0 |
Dass El Niño dabei auch zu Veränderungen der jährlichen Wachstumsrate des CO2-Gehalts in der Atmosphäre führen kann, belegt eine gemeinsame Studie von Forschenden des Max-Planck-Instituts für Biogeochemie und der Universität Leipzig: Langzeitdaten hatten gezeigt, dass der CO2-Gehalt in der Atmosphäre zwischen 1959 und 2011 phasenweise besonders stark angestiegen war. Als Ursache vermutete man langfristige klimabedingte Veränderungen des Kohlenstoffkreislaufs und damit des globalen Klimasystems. Die Forschenden überprüften diese Annahme anhand von Computersimulationen – und kamen zu einem anderen Ergebnis: Der hohe Anstieg lässt sich allein mit dem vermehrten Auftreten von El Niño -Ereignissen in den 1980er- und 1990er-Jahre erklären. Hierunter fallen auch die extremen El Niño -Phasen von 1982/83 und 1997/98, die starke Dürren und Hitzewellen in den Tropen mit sich brachten. Während dieser Phasen nahm der CO2-Gehalt in der Atmosphäre überraschend schnell zu. Die schnelle Zunahme hängt damit zusammen, dass während der El Niño -Phasen (aber auch anderer klimatischer Extremereignisse) gehäuft auftretende Brände und andere Störungen schnell viel Kohlenstoff freisetzen – und so die langfristige, vergleichsweise langsame Kohlenstoffaufnahme der ungestörten Ökosysteme kompensieren. In der Ökologie ist dies bekannt als die sogenannte „slow-in, fast-out-Dynamik“ des Kohlenstoffkreislaufs. Die langfristige Konsequenz davon ist, dass sich Veränderungen in der Häufigkeit von El Niño sich auf den CO2-Gehalt der Atmosphäre auswirken und so eine Rückkopplung zum Klimawandel verursachen können.
Kohlenstoffsenken unter Beobachtung
Das Team von Sönke Zaehle möchte mit seiner Arbeit vor allem dazu beitragen, künftige Klimamodelle zu verbessern: „Um verlässlichere Prognosen für die Zukunft zu machen, ist es entscheidend, die räumliche und zeitliche Dynamik der Kohlenstoffsenken möglichst genau zu kennen“, sagt Zaehle. Das gilt auch für Strategien, die auf Klimaneutralität abzielen: Der europäische „Green Deal“ etwa, der Netto-Null-Emissionen bis zum Jahr 2050 anstrebt, kalkuliert die Kohlenstoffaufnahme durch Landökosysteme wie Wälder mit ein. Doch auch in unseren Breiten verlieren Wälder zunehmend ihre Fähigkeit, Kohlenstoff zu speichern: Im Jahr 2022 etwa wurden in Europa rekordverdächtige Temperaturen gemessen. Fast 30 Prozent des Kontinents – insgesamt rund drei Millionen Quadratkilometer – waren von einer schweren Sommertrockenheit betroffen. Ein Forschungsteam unter Beteiligung des Max-Planck-Instituts für Biogeochemie wies nach, dass die Netto-Kohlenstoffaufnahme der Biosphäre in diesem Gebiet stark verringert war. Einige Wälder in Frankreich setzten im Sommer durch Trockenstress und Waldbrände sogar Kohlenstoff frei. „Solche temporären Schwankungen der Kohlenstoffsenken werden bislang kaum berücksichtigt“, sagt Zaehle. Ein Ziel des europäische Erdbeobachtungsprogramms Copernicus ist es daher, die Kohlenstoffbilanz kontinuierlich zu überwachen.
Ökosysteme stärken
Studien wie die der Jenaer Wissenschaftlerinnen und Wissenschaftler zeigen, wie fragil die natürlichen Kohlenstoffsenken sind. Dass wir uns auch weiterhin auf sie verlassen können, ist keineswegs sicher: „Inwieweit die terrestrischen Kohlenstoffsenken ihre Funktion als Klimapuffer in Zukunft noch erfüllen können, ist unklar“, sagt Santiago Botía. „Bei der derzeitigen globalen Erwärmung sind extreme Dürrejahre häufiger zu erwarten und werden wohl Teil der neuen Normalität“. Es ist daher entscheidend, dass wir uns auf diese Veränderungen vorbereiten und die Funktion der Ökosysteme erhalten. „Wichtig ist, die natürlichen Kohlenstoffsenken zu stärken – zum Beispiel durch Aufforstung von Wäldern, die Wiedervernässung von Mooren und eine nachhaltige Landwirtschaft, die den Kohlenstoffgehalt von Böden erhöht und weniger Treibhausgase produziert“, sagt Sönke Zaehle. „Neben dem Erhalt der natürlichen Senken ist aber eine Reduzierung der fossilen Emissionen unerlässlich, um den Klimawandel zu stoppen. Jede Tonne Kohlenstoffdioxid, die wir vermeiden, zählt.”
Zu EL Niño
Die sogenannte El Niño -Südliche Oszillation (ENSO) ist ein gekoppeltes Zirkulationssystem von Ozean und Atmosphäre im tropischen Pazifik. Normalerweise schieben die Passatwinde das Oberflächenwasser entlang des Äquators von der Westküste Südamerikas in Richtung Südostasien. Dort steigt der Meeresspiegel infolgedessen um gut einen halben Meter an. Vor Südamerika erzeugt diese westwärtige Strömung einen Sog, der kaltes Tiefenwasser zur Oberfläche strömen lässt. Das kalte Wasser heizt sich auf dem Weg nach Westen auf, was vor Südostasien für starke Verdunstung und ein regenreiches Klima sorgt. Etwa alle fünf Jahre passiert es, dass sich die Passatwinde aufgrund von Veränderungen der Luftdruckverhältnisse über dem Pazifik abschwächen oder ihre Richtung sogar umkehren. Dadurch strömt warmes Wasser aus dem Westpazifik nach Osten. An der sonst trockenen Westküste Südamerikas kommt es dadurch zu starken Niederschlägen, während in Südost-asien weniger Regen fällt. Weil das Phänomen seinen Höhepunkt typischerweise um Weihnachten erreicht, wird es El Niño, spanisch „das Christkind“, genannt.
* Der Artikel von Tim Kalvelage ist unter dem Titel: "Klimapuffer der Erde - Forschung untersucht die Dynamik von Kohlenstoffsenken https://www.max-wissen.de/max-hefte/geomax-30-klimapuffer-der-erde/ " im Geomax 30-Heft der Max-Planck-Gesellschaft im März 2025 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.
Weiterführende Links
Carbon Story: https://globalcarbonatlas.org/emissions/carbon-story/
Amazon Tall Tower (ATTO)-Projekt. Bildungsmaterialien des Max-Planck-Instituts für Biogeochemie Jena. https://www.attoproject.org/de/medien/mission-atto-forschung-im-gruenen-ozean/.
Klima/Klimawandel im ScienceBlog: https://scienceblog.at/klima-klimawandel
Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kann
Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kannDo, 06.02.2025 — Ricki Lewis
Vor 5 Jahren befürchtete man, dass die Genom-Sequenzierung bei Neugeborenen deren Privatsphäre gefährden könnte, wenn die genetischen Informationen dann beim Heranwachsen nicht angemessen geschützt würden. Dass die DNA-Analyse bei Neugeborenen einen vielleicht unerwarteten Nutzen kann berichtet die Genetikerin Ricki Lewis an Hand der Erkrankungen Marfan Syndrom und Alström Syndrom: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern, Geschwistern und anderen Naheverwandten bieten. Dieser Ansatz ercheint besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.*
Screening von Neugeborenen auf Stoffwechselprodukte, nicht auf DNA
Das Screening von Neugeborenen auf andere verdächtige Moleküle als die DNA gibt es schon seit Jahrzehnten. Kurz nach der Geburt wird aus der Ferse entnommenes Blut auf verschiedene Moleküle (Metaboliten) untersucht, die als Biomarker für bestimmte Krankheiten dienen.
Das US-amerikanische Recommended Uniform Screening Panel (RUSP) https://www.hrsa.gov/advisory-committees/heritable-disorders/rusp testet so auf 61 Erkrankungen. Die Liste variiert je nach Bundesstaat, wobei Illinois zum Beispiel auf 57 Krankheiten tested, Kalifornien auf 80. Sonderprogramme haben das RUSP im Laufe der Jahre erweitert.
Das Ziel des Neugeborenen-Screenings ist es, Krankheiten so früh zu erkennen, dass Symptome verhindert oder behandelt werden können. Allerdings sind manche Leute der Ansicht, dass das Neugeborenen-Screening "Patienten im Wartezustand" schafft, was bei frischgebackenen Eltern Ängste auslöst.
Genomsequenzierung bei Neugeborenen |
Das Neugeborenen-Screening kann zwar genetische Krankheiten aufdecken, analysiert aber nicht die DNA selbst. Es stellt nur zu hohe oder zu niedrige Werte bestimmter Aminosäuren und Acylcarnitine fest, die auf einen gestörten Eiweiß- bzw. Fettstoffwechsel hinweisen. Die dazu angewandte Technik ist die Tandem-Massenspektrometrie.
Die Sequenzierung von DNA zur Klassifizierung von Genvarianten ist etwas anderes. Gene sind die Anweisungen einer Zelle zur Verknüpfung präziser Sequenzen von Aminosäuren zu Proteinen.
Neugeborenen-Screening auf DNA: GUARDIAN und BabySeq
Zwei Programme haben kürzlich Ergebnisse zur Bedeutung der DNA-Sequenzierung eines Neugeborenen veröffentlicht.
Die GUARDIAN-Studie (Genomic Uniform-screening Against Rare Disease in All Newborns - https://guardian-study.org/ des New York-Presbyterian Hospital untersuchte 4 000 Kinder, die zwischen September 2022 und Juli 2023 in sechs Krankenhäusern in New York City geboren wurden. Dabei wurden Gene sequenziert, die für 156 früh auftretende genetische Erkrankungen und 99 mit Krampfanfällen einhergehende neurologische Entwicklungsstörungen verantwortlich sind. Die gewählten Erkrankungen sind behandelbar, insbesondere wenn sie frühzeitig erkannt werden. Die Ergebnisse wurden kürzlich im Fachjournal JAMA veröffentlicht [1].
Das Projekt BabySeq (https://www.genomes2people.org/research/babyseq/news-media/),das 2018 begann, ist breiter angelegt. Es hat Exome (den proteincodierenden Teil eines Genoms) oder ganze Genome sequenziert und 954 Gene identifiziert, bei denen Mutationen drei Kriterien erfüllen:
- die assoziierte Erkrankung beginnt in der Kindheit
- wenn eine Mutation vorhanden ist, sind auch die Symptome vorhanden (hohe Penetranz)
- die Erkrankung ist bis zu einem gewissen Grad therapiebar
BabySeq suchte auchaus der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG - https://www.ncbi.nlm.nih.gov/clinvar/docs/acmg/) nach einigen therapiebaren Erkrankungen, die nur im Erwachsenenalter auftreten, wie z. B. familiäre Krebssyndrome.
In der Ankündigung von BabySeq in Pediatrics (https://pmc.ncbi.nlm.nih.gov/articles/PMC6038274/) heißt es:
"Die größte Chance, dss sich die Genomsequenzierung ein Leben lang auswirkt, hat die Zeit unmittelbar nach der Geburt. Neugeborenenperiode. Das BabySeq-Projekt ist eine randomisierte Studie, die die medizinischen, verhaltensbezogenen und wirtschaftlichen Auswirkungen erforscht, wenn die Genomsequenzierung in die Fürsorge gesunder und kranker Neugeborener eingebaut wird."
Im Rahmen des BabySeq-Projekts wurden Kinder fünf Jahre lang beobachtet. Die ersten Ergebnisse sind in der Juli-Ausgabe 2023 des American Journal of Human Genetics veröffentlicht [2].
An dem Projekt haben 127 gesunde Säuglinge und 32 kranke Säuglinge aus Intensivstationen zweier Bostoner Krankenhäuser teilgenommen. Außerdem wurde nach einigen relevanten Erkrankungen im Erwachsenenalter gesucht, die in der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG) aufgeführt sind.
Bei 17 der Kinder wiesen die Genome relevante krankheitsverursachende Mutationen auf.
Von 14 gesunden Säuglingen entwickelten vier ein vergrößertes und geschwächtes Herz - dilatative Kardiomyopathie - aufgrund von Mutationen im TTN-Gen, das für ein Muskelprotein (Titin) kodiert. Durch häufige EKGs und Echokardiogramme können die ersten Symptome erkannt werden, die dann medikamentös oder physikalisch behandelbar sind. Betroffene Kinder sollten bestimmte Stimulanzien meiden, bestimmte Sportarten wählen und eine für das Herz gesunde Ernährung einhalten.
Ein anderes Kind hatte eine feststellbare und heilbare verengte Aorta, und ein weiteres litt an Vitaminmangel (Biotin), der mit Nahrungsergänzungsmitteln behandelbar war. Zwei Neugeborene wiesen BRCA2-Mutationen auf, was drei Verwandte zu einer Operation veranlasste, um damit assoziierte Krebserkrankungen zu verhindern. Ein weiteres Kind kann dank der Früherkennung einen Hörverlust im Teenageralter vermeiden.
Bei Babys, die wegen einer Erkrankung auf der Intensivstation lagen, wurde eine durch die DNA aufgezeigte, weitere Erkrankung festgestellt. Ein Kind, das wegen eines Herzfehlers ins Krankenhaus eingeliefert wurde, hatte auch einen Glucose-6-Phosphat-Dehydrognenase-Mangel, der beim Verzehr bestimmter Lebensmittel eine hämolytische Anämie verursacht. Und ein Säugling, der wegen Atembeschwerden ins Krankenhaus eingeliefert wurde, hatte das Lynch-Syndrom geerbt, das im Erwachsenenalter Darm-, Gebärmutter-, Magen- und Eierstockkrebs verursacht.
Einige der Kinder wiesen Mutationen auf, die sich später auf den Stoffwechsel bestimmter Krebs- und entzündungshemmender Medikamente auswirken sollten.
Ein unerwarteter Nutzen der Neugeborenen-Sequenzierung der DNA: Erklärung der Krankheiten von Verwandten
Als die BabySeq-Studie im Jahr 2018 begann, wurde kritisiert, dass Eltern mit Namen von beängstigenden Krankheiten belastet werden, die sich - wenn überhaupt - möglicherweise erst nach Jahren manifestieren. Nach den fünf Jahren der Studie zeigte sich welchen Wert die Erkennung behandelbarer Krankheiten noch vor ihrem Ausbruch hat: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern und Geschwistern, Tanten und Onkeln, Großeltern und Cousins bieten. Dieser Ansatz ist besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.
Genetiker bezeichnen mehrere, scheinbar nicht zusammenhängende Symptome, die von einer Mutation in einem einzigen Gen herrühren, als Pleiotropie. Ein Beispiel sind das seltene Marfan-Syndrom und das noch seltenere Alström-Syndrom.
Marfan-Syndrom
Einige Symptome des Marfan-Syndroms sind offenkundig, wenn man sie zusammen betrachtet: lange Arme, Beine, Finger und Zehen, ein schmales, langes Gesicht, ein eingesunkener oder hervorstehender Brustkorb aufgrund einer kollabierten Lunge sowie Plattfüße, Skoliose und sehr flexible Gelenke. Ein Patient mit nur einem oder zwei dieser Merkmale könnte allerdings unbemerkt bleiben. Und einige Marfan-Symptome treten erst im Erwachsenenalter auf, z. B. Kurzsichtigkeit, Katarakte und verrutschte Linsen.
Die Diagnose des Marfan-Syndroms wird in der Regel nach kardialen Ereignissen gestellt, z. B. undichten Herzklappen oder einer aufgespaltenen Aorta, die sich ausbeulen und reißen kann (ein Aneurysma). Wenn die Schwächung frühzeitig erkannt wird, kann ein synthetisches Transplantat den Abschnitt der Arterienwand ersetzen und das Leben des Betroffenen retten. Manchmal macht sich das Marfan-Syndrom aber auch als Notfall bemerkbar.
So erging es auch dem Dramatiker Jonathan Larson, der das Stück Rent über die Anfänge von AIDS schrieb. Er starb 1996 plötzlich, einen Tag vor der Premiere von Rent am Broadway, an den Folgen einer Aortendissektion, die später als Folge des Marfan-Syndroms erkannt wurde. Nach Angaben der Marfan Foundation "wies er viele der äußeren Anzeichen auf, war aber nie diagnostiziert worden. Zwei Notaufnahmen von Krankenhäusern in New York City erkannten nicht die Anzeichen einer Aortendissektion und auch nicht, dass Jonathan viele Merkmale des Marfan-Syndroms aufwies, was ihn einem hohen Risiko für eine Aortendissektion aussetzte."
Andere berühmte Persönlichkeiten, die das Marfan-Syndrom hatten, sind Abraham Lincoln, Julius Cäsar, König Tut und der olympische Schwimmer Michael Phelps.
Eine dominante Mutation im Gen FBN1 verursacht das Marfan-Syndrom. Das Gen kodiert das Protein Fibrillin-1, das die elastischen Fasern des Bindegewebes bildet und Blutgefäße, Knochen und Knorpel beeinflusst. In etwa 75 Prozent der Fälle wird die Krankheit von einem Elternteil vererbt, in den anderen Fällen entsteht sie durch eine neue Mutation. Die Untersuchung der Eltern eines Patienten kann Aufschluss darüber geben, ob die Mutation neu ist oder vererbt wurde, was wiederum Auswirkungen auf andere Familienmitglieder hat.
Eine Genomsequenzierung kann das Marfan-Syndrom auch dann aufdecken, wenn ein Neugeborenes nicht die verräterischen langen Gliedmaßen und den eingesunkenen oder vorstehenden Brustkorb aufweist oder wenn sein Arzt die Anzeichen nicht erkennt. So könnte eine genetische Diagnose sofort erklären, warum eine Tante an einem Aortenaneurysma gestorben ist, ein Geschwisterkind mit verrutschten Linsen und einem langen Gesicht, ein Großelternteil, der wegen seiner Plattfüße nicht zum Militär gehen konnte, und ein Cousin, der dank seiner großen Flexibilität ein begnadeter Tänzer ist.
Alström-Syndrom
Die Inzidenz (Häufigkeit in der Bevölkerung) des Marfan-Syndroms liegt bei 1 zu 5.000 (https://medlineplus.gov/genetics/condition/marfan-syndrome/#:~:text=At%20least%2025%20percent%20of,mutation%20in%20the%20FBN1%20gene), was für eine Störung an nur einem Gen recht hoch ist. Im Gegensatz dazu betrifft das Alström-Syndrom zwischen 1:10.000 und weniger als 1:1.000.000 Menschen ((https://rarediseases.org/rare-diseases/alstrom-syndrome/). Bisher sind nur 1200 Fälle bekannt. Die Sequenzierung des Genoms von Neugeborenen kann das aber ändern.
Die Liste der Symptome des Alström-Syndroms ist so lang und die Zusammenstellung der Symptome bei den Patienten so unterschiedlich, dass es verständlich ist, wenn Ärzte die zugrunde liegende genetische Ursache möglicherweise nicht erkennen. Und wie beim Marfan-Syndrom treten einige Alström-Symptome erst im Erwachsenenalter auf.
Das Alström-Syndrom beeinträchtigt das Seh- und Hörvermögen, verursacht Fettleibigkeit im Kindesalter, Insulinresistenz und Diabetes mellitus, dilatative Kardiomyopathie, degenerierende Nieren und kann Leber, Lunge und Blase sowie die Hormonsekretion betreffen. Die Intelligenz bleibt in der Regel erhalten, aber die Kinder können kleinwüchsig sein und Entwicklungsverzögerungen aufweisen.
Die vielfältigen Symptome entstehen durch eine Mutation in einem Gen, ALMS1. Es kodiert für ein Protein, das für aus der Zelle austretende schwanzartige Flimmerhärchen die Basis bildet. Die atypischen Flimmerhärchen verursachen Krankheiten, die als "Ciliopathien" bezeichnet werden, was für "kranke Flimmerhärchen" steht. Da die Flimmerhärchen die Bewegung von Substanzen in und zwischen den Zellen steuern und die Zellteilung kontrollieren, treten bei einer Beeinträchtigung viele Symptome auf.
Im Gegensatz zum dominanten Erbgang des Marfan-Syndroms, bei dem ein betroffener Elternteil die Krankheit weitergibt, ist das Alström-Syndrom rezessiv; zwei Trägereltern sind nicht betroffen, geben aber ihre Mutationen weiter. Wenn also bei der Sequenzierung des Genoms eines Neugeborenen ein Kind mit zwei Kopien einer ALMS1-Mutation identifiziert wird, dann sind die Eltern vermutlich beide Träger. Geschwister haben ein 25-prozentiges Risiko, die Krankheit zu erben.
Fazit
Um die potenziellen Auswirkungen der DNA-Sequenzierung bei Neugeborenen zu beurteilen, braucht es noch einige Zeit. Ich denke jedoch, dass die potenzielle Preisgabe der Privatsphäre bei der Identifizierung von Mutationen, insbesondere von relevanten Mutationen, verspricht die Gesundheit vieler anderer Personen zu verbessern
[1] Alban Ziegler et al., Expanded Newborn Screening Using Genome Sequencing for Early Actionable Conditions. JAMA. 2025;333(3):232-240. doi:10.1001/jama.2024.19662
[2] Robert C. Green et al., Actionability of unanticipated monogenic disease risks in newborn genomic screening: Findings from the BabySeq Project. The American Journal of Human Genetics 110, 1–12, July 6, 2023. DOI: 10.1016/j.ajhg.2023.05.007
* Der Artikel ist erstmals am 14. November2024 in PLOS Blogs - DNA Science Blog unter dem Titel "A Genetic Crystal Ball: When Newborn Genome Sequencing Findings Explain Illnesses in Relatives" https://dnascience.plos.org/2024/11/14/a-genetic-crystal-ball-when-newborn-genome-sequencing-findings-explain-illnesses-in-relatives/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.
Ernährungsforschung - ein Schwerpunkt im ScienceBlog
Ernährungsforschung - ein Schwerpunkt im ScienceBlogSo. 02.02.2025 — Redaktion
Die Ernährungsforschung ist eine noch eine recht junge wissenschaftliche Disziplin, die erst im 20. Jahrhundert einsetzen konnte, als die Chemie imstande war komplexe organische Materialien zu analysieren und einzelne Strukturen daraus aufzuklären. Im ScienceBlog liegt eine bereits sehr umfangreiche Artikelsammlung vor, die viele unterschiedliche Facetten der Ernährungsforschung zeigt: Diese reichen vom Mangel an Nährstoffen oder deren exzessiven Konsum und damit assoziierten Krankheiten, über die Rolle des Mikrobioms und über Vergiftungen bis hin zu Adaptierungen in Lebensweise und Konsumgewohnheiten als Folge einer sich rasch verändernden Welt. Die Artikelsammlung ist auch unter der Rubrik "Artikel sortiert nach Themenschwerpunkten" gelistet und soll durch neue Berichte entsprechend ergänzt werden.
"Deine Nahrung sei Deine Medizin, Deine Medizin sei Deine Nahrung" Offensichtlich war den Menschen seit alters her bewusst, dass Ernährung und Gesundheit untrennbar miteinander verknüpft sind. Obiges Zitat wird üblicherweise dem griechischen Arzt Hippokrates (460 - 370 BC) zugeschrieben, der als Begründer einer wissenschaftlichen Medizin gilt. Für Hippokrates galt eine gesunde Ernährung als zentrale Voraussetzung für Wohlbefinden und ein gutes Leben - diaita (davon leitet sich unser Grundbegriff Diät) - her. Abbildung 1.
Abbildung 1. Hippokrates auf dem Boden des Asklepieion von Kos sitzend, mit Asklepios, dem in einem Boot ankommenden Gott der Heilkunst in der Mitte. Mosaik aus dem 2-3.Jh n.Chr. (Bild: By Tedmek - Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15847465) |
Das von Hippokrates angestrebte Wohlbefinden findet sich heute, fast 2500 Jahre später, in der Definition der WHO wieder: "Gesundheit ist ein Zustand des vollständigen körperlichen, geistigen und sozialen Wohlbefindens. Das körperliche Wohlbefinden bezieht sich auf das Funktionieren unseres Körpers, das geistige darauf, wie wir unser Leben bewältigen und das soziale auf unsere Beziehungen zu anderen".
Was aber ist Ernährung, was eine gesunde Ernährung?
Die Wissenschaft in diesem Gebiet ist noch sehr jung. Eine Analyse, woraus sich Nahrung zusammensetzt, wurde erst mit den Anfängen der Chemie möglich, d.i. ab dem späten 18. Jahrhundert. Im Habsburgerreich gelang 1810 dem jungen Joseph Wilhelm Knoblauch eine - leider weitgehend vergessene - Pionierleistung mit seinem damals preisgekrönten, monumentalen 3-bändigen Werk “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ (siehe Artikelliste).
In der Mitte des 19. Jahrhunderts hat der Mediziner und Chemiker Vinzenz Kletzinsky erstmals den Begriff "Biochemie" als Lehre vom Stoff des Lebens geprägt und damit die Bescheibung des Kreislaufs des organischen Lebens angestrebt (siehe Artikelliste).
Bis zum Beginn des 20. Jahrhunderts
bezogen sich die Analysen von Nahrungsmitteln bloß auf deren Gehalt an Makronährstoffen, d.i. an den Stoffklassen der Proteine, Fette und Kohlenhydrate, die dem Körper Energie liefern - ohne deren Komponenten noch zu kennen. Zu den Makronährstoffen zählen auch Wasser, das keine Energie liefert und Ballaststoffe, die nicht - wie bis vor Kurzem angenommen - unverdaut ausgeschieden werden, sondern über das Mikrobiom im Darmtrakt zu energieliefernden Produkten abgebaut werden können.
In einem 1918 erschienenen Handbuch "Diet and Health" hat die US-amerikanische Ärztin Lulu Hunt Peters erstmals eine neue Methode zur Bewertung von Lebensmitteln vorgestellt - nämlich deren Nährstoffgehalt in ihrem Brennwert, d.i. in Kalorien auszudrücken. Daraus leitete sich die Möglichkeit ab durch Limitierung der aufgenommenen Kalorien "Kalorienzählen" eine Reduktion des Körpergewichts zu erzielen. Das Buch wurde ein Bestseller und hat ein Jahrhundert von Diätmoden eingeleitet, die uns bis heute hungern lassen, um unsere Körper kräftig und gesund zu erhalten.
In der ersten Hälfte des 20. Jahrhunderts gelang es essentielle Mikronährstoffe - Vitamine, Prohormone (Vitamin D, A) und Vitalstoffe - in Nahrungsmitteln zu isolieren, zu charakterisieren und schwere Mangelzustände mit spezifischen Krankheitsbildern (z.B. Skorbut, Pellagra, Anämie und Rachitis) zu assoziieren. Diese Erkenntnisse führten zur industriellen Vermarktung von Mikronährstoffen - als Supplemente und angereichert in Grundnahrungsmitteln - und eröffneten damit neue Möglichkeiten zur Behandlung von Mangelzuständen.
Die Rolle von Mangelernährung konzentrierte sich auch auf den Proteinmangel, vor allem bei Kindern in Entwicklungsländern (Folge: Marasmus und Kwashiorkor) aber auch u.a. bei geriatrischen Patienten in der westlichen Welt. Die Industrie antwortete mit der Entwicklung von eiweißangereicherten Formeln und Beikost für Entwicklungsländer.
Auch weiterhin blieb die Lebensmittelforschung in den Händen der Chemie; in Deutschland und auch in Österreich wurden erst in der zweiten Hälfte des 20 Jh. die entsprechenden Lehrstühle nicht mehr ausschließlich mit Chemikern besetzt; das Fach ist heute multidisziplinär.
Die aus einer Arbeit von Dariush Mozaffarian entnommene Abbildung 2 fasst die historische Entwicklung der Ernährungsforschung seit rund 100 Jahren zusammen.
In der zweiten Hälfte des 20. Jahrhunderts
verlagerte sich das Interesse der Ernährungsforschung auf die Rolle von Nährstoffen bei chronischen Krankheiten, vor allem bei Herz-Kreislauf-Erkrankungen, Adipositas, Diabetes und Krebserkrankungen. Man blieb bei dem für Vitaminmangel erprobten Modell die physiologische Wirkung eines einzelnen Nährstoffes zu verfolgen und daraus seine optimale Dosis zur Prävention von Krankheiten bestimmen zu wollen. Es zeigte sich, dass diese Strategie aber nur schlecht auf chronische Erkrankungen übertragbar ist, Adipositas, Diabetes und einige Krebserkrankungen stiegen an.
Abbildung 2. Wesentliche Ereignisse der modernen Ernährungswissenschaft mit Auswirkungen auf die aktuelle Wissenschaft und Politik (Bild modifiziert aus: Dariush Mozaffarian et al., BMJ 2018;361:k2392 | doi: 10.1136/bmj.k2392. Lizenz cc-by) |
Zum Unterschied zu den erfolgreichen früheren Vitaminstudien erweisen sich derartige Untersuchungen als hochkomplex und sehr teuer; deren Qualität ist häufig niedrig und das Ergebnis enttäuschend. Bei einer jahrelangen Studie zu einer bestimmten Diätform ist ja eine riesige Anzahl von Probanden nötig, um einen signifikanten Unterschied im Ergebnis nachzuweisen. Dabei ist es kaum möglich zu kontrollieren, wie weit sich die Probanden an die vorgeschriebene Diät gehalten haben und echte Placebo-Gruppen fehlen zumeist (man kann ja Probanden über Jahre nicht schweren Mangelbedingungen aussetzen).
Als Beispiel sei die 5-Jahre dauernde US-amerikanische Studie VITAL an 26 000 Probanden zur erhofften positiven Wirkung von Vitamin D-Supplementierung auf Herz-Kreislauf- und Krebserkrankungen angeführt (siehe Artikelliste). Es konnte hier kein signifikanter Unterschied zwischen Vitamin D-supplementierter Gruppe und Placebogruppe festgestellt werden, allerding lagen die Blutspiegel der Placebogruppe (die Teilnehmer durften täglich 800 IU einnehmen) bereits im Bereich erstrebenswerter normaler Vitamin D-Konzentrationen (25(OH)2D3 im Mittel 30,8 ng/ml), sodass eine weitere Steigerung in der supplementierten Gruppe (25(OH)2D3 im Mittel rund 42 ng/ml) nicht unbedingt zu zusätzlicher Wirkung führen brauchte.
Ernährung in der Zukunft
Der Klimawandel nimmt an Fahrt zu und bedroht den Bestand einiger unserer Grundlebensmittel. Unsere Konsumgewohnheiten tragen noch dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten. Wir sind zudem abhängig von einer globalisierten Versorgung mit einer "Handvoll" von Nahrungsmitteln geworden. Diese Handvoll, die zu 90 % zur Ernährung der Menschheit beiträgt, kann durch politische Unruhen, Kriege, Pandemien und andere Katastrophen bedroht werden. Nahrungsmittel müssen sich an die Gegebenheiten adaptieren, Pflanzenzucht, Landwirtschaft, Viehhaltung und Lebensmittelproduktion werden sich dementsprechend verändern und auf Verhaltensweisen und Konsumgewohnheiten einwirken, um Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, diese zu ändern.
Artikelsammlung im ScienceBlog (wird laufend ergänzt)
- Vinzenz Kletzinsky, 12.8.2021: Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren.
- Robert W. Rosner, 3.6.2021: Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift.
- Redaktion, 10.5.2018: Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren.
- IIASA, 24.6.2021: Was uns Facebook über Ernährungsgewohnheiten erzählen kann.
- Ilona Grunwald-Kadow, 11.5.2017: Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern.
- Gottfried Schatz, 18.4.2014: Meine Welt — Warum sich über Geschmack nicht streiten lässt.
Mikronährstoffe
- Redaktion, 22.09.2024: Zur unzureichenden Zufuhr von Mikronährstoffen
- Gottfried Schatz, 3.1.2013: Wie «unsichtbarer Hunger» die Menschheit bedroht.
- Gottfried Schatz, 21.6.2012: Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzählt
- Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?
- Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht.
- Inge Schuster, 05.02.2022:100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert.
- Inge Schuster, 18.09.2020: Spermidin - ein Jungbrunnen, eine Panazee?
- Inge Schuster, 24.09.2023: Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann
Übergewicht
- Nora Schultz, 02.08.2018:Übergewicht – Auswirkungen auf das Gehirn
- Jens C. Brüning & Martin E. Heß, 17.04.2015: Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?
- Jochen Müller, 19.11.2020: Warum essen wir mehr als wir brauchen?
- Francis S. Collins, 30.5.2019: Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme.
- Francis S.Collins, 25.1.2018:Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas.
Diabetes
- Inge Schuster, 15.2.2018:Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken.
- Rick Lewis, 30.3.2017: Eine neue Sicht auf Typ-1-Diabetes?
- Hartmut Glossmann, 10.04.2015:Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?
Mikrobiom
- Inge Schuster, 18.05.2023: Mit CapScan® beginnt eine neue Ära der Darmforschung
- Inge Schuster, 15.01.2023: Probiotika - Übertriebene Erwartungen?
- Inge Schuster, 3.1.2019: Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen.
- Dario R. Valenzano, 28.6.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts.
Vergiftungen
- Inge Schuster, 04.08.2024: Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?
- Günter Engel, 1.12.2016: Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart.
- Inge Schuster, 07.09.2017 Fipronil in Eiern: unverhältnismäßige Panikmache?
- Redaktion, 22.02.2018: Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren.
- Martin Kaltenpoth, 15.07.2021: Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen.
- Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?
Ernährung in einer sich verändernden Welt
- Redaktion, 27.01.2022: Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln.
- Bill and Melinda Gates Foundation, 20.5.2016: Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und Armut.
- IIASA, 12.1.2017: Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt.
- IIASA, 18.6.2018: Ökonomie des Klimawandels.
- Redaktion, 11.11.2024:Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?
- Redaktion, 16.02.2024: Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt.
- Ricki Lewis, 28.06.2024: Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der Muttermilch
- Ricki Lewis, 15.03.2024: Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?
- Redaktion, 17.08.2023: Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden.
- I. Schuster, 1.05.2022: Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen.
- I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?
Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführte
Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführteFr, 24.01.2025 — Redaktion
Das in den 1990er Jahren von der EU finanzierte Projekt Phidias hat die medizinische Welt auf den Kopf gestellt, indem es den 3D-Druck in das Gesundheitswesen einführte. Dies hat zu wesentlich besseren Ergebnissen bei komplizierten Operationen geführt und das Leben von Tausenden von Patienten verbessert.*
Der 3D-Druck ist in der Medizin inzwischen weit verbreitet. Präzise Modelle von menschliche Knochen und Organen sind eine große Hilfe bei komplexen Operationen. (© Scharfsinn, Shutterstock.com) |
1990 besuchte Fried Vancraen eine deutsche Fachmesse und war von einem dort ausgestellten 3D-Drucker so fasziniert, dass er einen solchen für sein neues Unternehmen Materialise kaufte. Gefördert von der EU trat er zwei Jahre später mit seinem kleinen belgischen Start-up eine Reise an, die die Welt der Medizin - und des 3D-Drucks - für immer verändern sollte.
Zusammen mit Partnern aus Deutschland und dem Vereinigten Königreich haben Vancraen und Materialise Pionierarbeit bei der Nutzung des 3D-Drucks für medizinische Zwecke erbracht. Auf der Grundlage medizinischer Bilder haben sie zum ersten Mal begonnen genaue Modelle menschlicher Knochen und Organe - Modelle zum Angreifen - herzustellen. Dies war eine große Hilfe für Chirurgen bei der Planung komplexer Eingriffe.
"Schon damals waren wir davon überzeugt, dass 3D-Drucker die medizinische Welt verändern würden", so Vancraen.
Nachdem sich Materialise von einem universitären Spin-off zu einem multinationalen Unternehmen entwickelt hatte, zog sich Vancraen 2024 aus der Führungsposition zurück und wurde Vorsitzender des Unternehmens. Aber er erinnert sich noch lebhaft an die Begeisterung, als sie zur Testung ihrer Ideen vor mehr als 30 Jahren Neuland betraten.
Den Anfang machte eine EU-Förderung für ihr Forschungsprojekt namens PHIDIAS. Es lief drei Jahre lang, bis Ende 1995, und sein Fokus lag auf der Erstellung genauer medizinischer Modelle auf der Grundlage verbesserter medizinischer Bilder, wobei es sich hauptsächlich um Computertomographie (CT) handelte.
"Natürlich erinnere ich mich daran", sagte Vancraen, als er danach gefragt wurde. "Ich war der Projektleiter, ich habe den [Finanzierungs-]Antrag geschrieben und die Partner zusammengebracht".
Dazu gehörten Imperial Chemical Industries aus dem Vereinigten Königreich, dessen Pharmasparte 1993 in ein eigenständiges Unternehmen, Zeneca, umgewandelt wurde, sowie Siemens, der deutsche Industrieriese, der medizinische Bildgebungsgeräte herstellt, und die Universität KU Leuven in Belgien.
Materialise, das aus der KU Leuven hervorging, beschäftigt heute rund 2 000 Mitarbeiter und ist an der Nasdaq-Börse in New York notiert.
Inzwischen ist der 3D-Druck zu einem Eckpfeiler der chirurgischen Gesundheitsversorgung geworden. 3D-Drucker werden regelmäßig zur Herstellung von Implantaten, Prothesen und Körpermodellen von Patienten verwendet, an denen Chirurgen üben können.
Als Materialise gegründet wurde, steckte die Technologie jedoch noch in den Kinderschuhen. Es gab Zweifel, wie nützlich sie sein könnte und ob Ärzte sie für die Behandlung echter Patienten einsetzen könnten.
Am 1. Januar 1993, weniger als drei Jahre nach der Gründung des Unternehmens, wurde die Arbeit ernsthaft aufgenommen.
"Das waren unsere Anfangstage", sagt Vancrean. "Damals hatten wir ein Team von etwa 20 Leuten".
Von der Salamiwurst zum Spiralscan
Für Vancraens Team ging es zunächst darum, die medizinische Bildgebung zu verbessern.
"Damals war die Aufnahme eines CT-Scans wie das Aufschneiden einer Salami", erinnert sich Vancraen. "Um den Scan zu erstellen, machte der Scanner ein Bild von einer Schicht des Körpers des Patienten und wurde dann ein paar Zentimeter nach vorne bewegt, um einen weiteren Scan zu erstellen - so als würde man eine Wurst aufschneiden."
"Jedes Mal, wenn sich der Patient auch nur geringfügig bewegte, kam es zu Problemen im Bild", sagt Vancraen und bezieht sich dabei auf die so genannten Artefakte, unbeabsichtigte Muster oder Verzerrungen in der Abbildung.
Der 3D-Druck erfordert genaue Bilder des Körpers des Patienten. Wenn man zum Beispiel ein Implantat in 3D drucken will, das nahtlos passt, braucht man ein genaues Bild des Körpers des Patienten. Artefakte im Scan bedeuten für den Patienten später medizinische Probleme und Beschwerden.
Aus diesem Grund hat das Team von Materialise die "Salami-Methode" durch einen Spiral-CT-Scan ersetzt. "Wir haben es geschafft, den Patienten in einer einzigen Bewegung zu scannen", sagt Vancraen. "Das CT bewegt sich spiralförmig um den Patienten herum."
Eine weitere Hürde wurde genommen, als Zeneca, das später mit dem schwedischen Arzneimittelhersteller Astra zu AstraZeneca fusionierte, ein menschenverträgliches Polymer entwickelte, das in 3D gedruckt werden konnte. Dieses ersetzte ältere Polymere, die für Menschen oft giftig waren und nicht für Implantate verwendet werden konnten.
Gehen vor Laufen
In dem Bestreben, seine bahnbrechende Technik zu erweitern, brachte Materialise die Technologie in das Universitätskrankenhaus von Leuven, seiner Heimatstadt. Dort testete man in enger Zusammenarbeit mit 30 Chirurgen aus Belgien, Frankreich, Deutschland und den USA, ob Chirurgen tatsächlich vom 3D-Druck profitieren können.
"Wir haben die erste echte klinische Studie zum 3D-Druck im Gesundheitswesen durchgeführt", so Vancraen. Insbesondere half sie den Chirurgen, sich auf komplexe Operationen vorzubereiten.
Das Team verwendete die Laser-Stereolithografie, eine Technik, mit der komplexe, genaue Modelle Schicht für Schicht gedruckt werden. Dabei wird ein ultravioletter Laser mit Hilfe einer computergestützten Design-Software auf ein Harz aus großen Molekülen fokussiert, die für UV-Licht empfindlich sind.
Mit ihren neuen Scannern, die eine bessere medizinische Bildgebung ermöglichen, erstellten die Forscher 3D-gedruckte Modelle von Organen und Körperteilen, an denen die Chirurgen operieren würden. Auf diese Weise konnten sich die Chirurgen darauf vorbereiten, was sie im Körper des Patienten vorfinden würden, und ihr Vorgehen anpassen.
"In mehreren Fällen ist es uns gelungen, die Anzahl der Operationen, denen sich ein Patient unterziehen musste, zu reduzieren", so Vancraen. "Bei einer Person waren drei Operationen geplant. Dank unserer Technologie konnte der Chirurg sie besser planen und den Eingriff tatsächlich in einer einzigen Operation durchführen. Das hat die Belastungen für den Körper des Patienten enorm reduziert."
Durch die Kombination von verbessertem Scannen und Drucken war PHIDIAS das Team, das den Grundstein für zukünftige Fortschritte im medizinischen 3D-Druck legte.
"Wir mussten erst gehen lernen, bevor wir laufen lernen konnten", sagt Vancraen. "PHIDIAS war der Moment, in dem wir gelernt haben, wie man läuft."
Sprungbrett
Einer von den Forschern, die heute bei Materialise tätig sind, ist Roel Wirix-Speetjens, Manager für die medizinische Forschung. Aufbauend auf der Arbeit der PHIDIAS-Forscher entwickelt er neue Lösungen.
"PHIDIAS hat unsere medizinische Abteilung geschaffen", sagt er. "Seitdem haben wir zum Beispiel mehr als 400 000 maßgeschneiderte Knieinstrumente geliefert. Darauf bin ich sehr stolz", sagt er und bezieht sich dabei auf Hilfsmittel, die Chirurgen helfen, genauer zu arbeiten.
In einem Projekt gelang es Materialise, ein detailliertes 3D-Modell der Lunge eines Patienten zu erstellen, einschließlich der Atemwege und der Lungenflügel, also der Abschnitte jeder Lunge. Dieses Modell hilft Chirurgen, die Lungenkrebs entfernen müssen, indem es ihnen erlaubt, die genaue Lage des Tumors zu bestimmen.
"Auf diese Weise wird weniger gesundes Lungengewebe entfernt", sagt Wirix-Speetjens. "Das macht die Genesung des Patienten viel weniger mühsam."
Aber sie entwickeln auch neue 3D-Drucktechnologien. Unter anderem hat Materialise Wege zur Verbesserung der Gesichtschirurgie entwickelt.
Wenn ein Patient beispielsweise eine Verletzung erlitt, die sein Gesicht deformierte, mussten Chirurgen in der Vergangenheit Standardimplantate verwenden, um den beschädigten Knochen und das Gewebe zu ersetzen. Sie mussten die Implantate während der Operation manuell biegen, damit sie sich in die verbleibende Gesichtsstruktur einfügten.
"Heute drucken wir 3D-Implantate, die auf den Patienten zugeschnitten sind", sagt Wirix-Speetjens. "Wir scannen ihre Gesichter und unsere 3D-Drucker stellen komplizierte Implantate her, mit denen die Chirurgen die Gesichtsstruktur rekonstruieren können."
Die Behandlung kann nun auf die Bedürfnisse des Einzelnen abgestimmt werden. PHIDIAS war ein wichtiger Schritt, um dies zu ermöglichen, und es gibt noch viele weitere spannende Möglichkeiten.
"Wir machen das erst seit 34 Jahren", sagt Vancraen. "Ich weiß nicht, wo wir landen werden."
*Dieser Artikel wurde ursprünglich am 21. Jänner 2025 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine" https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/trade-fair-advanced-surgery-research-project-pioneered-3d-printing-medicine?pk_source=youtube&pk_medium=social_organic&pk_campaign=health-industry" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt.
From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine. Video: 0,39 min. https://www.youtube.com/watch?v=v283Tjog2Ls
Materialise homepage:https://www.materialise.com/de/
Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und Klima
Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und KlimaSa, 18.01.2025 — Redaktion
Aerosolpartikel in der Atmosphäre kühlen das Klima ab, indem sie das Sonnenlicht direkt reflektieren und als Nukleationskeime für Wasser fungieren, d.i. für die Bildung von Wolken, die auf die Strahlungsbilanz der Erde stark einwirken. Seit der vorindustriellen Zeit haben Veränderungen der atmosphärischen Partikel so einen Teil der Erwärmung maskiert, die durch den Anstieg des Kohlendioxidgehalts verursacht wurde. Der Großteil der Aerosolpartikel entsteht durch die spontane Kondensation von Spurendämpfen, die sogenannte Nukleation. Das biogene, vor allem von tropischen Regenwäldern emittierte Isopren - der häufigste in die Atmosphäre emittierte Nicht-Methan-Kohlenwasserstoff - wurde bislang für seine Fähigkeit zur Aerosolbildung als vernachlässigbar angesehen. Ein multinationales Team hat nun im Rahmen des CERN-Experiments CLOUD festgestellt, dass Isopren die schnelle Keimbildung und das Wachstum von Partikeln in der oberen Troposphäre sehr effizient fördern kann. Es sind dies wichtige Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind.
Atmosphärische Aerosole - d.i. heterogene Mischungen aus festen oder flüssigen Schwebeteilchen in einem Gas - spielen eine zentrale Rolle auf das Klima, indem sie Sonnenenergie zurückstreuen und als Kondensationskeime für Wasser, d.i. als Wolkenkondensationskeime fungieren. Aerosolpartikel sind mikroskopisch kleine Partikel, die direkt in die Atmosphäre emittiert werden oder durch chemische Reaktionen mit Vorläufersubstanzen entstehen, wie beispielsweise schwefelhaltigen Gasen, die aus vulkanischer Aktivität und Verbrennung stammen.
Die Vorgänge spielen sich in der sogenannten Troposphäre ab. Diese die Erde bis zu einer Höhe von 15 km umhüllende Schicht enthält bis zu 90 Prozent der gesamten Luftmasse und fast den gesamten Wasserdampf der Erdatmosphäre, in dieser Schichte entstehen also Wolken und findet der Wasserkreislauf statt. Die für die Bildung der Partikel verantwortlichen Dämpfe sind noch nicht gut erforscht, insbesondere in der oberen Troposphäre. Weltweit ist der wichtigste Dampf vermutlich die Schwefelsäure, die sich in der Atmosphäre durch Oxidation von Schwefeldioxid bildet, wie es bei der Verbrennung von Brennstoffen freigesetzt wird.
Die Emissionen aus fossilen Brennstoffen haben seit der vorindustriellen Zeit zur Zunahme von Aerosolen und Wolken geführt. Dementsprechend haben diese zu einem Nettoabkühlungseffekt geführt, der etwa die Hälfte der durch den Anstieg des Kohlendioxids verursachten Erwärmung maskieren dürfte. Dies ist aber eine mit großen Unsicherheiten behaftete Schätzung. Sie erschwert die Vorhersage des Klimas in späteren Jahrzehnten, wenn anthropogene Emissionen zurückgegangen sein sollten. Wenn der Schwefeldioxidgehalt durch Emissionskontrollen gesenkt wird, werden aus biogenen Quellen entstandene Aerosolpartikel an Bedeutung gewinnen, die allerdings derzeit in Klimamodellen kaum eingehen.
Isopren als Nukleationskeim
Flugzeugsmessungen seit mehr als 20 Jahren zeigen hohe Konzentrationen frisch gebildeter Aerosol-Partikel in der oberen Troposphäre über dem Amazonas sowie über dem tropischen Atlantik und Pazifik. Jüngste Untersuchungen führen diese Partikel auf das Molekül Isopren zurück, das von Pflanzen, insbesondere tropischen Bäumen emittiert und durch Konvektion in die obere Troposphäre transportiert wird. Nach Methan ist Isopren der am häufigsten emittierte flüchtige Kohlenwasserstoff in der Atmosphäre. Die jährliche Emissionsrate liegt bei 600 Millionen Tonnen (davon allein etwa 163 Mt aus dem tropischen Südamerika) und macht damit mehr als die Hälfte aller biogenen Emissionen flüchtiger organischer Verbindungen aus.
Isopren ist eine wesentliche Komponente unserer gesamten Biosphäre (Formel C5H8: Abbildung 1 oben). Das kleine, hochreaktive flüchtige Molekül wird von Pflanzen - vor allem Laubbäumen wie, Eichen, Pappeln und Eukalyptus - aber auch von Algen in großen Mengen produziert und emittiert. In Pflanzen, Mikroorganismen wie auch in höheren Organismen bilden Isopreneinheiten das Grundgerüst von sogenannten Terpenen und Terpenoiden (oxygenierten Terpenen). Wichtige Terpenoide sind u.a. Vitamin A, Vitamin E, Coenzym Q10, Dolichole, und Squalen, von dem sich Cholesterin, Vitamin D und die Steroide herleiten. Der Cholesterinstoffwechsel führt beim Menschen u.a. zur Ausatmung von Isopren, das mit ca. 17 mg/Tag der am häufigsten vorkommende Kohlenwasserstoff in der Atemluft ist. Es darf nicht unerwähnt bleiben, dass sich zahlreiche Arzneistoffe von Terpenen/Terpenoiden ableiten.
Zurück zur Emission von Isopren durch Pflanzen.
Abbildung 1. Reaktionsschema das aus emittiertem Isopren zu einer Reihe von neuen Partikeln führt, die Nukleationskeime für Aerosole bilden. (Bild: Ausschnitt aus Fig.3 in Curtius et al., 2024; [1]. Lizenz: cc-by) |
Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das Isopren, das sich über Nacht angesammelt hat, zusammen mit dem tagsüber konvektiven Isopren mit reaktivem Sauerstoff (Hydroxylradikalen) und Stickoxyden (NOx) aus Blitzen, um sauerstoffhaltige organische Isoprenmoleküle (IP-OOM) zu erzeugen. Abbildung 1. Die IP-OOM verbinden sich mit Spuren von Säuren und erzeugen bei Temperaturen unter -30 °C hohe Konzentrationen neuer Partikel.
Die neu gebildeten Partikel wachsen über mehrere Stunden und Tage rasch an, während sie den absteigenden Luftmassen folgen. So kann eine umfangreiche Quelle von Wolkenkondensations-kernen für flache kontinentale und marine Wolken entstehen, die die Strahlungsbilanz der Erde beeinflussen. Wie und welche Partikel entstehen werden im multinationalen CLOUD ("Cosmics Leaving Outdoor Droplets") -Experiment am CERN untersucht.
Das CLOUD-Experiment
untersucht im Labor, wie sich Aerosolpartikel unter atmosphärischen Bedingungen aus reaktiven Gasen bilden und wachsen. Ein internationales Team, bestehend aus 21 Institutionen (u.a. unter Beteiligung der Universitäten Wien und Innsbruck), untersucht in der CLOUD-Kammer mit einer Vielzahl an unterschiedlichen Messgeräten den physikalischen und chemischen Zustand der Teilchen und Gase. Keimbildung und Wachstum von Partikeln werden aus genau kontrollierten Dampfmischungen bei extrem niedrigen Konzentrationen, wie sie in der Atmosphäre vorkommen, ermittelt und auch wie diese (mit einem Teilchenstrahl aus dem CERN Protonen-Synchrotron) durch Ionen aus der galaktischen kosmischen Strahlung beeinflusst werden können.
Abbildung 2. Bildung neuer Partikel aus Isopren in der oberen Troposphäre - schematische Darstellung. Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das über Nacht angesammelte Isopren zusammen mit dem tagsüber konvektiven Isopren mit Hydroxylradikalen und NOx aus Blitzen, um sauerstoffhaltige Issoprenmoleküle zu bilden. Diese verbinden sich mit Spuren von Säuren aus der Umgebung und erzeugen bei kalten Temperaturen unter -30 °C hohe Partikelkonzentrationen. Die neu gebildeten Partikel wachsen schnell über mehrere Stunden bis Tage, während sie den absteigenden Luftmassen folgen. Dieser Mechanismus kann eine umfangreiche Quelle von Kondensationskeimen für flache kontinentale und marine Wolken darstellen, die die Strahlungsbilanz der Erde stark beeinflussen. (Bild: Fig. 5 aus Shen et al., 2024; [2]. Lizenz cc-by). |
Im CLOUD-Experiment konnte nun erstmals gezeigt werden, dass die von Isopren abstammenden oxidierten organischen Moleküle unter den kalten Bedingungen der oberen Troposphäre – im Bereich von -50 °C – sehr effizient neue Teilchen bilden (typische Teilchen in Abbildung 1). In Gegenwart von geringsten Mengen an Schwefelsäure haben die Nukleationsraten auf das Hundertfache zugenommen und erklären so die hohen beobachteten Teilchenanzahlen in der oberen Troposphäre. Ein eben im Fachjournal Nature erschienener Artikel beschreibt wie die Oxidationsprodukte von Isopren zum schnellen Partikelwachstum beitragen und somit Wolkeneigenschaften und damit das Klima beeinflussen [1].Abbildung 2. In einem parallel erschienenen Artikel in Nature werden die (neu-)identifizierten Mechanismen durch direkte atmosphärische Flugzeugmessungen bestätigt [2].
Das CERN-Experiment CLOUD ergänzt damit Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind; sie helfen zu verstehen, wie sich die Dinge ändern werden, wenn die Schwefelsäure-Emissionen sinken.
[1] Curtius, J. et al. Isoprene nitrates drive new particle formation in Amazon’s upper troposphere. Nature (2024). DOI:https://doi.org/10.1038/s41586’024 -08192-4
[2] Shen, J., et al. New particle formation from isoprene under upper tropospheric conditions. Nature (2024). DOI: https://doi.org/10.1038/s41586’024 -08196-0
Auf dem Weg zu leistungsfähigen Quantencomputern
Auf dem Weg zu leistungsfähigen QuantencomputernDo, 09.01.2025 — Roland Wengenmayr
Sie sollen manche Rechnungen etwa beim Design von Windrädern und Flugzeugturbinen, in der Materialentwicklung oder der Klimaforschung einmal viel schneller ausführen als heutige Computer. Daher setzen unter anderem Microsoft, Google und IBM auf Quantencomputer. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über das Garchinger Start-up planqc, eine Ausgründung des Max-Planck-Instituts für Quantenoptik, das 2022 mit einem eigenen technischen Konzept in das Rennen eingestiegen ist. 2027 sollen die ersten Quantenrechner des Unternehmens betriebsbereit sein.*
Leuchtendes Beispiel: Bei der Entwicklung von Quantencomputern nutzt das planqc-Team Laserlicht, um Atome einzufangen und zu manipulieren. |
„Sehen Sie die Glaszelle?“, fragt Johannes Zeiher im Labor. Durch ein Labyrinth aus optischen Bauteilen. Durch ein Labyrinth aus optischen Bauteilen, Geräten und Leitungen hindurch kann man eine kleine Quarzglaszelle erspähen. Wäre das Experiment in Betrieb, dann könnte man darin eine Wolke von im Vakuum schwebenden Metallatomen leuchten sehen. Die könnte künftig den Rechenkern eines Quantencomputers bilden und dabei recht ästhetisch anmuten. Derzeit sind verschiedene Techniken im Rennen, mit denen praktisch einsetzbare Quantencomputer manche Probleme künftig viel schneller knacken sollen als heutige Rechner. Auf die Wölkchen gasförmiger Atome setzt das Start-up planqc – der Name ist ein Kunstwort aus „Planck“ und „Quantencomputer“. Johannes Zeiher ist Wissenschaftler am Max-Planck-Institut für Quantenoptik in Garching und einer der Gründer von planqc, einer Ausgründung des Instituts.
Das Start-up richtet sich gerade in einem ehemaligen Baumarkt in Garching ein. Die Wahl sei auf diesen Ort wegen des besonders soliden Tiefgeschosses gefallen, erklärt Sebastian Blatt, Chefentwickler und ebenfalls Gründer von planqc sowie Gruppenleiter am Max-Planck-Institut für Quantenoptik: „So solide Keller baut man heute nicht mehr. Dieser bleibt auch im Sommer kühl, was bei den Stromkosten der Klimaanlage spart.“ Darin wird gerade renoviert und umgebaut. Gleichzeitig entsteht in einem Reinzelt ein Labor, vielmehr die Entwicklungs- und Produktionsstätte künftiger Quantencomputer. Dort befindet sich bereits ein optischer Tisch, der die Ausmaße einer Tischtennisplatte hat und auf dem optische Apparaturen für den planqc-Rechner entwickelt und getestet werden. Darum herum sind sogenannte Racks angeordnet, technische Regale, wie man sie von Computerservern kennt. In ihnen stecken Laser sowie Test- und Messgeräte.
Vorzeigeapparatur: Bei der Eröffnung des Firmensitzes 2024 präsentierte planqc das Design einer Glaszelle. Diese soll den Kern eines Quantenrechners bilden, in dem künftig viele Atome kontrolliert werden |
Planqc entwickelt aber nicht nur eine als vielversprechend geltende Technik für einen frei programmierbaren Quantencomputer, sondern auch Rechenvorschriften – Quantenalgorithmen –, die dieser verarbeiten soll. Man kann sich einen Quantenalgorithmus als Analogon zur Software für herkömmliche klassische Computer vorstellen. Da Quantencomputer anders funktionieren als gängige Rechner, können sie möglicherweise einige spezielle Aufgaben schneller lösen. Sie werden klassische Rechner also nicht ersetzen, können sie aber bei manchen Aufgaben ergänzen. Derzeit gibt es allerdings nur wenige Rechenvorschriften für Quantencomputer. Wie vielseitig diese sich einsetzen lassen werden, hängt also auch davon ab, welche Quantenalgorithmen Forschende noch ausklügeln. Deshalb sei das Algorithmen-Team bei planqc wichtig, sagt Sebastian Blatt.
Auf der Suche nach Algorithmen
Die Entwicklung der Algorithmen leitet Martin Kiffner, der von der Universität Oxford zur Firma stieß. „Er ist ein Experte für Quantenalgorithmen, zum Beispiel speziell für die Fluiddynamik“, erklärt Blatt. „Fluiddynamikrechnungen kommen praktisch überall vor. Das ist eines unserer wichtigeren Standbeine in der Algorithmenentwicklung.“ Mit der Fluiddynamik lassen sich etwa die höchst komplexen Luft- oder Wasserströmungen um Turbinenschaufeln berechnen, was auf Computern enorme Rechenleistungen erfordert, aber für die Entwicklung effizienter Generatoren und Triebwerke nötig ist. Hier könnten Quantencomputer künftig Vorteile bringen. Auch die Entwicklung von Materialien werden sie möglicher weise beschleunigen, vor allem wenn es um Materialien geht, auf deren Quanteneigenschaften es ankommt – zum Beispiel solche für extrem empfindliche Sensoren oder neuartige Halbleiterelektronik. Denn gerade Quantencomputer dürften Quanteneigenschaften besonders effizient simulieren. Darüber hinaus könnten sie komplizierte chemische Verbindungen, etwa neue medizinische Wirkstoffe, berechnen. Manche Fachleute setzen auch darauf, dass die Rechner Logistikrouten optimieren werden oder Muster im atmosphärischen Geschehen besser erkennen und so die Wetter- und Klimavorhersagen verfeinern. Diese Anwendungen existieren bislang allerdings lediglich als Konzepte, von denen aktuell noch nicht klar ist, ob sie sich verwirklichen lassen.
Deshalb diskutiert das planqc-Team auch mit Industrievertretern, bei welchen Aufgaben Quantencomputer ihren Geschwindigkeitsvorteil ausspielen könnten. „Solche Kontakte helfen uns, zu verstehen, welche Anwendungen von Quantencomputern für die Wirtschaft interessant sind“, sagt Blatt. Erfahrung beim Brückenschlag zwischen Quantenphysik und Wirtschaft bringt Alexander Glätzle mit, der Dritte im Gründungstrio und Geschäftsführer von planqc. Er kommt aus der theoretischen Quantenphysik, hat unter anderem an der Universität von Oxford geforscht und wechselte 2018 in die Wirtschaft, wo er als Berater in der Kommerzialisierung von Quantentechnologien arbeitete. Dass einerseits so große Hoffnungen in Quantencomputer gesetzt werden, ihre Einsatzmöglichkeiten andererseits aber erst noch erforscht werden müssen, liegt daran, wie sie zu ihrer Rechenkraft kommen [Wengenmayr, 2022]. Die Technik des planqc-Rechners beruht darauf, dass sich vor allem Alkalimetallatome wie etwa Rubidium und Lithium sowie Erdalkalimetalle wie Strontium in einer geschickten Kombination aus Laserlicht und Magnetfeldern einfangen lassen.
Wenn Sebastian Blatt das Konzept vorstellt, stößt er gelegentlich auf Skepsis: „Das ist ja kein richtiger Computer, denn da gibt es ja gar keinen Chip“, bekomme er manchmal zu hören. Viele Gesprächspartner haben eine von der aktuellen Technik geprägte Vorstellung von Computerprozessoren. Dazu passen zwei Ansätze besser, die mit der planqc-Technik konkurrieren, weil es bei diesen echte Computerchips gibt. Einer dieser Ansätze nutzt als Qubits supraleitende Stromkreise, in denen also Strom bei sehr tiefen Temperaturen ohne Widerstand fließt. Daran forschen zum Beispiel IBM, Google oder das finnische Start-up IQM, das eine Niederlassung in München hat. In einem weiteren Konzept führen Ionen, sprich: elektrisch geladene Atome, die auf einem Chip in einem geschickt geformten elektrischen Feld, einer sogenannten Paul-Falle, gefangen werden, quantenlogische Operationen aus. Wie bei den elektrisch neutralen Atomen, mit denen planqc arbeitet, werden die ionischen Qubits mit Laserstrahlen angesteuert und manipuliert.
Robuste Geräte nach Industrienormen
Von dem Ansatz, den planqc verfolgt, erhofft sich das Unternehmen, dass sich in den Lichtgittern vergleichsweise leicht eine größere Zahl von Atomen, sprich Qubits, zu einem Quantenprozessor vereinen lassen. Zur Entwicklung dieses Gebiets hat die langjährige Grundlagenforschung am Max-Planck-Institut für Quantenoptik beigetragen. Auf den Ergebnissen dieser Forschung aufbauend, wurde 2022 planqc gegründet. Johannes Zeiher, der weiterhin auch Grundlagenforschung betreibt, erklärt seine persönliche Motivation so: „Für mich ist klar, dass neutrale Atome eine vielversprechende Technologie für Quantencomputer sind. Daher sollten wir erste Schritte gehen, um das Anwendungspotenzial solcher Maschinen zu untersuchen.“ Zudem bringe der intensive Austausch zwischen kommerzieller Entwicklung und Grundlagenforschung auch Letztere voran. „In der Grundlagenforschung entwickeln wir sozusagen Prototypen, die frei von kommerziellen Zwängen auf bestimmte Bereiche hin optimiert sind“, erklärt Zeiher. „Die bringen ab und zu Durchbrüche und eröffnen etwas ganz Neues.“ Auf der Basis dieser Erkenntnisse entwickelt planqc robuste kommerzielle Geräte, die auch alle Industrienormen erfüllen. Solche zuverlässigen Geräte hofft Zeiher später auch im Grundlagenlabor einsetzen zu können.
Design eines Quantenprozessors: Das planqc-Team verwendet gasförmige, aber sehr kalte Atome als Qubits. In einem optischen Gitter aus gekreuzten Laserstrahlen setzen sich die Atome an die Gitterpunkte wie Eier in einen Eierkarton. Ebenfalls mithilfe von Laserlicht führt das Team logische Operationen mit den Atomen aus. Die Ergebnisse der Rechnungen liest ein optischer Sensor aus und speist siein herkömmliche Elektronik ein. So baut planqc einen Quantencomputer als Koprozessor herkömmlicher Großrechner am Leibniz-Rechenzentrum auf. |
Planqc wächst im Quantenbiotop des Munich Quantum Valley heran. „Wir sind die erste Ausgründung im Munich Quantum Valley“, sagt Sebastian Blatt. Als Vorzeigeprojekt wird planqc auch von der Bundesregierung gefördert, und zwar über eine Kooperation mit dem Deutschen Zentrum für Luft- und Raumfahrt, kurz DLR. Für das große Interesse an dem Garchinger Start-up sorgt auch das „Handlungskonzept Quantentechnologien“ der Bundesregierung. „Darin steht, dass man gerne bis Ende 2026 einen digitalen Quantencomputer mit hundert Quantenbits hätte“, sagt Blatt: „Und das einzige kommerzielle Projekt in Deutschland mit demselben Ziel ist eines, an dem wir zusammen mit dem DLR arbeiten.“ Dieses Projekt heißt DiNAQC, das Akronym steht für „Europas ersten Digitalen Neutral-Atom-Quantencomputer“. Für den Bau des Demonstrators mit zunächst hundert Quantenbits erhält planqc 30 Millionen Euro. Die Apparatur soll im Frühjahr 2027 beim DLR in Ulm in Betrieb gehen, also kaum später, als es das sehr ambitionierte politische Handlungskonzept vorsieht. An diesem Quantencomputer sollen erste Quantenalgorithmen für praktische Anwendungen ausprobiert werden. „Wir machen dort auch die ersten Schritte in Richtung Quantenfehlerkorrektur“, erläutert Blatt.
Miniaturisierte Quantenrechner
Ein Korrekturmechanismus ist beim Quantenrechnen nötig, da Quanteninformation extrem empfindlich gegen kleinste Störungen ist. Sie muss aufwendig stabilisiert und auf Fehler geprüft werden. Zur Stabilisierung dient der Trick, jeweils mehrere physikalische Qubits, bei planqc sind es die Atome, zu logischen Qubits zusammenzufassen. Passiert ein Fehler in einem physikalischen Qubit, kann die Quantenrechnung trotzdem weiterlaufen. Zur Fehlerkorrektur führt man Hilfsqubits ein, die als Sensoren für Störungen dienen – wie Kanarienvögel im Bergwerk. Solange eine Quantenrechnung läuft, dürfen die beteiligten logischen Qubits nämlich nicht auf Fehler überprüft werden, sonst bricht die Rechnung ab. Dank der Fehlermeldungen der Hilfsqubits kann das Resultat jedoch hinterher korrigiert werden. So benötigt ein Quantencomputer letztlich Zigtausende oder sogar Millionen von physikalischen Qubits. Bislang füllt die Technik mit den optischen Geräten und Vakuumkammern, die ein planqc-Rechner benötigt, ganze Labore. Miniaturisierung ist deshalb ein Ziel des zweiten Großprojekts von planqc, das vom Bundesforschungsministerium mit 20 Millionen Euro gefördert wird. Darin baut das Start-up gemeinsam mit dem Max-Planck-Institut für Quantenoptik am Leibniz-Rechenzentrum in Garching bis Ende 2027 ein Gerät namens MAQCS, kurz für „Multikern Atomare Quantencomputing Systeme“. Dieser Rechner soll schon tausend Neutralatome als Quantenbits besitzen und gewissermaßen als Koprozessor in den dortigen konventionellen Großcomputer integriert werden, und zwar platzsparend in kompakte Racks. „Wir wollen auch die Vakuumkammer mit den Atomen in solch ein Rack hineinbringen“, erklärt Blatt: „Wir machen hier Ingenieursarbeit!“ Entsprechend benötigt planqc auch Ingenieure. „Die Firma muss jetzt wachsen, um die Projekte zeitgerecht zu schaffen.“ Da trifft es sich gut, dass das Start-up, das aktuell insgesamt rund fünfzig Mitarbeitende hat, im Sommer 2024 weitere Millionen Euro an privatem Risikokapital eingeworben hat. So kommt es aktuell auf eine Finanzierung von 87 Millionen Euro – die Anteile an den beiden Großprojekten eingerechnet.
Ob letztlich die neutralen Atome in optischen Gittern, supraleitende Schaltkreise oder aber Ionen in Paul-Fallen das Rennen um einen praktisch einsetzbaren Quantencomputer machen werden, ist derzeit noch offen. Das meint auch Piet Schmidt von der Physikalisch-Technischen Bundesanstalt in Braunschweig. Dort entwickelt der Physikprofessor extrem präzise optische Atomuhren, welche ebenfalls auf Ionen in Paul-Fallen basieren. „Technologisch teilen wir mit dem Quantencomputer dieselbe Plattform“, erklärt Schmidt, Er ist Mitgründer des deutschen Start-ups Qudora, das kommerzielle Quantencomputer auf Basis von Ionen in Paul-Fallen entwickelt – ein Konkurrent von planqc also. Von den Fortschritten bei den Neutralatomen ist Piet Schmidt beeindruckt, er meint aber auch: „Das wird sich verlangsamen, die profitieren jetzt von bereits in den anderen Gebieten entwickelten Technologien.“ Angesichts des Ziels, viele Tausend, Zehntausend und mehr Qubits zu kontrollieren, sieht er noch enorme technische Herausforderungen bei allen drei Techniken. Bei den supraleitenden Qubits liegt ein ungelöstes Problem darin, dass die Schaltkreise extrem viele Kabel benötigen, die gute Wärmeleiter sind. Diese transportieren Wärme aus der Umgebung in den Kryostaten, der als Hightech-Thermoskanne den supraleitenden Chip kühlen soll. Wie trotzdem eine große Zahl von Qubits gekühlt werden kann, ist noch unklar. Hinzu kommen Probleme, aus dem supraleitenden Material, derzeit Aluminium, möglichst gleichartige Schaltkreise zu fabrizieren. Damit sich Ionen für Quantenrechnungen nutzen lassen, müsste nach Schmidts Ansicht die Miniaturisierung noch Fortschritte machen. Bislang können nämlich nicht genug optische und elektronische Komponenten in die Fallenchips integriert werden. Auch gelingt es bislang nicht, viele Ionen in einer Falle zu fangen. Mehrere Fallenchips zu koppeln, könnte hier ein Ausweg sein. Bei den Neutralatomen in optischen Gittern sieht Schmidt eine Hürde, die nach einem technischen Detail klingt, aber trotzdem noch genommen werden muss: Die Hilfsqubits müssen sich während der Rechnung noch schneller auslesen lassen, um die Fehlerkorrektur zu ermöglichen.
Und die Zukunftsaussichten? Piet Schmidt macht sich, so wie viele Forschende, Sorgen wegen des Hypes um den Quantencomputer. Der hat in Politik und Wirtschaft sehr hohe Erwartungen geweckt. Eine langfristige Förderpolitik muss Start-ups jedoch genug Zeit einräumen, damit sie Quantencomputer Schritt für Schritt kommerzialisieren können. „Ich war allerdings kürzlich bei Kollegen in den USA, in Harvard und am MIT, die zum Teil auch ihre eigenen Start-ups haben“, sagt er: „Die sind angesichts der derzeitigen Fortschritte sehr optimistisch.“ Planqc platziert seine Technik jedenfalls schon am Markt: „Natürlich kann jeder bei uns einen Quantencomputer kaufen“, betont Sebastian Blatt. Von einer Massenproduktion sei das Unternehmen jedoch noch weit entfernt, allein schon deshalb, weil die Computer von Stück zu Stück noch weiterentwickelt werden. „Sobald wir eines Tages einen Computer gebaut haben, den die Kunden in großer Stückzahl haben möchten“, sagt Sebastian Blatt, „würde planqc natürlich auch den Schritt zur Massenproduktion gehen."
* Der eben im Forschungsmagazin 4/2024 der Max-Planck Gesellschaft unter dem Titel "Rechnen mit Atomen" erschienene Artikel https://www.mpg.de/23934242/W006_Physik-Astronomie_068-073.pdf wird - mit Ausnahme des Titels, einigen Änderungen im Abstract und ohne das Gruppenfoto - in unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)
Quantencomputer im ScienceBlog
Roland Wengenmayr, 03.10.2024: Künstliche Intelligenz: Vision und Wirklichkeit.
Roland Wengenmayr, 09.03.2023: Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten.
Roland Wengenmayr, 07.07.2022: Was Quantencomputer in den nächsten Jahren leisten können.