Donnerstag, 23. Dezember 2010

Weder Neandertaler noch moderner Mensch

Analyse eines 30.000 Jahre alten Fingerknochens aus Sibirien lie-fert neue Erkenntnisse über die Ursprünge des modernen Menschen – unter Beteiligung der Universität Tübingen
Sperrfrist: 22. Dezember 2010, 19:00 Uhr

Die Sequenzierung des Kerngenoms aus einem uralten in einer sibirischen Höhle gefundenen Fingerknochen ergibt, dass die Höhlenbewohner weder Neandertaler noch moderne Menschen waren. Zu dem internationalen Forscherteam unter der Leitung von Svante Pääbo vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, das diese Arbeit jetzt in „Nature“ veröffentlichte, gehört auch Dr. Johannes Krause, Juniorprofessor an der Universität Tübingen. Das Team sequenzierte das Kerngenom aus dem wenigstens 30.000 Jahre alten Fingerknochen eines ausgestorbenen Urmenschen, der von Archäologen der Russischen Akademie der Wissenschaften im Jahr 2008 in der Denisova-Höhle im südlichen Sibirien ausgegraben wurde.

Anfang dieses Jahres hatte das Forscherteam bereits herausgefunden, dass die mitochondriale DNA aus dem Fingerknochen eine ungewöhnliche Sequenz aufwies und möglicherweise von einem bisher nicht beschriebenen Urmenschen stammte. Mithilfe der am Neandertalergenom entwickelten Techniken sequenzierten die Forscher nun das Kerngenom aus dem Knochen, d.h. die gesamte Erbinformation aus dem Zellkern einer Zelle. Sie fanden heraus, dass das Individuum, dem der Fingerknochen gehörte, weiblich war und einer Gruppe von Urmenschen angehörte, die eine gemeinsame Herkunft mit dem Neandertaler teilte, danach aber einen anderen evolutionären Weg beschritt. Diese neue Urmenschenform nennen die Forscher Denisova-Mensch. Im Gegensatz zu den Neandertalern trugen die Denisova-Menschen keine Gene zu allen heute lebenden Nicht-Afrikanern bei. Sie teilten jedoch eine größere Anzahl von genetischen Varianten mit heute auf Papua Neuguinea lebenden Populationen, was nahe legt, dass es zwischen dem Denisova-Menschen und den Vorfahren der Melanesier zu einer Vermischung gekommen ist.

David Reich, der an der Harvard Medical School forscht und die populationsgenetische Analyse leitete, sagt: “Die Tatsache, dass die Denisova-Menschen in Südsibirien entdeckt wurden, aber zum Erbmaterial heute lebender menschlicher Populationen in Neuguinea beigetragen haben, zeigt, dass die Denisova-Menschen während des Pleistozäns in Asien weit verbreitet gewesen sein müssen.“

Svante Pääbo vom Max-Planck-Institut für evolutionäre Anthropologie merkt an: “Kombiniert mit der Genomsequenz des Neandertalers, zeigt uns das Denisova-Genom ein komplexes Bild genetischer Interaktionen zwischen unseren Vorfahren und anderen Urmenschengruppen.”

Außerdem untersuchten die Forscher einen Denisova-Zahn, der in derselben Höhle in Sibirien ausgegraben wurde und dessen Morphologie und äußere Beschaffenheit sich von der eines Neandertalerzahnes und des Zahnes eines modernen Menschen unterscheidet, denen sehr viel älterer Urmenschenformen aber ähnelt. Johannes Krause, Professor für Paläogenetik an der Universität Tü-bingen: “Dieser Zahn weist fast die gleiche DNA wie der Fingerknochen auf. Er ermöglicht es uns, morphologische und genetische Informationen miteinander in Verbindung zu bringen.“ Johannes Krause wechselte im Sommer vom Max-Planck-Institut in Leipzig an die Universität Tübingen. Er setzt dort die Erforschung der Urmenschen-DNA fort und hat sich auf die Analyse von frühen mo-dernen Menschen spezialisiert, wie den Cro-Magnon Menschen, den ersten Europäern.

Finanzielle Unterstützung erfuhr die Studie durch die Max-Planck-Gesellschaft, die Krekeler-Stiftung, die National Institutes of Health (USA) und die National Science Foundation (USA).

Die Originalveröffentlichung:

David Reich, Richard E. Green, Martin Kircher, Johannes Krause, Nick Patterson, Eric Y. Durand, Bence Viola, Adrian W. Briggs, Udo Stenzel, Philip L. F. Johnson, Tomislav Maricic, Jeffrey M. Good, Tomas Marques-Bonet, Can Alkan, Qiaomei Fu, Swapan Mallick, Heng Li, Matthias Meyer, Evan E. Eichler, Mark Stoneking, Michael Richards, Sahra Talamo, Michael V. Shunkov, Anatoli P. Derevianko, Jean-Jacques Hublin, Janet Kelso, Montgomery Slatkin, Svante Pääbo: Genetic histo-ry of an archaic hominin group from Denisova Cave in Siberia
Nature, 23. Dezember 2010, doi:10.1038/nature09710

via Informationsdienst Wissenschaft

Sechs Jahre nach der Tsunami-Katastrophe

Technischer Aufbau des Tsunami-Frühwarnsystems abgeschlossen
Sechs Jahre nach der Tsunami-Katastrophe

Technischer Aufbau abgeschlossen

Sechs Jahre nach der Tsunamikatastrophe vom 26. 12. 2004 ist der Aufbau des deutsch-indonesischen Tsunami-Frühwarnsystems für den Indischen Ozean (GITEWS) abgeschlossen. Das Projekt endet zum 31. März 2011. Danach wird Indonesien die alleinige Verantwortung für das Gesamtsystem übernehmen

„Der innovative technische Ansatz von GITEWS beruht auf einer Kombination verschiedener Sensoren, deren zentrales Element eine schnelle und präzise Erfassung und Auswertung von Erdbeben, unterstützt durch GPS-Messungen, ist“ sagte dazu Professor Reinhard Hüttl, Vorstandsvorsitzender des Deutschen GeoForschungsZentrums GFZ. „Die vom GFZ entwickelte Seismologie-Auswertung durch das System SeisComp3 erwies sich als so schnell und zuverlässig, dass sie mittlerweile in über 40 Ländern installiert wurde."

Eine Tsunami-Warnung erfolgt maximal fünf Minuten nach einem Seebeben auf der Basis aller verfügbaren Informationen von den ca. 300 Messstationen, die in den letzten 6 Jahren in ganz Indonesien aufgebaut wurden. Dazu gehören Seismometer, GPS-Stationen, Küstenpegel und Bojensysteme. Diese Informationen werden über ein Tsunami-Simulationssystem in ein Lagebild umgesetzt, das entsprechende Warnstufen für die betroffenen Küstenabschnitte liefert. Ein wesentliches Ergebnis des GITEWS-Projekts ist aber auch, dass in diesem Prozess, der in diesen ersten Minuten abläuft, die Bojensysteme keinen Beitrag liefern können. Es bestehen daher Überlegungen, die GITEWS-Bojen weiter hinaus auf den Ozean zu verlagern und sie zur Verifizierung eines ozeanweiten Tsunamis zu nutzen, der andere Anrainerstaaten des Indik bedrohen könnte.

Das Mentawai-Beben vom 25. Oktober dieses Jahres zeigte allerdings auch die Grenzen jeder Tsunami-Frühwarnung auf. Von dem Tsunami, den dieses Beben auslöste, wurden die vorgelagerten Pagai-Inseln im Sunda-Bogen stark betroffen. Etwa zeitgleich mit dem nach 4 Minuten 46 Sekunden ausgelösten Tsunami-Alarm liefen hier die ersten Wellen auf und forderten rund 500 Menschenleben. Mehrere Teams von Tsunami-Fachleuten aus Japan, Indonesien, Deutschland und den USA stellten bei der Nachuntersuchung fest, dass die Warnung auf diesen Inseln angekommen war, aber keine Zeit für eine Reaktion blieb. Für die Hauptinsel Sumatra mit den größeren Städten Padang und Bengkulu hat die Zeit zwischen Warnung und Eintreffen der ersten Wellen ca. 40 Minuten betragen, allerdings haben bei diesem Beben die Pagai-Inseln als perfekter Schutzschirm vor einem Tsunami an der Küste von Sumatra gewirkt.

Die wichtige Schlussfolgerung daraus ist, dass auch bei den extrem kurzen Vorwarnzeiten vor Indonesien das GITEWS-System sich technisch und organisatorisch als funktionstüchtig gezeigt hat. Seit September 2007 konnten vier Tsunami-Ereignisse erfasst und eine Warnung ausgegeben werden. Gerade für die Bewohner der vorgelagerten Inseln muss aber die Ausbildung für ein bedrohungsgerechtes Verhalten intensiviert und verbessert werden. Dazu gehört nicht nur die richtige Reaktion auf einen Tsunamialarm, sondern auch das richtige Verhalten vor, während und nach Erdbeben.

Direkt nach der Katastrophe vom 26. Dezember 2004 erteilte die Bundesregierung der Helmholtz-Gemeinschaft, verteten durch das Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ, den Auftrag zur Entwicklung und Implementierung eines Frühwarnsystems für Tsunamis im Indischen Ozean. Die Mittel in Höhe von 45 Millionen Euro stammen aus dem Beitrag der Bundesregierung im Rahmen der Flutopferhilfe.
Ein Naturereignis wie der Tsunami von 2004 kann nicht verhindert werden und solche Katastrophen werden auch bei einem perfekt arbeitenden Alarmsystem weiterhin ihre Opfer fordern. Aber die Auswirkungen einer solchen Naturkatastrophe können mit einem Frühwarnsystem minimiert werden. Das ist das Ziel von GITEWS.

via Informationsdienst Wissenschaft

Frohe Weihnachten!

Und zum Fest ein kleiner "Horror"-film...

TU Berlin: Mineralogischer Kalender 2011 erschienen

Auch für 2011 bietet das Fachgebiet Mineralogie/Petrologie im Institut für Angewandte Geowissenschaften der TU Berlin wieder seinen beliebten DIN-A3-Kalender mit großformatigen, professionellen Fotos von ausgesuchten Stücken aus den Mineralogischen Sammlungen der Universität an.

Für Mineralienkenner werden die Fotografien begleitet von passenden Kristallzeichnungen, mineralogischen Beschreibungen sowie den Nutzungsmöglichkeiten der Mineralien in Industrie und Wirtschaft. Auch mehrsprachige Grußkarten werden wieder angeboten. Sie zeigen Minera-lien, die wie weihnachtliche Motive aussehen. Für Selbstabholer kostet der Kalender 22 Euro, auf Wunsch wird er an jede Adresse weltweit verschickt (25 Euro).

Die Mineralogischen Sammlungen der TU Berlin gehören zu den fünf größten und bedeutendsten ihrer Art in der heutigen Bundesrepublik und blicken haben eine 225-jährige Geschichte. Die Sammlungen bestehen aus einer öffentlich zugänglichen Schausammlung, einer umfangreichen speziell mineralogischen Sammlung, mehreren fachlich spezifischen Teilsammlungen und umfangreichen Magazinsammlungen. Da der Schauraum derzeit wegen Bauarbeiten geschlossen ist, finden Führungen nur nach Vereinbarung statt. Der Kalender kann im Erweiterungsbau der TU Berlin, Straße des 17. Juni 145, Raum EB 310 a, abgeholt werden oder per Mail bestellt werden. Auf der Website der Schausammlung kann man eine Voransicht durchblättern.
http://www.mineralogische-sammlungen.de/

via Informationsdienst Wissenschaft

Mittwoch, 22. Dezember 2010

El Nino-Effekte vor 125000 Jahren

Vor 125 000 Jahren: El Nino- ähnlicher Effekt führte zu starken Regenfälle in der nördlichen Atacama-Wüste

So eindeutig wie Fingerabdrücke für den Kriminologen gaben die Reste mariner und terrestrischer Organismen in Sedimenten des Peruanischen Schelfmeeres nun Auskunft über das Klima vor 125 000 Jahren in der nördlichen Atacama-Wüste. Mit Hilfe dieser molekularen Fossilien zeigten Forscher des Bremer Max-Planck-Instituts für Marine Mikrobiologie zusammen mit deutschen und internationalen Kollegen, dass El Niño - ähnliche Phänomene während der letzten Warmzeit (Interglazial) an der Peruanischen Küste zu lange anhaltenden starken Regenfällen führten
Mit dem Regen und Flusswasser wurden damals Süßwasser-Kieselalgen (Diatomeen) aus Flüssen, sowie Blätter terrestrischer Herkunft und Reste von Blütenpflanzen aus der Atacama- Wüste in das Meer gespült. Die Forscher fanden die fossilen Moleküle (Biomarker) dieser Organismen in den Bohrkernen vom Ocean Drilling Project (ODP) vom Meeresboden vor der Peruanischen Küste und konnten auch den Zeitpunkt der Ablagerung bestimmen.

Heutiges Wettergeschehen und das El Niño -Phänomen

Die an den südamerikanischen Pazifik angrenzende Atacama gilt heutzutage als die trockenste Wüste der Welt, und sie ist fast ohne Vegetation. Die Ursache dafür liegt in den besonderen Wind- und Strömungsverhältnissen im Pazifik. Die kalten Gewässer an der Südamerikanischen Küste stammen von dem aus dem Süden kommende kalten Humboldtstrom, und dem Auftrieb von kalten nährstoffreichen Tiefenwassers. Die Nährstoffe bilden die Grundlage ganzer Nahrungsketten. Das kalte Meer kühlt die darüber liegenden Luftschichten stark ab und an den Hängen der Anden können sich deshalb keine Regenwolken bilden. Unter normalen Wetterbedingungen türmen die im tropischen Pazifikraum westwärts wehenden Passatwinde die warmen Wassermassen im West-Pazifik auf. Da die Stärke der Passatwinde durch die Temperaturdifferenz des Oberflächewassers zwischen West- und Ostpazifik bestimmt wird, haben veränderte Meeresströmungen großen Einfluss auf dieses System. Wenn warmes äquatoriales Oberflächenwasser aus dem Westen sich ostwärts ausbreitet, verringert sich diese Temperaturdifferenz zwischen West und Ost und die Passatwinde lassen nach.. In Folge kommen weniger Nährstoffe nach oben, es gibt weniger Plankton und als Folge weniger Fische. Dieses Wetterphänomen tritt alle zwei bis sieben Jahre meist um den Dezember auf. Die Fischer von Peru nennen es seit Jahrhunderten wird El Niño oder „Das Christkind“ (siehe auch Legende zu Abbildung 1)

Rekonstruktion der Ereignisse vor 125 000 Jahren

Ausschlaggebend für die starken Regenfälle in dem letzten Interglazial war ein dem El Niño ähnlicher Effekt. Aus der Datenanalyse von Bohrkernen aus dem West- und Ostpazifik auf der Höhe des Äquators konnten die Max-Planck-Forscher zeigen, dass auch damals subtropische Wassermassen die Temperaturdifferenz zwischen Ost und West verringerten und die Passatwinde abschwächten. Warme subtropische Wassermassen verteilten sich an der Küste von Peru und verhinderte den Auftrieb von kaltem nährstoffreichen Wasser.

Das Sonnenlicht erwärmte das Oberflächenwassers um mehr als 3C°. Jetzt konnte feuchte warme Luft aufsteigen und Wolken bildeten sich über der angrenzenden nördlichen Atacama-Wüste. Es regnete und die Wüste blühte auf. Gleichzeitig führte die geringere Nährstoffkonzentration im Oberflächenwasser zu einer Verminderung der Primärproduktion und damit zu einem geringeren Nahrungsangebot für die Fische. Für die Forscher überraschend ist es, dass diese Klimaverhältnisse am besten durch langandauernde El Nino-Effekte während des letzten Interglazials erklärt werden können.

Die globalen Temperaturen damals sind mit den heutigen vergleichbar; sie liegen um nur wenige Grad höher. Wie die Studie von Dr. Sergio Contreras und seinen Kollegen zeigt, könnte ein weiterer Anstieg unserer globalen Temperaturen demnach stärker verändernd auf das Klima der Küstenregionen im Ostpazifik wirken, als bisher in Betracht gezogen wurde.

Der gebürtige Chilene sagt: „Als wir in den Bohrkernen aus dem Pazifikboden die Biomarker von Pflanzen und Süßwasserlebewesen wie Diatomeen gefunden hatten, war mir klar, dass wir hier einem ganz besonderen Effekt auf der Spur waren.“ Marcel Kuypers, Direktor am Bremer Max-Planck-Institut, führt weiter aus: „ El Niño -Effekte führen zu dramatischen ökologischen und ökonomischen Konsequenzen. Um die heutigen Klimaveränderungen besser verstehen zu können, müssen wir aus der Geschichte lernen.“

via Informationsdienst Wissenschaft

Historic El Nino events 125,000 years ago

Historic El Nino events to blame for heavy rainfalls in the Northern Atacama Desert 125 000 years ago.

Fingerprints of marine and terrestrial organisms preserved in marine sediments off the Peruvian Pacific coast helped scientists to reconstruct the climate of the Northern extension of the Atacama Desert ca. 125000 years ago. These fossil records were the tell-tale evidence for researchers from the Max Planck Institute for Marine Microbiology and their international colleagues to prove that long lasting El Nino-like conditions led to heavy rainfalls during the last interglacial.
Heavy rainfalls must have flooded the desert landscape and purged fresh water organisms like diatoms from rivers and flowers and plants from the continent into the Pacific Ocean. When analysing sediment cores from the Ocean Drilling Project (ODP) collected from the Peruvian continental shelf, the research team found fossil biomarkers of terrestrial plants and fresh water diatoms and defined the point in time when they were buried.

The normal weather and the El Nino weather phenomenon today

The Atacama Desert on the west coast of the South American continent is one of the most arid deserts of the world, virtually devoid of vegetation. On the South American coast, the Eastern Pacific cold waters are the result of the cold Humboldt Current heading towards the Equator, and the physical effect of coastal upwelling that drags cold and nutrient-rich waters from deeper levels to the surface in this area. The nutrients are the basis for the highly productive food chain. As a side effect the cold waters cool down the atmosphere, and rain clouds do not form on the western side of the Andes.
Trade winds blowing towards the West across the tropical Pacific pile up warm surface water in the equatorial West Pacific (i.e. Indonesia). The strength of the trade winds is closely linked to the temperature difference between the warm Western and the cold Eastern Pacific surface waters. When warm surface waters from the equator extend to the west coast of South America, the temperature difference decreases and the trade winds slow down. As a consequence upwelling of nutrient rich deep seawater is reduced, plankton concentration drops and fish will stay out. This inter-annual climate phenomenon is observed every 2nd to 7th years with the most drastic consequences around Christmas. For centuries it has been called "El Niño" by the Peruvian fishermen referring to Christ child in Spanish (see also Figure 1).

Reconstruction of the weather situation 125 000 years ago

The reason for the heavy rainfalls during the last interglacial was due to El Nino conditions similar to the contemporary changes observed in this region. Data interpretation of sea surface temperature recorded in cores from the equatorial Pacific (East and West) support this scenario: the temperature gradient between East and West decreased during the last interglacial interpreted as weakening of the trade winds. This led to warm subtropical waters spreading along the Peruvian coast and turned off the upwelling of cold and typical nutrient rich waters. Sunlight warmed the surface of the ocean and the temperature rose more than 3 degree centigrade. Warm humid air started to ascend, clouds formed and rain showers watered the Atacama Desert. The desert started to blossom. In the Eastern Pacific less nutrients led to decreased primary production and hence to less food for the fish. The most surprising results found by Contreras and colleagues, is that this climate change can be best explained by most prevailing EN-like conditions during the LIG.

The global temperatures during the last interglacial were only slightly higher than today. This study from Contreras and colleagues suggests that a further increase in the present-day global temperature associated with El Nino-like conditions would have severe, but as-yet-neglected, implications on the Eastern tropical Pacific coast. Sergio Contreras, born in Chile, says: “When we found biomarkers from terrestrial plants and fresh water organisms like diatoms in this core from the bottom of the Pacific Ocean, I was convinced we are after something really special.” Marcel Kuypers, director at the Max Planck Institute for Marine Microbiology adds:” El Nino effects have dramatic consequences on ecology and economy. To understand climate change we have to learn from history.”

via Informationsdienst Wissenschaft

Sauerstoffanstieg beeinflusste Evolution

Neue Erklärung für Zusammenhang zwischen Entstehung der Tiere und Anstieg des atmosphärischen Sauerstoffs
Forscher der Stiftung Tierärztliche Hochschule Hannover (TiHo) und der Universität Oxford haben eine neue physiologische Gemeinsamkeit zwischen Menschen und dem einfachsten aller Vielzeller, Trichoplax adhaerens, aufgedeckt: Trichoplax setzt für die überlebenswichtige Messung des Sauerstoffgehaltes die gleichen Mechanismen wie wir Menschen ein.

Professor Dr. Bernd Schierwater, Leiter des Instituts für Tierökologie und Zellbiologie der TiHo, sagt: „Für unser Verständnis der Evolution kann diese Entdeckung von großer Bedeutung sein. Wir gehen davon aus, dass vor 550 Millionen Jahren die ersten komplexeren tierischen Lebewesen entstanden sind, zur gleichen Zeit stieg der Gehalt des atmosphärischen Sauerstoffs auf dem Planeten stark an, von drei Prozent auf sein heutiges Niveau von 21 Prozent. Unsere aktuellen Arbeiten können dazu beitragen, den Zusammenhang dieser Ereignisse besser zu verstehen.“

Schierwater und seine britischen Kollegen werden ihre Entdeckung in der Januar-Ausgabe 2011 des Fachmagazins EMBO Reports veröffentlichen. Die Studie zeigt, wie Menschen in ihren Zellen Sauerstoff messen und wie der Sauerstoffgehalt die frühen Phasen der Evolution der Tiere beeinflusst hat. Das in Trichoplax entdeckte HIF-System (hypoxia induced factor system) ist ein effektives Werkzeug, um sich gegen Sauerstoffstress zu schützen. Ein Werkzeug, das vermutlich von allen Tieren beibehalten wurde. Das HIF-System wird aktiv, wenn Tiere in Sauerstoffstress geraten. Die Wissenschaftler glauben, dass die Methode existiert, seit die ersten Tiere vor rund 550 Millionen Jahren entstanden sind. Diese ersten Tiere sind Verwandte von Trichoplax adhaerens, einem einfach strukturierten Organismus ohne Organe, der nur fünf verschiedene Zellarten ausbildet.

Für jeden Vielzelligen Organismus ist es lebenswichtig, dass jede Zelle ausreichend mit Sauerstoff versorgt wird. Dabei sind Vielzeller stärker gefordert als einzellige Organismen. Viellzellig zu sein, bedeutet, dass der Sauerstoff auch zu Zellen gelangen muss, die sich nicht an der Oberfläche des Organismus befinden. „Wir denken, das dies der Motor war, der die Vorfahren von Trichoplax adhaerens dazu trieb, ein System zu entwickeln, das einen Mangel an Sauerstoff in jeder Zelle misst und in der Lage ist, darauf zu reagieren“, erklärt Professor Dr. Chris Schofield von der Oxford University.

Dieses Verfahren ermöglicht es Säugetieren und Menschen auch bei niedrigem Sauerstoffniveau oder bei Sauerstoffmangel (Hypoxie) zu überleben. Beim Menschen beispielsweise wird das HIF-System in großen Höhen oder bei körperlicher Anstrengung aktiv. Außerdem ist es sehr wichtig für die Prävention von Schlaganfällen und Herzinfarkten sowie einige Arten von Krebs. „Trichoplax reagiert auf Sauerstoffmangel genau wie Menschen“ fand der Erstautor der Veröffentlichung, Dr. Christoph Loenarz, heraus. Um das zu beweisen transferierten die Forscher das Schlüsselenzym des Mechanismus in eine menschliche Zelle – mit dem Ergebnis, dass sie genauso gut wie mit dem menschlichen Enzym funktionierte. Da die Analyse verschiedener Genome zudem ergeben hat, dass der Mechanismus nur bei Vielzeller auftritt, schlussfolgern die Wissenschaftler, dass sich das System zur gleichen Zeit wie die frühesten vielzelligen Tiere entwickelt hat.

Schäden des wichtigsten menschlichen Enzyms für die Messung von Sauerstoff kann Polyzythämie hervorrufen – eine bösartige Erkrankung des Rückenmarks, die unter anderem zur unkontrollierten Produktion roter Blutkörperchen führt. Die Arbeit könnte helfen, neue Therapieansätze für diese Erkrankung zu entwickeln.

via  Informationsdienst Wissenschaft

Montag, 20. Dezember 2010

Vom Ozean zum Feuerberg

Wenn ozeanische Erdplatten an Kontinentalrändern ins Erdinnere abtauchen, nehmen sie große Mengen Wasser mit in die Tiefe. Dieses Wasser spielt eine zentrale Rolle im Plattenrandvulkanismus. Eine Arbeitsgruppe des Kieler Sonderforschungsbereichs 574 „Fluide und Volatile an Subduktionszonen“ hat jetzt erstmals den Weg dieses Wasser in bis zu 120 Kilometer Tiefe nachverfolgen können. Die Forscherinnen liefern damit ein wichtiges Puzzlestück, um beispielsweise die höchst aktiven Vulkane rund um den Pazifik besser zu verstehen. Die entsprechende Studie erscheint in der Onlineausgabe der international renommierten Fachzeitschrift „Nature Geoscience“.
Kaum ein Gegensatz ist größer als der zwischen Feuer und Wasser. Doch das scheint nur so. Wissenschaftler wissen: Viele Vulkane könnten ohne die Hilfe von Wasser kein Feuer spucken. Denn Wasser setzt im oberen Erdmantel die Schmelztemperatur des Gesteins herab. So kann es sich leichter verflüssigen und als Magma zur Erdoberfläche steigen.
Große Mengen Wasser gelangen dort ins Erdinnere, wo die Plattentektonik eine ozeanische Erdplatte unter eine kontinentale presst. So eine Region, Subduktionszone genannt, erstreckt sich beispielsweise vor der Westküste Mittel- und Südamerikas. Während die ozeanische Platte dort langsam in Richtung Erdinneres abtaucht, bilden sich wie bei einem gigantischen Lamellentor lange Spalten im Meeresboden. Hier dringen große Mengen Wasser ein, die im Gestein eingeschlossen und mit ihm zusammen in den Erdmantel transportiert werden. Der Druck und die hohen Temperaturen pressen es dort teilweise wieder aus der abtauchenden Platte heraus und das Wasser steigt in Richtung Erdoberfläche. Auf dem Weg sorgt es dafür, dass sich Magma bildet. Deshalb sind alle Subduktionszonen landseitig von regem Vulkanismus geprägt. „Bisher wussten wir, dass der Eintrag an Wasser in den Erdmantel durch Subduktionszonen groß ist und dass es im Zusammenhang mit den Vulkanen wieder freigesetzt wird. Aber der genaue Weg, den das Wasser in die Tiefe und wieder zur Oberfläche nimmt, konnte bislang nicht zusammenhängend gezeigt werden“, erklärt die Geophysikerin Tamara Worzewski, die im Kieler Sonderforschungsbereich 574 „Fluide und Volatile in Subduktionszonen: Klima-Rückkopplungen und Auslösemechanismen von Naturkatastrophen“ genau diese Prozesse untersucht. Jetzt konnte sie zusammen mit Dr. Marion Jegen und Prof. Dr. Heidrun Kopp vom Kieler Leibniz-Institut für Meereswissenschaften an der Christian-Albrechts-Universität (IFM-GEOMAR) sowie mit den Kollegen Dr. Heinrich Brasse von der Freien Universität Berlin und Dr. Waldo Taylor aus Costa Rica erstmals den gesamten Weg des Wassers vom Ozeanboden bis in 120 Kilometer Tiefe und wieder zurück an die Erdoberfläche anhand von elektromagnetischen Messergebnissen darstellen. Die Studie, die auch Teil von Worzewskis Doktorarbeit ist, erscheint in der aktuellen Ausgabe der renommierten Fachzeitschrift „Nature Geoscience“.

Für ihre Untersuchungen nutzten die Forscherinnen und Forscher die Methode der Magnetotellurik. Hierbei messen spezielle Geräte Änderungen im elektromagnetischen Feld der Erde, die Aussagen über die Verteilung der Leitfähigkeit im Untergrund zulassen. „Wasserhaltiges Gestein besitzt eine hohe Leitfähigkeit und ist deshalb mit dieser Messmethode gut aufzuspüren“, erklärt Worzewski. An Land hat sich die Methode für die Erforschung des Untergrundes vielfach bewährt. Am Meeresboden ist ihr Einsatz noch recht neu. „Das liegt einfach daran, dass Messungen in großen Meerestiefen schwierig sind“, erklärt Dr. Marion Jegen, Co-Autorin der aktuellen Studie und Betreuerin von Worzewskis Doktorarbeit. Dr. Jegen leitet die entsprechende Arbeitsgruppe innerhalb des SFB 574 und hat die marine Magnetotellurik in Deutschland etabliert sowie für den Einsatz am Meeresboden weiterentwickelt. So konnte in den Jahren 2007 bis 2008 erstmals eine durchgehende Messkette über die Subduktionszone vor Costa Rica gelegt werden. Diese reichte von 200 Kilometern vor der Küste bis 160 Kilometer hinter die costa-ricanische Vulkankette. „Landseitig kamen Geräte der Freien Universität Berlin zum Einsatz, am Meeresboden lagen unsere neu entwickelten Messgeräte aus Kiel“, berichtet Dr. Jegen. Anhand der so gewonnenen Daten konnten Tamara Worzewski und ihre Co-Autoren jetzt erstmals den Wasserkreislauf in Subduktionszonen visualisieren. „Es gibt sogar Hinweise dafür, dass eine lokale Wasseranreicherung in der Erdkruste global an allen Subduktionszonen auftritt“, sagt die Autorin, „allerdings ist zur Klärung der genauen Ursachen noch weitere Forschung notwendig“, fügt sie hinzu.

„Die Bedeutung, die der aktuellen Studie in der Wissenschaft beigemessen wird, zeigt sich schon an der Veröffentlichung in einer so angesehenen Zeitschrift wie ,Nature Geoscience’“, betont Prof. Dr. Heidrun Kopp vom IFM-GEOMAR, ebenfalls Co-Autorin der Studie und zweite Betreuerin von Tamara Worzewskis Doktorarbeit. „Es ist schon etwas Besonderes, wenn eine Doktorandin als Erstautorin mit einer Studie in so einer Zeitschrift aufgenommen wird. Das zeigt, was für eine herausragende Arbeit Tamara bei der Auswertung geleistet hat.“

Hintergrundinformationen:
Im Sonderforschungsbereich 574 „Fluide und Volatile in Subduktionszonen: Klima-Rückkopplungen und Auslösemechanismen von Naturkatastrophen“ arbeiten Geologen, Vulkanologen, Geophysiker, Geochemiker, aber auch Meteorologen und Biologen der Kieler Christian-Albrechts-Universität und des Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) an einem besseren Verständnis der Prozesse, die beim Abtauchen (Subduzieren) von ozeanischen Platten unter einen Kontinent entstehen. Hauptuntersuchungsgebiete sind die Pazifikküste Mittelamerikas von Costa Rica bis Guatemala sowie die Subduktionszone vor Süd-Chile. Die Deutsche Forschungsgemeinschaft finanziert den SFB 574 mit insgesamt 6 Millionen Euro bis 2012.

via Informationsdienst Wissenschaft

Kamerabesitzer gesucht

Hier will eine Kamera ihren Besitzer wiederfinden, damit Erinnerungen nicht verloren gehen. Es wäre schön, wenn uns die Wiedervereinigung hier gelingen würde.
via lens-flare

Samstag, 18. Dezember 2010

7th Planet Formation & Evolution Workshop, Göttingen (February 14-16, 2011)

Dear colleagues,

we would like to remind you of the deadline for registration and abstract submission for the 7th "Planet Formation & Evolution" Workshop in Göttingen.
Registration and abstract submission deadline is December 22, 2010 (in 5 days)!
The program will be available by January 15. All participants will then be informed by email.

Visit us on the web at http://planetformation.uni-goettingen.de/

Donnerstag, 16. Dezember 2010

Saarbrücker Wissenschaftler untersuchen Fluorid im Zahnschmelz

Die Behandlung von Karies in Deutschland hat laut Statistischem Bundesamt 2008 etwa 7,9 Milliarden Euro gekostet. Einen Schutz gegen Karies bietet Fluorid, da es den Zahnschmelz gegen Säureeinwirkung resistenter macht, weswegen Fluoride z.B. in vielen Zahnpasten enthalten sind. In einer Studie haben Physiker und Zahnmediziner der Saar-Uni nun herausgefunden, dass Fluorid weniger tief ins Hydroxylapatit – den Hauptbestandteil von Zahnschmelz – eindringt, als bisher angenommen. Außerdem verändert Fluorid die Zusammensetzung des Zahnschmelzes, je nachdem, bei welchem pH-Wert die Fluorid-Anwendung stattfindet. Die Ergebnisse der Studie wurden in der Fachzeitschrift Langmuir veröffentlicht.
Die Saarbrücker Wissenschaftler konnten zeigen, dass die Schicht, in die Fluorid aus Zahnpasten oder Mundwässern eindringt, bis zu 100fach dünner ist als bisher angenommen. Ihre Dicke liegt nicht etwa im Mikrometer-, sondern nur im Nanometerbereich. In ihrer Studie haben sie außerdem nachgewiesen, dass es ganz entscheidend ist, ob das Fluorid in nahezu neutralem Milieu (pH-Wert 6,2) oder in saurem Milieu (pH-Wert 4.2) aufgetragen wird. In neutralem Milieu entsteht aus Hydroxylapatit, dem Material des Zahnschmelzes, das gegen Säuren resistentere Fluorapatit, das allerdings weniger als zehn Nanometer dick ist. Bei seiner Bildung werden die Hydroxid- (OH-) Gruppen des Hydroxylapatits teilweise durch Fluor-Ionen ersetzt. In saurem Milieu wird dagegen die normale Oberflächenstruktur des Zahnschmelzes stark verändert: Die Oberfläche wird rauer, und es entstehen Materialkomponenten mit nur geringen Fluorapatit-Anteilen, jedoch hohen Anteilen an Kalziumfluorid. Die Eindringtiefe des Fluorids scheint sich auf fast 100 Nanometer zu erhöhen, was jedoch auf eine erhöhte Porosität des Materials zurückgeführt werden kann.
Die Messungen wurden mit Hilfe der Photoelektronenspektroskopie (XPS) durchgeführt, einer Methode der Oberflächenphysik, die eine Analyse der elementaren Zusammensetzung des Zahnmaterials ermöglicht. Die Saarbrücker Forscher untersuchten kein natürliches Zahnmaterial, da dieses naturgemäß eine sehr variable Struktur besitzt, sondern führten ihre Analysen an synthetischem Zahnmaterial durch. Hierfür stellten sie in einem eigens entwickelten Sinterverfahren Hydroxylapatit-Presslinge her, die eine gleichmäßige Qualität in Struktur und chemischer Zusammensetzung besitzen und – im Gegensatz zum natürlichen Zahnmaterial früherer Studien – eine nahezu geschlossene Oberfläche aufweisen.

Die Untersuchungsergebnisse der Saarbrücker Physiker und Zahnmediziner werfen nun die Frage auf, ob eine extrem dünne fluorierte Schicht die Zähne wirklich vor Karies schützen kann. In einer Folgestudie wollen sie daher untersuchen, wie schnell diese Schicht durch Kauen abgetragen wird, ob pH-neutrale oder saure Fluoridlösungen effektiver sind und ob Fluoride eventuell andere, bisher unbekannte Auswirkungen auf die Zähne haben.

Veröffentlichung: Frank Müller, Christian Zeitz, Hubert Mantz, Karl-Heinz Ehses, Flavio Soldera, Jörg Schmauch, Matthias Hannig, Stefan Hüfner, and Karin Jacobs: „Elemental Depth Profiling of Fluoridated Hydroxyapatite: Saving Your Dentition by the Skin of Your Teeth?” Langmuir 26 (2010) 18750-18759.

via Informationsdienst Wissenschaft

Blick in den kosmischen Kühlschrank

Astronomen beobachten seltenes Molekül innerhalb einer Geburtswolke von Sternen
Im All herrscht dünne Luft. Ganz leer ist der Raum aber nicht: So wabern zwischen den Sternen kalte Staub- und Gaswolken, die im Wesentlichen aus Wasserstoff bestehen. Darunter finden sich seltene Moleküle wie H2D+ und D2H+, gebaut aus dem Wasserstoffatom (H) und seinem schwereren Isotop Deuterium (D). Deuterium, dessen Kern aus einem Proton und einem Neutron besteht, kommt im Universum etwa 100.000-mal seltener vor als gewöhnlicher Wasserstoff mit nur einem Kernproton. Daher lassen sich solche Moleküle schwer aufspüren. Einem Team am Bonner Max-Planck-Institut für Radioastronomie unter der Leitung von Bérengère Parise ist dieses Kunststück gelungen: Mit dem APEX-Teleskop haben die Forscher die Verteilung von D2H+ in der Rho-Ophiuchi-Dunkelwolke, einem Sternentstehungsgebiet, kartiert. (Astronomy & Astrophysics, 16. Dezember 2010)

Sterne werden im Innern von dichten und extrem kalten Gas- und Staubwolken geboren. Die meisten ihrer Moleküle frieren daher auf der Oberfläche von Staubkörnern aus - ähnlich wie Wasserdampf an den Wänden von Kühlschränken kondensiert. Auf diese Weise verschwinden die meisten Moleküle aus dem Gas, was die Beobachtung von Molekülstrahlung erschwert. Gleichzeitig aber laufen zwischen den in der Gasphase verbleibenden Molekülen ganz besondere chemische Prozesse ab: So entstehen bei Temperaturen von ungefähr 10 Kelvin (etwa minus 260 Grad Celsius) viele leichte, deuteriumhaltigen Moleküle, insbesondere dreiatomige Sorten wie H2D+ und D2H+.

Diese Moleküle waren schon im vergangenen Jahrzehnt das Ziel einer Reihe astronomischer Suchprogramme. "Die Linienstrahlung dieser Moleküle hilft uns dabei, die extremen physikalischen Bedingungen zu verstehen, die in den Hüllen von gerade entstehenden Sternen vorherrschen", sagt Bérengère Parise, die Leiterin der Emmy-Noether-Forschungsgruppe am Max-Planck-Institut für Radioastronomie in Bonn. "Und wir erfahren dabei viel über Prozesse, die zur Geburt von Sternen und ihren Planetensystemen führen."

Allerdings senden die Moleküle eine extrem schwache Strahlung hoher Frequenz mit Wellenlängen unterhalb von einem Millimeter aus. Dieser sogenannte Submillimeterbereich lässt sich vom Erdboden allenfalls bei besten Wetterbedingungen erfassen. Gefordert sind daher leistungsfähige Teleskope an den weltweit bestmöglichen Standorten. Dabei erweist sich die Beobachtung von D2H+ noch ein ganzes Stück schwieriger als die von H2D+, da es bei einer höheren Frequenz strahlt. So verliefen die meisten Suchprogramme nach diesem Molekül bisher erfolglos - es gab lediglich eine frühere Beobachtung, jedoch mit unsicherer Frequenzkalibration.

Für ihre jüngsten Messungen nutzten die Forscher das APEX-Radioteleskop, das in 5100 Meter Höhe auf der Chajnantor-Ebene in der chilenischen Atacamawüste steht. Und sie verwendet einen besonderen Empfänger: "Unser CHAMP+ ist ein sehr leistungsfähiges Instrument", sagt Rolf Güsten, Leiter der Submillimetertechnologie-Gruppe am Max-Planck-Institut für Radioastronomie. "Damit können wir astronomische Signale an sieben verschiedenen Positionen am Himmel gleichzeitig aufzeichnen, und das auch noch bei zwei unterschiedlichen Frequenzen."

So waren die Wissenschaftler jetzt in der Lage, die Strahlung von D2H+ in Richtung eines kalten Molekülklumpens innerhalb der 400 Lichtjahre entfernten Rho-Ophiuchi-Dunkelwolke erstmals auf sieben Positionen gleichzeitig zu erfassen. Das wäre an einem Instrument mit nur einem einzigen Empfängerpixel nahezu unmöglich gewesen, da der Nachweis des schwachen Signals eine sehr lange Beobachtungszeit auf jeder Position erfordert hätte.

Neben dem endgültigen Nachweis von D2H+ gelang der Gruppe eine überraschende Entdeckung: Das Molekül wurde nicht nur im kältesten Bereich im Zentrum des Klumpens gefunden, sondern auch in unmittelbarer Nachbarschaft. Offenbar geht das Ausfrieren von Molekülen auf Staubkörnern in extrem effektiver Weise vonstatten. Damit fanden die Forscher einen weiteren Puzzlestein zum Verständnis der chemischen Vorgänge, die in den kosmischen Kreißsälen der Sterne ablaufen.

"Die zusätzliche Information über die räumliche Verteilung von D2H+ durch die CHAMP+-Beobachtungen eröffnet uns die Möglichkeit, die chemischen und physikalischen Prozesse in den frühen Phasen der Sternentstehung im Detail zu untersuchen", sagt Parise. Ihr Team will die Messungen in nächster Zeit fortsetzen.

via Informationsdienst Wissenschaft

Neues Licht auf dunkle Gammastrahlenausbrüche

München (Europäische Südsternwarte): Gammastrahlenausbrüche gehören zu den energiereichsten Phänomenen im Universum, aber im sichtbaren Licht glimmen einige dieser gigantischen Explosionen nur ein schwach. Nun haben Astronomen herausgefunden, dass für diese so genannten „dunklen“ Gammastrahlenausbrüche keine exotischen Erklärungsansätze nötig sind: Im Rahmen der bisher umfangreichsten Studie solcher Ereignisse, durchgeführt mit dem GROND-Instrument am MPG/ESO 2,2 Meter-Teleskop auf La Silla in Chile, gelang es, die Lichtschwäche der dunklen Gammastrahlenausbrüche durch verschiedene Faktoren zu erklären. Den größten Einfluss übt dabei Staub zwischen der Erde und dem Explosionsort aus.
Gammastrahlenausbrüche, auf Englisch Gamma-Ray Bursts (GRBs), erscheinen ohne Vorwarnung und dauern zwischen Bruchteilen einer Sekunde und mehreren Minuten. Um ihre hochenergetische Gammastrahlung zu beobachten, ist es nötig, Weltraumteleskope einzusetzen. Vor dreizehn Jahren entdeckten Astronomen allerdings, dass diese gewaltigen Explosionen auch weniger energiereiche Strahlung erzeugen, die dafür über viel längere Zeiträume beobachtbar ist: Dieses „Nachglühen“ des Gammastrahlenausbruchs kann mehrere Wochen bis Jahre andauern.

Während alle Gammastrahlenausbrüche [1] ein Nachglühen im Röntgenbereich aufweisen, wird nur etwa bei der Hälfte von ihnen auch sichtbares Licht beobachtet. Die übrigen GRBs bleiben in diesem Spektralbereich seltsamerweise unsichtbar. Einige Wissenschaftler haben daher vermutetet, das optisch dunkle Nachglühen könne ein Anzeichen für die Existenz einer ganz neuen Art von Gamma-Ray Bursts sein. Andere Forscher gingen davon aus, dass diese dunklen GRBs in extrem großer Entfernung stattfänden: Vorangegangene Untersuchungen hatten bereits den Verdacht geweckt, dass kosmischer Staub, der sich zwischen dem Ort des Ausbruchs und der Erde befindet, das Nachglühen abschwächen könnte.

“Die Untersuchung des Nachglühens eines Gammastrahlenausbruchs liefert entscheidende Hinweise darauf, was für ein Objekt dort explodiert ist – zum Beispiel ein sehr massereicher Stern. Das ermöglicht es uns, Zusammenhänge zwischen den Ausbrüchen und der Sternentstehung im frühen Universum zu erforschen“, erklärt Jochen Greiner vom Max-Planck-Institut für Extraterrestrische Physik in Garching bei München, der Leiter der Studie.

Ende 2004 wurde der NASA-Satellit Swift ins All gestartet. Von seiner Umlaufbahn oberhalb der Erdatmosphäre aus kann er Gammastrahlenausbrüche direkt nachweisen. Ist ein Ausbruch festgestellt, übermittelt der Satellit dessen Position am Himmel sofort an andere Teleskope, die sofort Ausschau nach dem Nachglühen des GRBs halten. Für die jetzt veröffentlichte Studie haben Astronomen die Daten von Swift mit Beobachtungen mit dem GROND-Instrument [2] verknüpft, das speziell für die Beobachtung des Nachglühens von Gamma-Ray Bursts entwickelt wurde und am MPG/ESO 2,2 Meter-Teleskop auf La Silla in Chile eingesetzt wird. Auf diese Weise gelang es den Forschern, das Rätsel des optisch dunklen Nachglühens zu lösen.

Entscheidend für die Untersuchung des Nachglühens ist die Fähigkeit von GROND, im so genannten „Rapid Response Mode“ (wörtlich der „Schnelle-Reaktions-Modus“) innerhalb von wenigen Minuten nach der Entdeckung eines Bursts durch Swift mit den Beobachtungen beginnen zu können. GROND beobachtet gleichzeitig in sieben Filterbändern, die sowohl sichtbares als auch nahinfrarotes Licht abdecken.

Die Kombination der durch diese sieben Filter gewonnenen GROND-Daten mit den Swift-Beobachtungen ermöglichte es den Astronomen, das Nachglühen über weite Teile des elektromagnetischen Spektrums hinweg, nämlich von den Röntgenstrahlen bis zum Nahinfrarot, zu vermessen. Aus so umfassenden Messungen lässt sich direkt die Menge an Staub bestimmen, die das Licht auf dem Weg zur Erde durchlaufen hat und die das Nachglühen abschwächt. Bei früheren Untersuchungen hatten die Astronomen den Einfluss des Staubes immer nur grob abschätzen können [3].

Mit vergleichbar umfangreichen Sätzen an Beobachtungsdaten – sowohl von GROND als auch von anderen Großteleskopen einschließlich des Very Large Telescope der ESO – machten sich die Forscher daran, die Entfernungen nahezu aller Bursts in ihrer Beobachtungskampagne abzuschätzen. Wie sich ergab, wird das Nachglühen bei einem nennenswerten Anteil davon durch Staub auf etwa 60-80% der ursprünglichen Helligkeit abgeschwächt. Die so genannte kosmologische Rotverschiebung sehr ferner Ausbrüche verstärkt diesen Effekt, so dass einen Beobachter auf der Erde lediglich noch 30-50% des Lichtes erreicht [4]. Die Schlussfolgerung der Astronomen: Die meisten der optisch dunklen Gammastrahlenausbrüche sind gerade diejenigen Ereignisse, bei denen das Nachglühen im sichtbaren Licht komplett vom Staub verschluckt wurde, bevor es uns erreichen konnte.

“Verglichen mit vielen anderen Instrumenten an Großteleskopen ist GROND ein preiswertes und relativ einfaches Gerät. Dennoch war es in der Lage, das Rätsel der optisch dunklen Gamma-Ray Bursts endgültig aufzuklären“, schließt Greiner.

Endnoten

[1] Gammastrahlenausbrüche, die länger als zwei Sekunden dauern, bezeichnet man als lange Bursts, im Gegensatz zu den sogenannten kurzen Bursts. In der vorliegenden Studie wurden lange Bursts untersucht. Sie stehen in Zusammenhang mit den Supernovaexplosionen am Ende des Lebens massereicher und kurzlebiger Sterne in sternbildenden Galaxien. Die kurzen Bursts sind noch immer weitgehend unverstanden. Möglicherweise entstehen sie bei der Verschmelzung zweier kompakter Objekte, etwa Neutronensterne.

[2] Der Gamma-Ray Optical and Near-infrared Detector GROND (wörtlich das “Nachweisinstrument zur Beobachtung von Gammastrahlenausbrüchen im optischen und nahinfraroten Licht”) wurde am Max-Planck-Institut für Extraterrestrische Physik in Garching und unter Mitwirkung der Thüringer Landessternwarte Tautenburg entwickelt und gebaut. Seit August 2007 ist das Instrument im regulären Einsatz.

[3] Dunkle Gammastrahlenausbrüchen waren der Gegenstand mehrerer Studien anderer Wissenschaftlergruppen: Anfang 2010 beobachteten Astronomen mit dem Subaru-Teleskop einen einzelnen GRB. Aus den Ergebnissen leiteten sie die Hypothese ab, dass dunkle Gamma-Ray Bursts zu einer eigenständigen Objektklasse gehören, deren Vertreter durch einen eigenen charakteristischen Explosionsmechanismus entstehen könnten, etwa durch die Verschmelzung von Doppelsternen. Nach der Untersuchung von 14 Galaxien, in denen dunkle GRBs stattfanden, mit dem Keck-Teleskop aus dem letzten Jahr favorisierte eine andere Astronomengruppe aufgrund der niedrigen Rotverschiebungen dieser Bursts die Abschwächung durch Staub als Erklärung. In der neuen, hier vorgestellten Arbeit wurden 39 Ausbrüche – einschließlich knapp 20 dunkler Bursts – untersucht. Es handelt sich um die einzige Studie, in die keine vorherigen Abschätzungen eingingen, sondern die direkte Messungen der Staubmenge vornahm.

[4] Da das Licht des Nachglühens eines sehr weit entfernten Gamma-Ray Bursts durch die Expansion des Universums rotverschoben wird, war es zum Zeitpunkt seiner Aussendung blauer als es nun vom Detektor gemessen wird. Die Abschwächung durch Staub ist bei blauem und ultravioletten Licht stärker als bei rotem Licht. So verstärkt sich der Effekt der Staubabschwächung für weit entfernte Bursts. Aus dem gleichen Grund spielt die Fähigkeit von GROND, im nahen Infrarotbereich zu beobachten, eine so bedeutende Rolle spielt.
via Informationsdienst Wissenschaft

Futuna: Meeresrücken und aktiven Vulkan entdeckt

Ein französisches Team aus Forschern und Technikern hat einen neuen Meeresrücken und einen neuen aktiven Vulkan von 20km Durchmesser, den "Kulolasi", entlang der Wallis- und Futuna-Inseln entdeckt. Der Vulkan weist die erste tiefe hydrothermale Formation mit hoher Temperatur in der französischen ausschließlichen Wirtschaftszone (AWZ) auf.
Die an Bord des Forschungsschiffes L'Atalante des Ifremer [1] durchgeführten Arbeiten ergaben neue Informationen über ein Gebiet, dessen Meeresboden bislang fast "unbeobachtet" geblieben war. Alle auf der Expedition gesammelten Proben (Flüssigkeiten, Gesteine, lebende Organismen) werden nun an Land im Rahmen einer Zusammenarbeit zwischen den wissenschaftlichen, an der Forschungsexpedition beteiligten Organisationen analysiert (Ifremer, BRGM, CNRS, IPGP, UBO-IUEM, CEA [2]).

Der südliche Teil der Futuna-Insel ist ein unbekanntes und riesiges vulkanisches Gebiet in der AWZ. Dank der Futuna Forschungsexpedition 2010 konnten die Kenntnisse über dieses vulkanische Gebiet deutlich ausgebaut werden. Es wurde bereits im Jahr 2000 teilweise während der Alaufi Forschungsexpedition kartiert, die auch an Bord der L’Atalante stattfand, jedoch mit weniger leistungsstarken Messinstrumenten ausgerüstet war. Die kartierten Gebiete umfassen mehr als 35 000 km² - dies entspricht fast der doppelten Fläche der Bretagne. 57% des Areals sind von neuen vulkanischen Formationen bedeckt. Dadurch besteht potentiell die Möglichkeit, in diesem Gebiet aktive und inaktive Hydrothermalquellen zu finden, die wiederum die Grundlage für die Bildung von spezifischen Schwefelmineralen und Biozönosen [3] sind. Dieses Potenzial wird noch durch die Existenz verschiedener Lavagesteine, Basalte und Ryoliten verstärkt, die ein geeignetes Umfeld für die hydrothermale Aktivität schaffen.

Während der Expeditionen wurde die biologische Vielfalt der Hydrothermalquellen und älterer vulkanischer Formationen untersucht. An mehreren Standorten der Hydrothermalquellen mit niedrigen Temperaturen konnten vielfältige Biozönosen beobachtet werden.

An der Forschungsexpedition nahmen sowohl Geologen, Geophysiker, Vulkanologen, auf Flüssigkeiten spezialisierte Chemiker und Biologen (Meeresboden und -oberfläche, einschließlich Beobachter für Meeressäuger), als auch Mikrobiologen und Wassersäulen-Experten teil. Zur Bereitstellung der breiten Palette an Instrumenten und Geräten zur Meereserforschung wurde ein großes Team von Technikern aus Genavir mobilisiert.

Das Forscherteam wurde ebenfalls ergänzt durch ein Team von Technikern, die auf dem Gebiet der Kartierung und der akustischen Abbildung des Meeresbodens spezialisiert sind. In sehr kurzer Zeit gelang ihnen die Erstellung von Karten und akustischen Darstellungen des Meeresbodens. Diese technische Unterstützung erwies sich als entscheidend bei der Definierung der Forschungsstrategien während des ersten Teils der Forschungsexpedition und der Vorgehensweise bei den Tiefseetauchgängen im Laufe der zweiten Etappe der Expedition.

via Informationsdienst Wissenschaft

Montag, 13. Dezember 2010

Calcium - Periodic Table of Videos

Meteoriteneinschlag im Labor

Freiburger Wissenschaftler simulieren kosmische Kollisionen
Ungewöhnliches geschieht zurzeit in Freiburg: Mit kosmischen Geschwindigkeiten von bis zu 30.000 Kilometer pro Stunde schlagen Eisenmeteoriten in Gestein ein und reißen große Krater – allerdings nur im Labor. Den Forschern vom Institut für Geowissenschaften der Universität Freiburg um Prof. Dr. Thomas Kenkmann ist es gemeinsam mit Ingenieuren und Physikern des Fraunhofer-Instituts für Kurzzeitdynamik Freiburg (EMI) und Gastwissenschaftlern gelungen, Meteoriteneinschläge im Labor nachzustellen. Die Experimente sind Teil einer von der Deutschen Forschungsgemeinschaft finanzierten Kampagne, die hochdynamische Vorgänge beim Einschlag von Asteroiden und anderen Himmelkörpern auf die Erde untersucht.

Tausende von Asteroiden ziehen ihre Bahnen im inneren Sonnensystem und können mit der Erde auf Kollisionskurs gehen. Ein Beispiel für die reale Bedrohung der Erde ist der Meteoriteneinschlag, der sich 2007 in Peru ereignete und einen 15 Meter großen Krater riss. „Die Laborversuche geben uns Aufschluss darüber, was in der Natur bei einem Meteoriteneinschlag tatsächlich passiert. Die Experimente helfen uns auch, die Schäden besser vorhersagen zu können“, sagt Thomas Kenkmann, Leiter der Forschergruppe „Experimentelle Kraterbildung“.

Mit Hilfe von zweistufigen Leichtgasbeschleunigungsanlagen werden erstmalig echte Eisenmeteorite auf 20.000 bis 30.000 Kilometer pro Stunde beschleunigt. „Die Beschleunigungsanlagen des Fraunhofer Instituts gehören zu den leistungsstärksten weltweit“, sagt Dr. Frank Schäfer, Leiter der Abteilung Weltraumtechnologie und Sicherheit des EMI. Hochgeschwindigkeitskameras und Drucksensoren zeichnen im Mikrosekundentakt alle Phasen der Kraterbildung auf. Das herausgeschleuderte Gestein wird mit speziellen Geräten aufgefangen und anschließend mit Elektronenmikroskopen untersucht. In der derzeitigen Versuchsreihe wird vor allem analysiert, welchen Einfluss die Atmosphäre und das im Gestein eingeschlossene Wasser auf die Kraterbildung ausüben.

Durch die Kooperation des Instituts für Geowissenschaften mit dem Fraunhofer Institut für Kurzzeitdynamik, das von Prof. Dr. Klaus Thoma geleitet wird, etabliert sich Freiburg als einer der führenden Standorte auf dem Gebiet der Meteoritenkraterforschung.

Via Informationsdienst  Wissenschaft

Bremer Meeresboden-Bohrgerät im Einsatz vor Chile

Im November waren Wissenschaftler des Bremer Forschungszentrums MARUM mit dem Forschungsschiff SONNE auf Expedition vor der chilenischen Küste. Mit an Bord war das am MARUM entwickelte Meeresboden-Bohrgerät MeBo, das an drei Untersuchungsorten für wissenschaftliche Bohrungen eingesetzt wurde. Die Beprobung des Ozeanbodens ergab insgesamt etwa 250 Meter Meeresablagerungen, die nun an Land weiter untersucht werden. Sie sollen Aufschluss über das Klima der letzten 150 000 Jahre geben.
Wieder festen Boden unter den Füßen haben die 25 Expeditionsteilnehmer aus Deutschland, Chile und den USA, die vom 02. bis zum 29. November auf dem Forschungsschiff SONNE in den fischreichen Gewässern des Humboldtstromes vor der Küste Chiles unterwegs waren. Unter Leitung von Prof. Dr. Dierk Hebbeln vom MARUM, dem Zentrum für Marine Umweltwissenschaften an der Universität Bremen, haben die Forscher seismische, geologische und biologische Untersuchungen durchgeführt. Im Mittelpunkt der Expedition stand der Einsatz des Meeresboden-Bohrgerätes MeBo, mit dem der Ozeanboden beprobt wurde. Die gewonnenen Bohrkerne enthalten Informationen über das Klima längst vergangener Zeiten und dienen den Forschern somit als Klimaarchiv. Das Untersuchungsgebiet entlang der chilenischen Küste hält dabei ein ganz besonderes Archiv bereit, wie Fahrtleiter Hebbeln erklärt: „In diesem Gebiet wird kontinuierlich sehr viel Material auf dem Meeresboden abgelagert und je höher die Ablagerungsrate ist, desto höher ist die zeitliche Auflösung der Proben, was genauere Klimarekonstruktionen ermöglicht.“

Je tiefer man in die Schichten des Meeresbodens vordringt, umso älter wird das Material und desto weiter können die Forscher damit in die Klimavergangenheit zurückblicken. Die Standardmethode zur Beprobung der Meeresablagerungen, bei der die Proben mit Rohren aus dem Meeresboden gestanzt werden, liefert Sedimentkerne mit einer maximalen Länge von 20 Metern. Will man tiefere, das heißt ältere Schichten beproben, so muss man bohren. „Expeditionen mit konventionellen Bohrschiffen sind jedoch sehr aufwendig und teuer.“ erklärt MeBo-Projektleiter Dr. Tim Freudenthal, „Daher haben wir hier in Bremen für die speziellen Anforderungen in der Meeres- und Klimaforschung das MeBo entwickelt. Es ist ein transportables Bohrgerät und konnte bereits von verschiedenen Schiffen aus eingesetzt werden.“

Seinen ersten Einsatz auf dem Forschungsschiff SONNE meisterte das MeBo mit Bravour. „Zum ersten Mal konnten wir die volle Kapazität des Gerätes ausschöpfen und bis in eine Tiefe über 70 Meter bohren.“ berichtet Fahrtleiter Hebbeln. Würden die Bohrkerne der fünf MeBo-Bohrungen vor Chile aneinandergereiht, ergäben sie insgesamt 250 Meter Meeresablagerungen. Erste Untersuchungen der Kerne wurden bereits in den Laboren an Bord der Sonne durchgeführt. Nun sind die Kerne auf dem Weg in das Bremer Bohrkernlager im MARUM, wo die Wissenschaftler ihre Untersuchungen zur Klimarekonstruktion fortsetzen werden. „Mit den Ergebnissen können wir für das Gebiet des Humboldtstromes, der als Verbindung zwischen den polaren antarktischen Gewässern und dem tropischen Pazifik eine wichtige Rolle im Klimasystem spielt, Rückschlüsse auf die Wassertemperaturen, die Ozeanströmungen und die regionale Vegetation ziehen und so etwa 150 000 Jahre zurück in die Klimageschichte blicken.“ erläutert der Meeresgeologe Hebbeln.

Das 6,6 Meter hohe Meeresboden-Bohrgerät wird direkt auf dem Meeresboden abgesetzt und über ein Spezialkabel vom Schiff aus ferngesteuert. Es besitzt zwei Magazine, auf denen die benötigten Bohrrohre gelagert werden. Mit Hilfe eines Greifarms und zweier Rohrklemmen wird am Meeresboden der Bohrstrang aufgebaut, mit dem die Kernproben aus bis zu 70 Metern Tiefe in Lockersedimenten und Festgestein gewonnen werden. Eine kontinuierliche Beprobung des Meeresbodens in bis zu 2000 Meter Wassertiefe dauert mit dem MeBo ungefähr 36 Stunden.

Via Informationsdienst Wissenschaft

Regen über Afrika

Aktuelle Forschungsergebnisse zeichnen neues Bild vom afrikanischen Regengürtel

Ein internationales Team um MARUM-Wissenschaftler James Collins rekonstruierte die Ausdehnung und Lage des Regengürtels über dem afrikanischen Kontinent während der letzten 23 000 Jahre. Entgegen der vorherrschenden Theorie zeigen ihre Ergebnisse, dass sich das afrikanische Regenband nicht wie der übrige Teil des globalen, weltumspannenden Regengürtels verhält. Die Studie von Collins und seinen Kollegen erschien am 12. Dezember in der Online-Ausgabe der Zeitschrift Nature Geoscience.
Zusammen mit Kollegen aus Norwegen, den Niederlanden und China haben Bremer Meeresforscher um den Geologen James Collins die Ausbreitung der Pflanzenwelt in den äquatornahen Gebieten des afrikanischen Kontinents während der letzten 23 000 Jahre rekonstruiert. Dies erlaubte den Wissenschaftlern Rückschlüsse auf die Niederschlagsmenge und die Lage des afrikanischen Regengürtels. „Unsere Ergebnisse zeigen, dass sich das afrikanische Regenband in der Vergangenheit mehrmals ausdehnte und wieder zusammenzog, wobei die Bewegungen auf der Nord- und Südhalbkugel symmetrisch abliefen.“ berichtet Collins. Bislang gingen Forscher davon aus, dass sich das afrikanische Regenband in der Vergangenheit im Ganzen nach Norden bzw. Süden verschob, ohne dabei seine Breite zu verändern.

Die aktuellen Forschungsergebnisse sollen nun dabei helfen, Klimamodelle zu verbessern, um genauere Prognosen für die Zukunft zu ermöglichen. „Über die Dynamik des heutigen Regenbandes über Afrika wissen wir nur wenig und immer wieder tauchen Unstimmigkeiten zwischen den wissenschaftlich gewonnenen Klimadaten und den theoretischen Klimamodellen auf.“ erklärt Geologe Collins. Der gebürtige Brite führte die Untersuchungen im Rahmen seiner Doktorarbeit am MARUM, dem Zentrum für Marine Umweltwissenschaften an der Universität Bremen, durch. Er untersuchte Meeresablagerungen, die vor der Westküste Afrikas gewonnen wurden. Sie enthalten Pflanzenreste, die mit dem Wind westwärts auf das Meer hinaus getragen und am Meeresgrund abgelagert wurden. „Durch Bestimmung des Verhältnisses von schwerem zu leichtem Kohlenstoff in den Pflanzenresten können wir Rückschlüsse auf die Niederschlagsmenge machen.“ erklärt MARUM-Wissenschaftler Dr. Enno Schefuß die moderne Methode. Dabei verfolgten sie einen neuen Ansatz: Erstmalig untersuchten sie vergleichbare Proben nördlich und südlich des Äquators. Die acht Standorte, an denen Proben gewonnen wurden, liegen entlang der afrikanischen Küste und decken die gesamte Breite des Regengürtels ab. „Nur im Vergleich der Ergebnisse für beide Erdhabkugeln konnten wir gleichzeitige Veränderungen in der Ausdehnung nach Norden und Süden erkennen.“ sagt der ebenfalls an der Studie beteiligte MARUM-Wissenschaftler Dr. Stefan Mulitza.

Der afrikanische Regengürtel ist Teil des globalen Regenbandes, das sich entlang der Äquatorregionen um den ganzen Erdball spannt. Er ist ein wesentlicher Bestandteil des globalen Wasserkreislaufs sowie der atmosphärischen Zirkulation. Der afrikanische Regengürtel liegt wie ein großes Niederschlagsband über dem Kontinent und pendelt im Wechsel der Jahreszeiten zwischen dem südlichen und dem nördlichen 20. Breitengrad. Er folgt dabei der Sonne, die im Juni am nördlichen Wendekreis im Zenit steht, im Dezember am südlichen Wendekreis. Dieses wandernde Regenband bestimmt die regionale Niederschlagsmenge und somit die regionale Vegetation.

via Informationsdienst Wissenschaft

Samstag, 11. Dezember 2010

Empirische Studien in afrikanischen Grenzregionen entlang der Großen Seen

Bayreuth (UBT). Die Region der afrikanischen Großen Seen, die sich über 600 km vom Albertsee im Norden bis zum Tanganyika-See im Süden erstreckt, gehört zu den besonders dicht besiedelten Gebieten in Afrika. Die Grenzräume zwischen den Anrainerstaaten sind von bewaffneten Konflikten, aber zugleich von Austausch und Integration geprägt. Mit den grenzüberschreitenden ökonomischen Verflechtungen und politischen Dynamiken befassen sich seit mehreren Jahren Dr. Martin Doevenspeck, Mitarbeiter am Lehrstuhl für Bevölkerungs- und Sozialgeographie der Universität Bayreuth, und Morisho Mwanabiningo Nene, der an der Bayreuth International Graduate School of African Studies (BIGSAS) promoviert.
In der „Geographischen Rundschau“ haben die beiden Autoren kürzlich drei empirische Fallskizzen veröffentlicht. Darin wird deutlich, welche vielfältigen Funktionen die Staatsgrenzen in dieser afrikanischen Region erfüllen und welche symbolischen Bedeutungen ihnen dabei zuerkannt werden.

An der Schnittstelle der politischen Systeme:
Im Grenzraum zwischen Kongo und Ruanda

Die Grenze, die zwischen den benachbarten Städten Goma (Kongo) und Gisenyi (Ruanda) verläuft, trennt ehemalige Kriegsgegner und Bevölkerungsgruppen, die sich bis heute misstrauisch oder sogar feindselig gegenüber stehen. Sie markiert die tiefgreifenden Unterschiede in den politischen Ordnungen beider Länder, die sich weit auseinander entwickelt haben. Unterhalb der Abgrenzung der politischen Systeme hat sich jedoch ein dichtes Geflecht von Austauschbeziehungen entwickelt. Grenzüberschreitender Handel, Schmuggel und Arbeitsmigration gehören zum Alltag vieler Grenzraumbewohner. So können existenzielle Nöte bewältigt werden, die oft in politischen und ökonomischen Rahmenbedingungen begründet sind – sei es in der prekären Sicherheitslage und dem weitgehenden Fehlen staatlicher Strukturen im Ostkongo oder im diktatorischen Entwicklungsmodell in Ruanda.

Gute Regierungsführung in Rebellenhand:
Im Grenzraum zwischen Kongo und Uganda

Die internationale Berichterstattung zu den Konflikten um afrikanische Bodenschätze erweckt häufig den Eindruck, die Wirtschaft im Ostkongo sei hauptsächlich von Exporten geprägt. Doch wie Doevenspeck und Morisho deutlich machen, wird in den Gebieten entlang der ugandischen Grenze weitaus mehr Geld mit Importgeschäften verdient. Insbesondere die Region nördlich des Kivu-Sees ist von zentraler Bedeutung für den Transit von Konsumgütern, die vor allem in China hergestellt werden. Die kongolesische Rebellenorganisation CNDP (Congrès National pour la Defense du Peuple) hatte in diesen Gebieten von 2006 bis 2009 ein parastaatliches Regime errichtet. Ein professionelles Grenzmanagement ließ die Zoll- und Steuereinnahmen erheblich steigen. Dabei wurde ein nicht geringer Anteil der Gewinne für die Finanzierung militärischer Konflikte eingesetzt. Andererseits gelang es dem CNDP, die Lebensverhältnisse der ostkongolesischen Bevölkerung ansatzweise zu verbessern. Die Grenzregion erhielt so einen hohen Symbolwert für eine Rebellenbewegung, die sich als Initiator guter Regierungsführung präsentieren wollte und konnte.

Vor dem Unabhängigkeitsreferendum:
Im Grenzraum zwischen Uganda und dem Südsudan

Zwei Jahrzehnte lang, bis zum 2005 geschlossenen Friedensabkommen, war die Region zwischen Uganda und dem Sudan von militärischen Konflikten und Fluchtbewegungen geprägt. Heute jedoch bestimmen Handel und Verkehr das Geschehen. Der Grenzübergang Oraba-Kaya ist eine der wichtigsten Durchgangsstationen für Baumaterialien, Agrarprodukte, Kleidung und Kraftfahrzeuge. Ugandische Händler erschließen auf diesem Weg den Südsudan als profitablen Absatzmarkt. Umgekehrt überqueren viele Südsudanesen die Grenze, weil sie im Norden Ugandas Ausbildungschancen, medizinische Versorgung und Unterhaltungsangebote vorfinden.
Der Lebensalltag der Menschen wird durch ständige Verhandlungen mit den Grenzbeamten erschwert. Diese demonstrieren auf ugandischer Seite die Macht der Zentralregierung und agieren auf südsudanesischer Seite so, als existiere bereits ein neuer Staat Südsudan, der sich von der Zentralregierung getrennt hat. Ob es zu dieser Staatenbildung kommt, wird ein für 2011 geplantes Referendum zeigen.

Die Studien von Doevenspeck und Morisho zeigen, wie die Grenzen zwischen den subsaharischen Staaten von Regierungen und Bevölkerungen aus ihren jeweiligen Interessenkonstellationen heraus effektiv genutzt werden. Die Existenz dieser Grenzen wird dabei in der Regel, trotz ihres kolonialen Ursprungs, nicht mehr in Frage gestellt.

Veröffentlichungen:

Martin Doevenspeck und Morisho Mwanabiningo Nene,
Entwicklungen am Rand. Grenzen und regionale Integration im Bereich der
zentralafrikanischen Großen Seen.
In: Geographische Rundschau 10 (2010), S. 20 - 28

Martin Doevenspeck und Morisho Mwanabiningo Nene,
Navigating Uncertainty: Observations from the Congo-Rwanda Border.
In: Bruns, B.; Miggelbrink, J. (eds): Borders as Ressources.
Wiesbaden, VS-Verlag, 2011, im Druck

via Informationsdienst Wissenschaft

Donnerstag, 9. Dezember 2010

In Cancún geht es um zwei Grad Erderwärmung – schon 1,5 Grad hätten Folgen für Jahrhunderte

Sogar eine Erderwärmung um nur 1,5 Grad Celsius hätte Folgen für Jahrhunderte. Die Ozeane speichern die höheren Temperaturen länger als bislang gedacht, weil der normale Wärmeaustausch gestört wird, fanden Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung (PIK) heraus. Wärme in tieferen Wasserschichten wird hierbei durch eine Abkühlung der obersten Wasserschichten gleichsam gefangen gehalten, heißt es in der Studie, die demnächst in der Zeitschrift Earth System Dynamics veröffentlicht wird. Selbst wenn es gelingen sollte, den Planeten wieder abzukühlen, indem man Kohlendioxid aus der Atmosphäre extrahiert, würde diese Abkühlung daher rund zehnmal länger dauern als zuvor das Aufheizen durch Treibhausgase, so die Berechnungen. Folge wäre, dass der globale Meerespiegel trotz der Abkühlung der Erdoberfläche noch für weitere 200 Jahre anstiege.

Beim Klimagipfel im mexikanischen Cancún wird darüber gestritten, ob und wie ein Klimawandel von mehr als zwei Grad gegenüber dem vorindustriellen Zeitalter verhindert werden soll. Die bisher freiwillig abgegebenen Versprechen vieler Staaten, ihren Ausstoß von CO2 zu verringern, würden jedoch zu einem Temperaturanstieg von etwa drei bis vier Grad führen. Ein Jahr zuvor in Kopenhagen war auf Drängen vor allem kleiner Inselstaaten beschlossen worden, auch ein ambitioniertes Szenario der Emissionsreduktion mit einem Ziel von 1,5 Grad Erderwärmung prüfen zu lassen. Hierzu gibt es erst wenig Forschung. Die PIK-Wissenschaftler haben nun eine ganze Reihe von Szenarien mit Hochleistungsrechnern simuliert.

„Die gute Nachricht ist, dass eine Begrenzung der Erderwärmung auf rund 1,5 Grad tatsächlich erreichbar ist, wenn die Emissionen ab dem Jahr 2015 sinken und ab 2070 sogar CO2 wieder aus der Atmosphäre herausgeholt wird“, erklärt der Leitautor Jacob Schewe. Hierfür sei allerdings vermutlich ein massiver Ersatz fossiler Brennstoffe durch Biomasse in Verbindung mit dem Verpressen des CO2 im Boden nötig (CCS). Beides birgt Risiken. Die schlechte Nachricht aber sei: „Schon ein Temperaturanstieg von weniger als zwei Grad hätte weitreichende Folgen – wenn auch weniger tiefgreifende als bei einer noch stärkeren Erderwärmung.“

So würde im 1,5-Grad-Szenario der allein durch die thermische Ausdehnung der Wassermassen verursachte Meerespiegelanstieg im Jahr 2250 durchschnittlich rund 30 Zentimeter betragen. „Dies hätte bereits ernstzunehmende Folgen für viele Küstenregionen weltweit“, sagt Anders Levermann, Koautor und Professor für die Dynamik des Klimasystems. „Stoßen wir einfach weiter wie bisher Treibhausgase aus, würde der Meereespiegel selbst im Jahr 2500 nicht aufhören zu steigen, und nur allein durch die Ausdehnung des Meerwassers bekämen wir 200 Zentimeter globalen Anstieg.“ Hinzu kämen noch die Beiträge aus dem Schmelzen der Eiskappen. Auch bei den Monsunregen etwa in Asien müsste bereits bei 1,5 Grad globaler Erwärmung mit deutlichen Veränderungen gerechnet werden. Dies alles ist bedeutsam für Maßnahmen der Anpassung an den Klimawandel, die auch in Cancún Thema sind.

Am weitesten gehen die Veränderungen der Temperaturen im Meer, wie die Simulation der PIK-Forscher zeigt. Beispielsweise im Nordatlantik könnte auch die Tiefsee aufgrund des nun entdeckten und über die üblichen Trägheiten hinausweisenden Mechanismus’ – Abkühlung an der Wasseroberfläche und hierdurch beeinträchtigter Wärmeaustausch der Ozeane – lange Zeit anormal erwärmt bleiben. Dies könnte die Ökosysteme des Meeres stören. Die Eisschelfe der Antarktis könnten schmelzen. Und gefrorene Methanhydrate könnten sich vom Meeresboden lösen, was zusätzliche Treibhausgase in die Atmosphäre brächte.

Artikel: Schewe, J., Levermann, A., Meinshausen, M.: Climate change under a scenario near 1.5 C under a scenario of global warming: Monsoon intensification, ocean warming and steric sea level rise. Earth System Dynamics Discussions 1 (2010), 297-324 [doi:10.5194/esdd-1-297-2010]
Link: http://www.pik-potsdam.de/~anders/publications/schewe_levermann10b.pdf

Via Informationsdienst Wissenschaft

Talk at Cancun is of 2 degrees Celsius – even 1.5 degrees would have effects lasting centuries

Even global warming of just 1.5 degrees Celsius would have consequences for centuries. The oceans store elevated temperatures for a longer time than was previously thought. This is due to a change in ocean-atmosphere heat exchange, scientists of the Potsdam Institute for Climate Impact Research discovered. Heat in lower oceanic layers is trapped by a cooling of upper layers, says a study which is about to be published in the journal Earth System Dynamics. Even if it would work to cool down the planet by extracting CO2 from the atmosphere, according to the calculations this cooling would be ten times slower than the currently observed temperature rise by greenhouse gases. Steric sea level rise under this scenario would continue for 200 years after the peak in surface air temperatures.

At the climate summit in Cancún, Mexico, it is being debated whether and how climate change of more than two degrees compared to the preindustrial age can be prevented. Pledges by many states to reduce their emissions of CO2 would still lead to an increase of global mean temperatures by 3 to 4 degrees. One year ago, in Copenhagen, after pressure by mainly small island states it was decided that a more ambitious scenario of emission reduction should also be investigated, with a 1.5 degrees limit. Research on this up to now has been sparse. PIK researchers have now simulated several scenarios with high-performance computers.

“The good news is that a limitation of global warming really could be achieved if emissions declined after the year 2015 and if from 2070 considerable amounts of CO2 would be extracted from the atmosphere,“ says lead-author Jacob Schewe. To achieve this, however, fossil fuels would probably have to be substituted by the massive use of biomass plus carbon capture and storage. These two technologies imply risks. But the bad news is, Schewe says: “Even a mean temperature rise of less than two degrees would have far-reaching consequences – though less severe ones than in the case of stronger global warming.“

Thermal oceanic expansion alone would yield, under the 1.5 degrees scenario, a mean sea level rise of 30 centimeters in 2250. “This would already have serious effects on many coastal regions,“ says Anders Levermann, co-author and professor of dynamics of the climate system. “If we just keep on emitting greenhouse gases, in a business-as-usual scenario, steric sea level rise wouldn't stop even in 2500, resulting in a mean sea level rise of 200 centimeters.“ In addition to this, there would be contributions to sea level rise from melting ice sheets. Monsoon rainfall in Asia could also be considerably affected, even under the 1.5 degrees scenario. All of this is significant for the issue of adaptation to climate change, which is on the agenda in Cancún.

Most relevant are changes of temperature in the oceans, the simulation run by the PIK researchers shows. In the northern Atlantic, for instance, there could be abnormal warming for a long time. This would be provoked not just by the known inertia but by the newly discovered, still stronger mechanism whereby cooling on the surface interferes with regular ocean-atmosphere heat exchange. This could affect marine ecosystems. The ice-shelves of Antarctica could melt. And prolonged deep ocean warming could trigger the dissociation of methane hydrates in ocean sediments and thereby release additional amounts of greenhouse gas into the atmosphere.

Article: Schewe, J., Levermann, A., Meinshausen, M.: Climate change under a scenario near 1.5 C under a scenario of global warming: Monsoon intensification, ocean warming and steric sea level rise. Earth System Dynamics Discussions 1 (2010), 297-324 [doi:10.5194/esdd-1-297-2010]
Link: http://www.pik-potsdam.de/%7Eanders/publications/schewe_levermann10b.pdf

via Informationsdienst Wissenschaft

Mittwoch, 8. Dezember 2010

Ein Schwarm von älteren Sternen

München (Europäische Südsternwarte): Astronomen kennen rund 150 so genannte Kugelsternhaufen, dicht bevölkerte Ansammlungen alter Sterne, die unsere Heimatgalaxie, die Milchstraße, umkreisen. Auf dieser neuen Aufnahme von Messier 107, die mit dem Wide Field Imager am MPG/ESO 2,2-Meter-Teleskop am La Silla-Observatorium in Chile gewonnen wurde, wird die Struktur eines solchen Kugelsternhaufens bis ins kleinste Detail sichtbar. Die Untersuchung dieser Sternenschwärme verrät den Astronomen viel über die Geschichte unserer Milchstraße und ermöglicht es ihnen zu verstehen, wie sich Sterne entwickeln.
eso1048de — Bildveröffentlichung

Der Kugelsternhaufen Messier 107 (kurz M107, alternative Bezeichnung NGC 6171) ist eine kompakte Großfamilie aus älteren Sternen. Kugelsternhaufen sind wie belebte Großstädte: Tausende von Sternen sind in einem Bereich konzentriert, dessen Durchmesser gerade zwanzig mal so groß ist wie der Abstand der Sonne zum nächsten Nachbarstern, Alpha Centauri. Ein großer Teil dieser Sterne haben sich bereits zu Roten Riesen entwickelt, einem der letzten Stadien der Sternentwicklung. In der vorliegenden Aufnahme sind sie an ihrer gelblichen Farbe zu erkennen.

Kugelsternhaufen gehören zu den ältesten Objekten im Universum. Die darin enthaltenen Sterne haben sich alle in etwa zur selben Zeit aus derselben Wolke interstellarer Materie gebildet, und das typischerweise vor mehr als 10 Milliarden Jahren. Bei den heute noch vorhandenen Sternen handelt sich ausnahmslos um massearme Sterne: Leichtgewichte unter den Sternen gehen mit ihrem Brennstoff sparsamer um als massereiche Sterne und haben daher eine deutlich höhere Lebensdauer. Da sich die Kugelsternhaufen schon während der frühsten Stadien der Galaxienentstehung gebildet haben, bieten sie die Gelegenheit, zu untersuchen, wie sich zum einen die Sterne, zum anderen die Galaxien als Ganzes entwickeln.

Messier 107 liegt in einem von 160 Sternfeldern, die im Rahmen des so genannten Pre-FLAMES Survey ausführlich mit dem MPG/ESO 2,2-Meter-Teleskop auf La Silla beobachtet wurden. Bei dieser Studie aus den Jahren 1999 bis 2002 wurden passende Kandidaten für Nachbeobachtungen mit dem Spektrografen FLAMES [1] am VLT gesucht. Mit FLAMES lassen sich bis zu 130 Objekte gleichzeitig beobachten, so dass dieses Instrument besonders gut geeignet ist, um dicht bevölkerte Sternfelder spektroskopisch zu untersuchen; exakt solche Verhältnisse also, wie man sie in Kugelsternhaufen findet.

M107 ist nicht mit bloßem Auge zu erkennen, kann aber von einem dunklen Standort aus leicht mit einem Fernglas oder einem kleinen Teleskop beobachtet werden (scheinbare Helligkeit 8 mag). Der scheinbare Durchmesser des Kugelsternhaufens am Himmel ist etwas weniger als halb so groß wie der des Vollmonds (rund 13 Bogenminuten). Bei einer Entfernung von etwa 21.000 Lichtjahren entspricht das einem wahren Durchmesser von 80 Lichtjahren. M107 befindet sich im Sternbild Ophiuchus (der Schlangenträger), nördlich der Scheren des Skorpions. Fast die Hälfte der bekannten Kugelsternhaufen, die die Milchstraße begleiten, befinden sich in den Sternbildern Schütze, Skorpion und Ophiuchus in Richtung des Zentrums der Galaxis. Sie alle befinden sich auf verschiedenen langgestreckten Umlaufbahnen um den Zentralbereich, die sich in den genannten Sternbildern schneiden; daher ist die Wahrscheinlichkeit, in dieser Richtung einen Kugelsternhaufen zu sehen, besonders groß.

Messier 107 wurde im April 1782 von Pierre Méchain entdeckt. Er gehört zu den sieben zusätzlichen Messier-Objekten, die nachträglich zu dem im Jahr zuvor veröffentlichten Messier-Katalog hinzugefügt wurden. Am 12. Mai 1793 wurde er unabhängig auch von William Herschel entdeckt, der als erster in der Lage war, den Kugelsternhaufen in Einzelsterne aufzulösen. Die Ergänzung des Messier-Katalogs um M107 wurde allerdings erst 1947 vorgenommen, damit ist der letzte diesem berühmten Katalog hinzugefügte Sternhaufen überhaupt.

Das Bild ist aus mehreren Aufnahmen zusammengesetzt, die mit Filtern im blauen, grünen, roten und nahinfraroten Spektralbereich mit der Wide Field Camera (WFI) am MPG/ESO 2,2-Meter-Teleskop am La Silla Observatorium in Chile aufgenommen wurden.

Endnote:

[1] Das Akronym FLAMES steht für Fibre Large Array Multi-Element Spectrograph. Weitere Informationen zu diesem Spektrografen, mit dem man viele am Himmel nah beieinander liegende Objekte gleichzeitig mit hoher spektraler Auflösung untersuchen kann, unter http://www.eso.org/sci/facilities/paranal/instruments/flames/

Via Informationsdienst Wissenschaft

Wissenschaftler: Feuerbrunst in Israel gibt Vorgeschmack auf Klimawandel im Mittelmeerraum

Haifa/Leipzig. Die Feuerkatastrophe im Karmel-Gebirge bei Haifa ist nach Ansicht eines der Autoren des Reports zum Klimawandel in Israel ein Vorgeschmack auf die Zukunft. Vor zehn Jahren hatte Dr. Guy Pe'er zusammen mit anderen israelischen Forschern das Wissen über die erwarteten Auswirkungen des Klimawandels in Israel zusammengefasst. Klimaszenarien erwarten für das Jahr 2100 in Israel eine Erhöhung der Mitteltemperatur um mindestens 1.5 Grad Celsius, einen Rückgang der Niederschläge und ein Ansteigen der Verdunstung. Verspätete Winterniederschläge würden das Risiko von Waldbränden erhöhen, warnten die Forscher bereits im Jahr 2000.
Die Häufigkeit, die Intensität und das Ausmaß der Brände würden durch den trockenen Boden, stärkere Verdunstung sowie häufigere und intensivere Hitzeperioden zunehmen, so der „Israel’s National Report on National Report“, den die Ben-Gurion-Universität des Negevs im Auftrag des israelischen Umweltministeriums erstellt hatte. Bei einer Erwärmung von 1.5 Grad, die inzwischen als ein vergleichsweise konservatives Szenario gilt, rechnen die Forscher damit, dass sich die Wüste im Nahen Osten um 300 bis 500 Kilometer nach Norden ausdehnt. Die typischen mediterranen Ökosysteme würden damit aus Israel verschwinden. Den Waldbränden im Karmel-Gebirge im Norden Israels war eine Hitzeperiode mit Temperaturen um 30 Grad Celsius und acht Monate Trockenheit vorausgegangen. Im Durchschnitt beträgt die Temperatur um diese Jahreszeit hier jedoch nur etwa 20 Grad, und der erste Regen fällt gewöhnlich zwischen September und Oktober.

Das Karmel-Gebirge erhebt sich im Norden Israels bis zu 546 Metern über dem Mittelmeer. Aufgrund der verhältnismäßig hohen Niederschläge und niedriger Bevölkerungsdichte gedeiht dort eine üppige Vegetation. Deshalb wurden große Teile zum Nationalpark erklärt und unter Schutz gestellt. 1989 erlebte Guy Pe'er, der zurzeit am Helmhotz-Zentrum für Umweltforschung (UFZ) arbeitet, wie drei Waldbrände große Teile des Karmel-Gebirges am Rande seiner Heimatstadt Haifa zerstörten. „Ich habe damals zwölf Monate lang die Rückkehr der Pflanzen untersucht und 15 Monate die Wiederansiedlung des Mesopotamischen Damhirschs begleitet. Dabei habe ich gelernt, dass Feuer etwas Natürliches sind und die Natur sich wieder erholen kann, wenn sie nicht wiederholt gestört wird“, berichtet Pe'er. Geschockt ist der Ökologe aber über das Ausmaß, das die Wandbrände inzwischen angenommen haben. Der Großbrand jetzt verwüstete eine Fläche, die zehnmal größer ist als der größte Brand 1989...

Bei den bisher schlimmsten Waldbränden in der Geschichte Israels starben in den vergangenen Tagen 42 Menschen und 250 Häuser brannten nieder. Insgesamt wurden 5000 Hektar Land im Karmel-Gebirge bei Haifa verwüstet – darunter auch der größte Kiefernwald Israels. Die Schäden werden auf über 55 Millionen Euro geschätzt. In Israel wird seitdem heftig über die Feuerwehr diskutiert. Guy Pe'er sieht die Hauptursachen aber nicht in Fehlern der Feuerwehr, sondern im Konsumverhalten der Menschen, das zur weiteren Erwärmung der Atmosphäre führt: „Wir müssen etwas dagegen tun. Es geht um unseren Konsum, um unsere Gesellschaft und Gewohnheiten. Wir konsumieren mehr als wir sollten und riskieren so unsere eigene Zukunft. Können wir uns wie verantwortliche Menschen verhalten und unsere Gewohnheiten ändern?“ Aus Sicht des israelischen Wissenschaftlers ist die internationale Politik gefordert, auf der UN-Klimakonferenz in Cancun Beschlüsse zu fassen, die die Erwärmung der Atmosphäre bremsen. Denn der Klimawandel ist keine Fiktion. Die Israelis haben in diesen Tagen einen Ausblick bekommen, was die kommenden Generationen erwartet.

Via Informationsdienst Wissenschaft

Wal-Wurm frisst auch Vogelknochen

Göttinger Wissenschaftler: Wal-Wurm frisst auch Vogelknochen
Fossile Spuren liefern neue Einblicke in die Entwicklung des Tiefseewurms Osedax

(pug) In rund 3.000 Metern Wassertiefe lebt der Wurm Osedax. Der Tiefseewurm ernährt sich von den Knochen toter Wale. Bisher wurde angenommen, dass sich Osedax parallel zu seiner wichtigsten Nahrungsquelle, den Walen, entwickelt hätte. Doch möglicherweise hat der Tiefseewurm die Meere bevölkert, lange bevor sich Wale überhaupt entwickelt haben. Molekularbiologische Untersuchen legen nahe, dass Osedax bereits in der Kreidezeit existiert haben könnte. Diese Theorie wirft jedoch die Frage auf, was der Wurm nach dem Aussterben der großen Meeresreptilien am Ende der Kreidezeit vor etwa 65,5 Millionen Jahren und vor der Evolution der Wale gefressen haben soll. Eine neue Studie unter der Leitung des Paläontologen Dr. Steffen Kiel von der Universität Göttingen hat ergeben, dass sich Osedax auch von den Knochen Pinguin-artiger Tauchvögel ernährt hat. Die Ergebnisse sind in der Internetausgabe der Fachzeitschrift Naturwissenschaften erschienen und werden im Januar in der gedruckten Ausgabe veröffentlicht.

Die Studie zeigt, dass Osedax bei der Nahrungssuche nicht auf Säugetierknochen beschränkt ist. Zudem gibt es bereits seit der Kreidezeit Meeresvögel – diese könnten dem Tiefseewurm nach dem Aussterben der großen Meeresreptilien das Überleben gesichert haben. Die von den Forschern untersuchten Vogelknochen sind etwa 30 Millionen Jahre alt und zeigen auf ihrer Oberfläche kleine Bohrlöcher. Diese sind bis zu drei Millimeter tief und bilden im Inneren des Knochens ein weites Netzwerk. „Diese Bohrlöcher sind identisch mit Osedax-Bohrlöchern, die wir aus heutigen und fossilen Walknochen kennen“, erklärt Dr. Kiel.

Überraschend ist aus Sicht der Forscher nicht nur, dass Osedax offenbar Vogelknochen fressen konnte. Auch die Größe des Vogels, in dessen Knochen die Wissenschaftler die Bohrlöcher entdeckt haben, ist bemerkenswert. Er war nicht mehr als 80 Zentimeter groß. Bisher gingen die Forscher davon aus, dass Osedax große Walknochen, die lange auf dem Tiefseeboden liegen, leicht entdecken und besiedeln kann. Die vergleichsweise kleinen Vogelknochen, so die bisherige Annahme, wurden zu schnell von Sediment bedeckt oder von Aasfressern verschleppt, um Osedax als Nahrung zu dienen. „Aber offensichtlich ist dieser Wurm ein schneller und effizienter Nahrungssucher“, so Dr. Kiel. Allerdings sind die Bohrlöcher in den Vogelknochen nur eine erste Spur. Noch ist unklar, ob es den Tiefseewurm wirklich bereits in der Kreidezeit gab. „Die wenigen Plesiosaurier und Ichtyosaurier, die ich bisher in Museen untersucht habe, zeigten keine Bohrlöcher“, erklärt Dr. Kiel. „Aber eine systematische Suche nach den Spuren von Osedax steht noch aus.“

Originalveröffentlichung: Steffen Kiel et al. Osedax traces in fossil marine bird bones. Naturwissenschaften, advance online publication. DOI: 10.1007/s00114-010-0740-5 (2010).
 Via Informationsdienst Wissenschaft

Montag, 6. Dezember 2010

Wissenschaftler bestätigen erstmals „bipolare Klimawippe“ am Ende der letzten Eiszeit

Bremerhaven, den 5. Dezember 2010. Ein 1620 Meter langer Eiskern, der im Rahmen des Talos Dome Ice Core Projects (TALDICE) im Rossmeersektor der Antarktis gebohrt wurde, hat Vermutungen der Forscher bestätigt: Das Klima am Ende der letzten Eiszeit hat sich nach dem Muster der so genannten „bipolaren Wippe“ verändert. Die Ergebnisse werden jetzt vorab auf der Internetseite des Magazins Nature Geoscience veröffentlicht.

Aus bisherigen Untersuchungen grönländischer und antarktischer Eiskerne ist bekannt, dass sich der Süden während einer Kaltphase im Norden erwärmt hat, während der nachfolgende rapide Temperaturanstieg auf der Nordhalbkugel immer mit dem Beginn der Abkühlung im Süden einsetzte. Dieses Phänomen, das als „bipolare Wippe“ bezeichnet wird, haben Wissenschaftler jetzt erstmals für das Ende der letzten Eiszeit nachgewiesen. Im Zeitraum von 16.000 bis 14.500 Jahren vor heute zeigen sich zudem in der Antarktis deutliche Unterschiede im Verlauf der Temperaturschwankungen zwischen dem indisch-pazifischen und dem atlantischen Sektor. „Diese Schwankungen sind von einem verlangsamten Anstieg des Kohlendioxidgehalts in der Atmosphäre und einer leichten Abkühlung auf Grönland begleitet“, sagt der Glaziologe Dr. Sepp Kipfstuhl vom Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft, der die deutsche Vertretung im Talos Dome Ice Core Project übernommen hat. Das Verständnis und die Simulation der „bipolaren Wippe“ sowie des klimatischen Verlaufs in den der Antarktis vorgelagerten Meeresgebieten und ihr Wechselspiel mit den Kohlenstoffkreisläufen sei gerade für die Modellierung des Erd- und Klimasystems von großer Wichtigkeit, so Kipfstuhl.

Der neue, auf dem Talos Dome gebohrte Eiskern eignet sich für die Untersuchungen besonders gut, da er eine ungestörte Klimazeitreihe der vergangenen 250.000 Jahre bietet. Es ist die bisher längste Zeitreihe aus einem küstennahen Gebiet der Antarktis. Der Glaziologe Hans Oerter vom Alfred-Wegener-Institut hat schon viele Eiskerne gezogen und auf seinem Labortisch untersucht, aber dieser neue Kern sei tatsächlich ein Glücksfall für die Wissenschaft: „Der Eiskern erlaubt die atmosphärischen und klimatischen Veränderungen der Vergangenheit mit einer so hohen zeitlichen Auflösung zu beschreiben, wie sie bislang bei keinem Kern der Ostantarktis möglich gewesen ist.“

Behutsam wurde der Kern dann auch im Eislabor des Alfred-Wegener-Instituts zersägt, um die einzelnen Probestücke an die unterschiedlichen Labore der am Projekt beteiligten Institute zu versenden. Diese Arbeiten nahmen insgesamt drei Monate in Anspruch. Bei den anschließenden Untersuchungen gelang es den Wissenschaftlern, die neuen Klimazeitreihen präzise mit den bereits vorliegenden Zeitreihen aus anderen antarktischen und grönländischen Eiskernen zu synchronisieren. Sie benutzten dazu die globalen Schwankungen der Methankonzentration, die in den Luftblasen im Eis archiviert sind und in Grönland und in der Antarktis gleichzeitig auftreten. Basierend auf diesem neuen synchronisierten Altersmodell konnten die Wissenschaftler die zeitlich hoch aufgelösten Zeitreihen der Temperaturdaten innerhalb der Antarktis und auf Grönland dann miteinander vergleichen.

via Informationsdienst Wissenschaft

Mittwoch, 1. Dezember 2010

Die Mär vom faulen Schüler widerlegt

Erziehungswissenschaftler der Universität Jena untersucht Lernmotivation bei Schülern
Schüler mit Migrationshintergrund haben in Deutschland mehr Spaß am Lernen. So überraschend das klingen mag, neu ist diese Erkenntnis nicht. Bereits die PISA-Studie ermittelte eine solche Lernfreude bei Einwandererkindern. Doch neben den vielen Zahlen, wer wie gut und wie schlecht ist, schien kein Platz für solche positiven Nachrichten.

Eine neue Studie hat nun einmal genau untersucht, wie Kinder die Schule betrachten und was sie zum Lernen motiviert. Danach befragte der Erziehungswissenschaftler Dr. Carsten Rohlfs von der Friedrich-Schiller-Universität Jena 1.689 Bremer Schülerinnen und Schüler der Klassenstufen sieben und neun, die Hälfte davon mit Migrationshintergrund. „Es war mir sehr wichtig zu klären, welche Meinung Schüler über Schule haben“, erklärt der Jenaer Bildungsforscher die Motivation für sein Habilitationsprojekt. „Zu diesem Thema kursieren ja genug Klischeevorstellungen über unwillige und faule Schüler in der Öffentlichkeit.“

Dabei stellte Rohlfs fest, dass den meisten Schülern Schule sehr wichtig ist und sie überwiegend positiv wahrgenommen wird. Insgesamt drei Viertel der Befragten sind motiviert, leistungsorientiert und außerdem sehr lernfreudig. Allerdings teilt sich diese Motivation in verschiedene Gruppen. Die Mehrheit von etwa 60 Prozent der Schüler ist vor allem pragmatisch motiviert. Sie weiß zwar, wie wichtig Bildung, Schule und ein guter Abschluss sind, das geht aber auf Kosten des Spaßes beim Lernen. Zu dieser Gruppe zählen vor allem deutsche Kinder und Jugendliche. 13 Prozent der untersuchten Bremer Schüler wissen zwar um die Bedeutung eines guten Schulabschlusses, fühlen sich aber nicht wohl in der Schule. Die „unzufrieden Gelangweilten“, wie Rohlfs sie nennt, haben oft sogar Angst, etwa vorm Versagen. Auch diese Gruppe besteht hauptsächlich aus Jugendlichen ohne Migrationshintergrund. Sie steht im krassen Gegensatz zu den intrinsisch motivierten Schülern, die bildungsbegeistert mit viel Interesse und Spaß versuchen, den Unterrichtsstoff aufzusaugen. Hier sind die Einwandererkinder eindeutig in der Überzahl. „Eigentlich müsste ja der Druck auf die Kinder mit Migrationshintergrund mindestens genauso groß sein wie auf einheimische, denn viele Familien sehen natürlich in mehr Bildung auch den Schlüssel zu einem besseren Leben“, resümiert Rohlfs. „Aber erstaunlicherweise halten Neugier und Lernfreude dieser Belastung stand.“

Leider schlägt sich das seltener in den schulischen Leistungen nieder. Sprachschwierigkeiten etwa oder unbewusste Diskriminierungen durch die Institution Schule oder das Schulsystem lassen viele Schüler mit schlechteren Zensuren nach Hause kommen. „Viele Studien belegen, dass Schüler mit Migrationshintergrund oft in ihrer Leistungsbereitschaft und ihrer Lernfreude ausgebremst werden, ohne dass sie etwas dafür können“, erklärt der Jenaer Erziehungswissenschaftler. „Sie bekommen beispielsweise seltener Empfehlungen für höhere Schulen, weil die Lehrer befürchten, dass die Eltern es sich notfalls nicht leisten könnten, Nachhilfestunden zu bezahlen.“ Gerade in öffentlichen Diskussionen, wie der angeblich so realitätsnah angelegten Sarrazin-Debatte, würden solche Tatsachen aber gern ausgeblendet.

Die Motivation aller Schüler zu steigern, ist schon mit wenigen Mitteln möglich. „Wichtig ist, dass Schüler sich in eine Klasse eingebunden fühlen, sich also schon allein sozial wohl fühlen“, erklärt Carsten Rohlfs. „Sie sollten sich selbst als kompetent erleben, damit sie selbst wissen, was sie können. Außerdem sollten sie ein gewisses Mitbestimmungsrecht in der Schule haben, um sich aus sich selbst heraus motivieren zu können und nicht durch Druck von außen.“
 via Informationsdienst Wissenschaft

Wenn sich Dipole querstellen – Neue Theorie zum Energietransfer der Photosynthese gesucht

Die Photosynthese, also die Erzeugung energiereicher Verbindungen mit Hilfe von Sonnenlicht, ist die Grundlage des Lebens auf der Erde. Der grüne Farbstoff Chlorophyll agiert dabei als Sonnenkollektor der Pflanzen, der die eingefangene Energie verlustfrei zwischen Molekülen und schließlich auf das Photosynthese-Reaktionszentren zur Fixierung als chemische Energie überträgt.
Diesen Vorgang beschreibt die Förster-Theorie. Danach wird die Energie über schwingende elektrische Dipole analog zu Radioantennen weitergegeben, indem sie ihre Nachbarmoleküle ebenfalls elektrisch anregen. Messungen im Labor des LMU-Chemikers Professor Heinz Langhals in Zusammenarbeit mit der Physik an der LMU widerlegen nun dieses Modell: „Der Energietransfer über Dipole hängt von ihrer Orientierung ab“, sagt Langhals. „Stehen sie senkrecht zueinander, kann kein Transport stattfinden. Wir haben diesen Aspekt nun erstmals experimentell überprüft und dabei festgestellt, dass wider Erwarten trotzdem fast alle Energie in kürzester Zeit übertragen wird.“ Im Rahmen internationaler Kooperationen will das Team nun die experimentelle Grundlage für eine Neufassung der Theorie schaffen, auch für die Entwicklung optischer Computer und verbesserter farbstoffbasierter Solarzellen. (Journal of the American Chemical Society online, 1. Dezember 2010)

Die Chlorophylle und andere Farbstoffmoleküle können großflächige Komplexe bilden, in denen sie Licht effizient einsammeln und weiterleiten, etwa an das Photosynthese-Reaktionszentrum einer Pflanze oder an die leitende Schicht einer Solarzelle. Die Lichtaufnahme selbst findet dabei in bestimmten Atomgruppen der Farbstoffmoleküle statt, den sogenannte Chromophoren. Weil unterschiedliche Chromophore Licht verschiedener Wellenlängen absorbieren, kann ein Verbund mehrerer Farbstoffmoleküle einen sehr großen spektralen Bereich des Lichts verwerten.

Entsprechend wollte das Team um Langhals einen breitbandigen Lichtsammler entwickeln. In einem ersten Schritt sollte die Förster-Theorie zum Energietransfer zwischen Farbstoffen überprüft werden. Sie basiert auf der Vorstellung, dass beim Energietransport schwingende elektrische molekulare Dipole, bei denen elektrische Ladungen getrennt sind, benachbarte Dipole zum Schwingen anregen. Die Ausrichtung spielt hier eine entscheidende Rolle: Stehen die Dipole senkrecht zueinander, wird der benachbarte Dipol nicht angeregt. Sind sie dagegen parallel angeordnet, überträgt sich die Energie.

Zur Überraschung der Forscher zeigten die Messungen an senkrecht ausgerichteten Chromophoren jedoch, dass nahezu 100 Prozent der Energie weitergegeben wird. „Der Prozess ist außerordentlich effizient“, betont Langhals. „Das sehen wir auch an der mit 9,4 Billionstel Sekunden extrem kurzen Reaktionszeit. Die Vorstellung von einem Energietransfer über Dipole ist damit widerlegt. Unsere Ergebnisse deuten eher auf eine niederfrequente Kopplung über Bewegungen im Molekül hin.“ Eine groß angelegte internationale Kooperation soll nun die experimentelle Grundlage für eine Neuformulierung der Theorie schaffen.

Eine Konsequenz dieser Ergebnisse wird sein, dass das sogenannte Molekulare Lineal überdacht und möglicherweise neu justiert werden muss. Dieses Werkzeug wird eingesetzt, um bestimmte biochemische Reaktionen zu testen, und beruht auf einem weiteren Aspekt der Förster-Theorie: Demnach hängt die Übertragungsgeschwindigkeit vom Abstand der Chromophoren ab. Werden Moleküle mit Chromophoren markiert, kann man so ihren Abstand messen und etwa testen, ob Antikörper bestimmte Bindungen eingehen.

In erster Linie aber könnten sich die Untersuchungen – und eine neu formulierte theoretische Grundlage für den Energietransfer bei Farbstoffmolekülen – auf die Photonik auswirken. Ein wichtiges Beispiel sind optische Computer, die Information mit Licht statt mit Strom übertragen. „Deshalb spielt in molekularen optischen Computern auch die Energieübertragung zwischen Farbstoffen eine zentrale Rolle“, sagt Langhals. „Denn dort spielen Farbstoffe die Rolle von Bauelementen, etwa von Transistoren.“ Optische Computer werden derzeit intensiv erforscht, weil sie auf kleinem Platz extrem hohe Verarbeitungsgeschwindigkeiten erreichen könnten. Eine Neufassung der Förster-Theorie könnte zudem dazu beitragen, farbstoffbasierte Solarzellen effizienter zu machen. (CR/suwe)

Via Informationsdienst Wissenschaft
Research Blogging Awards 2010 Winner!
 
Creative Commons License
Amphibol Weblog von Gunnar Ries steht unter einer Creative Commons Namensnennung-Keine kommerzielle Nutzung-Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.