Donnerstag, 31. März 2011

Keimzellen unserer Planeten

Gut gelandet: Mit dem Meteoriten Murchison kamen refraktäre Metall Nuggets (RMN) aus der Urzeit des Sonnensystems auf die Erde
Staubkörner aus einer unnachahmlichen Mischung verschiedener seltener Metalle waren sehr wahrscheinlich die Keimzellen für die Bildung unserer Planeten. Wissenschaftler des Instituts für Physik der Johannes Gutenberg-Universität Mainz (JGU) haben die winzigen Teilchen aus der Urzeit unseres Sonnensystems in einem Meteoriten ausfindig gemacht, der 1969 über Australien niedergegangen ist. Sie konnten die chemische Zusammensetzung analysieren und anhand dieser Messungen rekonstruieren, wie aus einer sich langsam abkühlenden Gaswolke vor rund 4,6 Milliarden Jahren die ersten Feststoffe unseres Sonnensystems entstanden sind. Eine Arbeit in Kooperation mit Wissenschaftlern der Universität Bayreuth, des Max-Planck-Instituts für Chemie in Mainz und Prof. Dr. Herbert Palme vom Naturmuseum Senckenberg in Frankfurt hat die ersten Befunde über die refraktären Metall Nuggets (RMN) bestätigt und präzisiert. Die Ergebnisse wurden Mitte März auf der 42. Lunar and Planetary Science Conference in Houston, USA vorgestellt.

„Es war ein Zufallsfund“ sagt Dr. Thomas Berg heute über die Entdeckung von einigen hundert RMN in einer Gesteinsprobe des Murchison, eines 100 kg schweren Meteoriten aus dem Asteroidengürtel zwischen Mars und Jupiter. „Man muss wirklich nach der Nadel im Heuhaufen suchen und wir haben Glück gehabt.“ Berg, Mitarbeiter am Institut für Physik der Uni Mainz, hat 2009 in wochenlanger Feinarbeit eine 30-Gramm-Probe des Meteoritengesteins aufbereitet und unter dem Elektronenmikroskop durchforstet. Bei Verdacht auf einen Fund wird das entsprechende Partikel mit einem fokussierten Elektronenstrahl beschossen und das dabei erzeugte Spektrum aus Röntgenstrahlen analysiert. Hieraus lässt sich die chemische Zusammensetzung der Teilchen bestimmen. „Die ersten RMN wurden 1976 entdeckt und seither gibt es die Vermutung, dass es sich um ursprüngliche Kondensate aus der Kinderstube des Sonnensystems handelt. Aber es waren einfach zu wenige für eine solide Untersuchung.“ Während in den 35 Jahren seit dem ersten Fund nur einige Dutzend RMN entdeckt wurden, hat Berg auf einen Schlag fast 500 dieser extrem seltenen Metallkörnchen ausfindig gemacht.

Diese Teilchen, die kleiner sind als ein tausendstel Millimeter und eine gleichmäßige, annähernd kugelrunde Form haben, sind wie ein Film aus den Anfängen unseres Sonnensystems: Sie zeigen, wie sich die allerersten festen Bestandteile gebildet haben, aus denen über Jahrmillionen die Planeten, ihre Monde und Asteroiden wurden. „Das Phantastische ist, dass sich unsere RMN seit ihrer Entstehung aus dem solaren Nebel nicht verändert haben“, sagt Berg mit einem Hinweis darauf, dass die meisten Meteoriten unter dem Einfluss von Wasser und hohen Temperaturen verändert wurden. „Wir haben hier also die ursprünglichste Materie aus der Entstehungsphase unseres Sonnensystems in den Händen.“

Dank der großen Anzahl und der unterschiedlichen Zusammensetzungen der gefundenen Metallteilchen konnten die Wissenschaftler rekonstruieren, wie sich die Gaswolke des solaren Nebels von ehemals etwa 1700 Grad Celsius abgekühlt hat, nämlich um maximal 0,5 Grad pro Jahr in der Entstehungsregion der erdähnlichen Planeten. „Unsere Daten sind im übertragenen Sinne ein Thermometer für die früheste Phase des Sonnensystems.“ Die enthaltenen Metalle, die mit dem Meteoriten auf die Erde kamen, gehörten wegen ihrer hohen Kondensationstemperaturen von über 1300 Grad Celsius zu den ersten Stoffen, die aus dem solaren Nebel in die feste Phase übergegangen sind. In ihrer Zusammensetzung sind die RMN einmalig: Wolfram, Osmium, Iridium und Molybdän ergeben eine extrem stabile Legierung, die in dieser Form in keinem Labor der Erde hergestellt werden könnte.

In aktuellen Untersuchungen an der Uni Mainz und am MPI für Chemie wird diesen Metallpartikeln, die auch starken Säuren widerstehen, jetzt in Dünnschliffen des Meteoriten zu Leibe gerückt, um sie so anschließend in ihrer ursprünglichen Umgebung mit Hilfe eines Transmissions-Elektronen-Mikroskops weiter zu untersuchen. Hierdurch sollte es möglich sein, weitere Eigenschaften des solaren Nebels zu rekonstruieren und so letztendlich die ersten Schritte der Planetenbildung besser zu verstehen.

Veröffentlichungen:
Berg, T. et al.: Direct Evidence for Condensation in the Early Solar System and Implications for Nebular Cooling Rates, The Astrophysical Journal Letters 702, L172-L176, 2009.

Thomas Berg, Ulrich Ott und Herbert Palme: Die älteste Materie des Sonnensystems, Sterne und Weltraum, Ausgabe 5/2010, Seiten 28-37.

Dennis Harries, Thomas Berg, Herbert Palme und Falko Langenhorst: The Structure of Refractory Metal Alloys, Condensates from the Early Solar Nebula, 42nd Lunar and Planetary Science Conference (2011).
via Informationsdienst Wissenschaft

Gravitation der Erde mit bislang unerreichter Genauigkeit kartiert

Nach nur zwei Jahren in der Umlaufbahn hat der ESA-Satellit GOCE genügend Daten zusammentragen, um die Gravitation der Erde mit bisher unerreichter Genauigkeit zu kartieren. Koordiniert von Forschern der Technischen Universität München (TUM) haben Wissenschaftler das bislang präziseste Modell des globalen Schwerefeldes erstellt, das heute auf dem vierten internationalen GOCE-Nutzer-Workshop an der TUM vorgestellt wurde. Es soll helfen, die Funktionsweise der Erde wesentlich besser zu verstehen.
Dieses sogenannte Geoid bildet eine gedachte Oberfläche eines globalen, ruhenden Ozeans, der allein durch die Schwerkraft geformt wird. Diese ist keineswegs überall gleich. So machen sich in dem Modell Gebiete mit geringer Schwerkraft als „Dellen“ bemerkbar, starke Anziehungskraft als „Beule“.

Das Geoid liefert Ozeanographen wichtige Referenzdaten für ihre Messungen: Aus den Differenzen zwischen dem idealisierten Ozean, der aufgrund der Schwerkraft zu erwarten wäre, und dem tatsächlichen Meeresspiegel können die Wissenschaftler beispielsweise Ozeanströmungen ableiten. Die Strömungen werden ebenso wie zu messende Änderungen des Meeresspiegels und Eisbewegungen durch den Klimawandel beeinflusst und sind damit für dessen Erforschung entscheidend.

Die von GOCE gesendeten Daten des Schwerefelds erweitern zudem das Wissen über die Entstehung von Erdbeben wie jüngst in Japan. Da die Gravitation in direktem Zusammenhang mit der Masseverteilung im Erdinnern steht, können die Daten dazu beitragen, die Dynamik in der Erdkruste und die Entstehung von Erdbeben besser zu verstehen.

Nicht zuletzt soll das Vermessungswesen von den GOCE-Daten profitieren. Bislang gibt es allein in Europa mehr als 20 verschiedene Höhensysteme, die sich an unterschiedlichen Meerespegeln orientieren. Anhand der exakten Geoid-Referenzfläche sollen Höhen künftig auf allen Kontinenten problemlos miteinander verglichen werden können. In Kombination mit Satellitennavigationssystemen (zum Beispiel GPS) soll es möglich sein, jedem Nutzer überall solche Angaben auf den Zentimeter genau zur Verfügung zu stellen. Dadurch würde die Planung von Straßen-, Tunnel- und Brücken deutlich einfacher.

Prof. Reiner Rummel von der TU München erklärte: „Wir empfangen einen steten Strom ausgezeichneter Gradiometerdaten von GOCE und sind mit jedem neuen Zweimonatszyklus in der Lage, das von GOCE erstellte Modell des Schwerefelds weiter zu verbessern.

Nun ist es an der Zeit, die GOCE-Daten wissenschaftlich zu untersuchen und erste Anwendungen zu entwickeln. Ich bin besonders von den ersten ozeanografischen Ergebnissen begeistert, die zeigen, dass GOCE dynamische Topografie- und Strömungsmuster der Ozeane mit unerreichter Qualität und Auflösung bereitstellen wird. Ich bin überzeugt, dass diese Ergebnisse uns dabei helfen werden, die Dynamik der Weltmeere besser zu verstehen.“

TUM-Wissenschaftler Reiner Rummel ist einer der Initiatoren von GOCE und Vorsitzender des European GOCE Gravitiy Consortiums. Diese Gruppe von zehn europäischen Instituten aus sieben Ländern wertet die Daten aus, die der Satellit sendet. Sie wird koordiniert vom Institut für Astronomische und Physikalische Geodäsie der TU München unter Prof. Roland Pail. Unterstützt wird das Projekt vom Institute for Advanced Study, das an der TUM herausragenden Wissenschaftlern langfristige Forschungsprojekte ermöglicht.

GOCE (Gravity field and steady-state Ocean Circulation Explorer) wurde im März 2009 gestartet und hat bereits mehr als zwölf Monate lang Daten über das Schwerfeld zusammengetragen.

Volker Liebig, ESA-Direktor für Erdbeobachtungsprogramme, erklärte: „Dank einer außergewöhnlich geringen Sonnenaktivität konnte GOCE in einer niedrigen Umlaufbahn verbleiben und seine Messungen bereits sechs Wochen früher als geplant aufnehmen. Dadurch steht noch genügend Treibstoff zur Verfügung, um die Messungen des Schwerefelds bis Ende 2012 fortzuführen, wodurch die Missionszeit verdoppelt wird und das von GOCE erstellte Geoid noch präziser wird.“

GOCE hat mehrere Premieren in der Erdbeobachtung aus dem Weltraum vorzuweisen, darunter sein Gradiometer mit sechs hochsensiblen 3D-Beschleunigungsmessern. Der Satellit befindet sich auf der für einen Erdbeobachtungssatelliten bisher niedrigsten Umlaufbahn, um die bestmöglichen Messdaten über das Schwerefeld der Erde zu erstellen. Das Design des schlanken Satelliten, der eine Tonne auf die Waage bringt, ist einzigartig. Zudem ist GOCE mit einem innovativen Ionentriebwerk ausgerüstet, mit dem der atmosphärische Widerstand ausgeglichen werden kann.

„In der frühen Entwurfsphase war GOCE fast noch Science Fiction“, sagte Prof. Liebig. „Nun hat sich gezeigt, dass es sich um eine hochmoderne Mission handelt.“ GOCE-Missionsleiter Rune Floberghagen von der ESA fügte hinzu: „Die Mission hat nun eine sehr bedeutende Phase erreicht. Wir sind gespannt auf die kommenden Monate, wenn das von GOCE erstellte Geoid dank weiterer Daten noch an Genauigkeit gewinnt und somit für die Nutzer noch wertvoller wird.“
via Informationsdienst Wissenschaft

Satellite workshop to the XXII IUCr congress

Satellite workshop to the XXII IUCr congress

Online Edition of International Tables for Crystallography: Current
State and
Future Developments

Bilbao, 31 August – 3 September 2011

The workshop will provide an introduction to the current state
and future developments of the online version of International Tables for
Crystallography, including in particular the new symmetry database. This
new
web server provides access to databases of symmetry information on
crystallographic groups in standard and alternative settings, allowing the
study of their group-subgroup relations, including subgroups and
supergroups, coset decompositions and the splitting of Wyckoff positions.
Applications relevant to specific topics in solid-state physics and
chemistry, such as magnetic symmetry, phase transitions and relations
between crystal structures, will form an important part of the workshop.

The maximum number of participants in the workshop is limited to 60.
Financial support is available for grant applications and the deadline
for applications is May 15, 2011.
Depending on the available funds, retired scientists will be offered
special fees.
Registration and additional information: http://www.cryst.ehu.es/ITschool

7th European Conference on Mineralogy and Spectroscopy in 2011

We invite you to visit the updated webpage of the 


7th European Conference on Mineralogy and Spectroscopy ECMS 2011
to be held
September 4 - 7 2011, in Potsdam, Germany



where you can download the registration form and abstract template.



Deadlines:
April 4th, 2011
Grant application including submission of abstracts for grant applicants

May 2nd, 2011
Registration and payment of registration fee, conference dinner and submission of abstracts

October 15th, 2011
submission of manuscripts related to the conference to be published in the European Journal of Mineralogy in 2012

Mittwoch, 30. März 2011

Geo Video: Tsunami nach Tohoku Erdbeben in Japan, 11. März 2011


Dieses Video zeigt sehr gut die ungeheure Größe und enorme Wucht, die ein großer Tsunami ausüben kann. Nur sehr feste und hohe Gebäude haben überhaupt eine Chance, den Menschen einen Schutz zu bieten.

Warum die Sumpfschildkröte dem Rentier folgte

Dresden/Frankfurt, 28. März 2011. – Ursprünglich lebte Emys orbicularis auf dem Balkan. Am Beginn des Holozäns verließ die Europäische Sumpfschildkröte jedoch ihr eiszeitliches Refugium und breitete sich verblüffend schnell aus. Durch Flüsse passiv nach Norden verdriftet erreichte sie schon vor rund 9 860 Jahren Südschweden und blieb dort eine ganze Weile. – Am Beispiel von Ren und Schildkröte hat ein deutsch-finnisch-schwedisches Wissenschaftler-Team das Ende der letzten Eiszeit untersucht. Im Fokus standen die Auswirkungen der letzten globalen Erwärmung auf die Tierwelt in Nordeuropa. Die Ergebnisse wurden jetzt in der Fachzeitschrift „Global Change Biology“ publiziert.
Als die wärmeliebende, nur etwa zwanzig Zentimeter große Schildkröte in Südschweden ankam, war das Rentier seit 450 Jahren verschwunden. Es hatte dort von 13 600 bis 10 300 Jahre vor heute gelebt. „Die Europäische Sumpfschildkröte, eine Art, die warme Klimabedingungen benötigt, hat hier das Ren, ein typisches Eiszeittier, quasi ersetzt“, erklärt Professor Dr. Uwe Fritz, Leiter des Museums für Tierkunde an den Senckenberg Naturhistorischen Sammlungen in Dresden. Die komplett gegensätzlich angepassten Arten gelten als bedeutende Anzeiger für eis- oder warmzeitliche Klimabedingungen.

Mit Chronisten der Eiszeit auf Spurensuche
„Vor allem im Hinblick auf das gegenwärtige Artensterben interessiert uns Naturwissenschaftler, wie sich das Ende der letzten Eiszeit auf die Zusammensetzung von Tiergemeinschaften, auf Aussterbedynamiken und auf die Gen-Pools von Arten ausgewirkt hat“, erklärt der Erstautor Dr. Robert Sommer, vom Institut für Natur- und Ressourcenschutz an der Universität Kiel. Bisher hatten detaillierte und gut datierte Chroniken über den Verlauf regionaler Aussterbeereignisse und die Zuwanderung von Arten gefehlt. Das Forscher-Team hat DNA-Analysen durchgeführt und Geweihe sowie fossile Knochen aus der Region Skåne nach der Radiokarbonmethode untersucht. Anhand umfangreicher Datensätze wurde eine detaillierte Chronologie der klimagesteuerten Prozesse für den Zeitraum zwischen 14 700 und 9 100 Jahren vor heute erstellt. Mit den für Rentier (Rangifer tarandus) und Sumpfschildkröte (Emys orbicularis) ermittelten Datenreihen lässt sich erstmals eine Areal- und Faunenverschiebung mit einem Temperatur-/Zeitverlauf korrelieren und für ein geografisch zusammenhängendes Gebiet darstellen. „Der radikale Umschwung hat Landschaft und Tierwelt in einer vergleichsweise kurzen Zeit gravierend verändert“, fasst Uwe Fritz die Ereignisse zusammen.

Ein globaler Temperaturanstieg und seine Folgen
Untersuchungen von Eisbohrkernen und andere Klimanachweise aus Nordeuropa zeigen markante Veränderungen um 11 700 Jahre vor heute. Am Ende des so genannten Grönland-Stadials-1 sind die Temperaturen innerhalb von nur einem bis drei Jahren explodiert. Bevor sich das Tempo dieser extrem schnellen Erwärmung im frühen Holozän wieder verlangsamte, hatte bereits ein dramatischer Veränderungsprozess eingesetzt. Pollenanalysen belegen, dass die bis dahin in der Region vorherrschende tundraartige Landschaft parallel zu dem Temperatursprung verschwand. Die für den eiszeitlichen Landschaftstyp charakteristischen Flechten, Kräuter, Gräser und Büsche, die dem Ren als Nahrung dienten, wurden durch einen Birkenwald verdrängt. Der Fossilbericht zeigt, dass die Rentierpopulation schrumpfte. Der letzte Fund datiert 10 300 Jahre vor heute.

Beim Eintreffen der Sumpfschildkröte, gerade einmal 450 Jahre später, hatte der Wald sich erneut gewandelt. Zwischen laubtragenden Bäumen hatten sich Kiefern angesiedelt. Auch für die Tierwelt blieb die Erwärmung nicht ohne Folgen: Charakteristische Pleistozän-Arten wie der Berglemming, Pfeifhasen und die Schneemaus verschwanden. Funde aus Holozän-Ablagerungen zeigen, dass Hasel- und Rötelmaus, Siebenschläfer, Wildkatze und andere Wirbeltierarten sich zu der Zeit in den südschwedischen Wäldern eingenischt hatten.

Der lange Weg der Protagonisten
Obwohl Emys orbicularis und Rangifer tarandus sich nie begegneten, hatte ihre zeitversetzte Parallel-Wanderung in Richtung Norden schon in Mitteleuropa begonnen. Mit dem Lebensraum des Rens, das vor 13 600 Jahre den zurückweichenden Eisschilden bis nach Südschweden gefolgt war, hat sich jeweils auch die nördliche Verbreitungsgrenze der Schildkröte verschoben. Während die steigenden Temperaturen Emys orbicularis ein Maximum an Verbreitung ermöglichten, wurde der Lebensraum des Rens durch die Erwärmung kontinuierlich reduziert. Doch noch einmal konnte Rangifer tarandus nach Norden ausweichen. Im Gegensatz zu etlichen, längst ausgestorbenen Eiszeitriesen hat das Ren in arktischen Regionen überlebt. Mit seiner perfekt an ein extrem kaltes Klima angepassten Physiologie und einem Grundumsatz, der sich bei Temperaturen von 0 bis –45° Celsius nicht verändert, ist das Tier bestens für diesen Lebensraum ausgestattet.

Auch die Sumpfschildkröte ist noch einmal ein kleines Stück nach Norden gewandert und dem imposanten Geweihträger ein letztes Mal bis nach Östergötland gefolgt. In Schweden verlieren sich die Spuren von Emys orbicularis allerdings rund 5 500 Jahre vor heute. Dass die im Winter durchaus kältetolerante Schildkröte schon deutlich vor dem Ende des Holozän-Wärmemaximums in Schweden verschwand, hängt wahrscheinlich mit den Sommertemperaturen zusammen. Diese waren vorübergehend gesunken, so dass die Bodenwärme nicht mehr zum Ausbrüten der Schildkröteneier reichte und schließlich der Nachwuchs fehlte. Obwohl das Klima sich später wieder erwärmte, verhinderte der zwischenzeitlich gestiegene Meeresspiegel eine Wiederbesiedlung der Region. Die nördlichsten Schildkröten-Populationen leben heute im Nordosten Deutschlands, in Polen, Litauen und Lettland.

„Unsere Beobachtungen zeigen, wie sensibel und vergleichsweise rasch die Verbreitungsgebiete von Tierarten auf Klimaveränderungen reagieren. In der heute vom Menschen ungleich stärker beeinflussten Umwelt sind Verschiebungen der Verbreitungsgebiete viel schwieriger, so dass der Klimawandel das Aussterben zahlreicher Arten verursachen kann“, erklärt Uwe Fritz die Bedeutung der Forschungsergebnisse für die Gegenwart.
via Informationsdienst Wissenschaft

Dienstag, 29. März 2011

Göttinger Geobiologen: Expedition zum Kiritimati-Atoll übertrifft Erwartungen

Erste Ergebnisse der Expedition zu den Salzseen des Kiritimati-Atolls im zentralen Pazifik haben die Erwartungen der Forschergruppe von Geobiologen der Universität Göttingen weit übertroffen. Die Expedition hat die Ökologie, Artenvielfalt und Wasserchemie der seltenen Salzseen des Atolls sowie die Mineralbildung untersucht. So konnten die Wissenschaftler unter anderem das Alter der Seen eingrenzen und anhand von mineralischen Ablagerungen in Bakterienmatten Aufschluss über geobiologische Wachstumsprozesse gewinnen.

) Erste Ergebnisse der Expedition zu den Salzseen des Kiritimati-Atolls im zentralen Pazifik haben die Erwartungen der Forschergruppe von Geobiologen der Universität Göttingen weit übertroffen. Die Expedition unter der Leitung von Prof. Dr. Joachim Reitner und Dr. Nicole Brinkmann vom Geowissenschaftlichen Institut hat die Ökologie, Artenvielfalt und Wasserchemie der seltenen Salzseen des Atolls sowie die Mineralbildung untersucht. So konnten die Wissenschaftler unter anderem das Alter der Seen eingrenzen und anhand von mineralischen Ablagerungen in Bakterienmatten Aufschluss über geobiologische Wachstumsprozesse gewinnen. Kiritimati im Staat Kiribati gehört zur Atoll-Gruppe der Line Islands und ist vergleichbar mit der Vulkankette der Hawaii-Inseln.

Die rund 500 kleineren und größeren Seen des Atolls weisen teilweise sehr hohe Salzgehalte auf. „Diese Salzseen sind wie ein Fenster in die biologische und geologische Vergangenheit und erlauben Einblicke in gesteins- und mineralbildende Prozesse, wie sie in der Frühzeit der Erde vor rund einer Milliarde Jahren abgelaufen sind“, erklärt Prof. Reitner. Der gesamte Seeboden ist von gallertartigen dicken Matten bedeckt, in denen krustenartige Mineralgebilde entstehen. Die Forscher haben die mikrobielle Vielfalt, die Zusammensetzung der organischen Matrix und das chemische Milieu in diesen Bakterienmatten untersucht. Sie erhoffen sich Aufschlüsse darüber, wie Mikroorganismen in der Lage sind, die Mineral- und Gesteinsbildung zu steuern.

Wie die Wissenschaftler herausfanden, haben die bis zu 15 Zentimeter dicken Bakterienmatten in den Salzseen verschiedenfarbige Zonen. Innerhalb dieser orange, grün, rot oder schwarzbraun geschichteten Zonen entstehen unterschiedliche Minerale wie Kalk (Aragonit), Gips und weitere Salze, die erst im Labor näher bestimmt werden können. Die mineralischen Lagen an der Basis der Matten sind oft fein geschichtet und zeigen einen periodischen Wachstumsprozess an. Dabei sind Strukturen entstanden, die in der Geologie als Stromatolithe bekannt sind. „Die Stromatolithe stellen wichtige Archive der Erdgeschichte dar, in denen die ursprünglichen Umweltbedingungen abgelesen werden können“, erläutert Prof. Reitner. Die Bildungsbedingungen und Wachstumsprozesse dieser Strukturen sind ein zentrales Thema der Göttinger Forschergruppe.

Wesentliche neue Erkenntnisse konnten die Wissenschaftler aus der direkten Beobachtung der Vorgänge in den Matten gewinnen. Durch Messungen mit Mikrosensoren gelang es, die Verteilung der Sauerstoff- und Kalziumkonzentration sowie des pH-Wertes festzustellen. Die Ergebnisse zeigen, dass in den Matten sauerstofffreie Zonen dominieren und die damit verbundenen speziellen Stoffwechselprozesse die Mineralbildung beeinflussen. Wasserchemische Analysen ergaben außerdem zum Teil ungewöhnlich hohe Salzgehalte, wie sie zum Beispiel im Toten Meer vorkommen – optimale Lebensbedingungen für Mikroorganismen, die sich den extremen Umweltbedingungen angepasst haben.

Zudem haben die Forscher die Organismen in den Matten mit klassischen Kultivierungs- und Fixiertechniken untersucht. Die wichtigen DNA- und RNA-Untersuchungen erfolgen später im Labor. Erste Ergebnisse der Anzucht-Kulturen lassen dabei eine Vielzahl neuer Arten in den Matten vermuten. Die organische Matrix der Matten weist außerdem auf eine qualitativ und quantitativ unterschiedliche Zusammensetzung in den einzelnen Lagen hin. Die geobiologischen Untersuchungen der Göttinger Wissenschaftler legen nahe, dass die Salzseen – und damit vermutlich auch die mikrobiellen Matten – einige tausend Jahre alt sind. „Die Mattensysteme sind hervorragende Recycling-Maschinen, die oft mit geringen Energiebilanzen auskommen“, so Prof. Reitner. Offenbar bildet dabei weniger salziges Grundwasser, das unter Wasser austritt, eine wichtige Nährstoffquelle für die Mikroben-Gemeinschaften.

„Die Ausarbeitung der gewonnenen Daten wird einige Zeit in Anspruch nehmen“, erläutert Prof. Reitner. „Die besondere Lage, die geologische Geschichte und die habitatspezifischen Matten der Insel sind ein idealer geobiologischer Forschungsstandort, den wir sicherlich noch häufiger besuchen werden.“

Die Expedition wurde im Rahmen der DFG-Forschergruppe Geobiology of Organo- and Biofilms durchgeführt. Neben den Göttinger Forschern nahmen daran auch Wissenschaftler vom Max-Planck-Institut für Marine Mikrobiologie in Bremen, dem Helmholtzzentrum für Umweltforschung in Magdeburg und der Deutschen Sammlung von Mikroorganismen und Zellkulturen in Braunschweig teil.

via Informationsdienst Wissenschaft

Montag, 28. März 2011

Mathe ist eben doch nicht blöde!

via abstruse goose, Creative Commons Attribution-Noncommercial 3.0 United States License.

Video: Kettenreaktion

Wie funktioniert eine Kettenreaktion? Dieses Video demonstriert das Prinzip eindrucksvoll.

Samstag, 26. März 2011

Keine Gefahr durch kontaminierten Fisch für deutsche Verbraucher erwartet

Neue Daten zum Reaktorunglück in Japan
(Hamburg/Braunschweig, 25.03.2011) Der Unglücksreaktor im japanischen Fukushima hält die Welt weiter in Atem. Während die Ingenieure vor Ort die Anlage Stück für Stück sichern, laufen erste Messungen auch aus dem marinen Bereich ein.

So hat das japanische Forschungsministerium (MEXT) am 24. März Aktivitäts-Messwerte veröffentlicht, die am Vortag mit einem Forschungsschiff gewonnen wurden. Demnach befinden sich 30 Kilometer vor der Küste des Unglückreaktors im Mittel 42 Becquerel (Bq) Iod-131 und 16 Bq Cäsium-137 in einem Liter Meerwasser. Die entsprechenden Grenzwerte für Meerwasser werden von den japanischen Behörden mit 40 Bq I-131 und 90 Bq Cs-137 pro Liter Meerwasser angegeben.

Der Betreiber der Anlage führt täglich Messungen im Meerwasser unmittelbar am Auslauf der Kühlkreisläufe der Reaktoranlage durch. Dort sind zuletzt, ebenfalls am 23.März, 5900 Bq I-131 und 250 Bq Cs-137 gemessen wurden.

Aufgrund der bereits deutlich sichtbaren Verdünnung der radioaktiven Stoffe im Meerwasser 30 Kilometer von der Anlage entfernt (Reduktion auf weniger als 10% der Aktivitätskonzentration beim Cs-137), gehen die Wissenschaftler des Johann Heinrich von Thünen-Instituts (vTI) davon aus, dass für die Verbraucher in Deutschland vom Fisch aus pazifischen Fanggebieten keine Gefährdung durch radioaktive Stoffe aus Fukushima ausgeht. Die größten Fanggebiete für den Alaska-Seelachs in der Beringsee, eine der für uns wichtigsten Fischarten aus dem Pazifik, liegen mehr als 2500 Kilometer von Fukushima entfernt. Dort ist nach jetziger Datenlage nicht mit einer nachweisbaren Erhöhung der radioaktiven Stoffe im Meer durch die Ereignisse in Japan zu rechnen. Die Forscher im vTI erwarten, dass die Radioaktivitäts-Messwerte in der Beringsee auf dem aktuellen Niveau bleiben werden. Dieses Niveau spiegelt die Kontamination der Weltmeere durch die oberirdischen Kernwaffentests in den 1950er und 1960er Jahren wider. Es liegt bei etwa 0,002 Bq Cs-137 pro Liter Meerwasser.

Trotz dieser positiven Aussichten für die Fischerei im Pazifik und die deutschen Fisch-Konsumenten beobachten die vTI-Wissenschaftler die Lage in Japan weiter genau. Sobald neue Daten, speziell auch für radioaktive Stoffe in Fischen vorliegen, wird das vTI die Lage neu analysieren und dazu Stellung nehmen.
via Informationsdienst Wissenschaft

Spuren von Radioaktivität in Deutschland stellen keine gesundheitliche Gefährdung dar

Das Bundesamt für Strahlenschutz (BfS) hat erstmals Spuren von Radioaktivität in der Atmosphäre gemessen, die aufgrund der Zusammensetzung der gemessenen Stoffe auf den Reaktorunfall in Fukushima in Japan zurückgeführt werden können. Stationen des Deutschen Wetterdienstes und der Physikalisch-Technischen Bundesanstalt haben ebenfalls Spuren erfasst. Die gemessenen Werte stellen jedoch keine gesundheitliche Gefährdung für die Menschen und die Umwelt in Deutschland und Europa dar und liegen ein Vielfaches unterhalb der natürlichen gemessenen Strahlenbelastung.
Während die aus dem Kernkraftwerk in Fukushima austretende Radioaktivität gravierende Auswirkungen auf Menschen und Umwelt vor Ort hat, nimmt sie auf dem Weg nach Europa wie erwartet sehr stark ab.

Die Messstation des BfS auf dem Schauinsland bei Freiburg hat geringe Konzentrationen an Xenon-133 und Jod 131 im Mikro-Becquerel-Bereich in der Atmosphäre erfasst (Jod: 60 Mikro-Becquerel pro Kubikmeter Luft). Diese geringen Spuren können gemessen werden, weil das BfS auf dem Schauinsland bei Freiburg eine Messstation eines internationalen Netzwerkes von Einrichtungen zur Überwachung des Kernwaffenteststoppabkommens betreibt, die darauf spezialisiert sind, geringste Spuren an radioaktiven Stoffen zu messen.

Die Ausbreitung der Radioaktivität von Japan aus wird über das internationale Messnetz von Stationen, die für die Überwachung des Atomwaffenteststoppabkommens betrieben werden, weltweit verfolgt. Die radioaktiven Elemente Jod und teilweise Xenon wurden zunächst in Stationen im Pazifik und dann an der Westküste der USA gemessen und seitdem in Stationen an der Ostküste der USA, auf Island und in Schweden. Aufgrund der Wetterlage erfolgt die Verlagerung der radioaktiven Spuren zunächst von Nordeuropa aus nach Süden. Das BfS geht davon aus, dass in den kommenden Wochen unterschiedliche radioaktive Partikel festgestellt werden können. Auch für diese erwartet das BfS keine Messwerte, die in irgendeiner Weise gesundheitlich bedenklich sind.

Das BfS veröffentlicht die in Freiburg gemessene natürliche und künstliche Radioaktivität ebenso wie die gemessenen Daten vom Deutschen Wetterdienst und der Physikalisch-Technischen Bundesanstalt auf http://www.bfs.de/de/ion/papiere/schauinsland.html und aktualisiert die Daten täglich.

Auf http://odlinfo.bfs.de/ können außerdem die jeweils aktuellen Messwerte von etwa 1800 Sonden aufgerufen werden, mit denen das BfS die Radioaktivität in ganz Deutschland überwacht. Die jetzt auf dem Schauinsland gemessenen Spuren sind allerdings so gering, dass sie voraussichtlich nicht zu einer Erhöhung der Ortsdosisleistung führen werden, die innerhalb der ohnehin bestehenden Schwankungen erkennbar wäre. Daher ist nicht damit zu rechnen, dass die bundesweit verteilten ODL-Sonden nun erhöhte Messwerte anzeigen.

via Informationsdienst Wissenschaft

Freitag, 25. März 2011

Wie sich Änderungen der Landnutzung auf das Klima auswirken

Böden haben ein „Langzeitgedächtnis“ für ihre Nutzungsgeschichte
In Böden ist doppelt so viel Kohlenstoff in Form von Humus gespeichert wie Kohlenstoff als CO2 (Kohlendioxid) in der Atmosphäre. Durch Landnutzungsänderungen, wie die Umwandlung von Grünland in Ackerland, können innerhalb weniger Jahre bis zu 40 % des Humus verloren gehen und als CO2 unser Klima beeinträchtigen. Der umgekehrte Weg dauert wesentlich länger: Werden Landnutzungsänderungen rückgängig gemacht, kann es Jahrzehnte bis Jahrhunderte dauern, bis sich der Humus wieder angereichert hat. Das ist das Ergebnis einer Studie von Christopher Poeplau und Axel Don aus dem Johann Heinrich von Thünen-Institut (vTI) in Braunschweig, die jetzt in der renommierten Fachzeitschrift Global Change Biology veröffentlicht wurde.

Um zu den Ergebnissen zu gelangen, haben die beiden Wissenschaftler im Rahmen des europäischen Großforschungsprojekts „Greenhouse-gas-Europe“ knapp 100 veröffentlichte Feldstudien zusammenfassend ausgewertet und daraus Modelle entwickelt. Mit ihnen lässt sich ermessen, wie sich verschiedene Landnutzungsänderungen auf die Humusvorräte im Boden auswirken. Wird eine Wiese in einen Acker umgewandelt, führt dies zu Humusverlusten von durchschnittlich 35 %. In Deutschland sind in letzter Zeit mehr als 70.000 ha Grünland pro Jahr zu Ackerland umgebrochen worden, das entspricht 100.000 Fußballfeldern. Insgesamt betreffen Landnutzungsänderungen etwa 9 % der deutschen Landfläche in einem Zeitraum von fünf Jahren – genug, um dadurch die gesamte Treibhausgasbilanz von Deutschland zu beeinflussen. Global verursachen Landnutzungsänderungen 20 % der menschen-gemachten Treibhausgase, vor allem durch die Abholzung tropischer Wälder und die Umwandlung dieser Flächen in Acker- und Weideland.

Landnutzungsänderungen können auch rückgängig gemacht werden, um den verlorenen Humus wieder neu in den Boden zu bringen. Die neue Studie zeigt aber, dass eine Umwandlung von Acker zu Grünland nur sehr langsam und über einen Zeitraum von vielen Jahrzehnten den verloren gegangenen Kohlenstoff wieder als Humus im Boden bindet. Christopher Poeplau erklärt dazu: „Die bisherigen Studien haben den zeitlichen Aspekt meist ignoriert: Bisher war nicht klar, dass Böden über so langen Zeitraum nach Landnutzungsänderungen Humus akkumulieren können“.

Eine weitere untersuchte Landnutzungsänderung war die Aufforstung von Äckern und Grünland. Aufforstungen sollen einen positiven Beitrag zu Klimaschutz leisten, indem sie zusätzlichen Kohlenstoff als Humus und in der Biomasse der Bäume speichern. Die Untersuchungen am vTI geben ein differenziertes Bild: Bei einer Aufforstung von Ackerflächen steigt zwar der Kohlenstoffgehalt im Boden, allerdings nicht mehr als bei einer Umwandlung zu Grünland. Wird hingegen Grünland aufgeforstet, führt dies langfristig zu keiner zusätzlichen Kohlenstoffspeicherung im Boden. Axel Don bemerkt dazu: „Die Aufforstung von Grünland kann in den ersten Jahren sogar zu Humusverlusten führen und dadurch kontraproduktiv für den Klimaschutz sein, da auch die Kohlenstoffspeicherung in der Holzbiomasse von jungen Aufforstungen gering ist“. In Aufforstungen befinden sich etwa 30 % des zusätzlich gespeicherten Kohlenstoffs in der Nadel- und Laubschicht und nicht im mineralischen Boden. „Der hier gespeicherte Kohlenstoff ist anfällig für Störungen wie Windwürfe und Waldbrand und kann sehr schnell wieder als CO2 verloren gehen“, so Axel Don. Die wesentliche Klimaschutzfunktion von Aufforstungen besteht in der zusätzlichen CO2-Speicherung in der Holzbiomasse. Bei Aufforstung von Grünland wird diese Klimaschutzleistung durch Verluste von Kohlenstoff aus dem Boden geschmälert.

Die Informationen aus den neu entwickelten Modellen könnten künftig die Qualität der Treibhausgas-Berichterstattung verbessern, zu der sich Deutschland international verpflichtet hat. An dem zum vTI gehörenden Institut für Agrarrelevante Klimaforschung werden die Treibhausgasinventare für die Landwirtschaft in Deutschland erstellt. Doch noch sind viele Fragen offen. Zum Beispiel befinden sich große Mengen Humus im Boden in Tiefen unterhalb von 30 cm. Bislang ist kaum bekannt, wie diese Bodenschicht auf Änderungen der Landnutzung reagiert. Deshalb reisen die Braunschweiger Wissenschaftler in mehreren Messkampagnen durch ganz Europa von Litauen bis Italien, um Bodenproben zu sammeln und neue Daten zu Landnutzungsänderungen zu gewinnen.
via Informationsdienst Wissenschaft

Donnerstag, 24. März 2011

Ein extrem kühles Pärchen Brauner Zwerge

Beobachtungen mit dem Very Large Telescope der ESO und zwei weiteren Teleskopen haben einen neuen Kandidaten für das kühlste bislang bekannte sternartige Objekt entdeckt: einen so genannten Braunen Zwerg in einem Doppelsternsystem. Die Oberfläche des Objekts hat in etwa dieselbe Temperatur wie eine Tasse heißer Tee, ist also für menschliche Alltagsverhältnisse heiß, für Sterne aber außergewöhnlich kalt. Das Objekt liegt damit im Grenzgebiet zwischen kleinen und kühlen sternartigen Objekten und großen, heißen Planeten. Braune Zwerge sind “gescheiterte Sterne“: Sie sind nicht massereich genug, als dass in ihrem Inneren die Kernreaktionen starten könnten, die Sternen als Energiequelle dienen und sie leuchten lassen. Der neu entdeckte Braune Zwerg mit der Bezeichnung CFBDSIR 1458+10B ist die lichtschwächere Komponente in einem Doppelsystem zweier solcher Objekte, die in einer Entfernung von 75 Lichtjahren von der Erde [1] umeinander kreisen.

Mit dem X-Shooter-Spektrografen am Very Large Telescope (VLT) der ESO konnten Astronomen jetzt zeigen, dass das Doppelsystem als Ganzes selbst für Braune Zwerge vergleichsweise kühl ist. "Wir waren überrascht, als wir feststellten, dass dieses Objekt eine so geringe Temperatur besitzt. Zu diesem Zeitpunkt wussten wir freilich noch nicht, dass es sich um ein Doppelsystem handelt, bei dem eine Komponente noch kühler und damit noch interessanter ist", erzählt Philippe Delorme vom Institut de planétologie et d’astrophysique de Grenoble (CNRS/Université Joseph Fourier), einer der Autoren der Veröffentlichung, in der die Entdeckung beschrieben wird. CFBDSIR 1458+10 ist damit das kühlste Doppelsystem Brauner Zwerge, das die heutige Astronomie kennt.

Der lichtschwächere der beiden Braunen Zwerge hat eine Oberflächentemperatur von nur etwa 100°C, entsprechend der Siedetemperatur von Wasser. Damit ist er nur wenig wärmer als die Temperatur in einer Sauna [2]. “Bei so einer Temperatur erwartet man von einem Braunen Zwerg ganz andere Eigenschaften als von den bisher bekannten Vertretern dieser Gattung. Das Objekt dürfte einem großen Gasplaneten ähneln – es könnte in seiner Atmosphäre sogar Wolken aus Wasserdampf geben", erläutert Michael Liu vom Institute for Astronomy der University of Hawaii, der Erstautor der Veröffentlichung. "Tatsächlich dürften viele der Gasriesen um sonnenähnliche Sterne, die wir mit der nächsten Generation von Großteleskopen fotografieren werden können, so ähnlich wie CFBDSIR 1458+10B aussehen."

Um alle Geheimnisse dieses einzigartigen Objektes zu enthüllen, kamen drei verschiedene Teleskope zum Einsatz. Die Entdeckung, dass es sich bei CFBDSIR 1458+10 um ein Doppelsystem handelt, gelang mit dem Laserleitsternsystem (Laser Guide Star, LGS) Adaptiver Optik am Keck-Teleskop auf Hawaii [3]. Anschließend nutzten Liu und sein Team das Canada–France–Hawaii Telescope, das sich ebenfalls auf Hawaii befindet, um die Entfernung des Pärchens von der Erde mit einer Infrarotkamera zu bestimmen [4]. Das VLT der ESO wurde benötigt, um das Infrarotspektrum der Objekte zu bestimmen und so ihre Temperaturen zu messen.

Die Suche nach kühlen Objekten ist ein hochaktuelles Thema der Astronomie. Erst kürzlich hatte das Weltraumteleskop Spitzer zwei andere besonders lichtschwache Objekte aufgespürt, die ebenfalls als Kandidaten für den kühlsten bekannten Braunen Zwerg in Frage kommen. Allerdings konnte deren Temperatur bislang nicht so genau bestimmen wie die von CFBDSIR 1458+10B. Zukünftige Beobachtungen werden zeigen, welches der Objekte am kältesten ist. Auch Liu und seine Kollegen wollen CFBDSIR 1458+10B erneut beobachten, um seine Eigenschaften noch genauer bestimmen und die Umlaufbahn des Doppelsystems vermessen zu können. Nach ungefähr zehn Jahren regelmäßiger Beobachtungen sollten die Astronomen über genügend Daten verfügen, um die Masse der beiden Objekte bestimmen zu können.

Endnoten

[1] Der Name des Doppelsystems ist CFBDSIR 1458+10. Die Abkürzung CFBDSIR steht dabei für Canada-France Brown Dwarfs Survey InfraRed, eine Himmelsdurchmusterung nach Braunen Zwergen im Infraroten mit dem Canada-France Hawaii Teleskop. Die darauf folgenden Zahlen beschreiben die Position des jeweiligen Objekts am Himmel. Die beiden Komponenten des Doppelsystems tragen die Bezeichnungen CFBDSIR 1458+10A und CFBDSIR 1458+10B, wobei die zweite Komponente die lichtschwächere und kühlere ist. Die beiden Braunen Zwerge sind weniger als der dreifache Abstand Erde-Sonne voneinander entfernt und umlaufen einander einmal in etwa 30 Jahren.

[2] Zum Vergleich: Die Oberflächentemperatur der Sonne beträgt etwa 5500°C.

[3] Adaptive Optik eliminiert einen Großteil der durch die Erdatmosphäre verursachten Störungen, so dass sich die Schärfe des Bildes um einen Faktor 10 verbessern lässt. Damit war es möglich das enge Doppelsystem in seine Komponenten aufzulösen.

[4] Die Astronomen beobachteten die scheinbare Bewegung der beiden Braunen Zwerge gegenüber den weiter entfernt liegenden Sternen im Hintergrund, die durch die Bewegung der Erde um die Sonne verursacht wird. Diesen Effekt bezeichnet man als Parallaxe. Mit ihrer Hilfe lässt sich die Entfernung der Braunen Zwerge bestimmen.
via Informationsdienst Wissenschaft

Mittwoch, 23. März 2011

Dienstag, 22. März 2011

Video zum Welttag des Wassers


Lawinen - 18 Minuten zum Überleben?

Wie lange kann ein Verschütteter unter einer Lawine überleben? Laut einer Studie mit Schweizer Daten bleiben einem Rettungsteam im Durchschnitt 18 Minuten, um ein Lawinenopfer mit hoher Wahrscheinlichkeit noch lebend zu bergen. Ist diese Erkenntnis jedoch weltweit gültig oder gibt es regionale Unterschiede? Ein Forscherteam aus Südtirol, der Schweiz und Kanada hat in einer gemeinsamen Studie Daten zu Lawinenunfällen aus der Schweiz und Kanada neu erhoben und miteinander verglichen - mit überraschenden Ergebnissen. Das hochdotierte Magazin „Canadian Medical Association Journal“ hat die Studie in seiner aktuellen Ausgabe publiziert.
Vor rund zehn Jahren veröffentlichte der Südtiroler Lawinenexperte Hermann Brugger – heute Leiter des weltweit ersten Instituts für Alpine Notfallmedizin an der Europäischen Akademie Bozen – gemeinsam mit seinem Schweizer Kollegen Hans-Jürg Etter und dem Südtiroler Biostatistiker Markus Falk eine Studie zur Überlebenschance bei Lawinenverschüttung. Sie hatten Schweizer Daten zu Lawinenunfällen gesammelt und herausgefunden, dass die Überlebenswahrscheinlichkeit von Verschütteten bis rund 18 Minuten über 90 Prozent beträgt. Die Ergebnisse der Studie hatten damals große Auswirkungen auf das Verhalten von Skitourengehern, auf das alpine Rettungswesen, auf die Herstellung von Rettungsgeräten und auf die Logistik bei der Bergung und Behandlung von Lawinenopfern. Doch inwieweit gelten diese Erkenntnisse auch für Bergregionen außerhalb der Alpen? In den vergangenen Jahren aktualisierten die Lawinenforscher die Daten der Schweizer Studie und verglichen zusammen mit den Kanadiern Pascal Haegeli und Jeff Boyd die Schweizer Daten mit Daten aus Kanada. Das überraschende Ergebnis: Die so genannte Überlebensphase ist in Kanada mit rund zehn Minuten nur etwa halb so lang wie in der Schweiz. Wie lassen sich diese großen Unterschiede erklären? Das weitere Vorgehen des Forscherteams gelang nicht zuletzt aufgrund einer rechnerischen Leistung, die Markus Falk mit eigens neu entwickelten statistischen Methoden beisteuerte. Nach Ausschluss mehrerer Vermutungen zeigte es sich, dass, abgesehen von einer höheren Verletzungsrate in Kanada, vor allem das Klima ein ausschlaggebender Faktor ist für die Überlebenswahrscheinlichkeit unter Lawinen: Im maritimen Klima am pazifischen Küstenstreifen östlich von Vancouver beeinflusst die feuchte Meeresluft die Konsistenz und Dichte des Schnees derart, dass Verschüttete dort schneller ersticken als unter dem Schnee im trockenen, kalten und kontinentalen kanadischen Klima, das auch dem Klima der europäischen Alpen ähnlich ist.
Eine weitere Erkenntnis der Studie betrifft die Anzahl der Langzeitüberlebenden, also jener Lawinenopfer, die trotz ihrer vollständigen Verschüttung keine lebensgefährlichen Verletzungen davontragen und überleben. Ihre Anzahl ist in Kanada im Vergleich deutlich niedriger. Zurückzuführen ist dies auf die großen Entfernungen, die Unzugänglichkeit der kanadischen Bergregionen und die damit verbundenen Schwierigkeiten in der medizinischen Versorgung von Lawinenopfern. „Die Studie hat deutlich gemacht, dass den kanadischen Rettungsteams im Vergleich viel weniger Zeit bleibt, um Lawinenverschüttete lebend zu bergen und sie daher in punkto Schnelligkeit und Effizienz extrem gefordert sind“, fasst Hermann Brugger zusammen.
Weitere Informationen:
http://www.cmaj.ca/cgi/content/abstract/cmaj.101435v3 - Link zum Artikel in der Online-Ausgabe des Canadian Medical Association Journal
via Informationsdienst Wissenschaft

Reaktorunglück in Japan: Folgen für das Ökosystem Meer

(Hamburg/Braunschweig, 22.03.2011) Während sich die Lage am japanischen Unglückskraftwerk in Fukushima auf weiterhin kritischem Niveau zusehends stabilisiert, werden erste Messwerte für radioaktive Stoffe in Umweltproben bekannt.
Für den Bereich der Meeresumwelt liegt zurzeit erst eine Pressemitteilung aus Japan bezüglich Grenzwertüberschreitungen im Meerwasser vor; es gibt noch keine offiziellen Messdaten der japanischen Behörden. Nach der Pressemeldung soll im Meer etwa 100 Meter vor dem Kraftwerk die Aktivität von Iod-131 den japanischen Grenzwert um das 126-Fache übersteigen; die Aktivitäten von Cäsium-134 und Cäsium-137 liegen demnach 25-fach bzw. 16,5-fach über dem Grenzwert. Leider wird nicht angegeben, wie hoch der Grenzwert ist oder welcher Grenzwert zur Anwendung gekommen ist. Aus diesem Grund gehen die Wissenschaftler des Johann Heinrich von Thünen-Instituts (vTI) von den Grenzwerten für Lebensmittel aus. Diese liegen in Japan bei 2000 Becquerel (Bq) pro Kilogramm für Iod-131 und bei 500 Bq pro Kilogramm für radioaktive Cäsium-Isotope.

Da sich Kontaminationen im Wasser aber sehr schnell verteilen, bleiben die Wissenschaftler bei ihrer Einschätzung, dass im Pazifik keine gravierenden Kontaminationen in Fischen zu erwarten sind.

Als Beleg für diese Einschätzung liegen den Forschern Daten von britischen Kollegen vor, die diese routinemäßig in der Umgebung der britischen Wiederaufarbeitungsanlage Sellafield erheben. Dort wurden zwischen 1965 und 1985 jährlich beachtliche Aktivitäten an radioaktivem Cäsium mit dem Abwasser in die irische See eingeleitet. Der Spitzenwert wurde Mitte der 1970er Jahre mit über 5000 TBq pro Jahr (1 TBq = 1 Billion Bq) gemessen. Gegenüber diesen großen Mengen an eingeleitetem Cäsium sind die langfristigen Folgen für die Fischfauna in der Irischen See als minimal zu bewerten. Aktuelle Zahlen aus dem Jahr 2008 zeigen bei Kabeljau aus der Irischen See eine maximale Kontamination von 10 Bq pro Kilogramm. Dies entspricht dem maximalen Kontaminationswert für Ostseedorsch, wobei dessen Belastung nach wie vor auf den Reaktorunfall von Tschernobyl zurückzuführen ist (der Grenzwert für im Zuge des Tschernobyl-Unfalls kontaminierte Lebensmittel liegt in der EU bei 600 Bq pro Kilogramm).

Auf den Pazifik bezogen gehen die vTI-Wissenschaftler davon aus, dass die Cäsium-Aktivitätswerte im Fisch deutlich unter den Werten der Irischen See und der Ostsee bleiben werden. Trotz der jetzt gemessenen hohen Werte im Meerwasser unmittelbar am Reaktor erwartet man im vTI allenfalls geringe Kontaminationen im Fisch aus der Nähe des Reaktors, aber praktisch keine Kontaminationen zum Beispiel im Fanggebiet des Alaska-Seelachses in der Beringsee oder in anderen Bereichen des Pazifiks.
via Informationsdienst Wissenschaft

Historic Shuttle Photo "Taken" by Kennedy Employees


Montag, 21. März 2011

Geo Video: Honshu-Erdbeben - Tsunami gegen Schutzanlagen

Video des Honshu-Tsunamis vom 11. März 2011. Man kann sehr gut die durchaus beeindruckenden Sperranlagen in dem Hafen erkennen. Während die ersten Tsunamis daran noch abprallen, scheinen sie gegen den letzten nur noch wie Spielzeug. Das lässt einen die ungeheure Kraft und Wucht dieser Welle erahnen.

Aftershocks animation | Honshu, Japan earthquake | 9.0 Mw | 11 March 2011

Space Shuttle Era: Crawler Transporter

Video: Millisieverts and Radiation - Sixty Symbols


Carl Sagan: To The Sky [Carl Sagan Tribute Series, Part 8]

Geo Video: Life on Undersea Volcanoes

Geo Video: Exploring Kermadec Arc Undersea Volcanoes

Japan: Zur möglichen Kontamination von Fischen und Meerwasserpflanzen

(Hamburg/Braunschweig, 18.03.2011) In den letzten Stunden haben sich an der Situation im japanischen Kernkraftwerk Fukushima keine relevanten Änderungen ergeben. Es wird nach wie vor versucht, die kritische Lage in den Griff zu bekommen. Vom Betreiber der Anlage liegen auch weiterhin keine Informationen über Menge und Art der bisher freigesetzten Radionuklide vor.

Die Internationale Atomenergie Agentur (IAEA) hat daher Informationen über behördlich gemessene Radionuklide von Japan angefragt. Bis diese Messdaten verfügbar sind, kann weiter nur allgemein von einer Freisetzung leicht flüchtiger Substanzen ausgegangen werden. Hierzu zählen unter anderem die Radionuklide Cäsium-134 (Halbwertszeit 2 Jahre) und Cäsium-137 (Halbwertszeit 30 Jahre), sowie Iod-131 (Halbwertszeit 8 Tage).

Für die Verbraucher sind davon die längerlebigen Cäsium-Isotope relevant, da Iod-131 bereits in wenigen Wochen nicht mehr nachzuweisen sein wird.

Aus Radioaktivitäts-Messdaten für Fische aus Nord- und Ostsee, die seit dem Reaktorunfall von Tschernobyl in den vergangenen 25 Jahren erhoben wurden, haben die Wissenschaftler des Johann Heinrich von Thünen-Instituts (vTI) gelernt, dass sich in gut durchströmten Meeren, wie zum Beispiel der Nordsee, Kontaminationen relativ schnell verdünnen. So wurde in der Nordsee nach 1986 eine schnelle Abnahme der Cäsium-137-Messwerte sowohl im Meer als auch im Fisch beobachtet. Bereits im Jahr nach der Katastrophe war praktisch kein Tschernobyl-Cäsium mehr nachweisbar. Stattdessen zeigen die Messungen sowohl im Fisch als auch im Meerwasser eine „Hintergrund-Kontamination“ durch Cäsium-137 aus den oberirdischen Kernwaffentests der 1950er und 1960er Jahre. Für die Messungen im Meerwasser ist in Deutschland das Bundesamt für Seeschifffahrt und Hydrographie (BSH) verantwortlich.

Aufgrund dieser Informationen kann nach derzeitigem Wissensstand für den Pazifischen Ozean ebenfalls davon ausgegangen werden, dass sich radioaktive Stoffe, die über kontaminiertes Kühlwasser aus Fukushima und über belastete Luftmassen ins Meer gelangen, in kürzester Zeit auf ein nicht nachweisbares Niveau verdünnen werden.

Die Wissenschaftler im Johann Heinrich von Thünen-Institut beobachten die Situation in Japan aber weiterhin sehr aufmerksam, so dass sie auf neue Ereignisse entsprechend zeitnah reagieren können.

In der aktuellen Ausgabe des Wissenschaftsmagazins ForschungsReport (1/2011) ist ein Artikel erschienen, der die Situation in Fischen der Nord- und Ostsee 25 Jahre nach Tschernobyl beleuchtet. Ein weiterer informiert über Nahrungsmittel aus Landwirtschaft und Wald. Das Heft steht im Internet unter http://www.forschungsreport.de zur Verfügung; ein Druckexemplar kann kostenlos unter pressestelle@vti.bund.de angefordert werden.

via Informationsdienst Wissenschaft

Extremsommer werden häufiger

Internationales Forscherteam vergleicht die heißen Sommer der Jahre 2003 und 2010 – Hitzewelle 2010 brach alle Rekorde – Publikation in der renommierten Fachzeitschrift „Science“
Ein internationales Forschungsteam, an dem mit Prof. Jürg Luterbacher (Institut für Geographie) auch ein Wissenschaftler der Justus-Liebig-Universität Gießen (JLU) beteiligt waren, hat erstmals detailliert die Hitzesommer von 2003 und 2010 verglichen. Sie stellten dabei fest, dass der Sommer 2010 in klimatischer Hinsicht beispiellos war: Noch nie seit mindestens 500 Jahren wichen die Sommertemperaturen Europas so stark von der Norm ab. Die Hitzewelle über Osteuropa und Russland forderte viele Hitzetote und verursachte große ökonomische und ökologische Schäden. Ein weiteres Ergebnis der Studie: Der menschgemachte Klimawandel wird solche Extremsommer häufiger auftreten lassen. An dieser Untersuchung waren auch Wissenschaftler der Eidgenössischen Technischen Hochschule Zürich, der Agencia Estatal de Meteorología Madrid und der Universität Lissabon beteiligt. Die internationale Forschergruppe hat ihre Resultate nun in der renommierten Fachzeitschrift „Science“ publiziert.

Insbesondere die Menschen in Russland litten 2010 unter der außergewöhnlichen Hitze. In Moskau wurden Tagestemperaturen von knapp 40 Grad Celsius registriert. Verheerende Brände aufgrund der Trockenheit vernichteten eine Fläche von einer Million Hektar, rund 25 Prozent der Ernte fielen aus. Der geschätzte Schaden beläuft sich auf 15 Milliarden US-Dollar. Zwar kollabierten auch in Deutschland Reisende in unklimatisierten Zügen, trotzdem ist im kollektiven Bewusstsein – zumindest der Westeuropäer – immer noch der Hitzesommer von 2003 als „der extremste Sommer“ verankert.

Die Hitzewelle von 2010 brach alle Rekorde sowohl in Bezug auf die räumliche Ausdehnung als auch die Temperaturabweichung vom Mittel. Die gemessenen Temperaturen lagen zwischen 6,7 bis 13,3 Grad Celsius über dem Sommermittel. Die Hitzewelle erstreckte sich über eine riesige Fläche von rund zwei Millionen Quadratkilometern – das entspricht knapp sechs Mal der Fläche Deutschlands. Der Sommer 2010 war im Mittel über Gesamteuropa 0,2 Grad Celsius wärmer als jener von 2003. Was sich nach wenig anhört, ist – auf die riesige Fläche und auf den gesamten Sommer hinaus berechnet – viel. „Dass wir den Sommer von 2003 als extremer wahrgenommen haben, liegt insbesondere daran, dass Westeuropa 2003 von der Hitzewelle mehr betroffen war und es über einen langen Zeitraum warm blieb“, erklärt Jürg Luterbacher, Professor am Institut für Geographie der JLU.

Der Grund für die Hitzewellen in 2003 und 2010 war in beiden Fällen eine sogenannte Omega-Lage. Es handelt sich dabei um ein stabiles und ausgedehntes Hochdruckgebiet, das westlich und östlich von einem Tiefdruckgebiet begrenzt wird. 2010 lag das Zentrum dieses blockierten Hochdruckgebiets über den Landmassen Russlands. Das östliche Tiefdruckgebiet war für die Überschwemmungen in Pakistan mitverantwortlich. Doch die stabile Hochdrucklage war nicht die einzige Ursache für die außerordentliche Hitze von Juli bis Mitte August 2010: Hinzu kamen eine frühe Schneeschmelze und wenig Niederschlag, was den Boden austrocknete und die Situation zusätzlich verschärfte. „Solch lang andauernde Hochdrucklagen im Sommer sind zwar selten, kommen aber immer wieder vor. Es war deshalb von Interesse für uns, die Hitzewellen von 2003 und 2010 im Kontext der letzten Jahrhunderte zu analysieren“, sagt Luterbacher.

Zu diesem Zweck verglichen die Wissenschaftler die jüngsten Hitzewellen mit Daten aus den vergangenen Jahrhunderten. Bis ins Jahr 1871 liegen tägliche Durchschnittstemperaturen vor. Für die Zeit davor nutzten die Forscher jahreszeitliche Daten, die mit Hilfe von historischen Dokumenten aus Archiven, Baumringen, Eisbohrkernen und frühinstrumentellen Messungen ermittelt wurden. Die Sommer 2003 und 2010 brachen in der Hälfte Europas die Hitzerekorde der letzten 500 Jahre. „Aus Einzelereignissen, wie sie die Hitzewellen von 2003 oder 2010 darstellen, lassen sich keine direkten Aussagen über den Klimawandel ableiten“, betont Luterbacher. „Dass diese zwei Rekordsommer und drei weitere sehr heiße Sommer in den letzten 10 Jahren stattfanden, ist jedoch bemerkenswert und die Häufung dieser Phänomene stimmt uns nachdenklich.“

Um herauszufinden, ob solche extremen Wettereignisse auch in Zukunft vermehrt stattfinden könnten, analysierten die Forscher die Zeiträume von 2020 bis 2049 und von 2070 bis 2099 mit Hilfe von elf regionalen, hoch aufgelösten Klimamodellszenarien. Die gute Nachricht: Die Hitzewelle 2010 war so extrem, dass solche Phänomene auch in den nächsten Jahrzehnten außergewöhnlich bleiben werden. Am Ende des Jahrhunderts deuten die Modelle jedoch im Mittel alle acht Jahre auf eine Hitzewelle vom Ausmaß des Extremsommers von 2010 hin. Hitzewellen wie 2003 werden nach Ansicht der Forscher bis zum Ende des 21. Jahrhunderts schon fast zur Normalität. Während die genauen Häufigkeitsänderungen stark vom Modell abhängen, zeigen alle Simulationen, dass die Hitzeperioden in Zukunft häufiger, intensiver und anhaltender werden.

Titel der Publikation
Barriopedro, D., E. M. Fischer, J. Luterbacher, R. M. Trigo, and R. García-Herrera. 2011. The hot summer of 2010: redrawing the temperature record map of Europe, Science EXPRESS, doi: 10.1126/science.1201224

via Informationsdienst Wissenschaft

Freitag, 18. März 2011

Vorgezogene Abschaltung alter Kernkraftwerke – Auswirkungen auf die Stromerzeugung in Deutschland

Aufgrund neuer Sicherheitsbedenken hat die Bundesregierung entschieden, die sieben ältesten deutschen Atommeiler umgehend vom Netz zu nehmen. Welche Auswirkungen auf die deutsche Energieversorgung sind dadurch zu erwarten? Die Forschungsstelle für Energiewirtschaft e.V. hat einige Punkte zusammengestellt.
Bei einem dauerhaften Abschalten der sieben Reaktorblöcke fallen 7 GW Leistung weg, was etwa 7 % der gesamten in Deutschland installierten konventionellen Kraftwerksleistung entspricht. Bei einer veranschlagten Auslastungsdauer von 7.500 Stunden pro Jahr entsteht in der Stromproduktion eine Lücke von jährlich 53,1 TWh, die aus anderen Quellen gedeckt werden muss. Den Kernkraftwerksbetreibern entgeht voraussichtlich ein Gewinn von 1,2 Mrd. Euro (nach Abzug der Kernbrennstoffsteuer), wobei von einem durchschnittlichen Großhandelsstrompreis von 50 €/MWh ausgegangen wurde. Für den Staat bedeutet die Abschaltung Mindereinnahmen durch die Kernbrennstoffsteuer von etwa 900 Mio. Euro pro Jahr.

Bis zum tatsächlichen Ausbau der Erneuerbaren Energien muss die wegfallende Strommenge durch konventionelle Kraftwerke ersetzt werden. Bei einem Anteil von zwei Dritteln Steinkohle und einem Drittel Erdgas ist mit zusätzlichen 36 Mio. Tonnen CO2 zu rechnen, was einem Anteil von 5 % der energiebedingten CO2-Emissionen in Deutschland (Basis 2008) und 11 % der Emissionen im Stromsektor entspricht.
via Informationsdienst Wissenschaft

Donnerstag, 17. März 2011

Erdbeben/Tsunami in Japan – Folgen für die nuklearen Anlagen in Fukushima

Das Karlsruher Institut für Technologie hat federführend für die Helmholtz-Gemeinschaft unter Einbindung des Kompetenzverbundes Kerntechnik sechs Arbeitsgruppen eingerichtet, die sich mit den Auswirkungen der Naturkatastrophen in Japan auf die Kernkraftwerke am Standort Fukushima beschäftigen. Ziel ist die Zusammenfassung der wissenschaftlichen Expertisen, um wesentliche Fragen zu den aktuellen Ereignissen in den japanischen Kernkraftwerken beantworten zu können. Außerdem sollen Rückschlüsse auf deutsche kerntechnische Anlagen gezogen werden.
Die Arbeitsgruppen beschäftigen sich mit folgenden Themen:

1. Zerstörungsgrad der einzelnen Reaktorkomponenten
2. Berechnung des Störfallablaufes und der Energiefreisetzung im Reaktorkern; Prognose der weiteren möglichen Unfallentwicklung
3. Auswirkungen der Wasserstoffexplosionen auf Anlagenkomponenten und Identifizierung von kritischen Randbedingungen für weitere Wasserstoffexplosionen.
4. Radioaktive Emissionen und Ausbreitungsrechnungen für verschiedene Störfall- und Unfallszenarien
5. Auswirkungen von radioaktiven Freisetzungen auf die betroffenen Menschen
6. Vergleich der Sicherheitsaspekte deutscher und japanischer Siedewasser-Reaktoren

Das KIT hat langjährige Erfahrungen bei der experimentellen Untersuchung und Berechnung von schweren Störfällen in kerntechnischen Anlagen. Außerdem hat das KIT Rechenmodelle entwickelt, mit denen die Ausbreitung von radioaktiven Stoffen berechnet werden können und die bereits europaweit im Einsatz sind.

Die Ergebnisse der Arbeitsgruppen werden zeitnah auf der Homepage des KIT (www.kit.edu) veröffentlicht.
 via Informationsdienst Wissenschaft

Bonner Geoforscher: Japan-Erdbeben brachte den ganzen Planeten zum Schwingen

Abrupte Bruchvorgänge in der Erdkruste lösen seismische Wellen aus, die an der Erdoberfläche als Erdbeben wahrgenommen werden. Weniger bekannt ist hingegen, dass sehr starke Erdbeben zusätzlich den gesamten Planeten in Schwingungen versetzen können. Genau das geschah beim Erdbeben vom 11. März 2011 vor der japanischen Küste von Hunshu, das eine Stärke von 9,0 hatte. Das haben Beobachtungen des Geo-Observatoriums Odendorf des Instituts für Geodäsie und Geoinformation der Universität Bonn ergeben.
„Man nennt dieses Phänomen Eigenschwingungen oder Freie Schwingungen der Erde“, erklärt Professor Dr. Manfred Bonatz. Der emeritierte Professor hat das Geo-Observatorium in seinem Haus in Odendorf eingerichtet. In einem ständigen Hin und Her verändert der Erdkörper geringfügig seine Form. Es handelt sich um sehr komplexe Bewegungsvorgänge mit Perioden von etwa 2 Minuten bis zu etwa einer Stunde. Der Sachverhalt lässt sich in gewisser Weise veranschaulichen durch eine Glocke, die mit einem Hammer angeschlagen und zum Tönen gebracht wird.

Das Erdbeben wurde ausgelöst um 05:46:23,0 Weltzeit UTC (entsprechend 6 Uhr 46 Minuten 23 Sekunden hiesiger Zeit). Die erste seismische Welle erreichte das Observatorium in Odendorf um 05:58:51UTC, also mit 12 Minuten und 28 Sekunden Verzögerung. „Danach konnten wegen der großen Amplituden der einlaufenden seismischen Wellen während mehrerer Stunden keine auswertbaren Signale mehr gewonnen werden“, berichtet Professor Bonatz.. Die Signale der Eigenschwingungen wurden erst sichtbar, als die Energie der die Erde permanent umlaufenden und durchlaufenden seismischen Wellen allmählich abgenommen hatte.

Die mittlere Schwingungsperiode betrug etwa 6,5 Minuten, maßen die Wissenschaftler. Die vertikalen Bodenbewegungen lagen zu Beginn der Beobachtung bei einigen Zehntel-Millimetern. Etwa 50 Stunden nach dem Beginn des Erdbebens waren die Ausschläge soweit abgeklungen, dass sie nicht mehr detektiert werden konnten. „Natürlich geht von den Eigenschwingungen des Erdkörpers keine Gefahr aus, dafür sind die Bodenbewegungen zu gering“, sagt Professor Bonatz. Die Vorgänge seien jedoch wissenschaftlich von großer Bedeutung, da sie wesentliche Informationen über physikalische Eigenschaften des Erdkörpers enthalten.

Das Geo-Observatorium in Odendorf ist eine Außenstelle des Instituts für Geodäsie und Geoinformation der Universität Bonn. Es dient der Erfassung tektonischer Effekte und der zeitlichen Veränderungen der Schwere der Erde. Dabei arbeitet das Observatorium mit anderen wissenschaftlichen Institutionen zusammen.
via Informationsdienst Wissenschaft

Zur möglichen Kontamination von Fischen und Meerwasserpflanzen als Folge des Reaktorunglücks

(Hamburg/Braunschweig, 15.03.2011) Aufgrund der jüngsten Ereignisse in Japan muss – gegenüber gestern – von einer deutlich umfangreicheren Freisetzung radioaktiver Stoffe ausgegangen werden.

Bei einer Explosion am Morgen des 15. März (Ortszeit Japan) im Reaktorblock 2 des Kernkraftwerks Fukushima wurde nach japanischen Angaben der Reaktor selbst beschädigt. Laut Meldung der Internationalen Atomenergie Agentur (IAEA) kam es zu einem strukturellen Versagen des Kondensators im primären Kühlkreislauf. Daraufhin erhöhte sich die Ortsdosisleistung in der Umgebung des Kernkraftwerks kurzzeitig auf bis zu 12 Millisievert (mSv) pro Stunde. Im Vergleich dazu beträgt die jährliche mittlere Strahlendosis in der Bundesrepublik Deutschland 2,1 mSv.

Eine genaue Zusammensetzung der freigesetzten Radionuklidwolke ist nicht bekannt. Es ist aber zu vermuten, dass auch relativ leichtflüchtige Cäsium-Isotope (Cs-134, Halbwertszeit 2 Jahre und Cs-137, Halbwertszeit 30 Jahre) freigesetzt wurden.

Es ist zu erwarten, dass sich das Cäsium auch großflächig über dem Pazifischen Ozean verteilen wird und dort mit dem Regen ins Meerwasser ausgewaschen werden kann. Die Kontaminationen im Meerwasser werden sich aufgrund der Strömungsmuster schnell im Pazifik verteilen und dabei auch deutlich verdünnen.

Für den Nahbereich des Kraftwerks muss aber mit einer deutlichen Erhöhung der Cäsium-Aktivität im Meerwasser gerechnet werden. Dort wird die Aktivität langsam in die Nahrungskette eingetragen werden, denn Cäsium ist chemisch mit Kalium verwandt, einem Element, das von den Organismen aufgenommen und verstoffwechselt wird. Es wird zunächst im Plankton auftreten, aber auch in Organismen mit großem Wasserumsatz, wie Muscheln und Algen. Einige Wochen später könnten dann auch erhöhte Aktivitäten von Cäsium in Meerwasserfischen messbar sein. Ob dabei Grenzwertüberschreitungen auftreten, lässt sich aufgrund der aktuellen Datenlage aber nicht abschätzen. Der Grenzwert für Lebensmittel in der EU beträgt 600 Becquerel pro Kilogramm Frischmasse.
Die Wissenschaftler des Johann Heinrich von Thünen-Instituts (vTI) beobachten die Lage weiterhin sehr aufmerksam. Eine Gefährdung der deutschen Bevölkerung durch kontaminierte Fische und Meeresprodukte aus Japan kann zum jetzigen Zeitpunkt aber ausgeschlossen werden.

Im Rahmen des Integrierten Mess- und Informationssystems (IMIS), welches nach dem Reaktorunglück in Tschernobyl eingerichtet wurde, messen die zuständigen Stellen der Bundesländer stichprobenartig unter anderem auch Importproben von Fisch aus Japan und anderen asiatischen Ländern. Hierbei sind in der Vergangenheit keine erhöhten Werte aufgetreten.

via Informationsdienst Wissenschaft

Neue Erkenntnisse zum Ablauf der Erdbeben-Katastrophe

Das Katastrophenbeben vom 11. März - Wissenschaftliche Auswertung
Neue Erkenntnisse zum Ablauf der Erdbeben-Katastrophe
Das Katastrophenbeben vom 11. März - Wissenschaftliche Auswertung
Das Katastrophenbeben vom 11. März 2011 war nicht nur für Japan ein Jahrhundertereignis. Mit einer Magnitude von Mw=8,9 gehört es zu den stärksten je gemessenen Erdbeben weltweit.
Beonders interessant ist in diesem Fall, das fast exakt an der Bruchstelle des Tsunami-Bebens zwei Tage vorher ein starkes Vorbeben mit der Magnitude Mw=7,2 stattfand. Der Geophysiker Dr. Joachim Saul vom Deutschen GeoForschungsZentrum GFZ (Helmholtz-Gemeinschaft) hat eine Sequenz erstellt, in der die Beben seit dem 09. März in Folge dargestellt werden.
Die animierte Grafik ist im Internet unter www.gfz-potsdam.de zu finden. Sie zeigt die am GFZ gemessene Erdbebenaktivität in der Region Honshu, Japan seit dem 8. März 2011. Nach einem seismisch ruhigen 8. März ereignet sich am Morgen (Weltzeit UTC) des 9. März vor der japanischen Ostküste ein Erdbeben der Stärke 7,2, auf welches zunächst eine Reihe kleinerer Nachbeben folgt. Am Morgen des 11. März kommt es zu dem Katastrophenbeben, welches den verheerenden Tsunami ausgelöst hat. Auf dieses Beben folgen zahlreiche, auch schwere, Nachbeben, von denen zwei fast die Magnitude 8 erreichen. Im weiteren Verlauf klingt die Aktivität langsam ab, und wird heute (16. März) von relativ kleinen Beben der Stärke 5 dominiert, wobei aber täglich auch noch mehrere Beben der Magnitude 6 registriert werden. Die Nachbebenaktivität konzentriert sich überwiegend auf den Bereich des Bebens vom 11. März. Anhand der Verteilung der Nachbeben lässt sich die Länge des Bruches des Hauptbebens auf etwa 400 km beziffern. Insgesamt sind vom GFZ in der Region Honshu seit dem 9. März 428 Beben registriert worden.
Die GFZ-Wissenschaftler Rongjiang Wang und Thomas Walter haben durch Auswertung von über 500 GPS-Stationen herausgefunden, dass sich an der Ostküste Japans Horizontalverschiebungen von bis zu fünf Metern nach Osten ergaben. Die Ursache liegt in der Erdbebenzone, d.h. an der Kontaktfläche der Pazifischen Platte zu Japan. Computersimulationen an dieser Fläche zeigen, dass sich bei dem Erdbeben bis über 25 Meter Versatz ereignete. Berechnungen der GFZ-Modellierungsgruppe um Stephan Sobolev ergaben sogar bis zu 27 Metern Versatz und eine Vertikalbewegung von sieben Metern. Dies löste eine ruckartige Hebung in der Tiefsee und somit den Tsunami aus. Berechnungen der GFZ-Modellierungsgruppe um Stephan Sobolev ergaben sogar bis zu 27 Metern horizontalen und vertikalen Versatz von sieben Metern. Auch die Abbildung der GPS-Verschiebungsvektoren und Computersimulationen findet sich unter den vom GFZ bereit gestellten Materialien.
Bereits kurz nach dem Beben modellierten Andrey Babeyko und Stephan Sobolev vom GFZ die Ausbreitung des Tsunami im Pazifik über die ersten 16 Stunden und die Wellenhöhen. Auch hier zeigt sich die enorme Wucht des Erdbebens: im freien Pazifik werden vergleichsweise große Wellenhöhen von über einem Meter berechnet, was sehr gut mit Beobachtungen übereinstimmt. Wie hoch sich der Tsunami an der Küste aufbaut, wird entscheidend von Wassertiefe und Küstenform bestimmt. Im GFZ-Material findet sich eine Abbildung und eine Animation dazu.
Abb. in druckfähiger Auflösung unter:
http://www.gfz-potsdam.de
bzw.
http://www.gfz-potsdam.de/portal/gfz/Public+Relations/M40-Bildarchiv/001_+Japan

Dienstag, 15. März 2011

Nuclear Reactors in Japan - Periodic Table of Videos

Was passiert eigentlich in einem Atomreaktor, und welche Schwierigkeiten treten in denjapanischen Reaktoren in Fukushima auf? Ein Beitrag der Reihe Peridic Table of Videos gibt darauf Antwort.

Montag, 14. März 2011

Die alten Atommeiler sollten sofort abgeschaltet werden

Geowissenschaftler Prof. Dr. Gerhard Jentzsch von der Universität Jena im Interview zu den Ereignissen in Japan
Jena (14.03.11) Die Katastrophenmeldungen aus Japan reißen nicht ab. Nach dem Erdbeben und dem Tsunami rückt der drohende GAU in den Atomanlagen des Landes immer stärker in den Mittelpunkt des Interesses. Die prekäre Situation im Fernen Osten entfacht auch hierzulande die Diskussion um Atomkraft und Reaktorsicherheit aufs Neue. Der Geowissenschaftler Prof. Dr. Gerhard Jentzsch von der Friedrich-Schiller-Universität Jena legt im Interview seine Sicht der Dinge dar.

Prof. Jentzsch, muss die zivile Nutzung der Atomkraft angesichts der Ereignisse in Japan generell in Frage gestellt werden?
Gerhard Jentzsch: Wir müssen bei dieser Frage die Frage von hinten beantworten: Solange es keine sichere Endlagerung gibt, dürfen wir keinen weiteren Atommüll produzieren. Die Radionuklide haben Halbwertszeiten von bis zu Milliarden Jahren – das heißt, dieser Müll bleibt da und klingt in seiner Gefährlichkeit kaum ab.

Sie plädieren dafür, die deutschen Atommeiler abzuschalten?
Gerhard Jentzsch: Die alten Meiler können sofort vom Netz. Die Stromkonzerne haben doch bewiesen, dass die alten Kraftwerke gar nicht benötigt werden.

Ein solcher Erdstoß wie jetzt in Japan ist in Deutschland nicht zu erwarten. Muss die Erdbebensicherheit der Atommeiler dennoch verstärkt werden?
Gerhard Jentzsch: Auch ein relativ schwaches Beben kann enorme Schäden anrichten. Entscheidend ist nicht die Magnitude eines Bebens, die ein Maß für die Energiefreisetzung ist – da wird aktuell im Fernsehen viel hanebüchener Unsinn erzählt – entscheidend ist vielmehr die Intensität des Bebens, also die Auswirkungen der Erdstöße direkt vor Ort.

Ein relativ schwaches Beben in Deutschland kann ebenfalls verheerende Schäden anrichten?
Gerhard Jentzsch: Wir hatten schon geringe Beben mit relativ hoher Intensität. Das ist beispielsweise im Rheinland jederzeit möglich. Kommen noch weitere Faktoren hinzu – etwa ein Hochwasser – kann es zu unvorhersehbaren Folgen führen.

Was meinen Sie damit?
Gerhard Jentzsch: Viele Atommeiler, wie etwa Mülheim/Kärlich, der ja zum Glück wegen der Erdbebengefährdung nicht mehr am Netz ist, stehen in der Nähe von Flüssen, wegen des Kühlwasserbedarfs. Führt der Fluss nun Hochwasser, kann auch ein schwaches Beben dazu führen, in den wassergesättigten Sanden die internen Bindungen zu lockern und damit gleichsam den Sand zu verflüssigen. So könnte der ganze Reaktorblock ins Rutschen geraten.

Das setzt aber viele bedrohliche Faktoren auf einmal voraus.
Gerhard Jentzsch: Die Erfahrung lehrt uns, dass wir immer mit dem Schlimmsten rechnen müssen. In Japan wurden beispielsweise die Schutzwälle gegen Tsunamis für Flutwellen von sechs Meter Höhe ausgelegt und jüngst noch erhöht. Nun zeigte der aktuelle Tsunami, dass diese Höhe nicht ausgereicht hat.

In welchem Abstand vom Epizentrum eines Erdbebens drohen Gefahren?
Gerhard Jentzsch: Das lässt sich nicht vorhersagen. Ich möchte ein Beispiel nennen: Als 1992 bei Roermond die Erde mit einer Magnitude von 5,9 bebte, fielen noch in einer Entfernung deutlich über 100 Kilometer Schornsteine um. Dabei ist ein Beben der Stärke 5,9 ein eher moderates Beben.

Wie groß sind denn die Gefahren durch Nachbeben?
Gerhard Jentzsch: Die sogenannten Nachbeben bergen die Gefahr, dass Gebäude oder Anlagen, die den ersten Erdstoß überstanden haben, bei weiteren Bewegungen der Erde in sich zusammenfallen. So etwas ließ sich jüngst bei dem Beben in Christchurch in Neuseeland beobachten. Früher kamen hohe Opferzahlen meist durch die verheerenden Brände zustande, die nach den Erdbeben auftraten. So geschehen 1923 in Tokio und 1906 in San Francisco.

Als Wissenschaftler können Sie Warnungen aussprechen und fundierte Urteile abgeben. Fühlen Sie sich von der Politik ernstgenommen?
Gerhard Jentzsch: Ich bin offen gesagt sehr frustriert, wenn ich sehe, wie mit unseren Erkenntnissen umgegangen wird. Vier Jahre lang gehörte ich dem Arbeitskreis Auswahlverfahren Endlagerstandort an. Als wir unsere Ergebnisse präsentierten, gab es einen Sektempfang und wenig später Neuwahlen, worauf unser Papier in der Schublade verschwunden ist.
via Informationsdienst Wissenschaft

Erdbeben sind nicht vorhersagbar

Geowissenschaftler der Universität Jena messen und analysieren Japans Erdbeben
Auch im thüringischen Moxa schlug am Freitag (11.3.) das Seismometer aus. Dort befindet sich das Geodynamische Observatorium der Friedrich-Schiller-Universität Jena. Alle Erdbeben mit einer Magnitude ab 6,0 auf der Richterskala weltweit können hier erfasst werden. „Die Wellen, die solche Beben aussenden, bewegen sich mit einer Geschwindigkeit von etwa sechs bis zehn Kilometer pro Sekunde durch den gesamten Erdkörper“, erklärt Dr. Thomas Jahr, der Leiter der Messstation. „Das Beben vor Japan war hier also etwa 20 Minuten später spürbar.“ Ein Nachbeben von heute (14.3.) ist ebenso mit einer Stärke von 6,1 in Moxa registriert worden.

In einer Größenordnung von Mikrometern bis sogar Millimetern bewegte sich die Erde auch weit entfernt vom Epizentrum. Zumindest vom Seismometer kann diese Bewegung wahrgenommen werden. „Dieses Messgerät besteht im Prinzip aus einer Feder, an der eine Masse befestigt ist“, erläutert der Jenaer Geophysiker. „Läuft eine Welle hindurch, beginnt die Masse zu schwingen und erlaubt so die Bestimmung der Bodenbewegung.“ Gleicht man dann die Messergebnisse mit denen von anderen Stationen ab, kann man schnell feststellen, wo genau ein Erdbeben passiert ist, wie groß die Magnitude war und in welcher Tiefe es stattgefunden hat.

Denn nicht – wie oft fälschlicherweise behauptet – auf dem Meeresgrund passieren solche Erdbeben. „In Japan spielte sich das ganze etwa 28 Kilometer unter dem Meeresboden in der oberen Lithosphäre ab“, sagt Thomas Jahr. Hier liegt eine sogenannte Subduktionszone. Das heißt, hier schiebt sich eine tektonische Platte langsam unter eine andere. „Dabei verhaken sich beide Platten ineinander und es baut sich mit der Zeit eine große Spannung auf“, veranschaulicht der Jenaer Erdbebenexperte. „Diese wird freigesetzt, wenn das Gestein schlagartig bricht – ein Erdbeben entsteht.“ Bevor die Platte sich schließlich dauerhaft neu verhakt, passiert dieser Vorgang mit weit weniger Spannung noch einige Male, was sich durch die Nachbeben bemerkbar macht. „Erst heute Morgen haben wir ein solches Nachbeben registriert, was in Anbetracht der derzeitigen Situation in Japan zu weiteren erheblichen Zerstörungen führen kann“, berichtet Thomas Jahr.

Auch weitere Tsunamis sind möglich. Nur solche vertikalen tektonischen Verschiebungen können die riesigen Wellenfronten hervorrufen. Während ihrer Entstehung auf offenem Meer haben sie zwar eine kleine Amplitude, aber eine große Wellenlänge und eine hohe Geschwindigkeit. Wenn die Wassermassen in flachere Regionen vordringen, geht die ganze Energie in die Amplitude, was die Welle so zerstörerisch macht.

Erdbeben dieser Stärke können sogar die Neigungsachse der Erde verändern und die Länge von Tag und Nacht beeinflussen. „Wie bei einer Eiskunstläuferin, die während einer Pirouette die Drehgeschwindigkeit um die eigene Achse durch Heranziehen oder Strecken der Arme verändern kann, so führen auch die Bewegungen von Masse auf der Erde zur Verlangsamung oder Beschleunigung der Rotation“, erklärt der Jenaer Geophysiker. „Ein Tag kann sich somit minimal, in der Größenordnung einer Mikrosekunde, verlängern oder verkürzen – je nachdem, ob sich die Masse zu einem Pol oder zum Äquator hin verschiebt.“

Bis zu zehn Erdbeben pro Woche verzeichnen die Experten der Universität Jena durchschnittlich weltweit. Das können kleinere seismische Aktivitäten im sächsischen Vogtland oder in Ostthüringen sein, aber auch große Beben wie in Japan oder kürzlich in Neuseeland. Eins betont Thomas Jahr besonders: „Trotz aller Messungen auf der ganzen Welt können wir keine Erdbeben voraussagen. Das ist schlicht nicht möglich. Man kann schließlich auch nicht vorhersagen, wo und wie sich ein Teilchen aus einem fertigen Puzzle hebt, wenn es mit unbekannter Kraft zusammengeschoben wird.“

Zwar existierten natürlich gewisse Wahrscheinlichkeiten an Orten, an denen zwei Platten zusammentreffen, aber kurzfristig könne man dadurch keine Warnungen abgeben. Auch habe sich die Zahl der Erdbeben in den letzten Jahren nicht erhöht, wie man gefühlt annehmen könnte. „Es gibt genauso viele Erdbeben wie vor hundert Jahren“, berichtet Jahr. „Durch die ausgeweitete Besiedlung sind aber immer häufiger Menschen davon betroffen.“

Trotz allen Leids, das eine solche Naturkatastrophe verursacht, liefert sie für die Wissenschaft auch wichtige Erkenntnisse. „Durch die Schwingungen, in die die Erde durch ein solches Erdbeben versetzt wird, erfahren wir mehr über das Innere unseres Planeten“, sagt der Jenaer Geophysiker. „Mit diesen neuen Informationen über den Schalenaufbau der Erde können Erdmodelle weiterentwickelt werden.“
via Informationsdienst Wissenschaft

Freitag, 11. März 2011

Rekord-Ozonloch über dem Nordpol

Ein Rekord-Ozonloch über der Arktis von bislang nie beobachteter Größe wird in den kommenden Wochen von Wissenschaftlern des Karlsruher Instituts für Technologie (KIT) erwartet. Mit Daten des im KIT entwickelten MIPAS-Gerätes auf dem europäischen Umwelt-Satelliten ENVISAT konnten die KIT-Wissenschaftler gemeinsam mit Kollegen aus Oxford den Beginn eines Phänomens beobachten, das in dieser Ausprägung bisher nur über dem Südpol auftrat.
Satellitenmessungen und Modelle zeigen in diesem Winter einen ungewöhnlich stabilen Luftwirbel über dem Nordpol, der für enorme Windstärken und sehr kalte Temperaturen sorgt. In diesem arktischen Wirbel finden spezielle chemische Prozesse statt, die zu einem sehr schnellen katalytischen Ozonabbau führen, sobald das erste Sonnenlicht auf die polare Atmosphäre fällt. Ein vergleichsweise großer, stabiler und bis ins Frühjahr anhaltender Wirbel wurde bislang nur über der Antarktis beobachtet. Ein Zusammenhang mit dem vergleichsweise milden Winter und dem Klimawandel liegt nahe, erfordert aber weitere, genauere Untersuchungen.

„Wissenschaftler des Instituts für Meteorologie und Klimaforschung (IMK) des KIT bereiten schon seit Anfang Februar stratosphärische Ballonmessungen auf der ESRANGE-Basis in Kiruna (Nordschweden) vor“, erklärt Professor Dr. Johannes Orphal, Leiter des IMK, Bereich Atmosphärische Spurengase und Fernerkundung. „Bislang konnten die Höhenballons wegen der in diesem Jahr extremen Winde noch nicht starten. Diese schwierigen Messungen werden aber in den nächsten Wochen viele spannende Details über die in diesem Jahr sehr ungewöhnliche Atmosphäre über dem Nordpol enthüllen.“ An der Messkampagne sind zahlreiche Wissenschaftler aus Deutschland, Frankreich, Russland und den Niederlanden sowie die französischen Agenturen CNES und CNRS beteiligt.

Hintergrund
Das so genannte Ozonloch, eine starke Abnahme der Ozonschicht in der mittleren Atmosphäre – der Stratosphäre – in Höhen zwischen 10-50 km, ist ein atmosphärisches Phänomen, das Mitte der 1980er Jahre entdeckt wurde. In voller Ausprägung trat es bisher nur über der Antarktis auf, wo sich in den meisten Jahren ein sehr stabiler Polarwirbel, eine Kaltluftströmung, die um den Südpol kreist, ausbildet. Innerhalb dieses Wirbels herrschen sehr tiefe Temperaturen, die eine Voraussetzung für die Entstehung des Ozonlochs sind. Eine weitere Voraussetzung ist Chlor, das durch katalytische Prozesse für den Ozonabbau verantwortlich ist. Durch die von Menschen eingesetzten Fluorchlorkohlenwasserstoffe (FCKW’s) ist der Chlorgehalt in der mittleren Atmosphäre in der zweiten Hälfte des 20. Jahrhunderts stark angestiegen und wurde erst durch das Montreal-Protokoll 1989 eingedämmt.

Bei den tiefen Temperaturen im Polarwirbel entstehen in der Stratosphäre polare stratosphärische Wolken (PSC’s). An den Kristallen dieser Wolken wird Chlor aus so genannten Reservoirgasen, in denen es normalerweise chemisch inaktiv gespeichert ist, befreit und steht dann in reaktiver Form zur Verfügung. Sobald nach dem Polarwinter die Sonne aufgeht, setzt mit Hilfe von UV-Strahlung der katalytische Ozonabbau ein.
Über dem Nordpol bildet sich normalerweise kein stabiler Polarwirbel aus, da die ungleichmäßige Landverteilung die Strömungen stört. Deshalb gibt es auch keine ausreichend tiefen Temperaturen für die Entstehung der PSC’s und damit weniger reaktives Chlor.

In diesem Winter ist die Situation anders: Erstmals hat sich ein über einen langen Zeitraum stabiler Polarwirbel auch über dem Nordpol ausgebildet. Damit sind die Temperaturverhältnisse mit dem Südpol vergleichbar, es entstehen PSC’s, damit reaktives Chlor. Die Wissenschaftler erwarten ein Ozonloch, das in seinen Ausmaßen mit dem Ozonloch über dem Südpol vergleichbar sein könnte, zumal es derzeit noch keine Hinweise gibt, dass der Polarwirbel zusammenbricht.

Ob die starke Ausprägung des Polarwirbels in diesem Jahr ein zufälliges Ereignis ist oder mit dem Klimawandel zusammenhängt, ist derzeit noch offen. Hierfür sind umfangreiche Modellrechnungen notwendig.

via Informationsdienst Wissenschaft

Erdbeben in Japan lässt KIT-Messgeräte ausschlagen

Am 11 März um 6:46 Uhr deutscher Zeit, 14:46 Uhr Ortszeit, ereignete sich 100 Kilometer vor der japanischen Hauptinsel Honshu ein schweres Erdbeben, das nach derzeitigem Stand die Stärke 8,9 hatte. Damit ist es das stärkste in der Geschichte Japans und das sechststärkste jemals gemessene Beben. Dabei hat sich auch in Karlsruhe der Boden vorübergehend um einen knappen Zentimeter verschoben – das zeigen aktuelle Messdaten des Geophysikalischen Instituts am KIT.
Der Forschungsbereich Seismologie untersucht die Tiefenstruktur des Mittleren Oberrheingrabens (Projekt TIMO) – die Messstationen sind etwa 10.000 Kilometer vom Epizentrum des Bebens in Japan entfernt. Die schnellste seismische Welle sei nach zwölf Minuten und 28 Sekunden in Karlsruhe eingetroffen, so Dr. Jörn Groos vom Geophysikalischen Institut. Die zweitschnellste folgte nach knapp 23 Minuten. „Bei den ersten beiden Erdbebenwellen handelt es sich um Raumwellen, die sich durch das Erdinnere ausbreiten.“ Danach trafen nach 35 Minuten sowie nach knapp 40 Minuten die langsameren Oberflächenwellen ein, die jedoch die stärkste Bodenverschiebung im Mittleren Oberrheingraben hervorgerufen haben. „Die gesamte Stadt Karlsruhe wurde dabei innerhalb von etwa 100 Sekunden um je neun Millimeter abgesenkt und angehoben sowie um neun Millimeter in Nord-Süd-Richtung und fünf Millimeter in Ost-West-Richtung vorübergehend verschoben.“

Erdbebenforscher unterscheiden verschiedene Wellentypen. Die erste oder Primärwelle (P-Welle) ist eine Druckwelle, die – wie beispielsweise auch der Schall – in Ausbreitungsrichtung schwingt. Die zweitschnellste Welle (Sekundärwelle, S-Welle) schwingt als Scherwelle quer zur Ausbreitungsrichtung. Die Bodenbewegung erfolgt auch aufgrund der Oberflächenwellen: in horizontaler Richtung durch Love-Wellen (benannt nach dem britischen Mathematiker A. E. H. Love), Rayleigh-Wellen (benannt nach dem englischen Physiker Lord Rayleigh) rufen sowohl horizontale als auch vertikale Bewegungen hervor.

Das Projekt TIMO misst und untersucht die globale und regionale Seismizität im Mittleren Oberrheingraben. Das Ziel ist die Charakterisierung der Erdbebentätigkeit im Oberrheingraben sowie der tiefen Struktur der Erdkruste und des Erdmantels.
via Informationsdienst Wissenschaft

Mehr über das Erdbeben auch in meinem Blog bei Mente et Malleo

Flüssigkristalle auf dem Weg zur Komplexität

Die Ordnung, wie sie für Kristalle typisch ist, kombiniert mit der Beweglichkeit von Flüssigkeiten ergibt den sogenannten „4. Aggregatzustand“ – Flüssigkristalle. Diese Form der kondensierten Materie ist nicht nur die Voraussetzung für flache Displays (LCDs), welche man heute z.B. in allen Laptop-Computern verwendet.
Wie sich Moleküle zu hochkomplexen flüssigkristallinen Strukturen spontan selbstorganisieren können, beschreiben Forscher der Martin-Luther-Universität Halle-Wittenberg (MLU) in internationaler Kooperation mit anderen Forschergruppen in einem Artikel in der jüngsten Ausgabe des renommierten Wissenschaftsmagazins „Science“.
Das Forschungsgebiet des Chemikers Prof. Dr. Carsten Tschierske berührt gleich zwei Schwerpunkte der MLU: die Bio- und die Materialwissenschaften. Seine Arbeit ist unter anderem Teil des an der MLU angesiedelten Landesexzellenznetzwerks „Nanostrukturierte Materialien" und der Forschergruppe 1145. Er interessiert sich vor allem für die Entwicklung neuer Möglichkeiten zur Erzeugung komplexer flüssigkristalliner Strukturen.
Bisher bekannte Flüssigkristalle etwa haben noch sehr einfache Strukturen, weit entfernt zum Beispiel von der Komplexität lebender Systeme. In ihrer Arbeit “Complex multicolor Tilings and Critical Phenomena in Tetraphilic Liquid Crystals” beschreiben die Wissenschaftler rund um Tschierske jetzt, wie sich spezifisch entwickelte „tetraphile“ Moleküle zu hochkomplexen flüssigkristallinen Strukturen spontan selbstorganisieren können.
Alle für die Strukturbildung notwendigen Informationen müssen detailliert in der molekularen Struktur festgeschrieben sein. Dies wird erreicht durch eine gezielte Kombination von in diesem Fall vier (daher ,tetraphil’) verschiedenen miteinander unverträglichen und sich daher gegenseitig abstoßenden Molekülteilen mit anderen, sich gegenseitig anziehenden Teilen. „So wird die abstoßende Wirkung aufgehoben und es können sich komplexere Strukturen bilden. Derartige Moleküle können sich in Waben organisieren, die von der Struktur her Bienenwaben ähnlich sind“, erläutert Prof. Dr. Carsten Tschierske von der MLU. „Während die allgemein bekannten Bienenwaben alle die gleiche sechseckige Form aufweisen und mit identischem Inhalt, dem Honig, gefüllt sind, bestehen die molekularen Wabenstrukturen jedoch aus periodischen Gittern von Einzelwaben unterschiedlicher Form, sind etwa dreieckig, viereckig oder sechseckig, und haben einen Durchmesser von nur wenigen Nanometern.“ Diese „Nanowaben“ sind zudem unterschiedlich gefüllt. Und: die Waben sind nicht fest wie die Bienenwaben, sondern stellen flüssige dynamische Strukturen dar.
Diese Fließeigenschaft ist entscheidend für einen zweiten Aspekt dieser Arbeit. Dieser zeigt, dass sich bei höheren Temperaturen die Inhalte verschiedener Waben vermischen können. Das verringert die Komplexität, da nun alle Waben wieder die gleichen Inhalte haben können. Die Wissenschaftler konnten nachweisen, dass der Übergang zwischen Strukturen niedriger und höherer Komplexität kontinuierlich ist. Damit ermöglichen diese Arbeiten ein generelles fachübergreifendes Verständnis der Ausbildung von Komplexität in selbstorganisierten Strukturen chemischer Systeme.
Gedanken über mögliche Anwendungen für die neue, soeben in „Science" publizierte Erkenntnis hält Tschierske zwar für spekulativ: „Wir betreiben Grundlagenforschung, bauen neue Moleküle, um zu sehen: Wie organisieren sie sich?", beschreibt der hallesche Forscher die Arbeit seines Teams. Einige Beispiele kann er aber dennoch nennen: „Holographische Informationsspeicherung, ‚Nanolithographie’ und die Strukturierung organischer elektronischer Materialien in organischen Solarzellen und Transistoren.“

„Science“-Veröffentlichung
“Complex Multicolor Tilings and Critical Phenomena in Tetraphilic Liquid Crystals”, Science Vol. 331 (2001), Seite 1302 ff.

Autoren: Xiangbing Zeng, Robert Kieffer, Benjamin Glettner, Constance Nürnberger, Feng Liu, Karsten Pelz, Marko Prehm, Ute Baumeister, Harald Hahn, Heinrich Lang, Gillian A. Gehring, Christa H. M. Weber, Jamie K. Hobbs, Carsten Tschierske, Goran Ungar

Der Link zum Artikel: http://www.sciencemag.org/content/331/6022/1302.full.pdf

via Informationsdienst Wissenschaft

Donnerstag, 10. März 2011

Harte Kristall-Nuss geknackt

Korrekte Vorhersage aller drei bekannten Kristallstrukturen eines Sulfonimids
Es kommt nicht nur darauf an, aus welchen Molekülen ein Stoff besteht, sondern auch wie diese räumlich angeordnet sind. Für viele organische Molekülkristalle sind unterschiedliche Kristallstrukturen bekannt, die sich in ihren physikalischen Eigenschaften deutlich unterscheiden können. So kann beispielsweise ein Arzneistoff in einer bestimmten Kristallform wirksam sein, in einer anderen viel weiniger wirksam, weil diese sich nicht rasch genug auflöst. Bis vor kurzem ließen sich Kristallstrukturen durch Computersimulationen nicht zuverlässig voraussagen. Frank Leusen und seine Kollegen an der University of Bradford (Großbritannien) machen jetzt entscheidende Fortschritte an dieser Front: Wie die Wissenschaftler in der Zeitschrift Angewandte Chemie berichten, gelang ihnen mit einem quantenmechanischen Ansatz die Vorhersage der drei bekannten Kristallstrukturen eines Sulfonimids.

Bereits geringe Unterschiede in den Herstellungsbedingungen, etwa Schwankungen bei Druck oder Temperatur, können ausreichen, dass Feinchemikalien wie Pharmaprodukte, Pigmente, Explosivstoffe oder Agrochemikalien in einer anderen Form kristallisieren. Das kann zu Schwierigkeiten im Produktionsprozess oder zu ungünstigen Produkteigenschaften führen. Entsprechend wichtig ist es, die verschiedenen möglichen Kristallstrukturen zu kennen.

Wissenschaftler setzen Computerchemie-Methoden ein, um Informationen über Molekülstrukturen und Kristallisationsprozesse zu gewinnen. Alle Einflussgrößen zu berücksichtigen, würde die derzeitigen Rechenkapazitäten jedoch sprengen. „Genaue, verlässliche Vorhersagen von Kristallstrukturen organischer Moleküle sind bisher noch so etwas wie der Heilige Gral der Kristallographie“, sagt Leusen.

In einem internationalen Projekt werden regelmäßig Blindstudien veranstaltet, bei denen Arbeitsgruppen Kristallstrukturen vorhersagen sollen. 2007 waren Leusen und zwei Kollegen in der Lage, erstmals die Kristallstrukturen aller vier Testverbindungen mit einem quantenmechanischen Ansatzes korrekt vorherzusagen. Nun nahm sich ein Team um Leusen eine weitere Testverbindung, ein Sulfonimid, vor, deren Kristallstruktur in der Blindstudie von 2001 von keinem einzigen der teilnehmenden Teams vorhergesagt werden konnte. Interessanterweise wurden nach der Studie noch zwei weitere, bislang unbekannte Kristallstrukturen dieses Sulfonimids entdeckt. „Mit dem Berechnungsverfahren von Marcus Neumann (Avant-Garde Materials Simulation, Freiburg) gelang es uns nun, alle drei Kristallstrukturen korrekt vorherzusagen“, so Leusen.

„Auch wenn es derzeit noch nicht möglich ist, den Ausgang eines spezifischen Kristallisationsexperiments unter bestimmten Randbedingungen vorherzusagen“, führt Leusen aus, „so zeigen unsere Ergebnisse doch, dass genaue Berechnungen der Gitterenergie ausreichen, um die Kristallisationsthermodynamik zu modellieren und so die verschiedenen Kristallstrukturen niedermolekularer organischer Moleküle vorherzusagen.“

via Informationsdienst Wissenschaft
Research Blogging Awards 2010 Winner!
 
Creative Commons License
Amphibol Weblog von Gunnar Ries steht unter einer Creative Commons Namensnennung-Keine kommerzielle Nutzung-Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.