Donnerstag, 28. April 2011

SPINSTARS: die erste Sterngeneration des Universums?

Fingerabdruck schnell rotierender, schwerer Sterne aus der Frühphase unserer Milchstraße nachgewiesen.
Aus der Untersuchung der chemischen Zusammensetzung der ältesten Sterne unserer Milchstraße, hat ein internationales Team von Astronomen um Cristina Chiappini vom Leibniz-Institut für Astrophysik Potsdam (AIP) und dem Instituto Nazionale di Astrofisica (INAF) neue Erkenntnisse über die Natur der ersten Sterngenerationen unseres Universums abgeleitet.

„Wir glauben, dass die schwerer Sterne der ersten Generationen sich sehr schnell um sich selbst gedreht haben – wir nennen sie daher SPINSTARS (engl.: „sich drehende Sterne“)”, erklärt Chiappini. Die Ergebnisse ihrer Forschungen werden am 28. April 2011 in Nature publiziert.

Das Leben massereicher Sterne ist heftig und kurz. Daher sind die ersten Generationen schwerer Sterne im Universum bereits vergangen. Allerdings lassen sich ihre chemischen Hinterlassenschaften wie ein Fingerabdruck auch heute noch in den ältesten Sternen unserer Milchstraße nachweisen. Diese fossilen Überreste geben Zeugnis über die Eigenschaften der ersten, inzwischen vergangenen, Sterngenerationen die unser Universum bei ihrem Tod mit neuen chemischen Elementen angereichert haben. „Es ist als wollten wir die Persönlichkeit des Kochs aus dem Geschmack seiner Gerichte erschließen“, illustriert Prof. Georges Meynet von der Universität Genf die Herangehensweise der Forscher.

Wie sahen diese ersten Sterne aus? Waren sie anders als Sterne, die wir heute beobachten?
Kurz nach dem Urknall war die Zusammensetzung des Universums sehr viel einfacher als heute: es bestand in erster Linie aus Wasserstoff und Helium. Die chemische Anreicherung des Universums mit weiteren Elementen ließ noch etwa 300 Millionen Jahre, bis zum Tod der ersten Generationen massereicher Sterne, auf sich warten. Diese Sterne hatten zwischenzeitlich in ihrem Inneren neue chemische Elemente produziert, mit denen sie nun das Ur-Gas „verschmutzten“ aus dem dann die nächste Generation von Sternen entstand.

Für ihr Forschungsprojekt analysierten die Astronomen Spektren sehr alter Sterne unserer Milchstraße aus Beobachtungsdaten mit dem Very Large Telescope (VLT) der ESO. Diese Sterne sind so alt, dass nur sehr massereiche, kurzlebige Sterne mit mehr als der etwa 10-fachen Masse der Sonne zuvor genug Zeit hatten zu sterben und das Gas, aus dem sich die Sterne formten, zu verschmutzen. Wie erwartet zeigte die Auswertung der Beobachtungsdaten typische Elemente für solch eine Anreicherung des Gases durch massereiche Sterne. Allerdings entdeckten die Forscher unerwartet auch solche Elemente, von denen man normalerweise annimmt, dass sie nur in Sternen niedrigerer Masse produziert werden. Falls die massereichen Sterne sehr schnell rotierten, könnten sie allerdings auch selbst für die Produktion solcher Elemente verantwortlich sein.

„Noch können wir alternative Szenarien nicht ausschließen, so Cristina Chiappini, „aber wir zeigen dass SPINSTARS als erste Generation massereicher Sterne im Universum eine sehr elegante Lösung dieses Rätsels sind!“. Teammitglied Urs Frischknecht, ein Doktorand an der Universität Basel, arbeitet bereits daran, die numerischen Simulationen der Sterne zu erweitern, um das vorgeschlagene Szenario weiter zu testen.

Eine frühe Generation von SPINSTARS im Universum hätte eine Vielzahl von Konsequenzen. Die Eigendrehung eines Sterns beeinflusst auch seine weiteren Eigenschaften, wie seine Farbe, seine Lebensdauer und seine Leuchtkraft, stark. Somit wären auch die Eigenschaften und die Erscheinung der ersten Galaxien des Universums durch SPINSTARS verändert. Die Hypothese der Existenz von SPINSTARS wurde kürzlich auch durch hydrodynamische Simulationen zur Entstehung der ersten Sterne des Universums durch eine unabhängige Forschergruppe unterstützt.

Weitere Informationen:
- Originalpublikation: Chiappini et al., Imprints of fast-rotating massive stars in the Galactic Bulge, zur Veröffentlichung in Nature, 2011. (DOI: 10.1038/nature10000, publication date: April 28, 2011)
via Informationsdienst Wissenschaft

Unregelmäßigkeiten in der Sonnenaktivität

Ein Spektrometer auf der Internationalen Raumstation ISS misst die Sonnenaktivität mit großer Genauigkeit und lieferte bereits unerwartete Ergebnisse. Künftig sollen diese in einer Datenbank öffentlich zugänglich gemacht werden: Klimaforscher können mit den Daten untersuchen, wie stark die Sonnenaktivität das Erdklima beeinflusst.
Bisher schwankte die Sonnenaktivität zyklisch: Alle elf Jahre erreichte sie ein Minimum, alle elf Jahre strahlte die Sonne mit maximaler Intensität. Beim letzten Minimum im August 2008 brauchten die Forscher allerdings Geduld: Die Aktivität des Himmelskörpers stieg nicht wie erwartet an, sondern verringerte sich weiter – völlig unerwartet brach die Sonne aus ihrem sonst so verlässlichen Rhythmus. Erst ein Jahr später im September 2009 begann ihre Aktivität wieder leicht anzusteigen. In wie weit beeinflussen die Schwankungen der Sonnenintensität und diese Verschiebung des Sonnenzyklus das Erdklima?

Diese Frage zu klären hilft ein Sonnenspektrometer, das Forscher am Fraunhofer-Institut für Physikalische Messtechnik IPM in Freiburg entwickelt haben – aus einem Guss von der Elektronik über die Optik bis hin zur Mechanik. Das Spektrometer ermittelte auch die Daten, die die Verschiebung des Sonnenzyklus belegen. Es befindet sich an der Internationalen Raumstation ISS, finanziert wurde es über die Europäische Raumfahrtbehörde ESA und vom Deutschen Zentrum für Luft- und Raumfahrt DLR. »Mit dem Spektrometer messen wir die extreme Ultraviolett-Strahlung, kurz EUV, mit Wellenlängen von 17 bis 220 Nanometern«, sagt Dr. Raimund Brunner, Projektleiter am IPM.

Das Besondere dabei: Die Wissenschaftler können mit dem Spektrometer nicht nur über einen längeren Beobachtungszeitraum als bei bisherigen Missionen üblich die Aktivität der Sonne messen, sondern auch viel präziser. Möglich machen das zwei Ionisationskammern im Spektrometer, die mit Edelgas gefüllt sind. Trifft EUV-Strahlung auf das Edelgas, löst sie Elektronen aus dem Gas heraus – es fließt elektrischer Strom. Dieser Strom ist proportional zur Stärke der Sonneneinstrahlung und dient den Forschern als Grundlage, um das Spektrometer zu kalibrieren und genaue quantitative Aussagen zu machen – und schlussendlich etwas über die Sonnenaktivität zu erfahren. »Wir erzielen Messwerte mit Fehlern, die unter zehn Prozent liegen, was weitaus besser ist als bei bisherigen Ergebnissen«, betont Dr. Gerhard Schmidtke, wissenschaftlicher Leiter des Projektes.

Die Ergebnisse aus diesem sowie aus zwei ergänzenden Experimenten auf der Raumstation sollen Klimaforschern künftig dabei helfen herauszufinden, in wie weit die Schwankungen der Sonnenintensität das Klima unserer Atmosphäre beeinflussen: Wie viel des Treibhauseffekts ist hausgemacht? Wie viel davon ist auf die Änderung der Sonnenstrahlung zurückzuführen? Die Messdaten verraten insbesondere vieles über die Bedingungen in der Iono- und Thermosphäre, die ab einer Höhe von 80 Kilometern über der Erdoberfläche beginnen. Die EUV-Strahlung steuert die Temperatur und die Teilchendichten der Ionosphäre. Das hat Folgen: Ändert sich die Intensität der Einstrahlung, beeinflusst das sowohl die Bahn von Satelliten als auch die Funkverbindung der Satelliten untereinander und zur Erde. So muss beispielsweise für zentimetergenaue GPS-Daten die Zusammensetzung der Ionosphäre bekannt sein. Künftig sollen die gewonnenen Daten in einer Datenbank im Internet gespeichert werden, um sie öffentlich zugänglich zu machen.

Was der Grund dafür ist, dass die Sonne erstmals seit der Dokumentation der Sonnenaktivität aus ihrem elfjährigen Rhythmus ausgebrochen ist, können die Forscher noch nicht mit Sicherheit sagen. Sie vermuten, dass es neben dem bisher bekannten Sonnenzyklus noch einen weiteren gibt, den Gleissberg-Zyklus, der eine sehr viel größere Zeitspanne hat – vermutlich 75 bis 100 Jahre – und den elfjährigen Zyklus überlagert.

Die Missionszeit des Spektrometers mit der Bezeichnung SolACES, die anfangs nur für eineinhalb Jahre geplant war und nun bereits drei Jahre beträgt, wurde kürzlich von der ESA um weitere drei Jahre verlängert. »So können wir auch das Maximum der Sonnenintensität im Jahre 2013 mit untersuchen«, freut sich der Wissenschaftler.

via Informationsdienst Wissenschaft

Mittwoch, 27. April 2011

Seeringelwürmer

Diese beiden Seeringelwürmer habe ich an Ostern in St. Peter Ording in flagranti erwischt.

Dienstag, 26. April 2011

Land motion caused by the 2011 Tohoku Japan earthquake

Fukushima's nuclear emergency - by Nature Video

Krustenrecycling im Erdinneren – Marine Detektive wurden fündig –

Was sich tief unter dem Meeresboden abspielt, ist dem Menschen immer noch weitestgehend verborgen. An den Grenzen der auf dem zähflüssigen Erdmantel schwimmenden Erdkrustenplatten wird ständig Material produziert und vernichtet, was mit Vulkanismus und Erdbeben oft erhebliche Naturgefahren nach sich ziehen kann. Wissenschaftler des Deutschen Geoforschungszentrums Potsdam und des Kieler Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) sind durch die Analyse submariner Vulkangesteine einen wichtigen Schritt zum Verständnis der Umwandlungsprozesse im oberen Erdmantel weitergekommen. Die Studie erschien vorab in der Onlineausgabe der internationalen Fachzeitschrift Nature Geoscience.
Die Theorie der Plattentektonik nach Alfred Wegener ist gerade erst 100 Jahre alt, auf geologischer Zeitskala nicht einmal ein Wimpernschlag. Der deutsche Geowissenschaftler postulierte im Jahr 1915 erstmals, dass die obere Erdkruste in Platten aufgeteilt ist, die sich auf dem zähflüssigen Erdmantel bewegen. Dabei verändert sich die Oberfläche unseres Planeten ständig, an mittelozeanischen Rücken entsteht durch Aufsteigen von Magma neuer Meeresboden, während er in den Tiefseegräben wieder in den Erdmantel gedrückt, aufgeschmolzen und recycelt wird. Diese Prozesse führen an den Plattengrenzen oft zu verheerenden Vulkanausbrüchen oder Erdbeben wie zuletzt in Japan.
Wie der Recyclingprozess der Erdplatten, der bereits seit mehreren Milliarden Jahren andauert, genau funktioniert ist weitgehend unbekannt, da keine direkte Messungen im Erdmantel durchgeführt werden können. Dennoch ist es Wissenschaftlern aus Potsdam und Kiel jetzt gelungen, ein weiteres Mosaiksteinchen in diesem Puzzle zu entschlüsseln.
Geologen des Deutschen Geoforschungszentrums (GFZ) in Potsdam und des Kieler Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) untersuchten Proben aus dem Südostpazifik, wo es in großer Entfernung von einem Plattenrand sogenannten „Hotspot“-Vulkanismus mit einer großen Zahl von Unterwasservulkanen gibt. Dort steigt heißes Magma aus dem Erdinneren auf, stößt durch die dünne ozeanische Platte und bildet Vulkane. Die Wissenschaftler konnten nun in den Proben solcher Unterwasservulkane chemische Spuren vulkanischen Materials identifizieren, das dieselbe Signatur aufweist wie das, was an aktiven Plattenrändern zu finden ist. „Dadurch können wir nachweisen, dass es einen Zusammenhang zwischen dem an den mittelozeanischen Rücken aufsteigenden Magma und dem an Hotspots vorkommenden Material gibt“, erläutert Prof. Dr. Colin Devey, Co-Autor der Studie vom IFM-GEOMAR. „Die Konvektionsströme im oberen Erdmantel, die das Material bewegen, hängen also offensichtlich zusammen“, so Devey weiter.
Auf die Spur dieser Zusammenhänge sind der Kieler Geologe Prof. Devey und die Geochemikerin Dr. Nicole Stroncik vom GFZ in Potsdam (jetzt Texas A&M, USA) durch aufwändige chemische Analysen gekommen, die in Potsdam und Kiel durchgeführt wurden. Dabei gelang es zum ersten Mal neben chemischen Spuren von Sedimenten und Laven einer ehemaligen Ozeankruste auch das recycelte Tiefengestein Gabbro nachzuweisen, dem eine Schlüsselstellung in der Beweiskette zukommt.
„Die Ergebnisse helfen uns, die Fliessrichtungen und -prozesse im Erdmantel besser zu verstehen, die Rückschlüsse auf die Dynamik der Erdplattenbewegungen zulassen“, so Prof. Devey. „Wir führen hier einen langwierigen Indizienbeweis, da wir keinen direkten Einblick in diese Region unseres Planeten bekommen können und die Prozesse sehr langsam ablaufen. Da ist noch Raum für viele Forschergenerationen, weitere Mosaiksteine zu sammeln“, resümiert Devey.

Originalarbeit:
Stroncik, N.A., and C.W. Devey, 2011: Recycled gabbro signature in hotspot magmas unveiled by plume–ridge interactions. Nature Geoscience, DOI: 10.1038/NGEO1121.
via Informationsdienst Wissenschaft

Sonne, Wind und Wellen - natürliche Grenzen erneuerbarer Energien

Am Max-Planck-Institut für Biogeochemie in Jena wurden erstmals mit Hilfe der Thermodynamik die natürlichen Grenzen erneuerbarer Energien und die möglichen Klimaauswirkungen bei deren Nutzung untersucht. Die Analysen legen nahe, dass die Energie aus Wind und Wellen nur begrenzt verfügbar sein könnte und eine großflächige Nutzung dieser Energiequellen möglicherweise negativ auf deren Erzeugung durch das Klimasystem zurück wirkt. Auf Sonnenenergie basierende Energieumwandlungen könnten hingegen den zunehmenden menschlichen Energiebedarf auf der Erde langfristig und klimafreundlich abdecken.
Die Energieversorgung stellt eine der größten Herausforderungen für die Zukunft unserer Zivilisation dar. Während die klimaschonende Atomenergie ein Restrisiko ihrer Sicherheit erneut bestätigt, trägt die Verbrennung fossiler Brennstoffe unweigerlich zum Klimawandel bei. Alternative Energien aus natürlichen Quellen, wie Sonnen-, Wind – und Wellenenergie, sind hingegen risikoarm und werden als erneuerbar und klimafreundlich angesehen. Beide Aspekte, die Erneuerbarkeit und die Klimaverträglichkeit, wurden nun erstmals unter thermodynamischer Betrachtung des gesamten Erdsystems von Forschern des Max-Planck-Instituts für Biogeochemie in Jena genauer untersucht.

Dr. Axel Kleidon, Leiter der unabhängigen Max-Planck-Forschungsgruppe „Biosphärische Theorie und Modellierung“, beruft sich auf die anerkannten Gesetze der Thermodynamik, einer etablierten physikalischen Theorie, um zwischen Wärmeenergie und sogenannter “Freier Energie” zu unterscheiden. „Nur die Freie Energie ist relevant für die Nutzung erneuerbarer Energien“, so Kleidon. Sie bezieht sich auf jenen Anteil einer Energieform, der genutzt werden kann, um physikalische Arbeit zu verrichten, wie zum Beispiel das Hochheben oder Beschleunigen einer Masse, aber auch für die Energieproduktion für die Menschheit. Die natürlichen Grenzen für die Erzeugung von Freier Energie aus natürlichen Quellen auf der Erde wurden bisher kaum beachtet und in der aktuellen Forschung zum Klimawandel und Erneuerbaren Energien stark vernachlässigt. Kleidon und seine Gruppe konnten berechnen, dass die Fähigkeit des Erdsystems, unterschiedliche Formen Freier Energie zu erzeugen, auf ungefähr 1.000 Terawatt begrenzt ist (1 Terawatt entspricht 1012 Watt und ist eine Einheit für den Energieverbrauch). „Nur etwa 0,6 Prozent der immensen Energiemenge von etwa 160.000 Terawatt Sonnenenergie, die als Strahlung die Erde erreicht, kann also als Freie Energie genutzt werden“, bestätigt Kleidon die geringe Effizienz der Umwandlung von Sonnenstrahlung in Freie Energie. Vom Menschen werden derzeit nur maximal 50 Terawatt Freier Energie verbraucht.

Diese thermodynamische Sichtweise für die Nutzung erneuerbarer Energien beinhaltet auch, dass verschiedene Arten erneuerbarer Energien unterschiedlich stark begrenzt sind. Wellen werden im Wesentlichen durch Wind erzeugt; Wind entsteht indirekt durch Wärmegradienten und somit letztlich aus der Sonnenenergie. Durch die schlechte Energieumwandlung der Sonnenenergie und wegen ihrer Abhängigkeiten vom Klimasystem sind die erneuerbaren Energiequellen Wind und Wellen daher nur in begrenzter Stärke produzierbar. Ein deutlich erhöhter Verbrauch dieser Energieformen, im Rechenbeispiel durch eine 1000fache Aufstockung heute existierender Anlagen, könnte nicht aufgefüllt werden und in der Folge sogar zu Rückkopplungen mit dem Klimasystem der Erde führen. Der Verbrauch der begrenzten Wind- und Wellenenergie würde dann über das Klimasystem die Regeneration dieser Energieformen zusätzlich drosseln.

Deutlich besser sieht es bei der Nutzung von Solarenergie aus. Die pflanzliche Photosynthese oder auch Solarkraftwerke können das Sonnenlicht direkt nutzen, um Freie Energie zu produzieren. Trifft die Sonnenstrahlung hingegen ungehindert auf die Erde und erwärmt lediglich den Boden, so ist die Freie Energie der Sonnenergie größtenteils verschwendet. „Damit erhöhen die Photosynthese und Solarzellen die Gewinnung Freier Energie innerhalb des Erdsystems“, erläutert Kleidon. Entscheidend hierbei: nur etwa 5 % der als Freien Energie nutzbaren Sonnenenergie wird bisher vom Mensch verbraucht, es gibt also noch viel Spielraum, diese Energiequelle stärker zu nutzen. 
 via Informationsdienst Wissenschaft

Donnerstag, 21. April 2011

Frohe Ostern!

Zu Ostern: Wenn Chemiker auf Ostereier treffen



via Laborjournal

Bodenverflüssigung nach Tohoku Erdbeben, Japan

Auch bei dem verheerenden Erdbeben am 11. März 2011 hat das Phänomen der Bodenverflüssigung einen großen Teil zu den Schäden beigetragen. Diese sekundären Effekte sollte man also durchaus auf der Rechnung haben, wenn man Gebäude oder technische Anlagen in Erdbebengebieten errichten will. Das sind für mich eine der Lehren aus dem Erdbeben in Japan.

Drohne filmt Schäden an den Reaktoren in Fukushima

Da es für Menschen aufgrund der Strahlung zu riskant ist, die havarierten Reaktoren in Fukushima zu dokumentieren, haben diesen Part Drohnen übernommen. Die Explosionen haben wirklich eindrucksvolle Schäden hinterlassen. Das sieht in meinen Augen nicht wirklich gut aus.





Vor einem Jahr - Deepwater Horizon

Vor einem Jahr, am 20. April 2010 explodierte im Golf von Mexiko die Ölplattform Deepwater Horizon. In dieser Animation sind verschiedene Aufnahmen des Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord des Aqua-Satelliten zusammengefasst.

Mittwoch, 20. April 2011

Europäische Impfwoche beginnt

Europäische Impfwoche beginnt

„Impfungen schützen vor Infektionskrankheiten und zählen zu den effektivsten und kostengünstigsten Präventivmaßnahmen der modernen Medizin“ - daran erinnert Dr. Philipp Rösler, Bundesminister für Gesundheit, anlässlich der Europäischen Impfwoche, die am 23. April 2011 beginnt.

Das Bundesgesundheitsministerium hat durch zwei neue Regelungen die Rahmenbedingungen für Impfungen kürzlich weiter erleichtert. So wurde (im Gesetz zur Neuordnung des Arzneimittelmarktes in der gesetzlichen Krankenversicherung) geregelt, dass Impfstoffe erheblich preisgünstiger werden. Gesetzliche und private Krankenversicherungen zahlen seit Januar 2011 keine höheren Impfstoffpreise mehr als der Durchschnittspreis in den vier Nachbarländern mit den nächstfolgenden Bruttonationaleinkommen. Das Nähere muss der Spitzenverband Bund der Krankenkassen regeln. Zudem können einzelne Krankenkassen ihre Impfstoffe auch ausschreiben. Außerdem werden Impfvereinbarungen der Krankenkassen mit Ärzten über die Durchführung von Impfungen schiedsfähig, so dass solche Verträge nun herbeigeführt und nicht mehr blockiert werden können. Das ermöglicht es auch dem Öffentlichen Gesundheitsdienst, den Impfschutz in Kindergärten, Schulen, an Arbeitsstätten und in Heimen in Kooperation mit den Krankenkassen neu zu organisieren.

Die Impfquoten bei Schulanfängern sind in den vergangenen Jahren kontinuierlich gestiegen oder auf hohem Niveau nahezu konstant geblieben, die neuen Daten für das Jahr 2009 werden in Kürze im Epidemiologischen Bulletin veröffentlicht. Allerdings gibt es noch immer Lücken, unter anderem bei der zweiten Masern-Schutzimpfung. Die Zahl der Masernerkrankungen hat zuletzt wieder zugenommen. Sie stieg von 571 Fällen in 2009 auf 780 in 2010 und auch im laufenden Jahr wurden dem RKI bereits über 230 Fälle übermittelt. Dieser Trend unterstreicht die Bedeutung der Impfung, nicht nur für Kleinkinder, sondern (wie von der Impfkommission 2010 empfohlen) auch für Erwachsene, die nach 1970 geboren wurden. Polioausbrüche in den seit Jahren poliofreien Staaten Tadschikistan (WHO-Region Europa) und Kongo erinnern an das Risiko nicht geimpfter Bevölkerungsgruppen, an Polio zu erkranken. Sie verdeutlichen auch den Stellenwert einer kontinuierlichen Analyse der Poliosituation (Surveillance). Das BMG hat die Aufgaben der nationalen Polio-Surveillance dem RKI übertragen, die Nationale Kommission für die Polioeradikation neu konstituiert und am RKI eine Geschäftsstelle der Kommission angesiedelt. Am 28. März 2011 trat die Kommission zu ihrer konstituierenden Sitzung zusammen.

„Für die Förderung der Impfbereitschaft sind auch verstärkte Kommunikationsaktivitäten notwendig, die an den Zielgruppen ausgerichtet sind und aus Akzeptanzgründen industrieunabhängig sein sollten“, betont Prof. Dr. Reinhard Burger, Präsident des Robert Koch-Instituts. Eine wichtige Zielgruppe ist die Fachöffentlichkeit. Das RKI veranstaltet daher zur Impfwoche einen Expertenworkshop „Fachkräfte in der Impfprävention - Herausforderungen in einem komplexen Kommunikationsumfeld“.

„Ein vollständiger Impfschutz ist der beste Weg, um sich und andere vor einer Vielzahl von Infektionskrankheiten zu schützen. Schutzimpfungen sind ein wichtiger Baustein der gesundheitlichen Vorsorge – und das in jedem Lebensalter“, erklärt Prof. Dr. Elisabeth Pott, Direktorin der Bundeszentrale für gesundheitliche Aufklärung (BZgA). „Deshalb sollte nach der Grundimmunisierung im Kindesalter der Impfschutz regelmäßig überprüft und ergänzt werden.“ Ausführliche Informationen zu Impfempfehlungen und Hintergrundwissen für die Bevölkerung bietet die BZgA mit ihrem Internetangebot www.impfen-info.de. Außerdem hat die BZgA ein breites Informationsangebot rund um das Thema Impfen entwickelt, das auch in verschiedenen Sprachen vorliegt und kostenfrei unter www.bzga.de bezogen werden kann.
via Informationsdienst Wissenschaft

Dienstag, 19. April 2011

Sediment 2011 - New Abstract Deadline!

The next Central European conference of sedimentology “Sediment 2011” will be held in Leipzig, Germany, June 23-26.
 New abstract deadline: April 30th, 2011
 
Details for registrations and abstract submissions: http://www.geo.uni-leipzig.de/Sediment2011/home.html
 

For details of the technical sessions, short courses and field trips: http://www.geo.uni-leipzig.de/Sediment2011/home.html
 
The organizers encourage submission of abstracts in all fields of sedimentary geology. The meeting aims at bringing together young researchers and established scientists from industry and academia in order to stimulate and promote European education and research in sedimentology. The best poster presentations (students only) will be awarded a prize.
 
Student GV members may apply for travel grants (€ 75). Please contact R. Spitzlei ( info(at)g-v.de This e-mail address is being protected from spam bots, you need JavaScript enabled to view it ).

We are looking forward to seeing you in Leipzig!
 
With kind regards
GEOLOGISCHE VEREINIGUNG e.V.

Energiepflanzen sind unterschiedlich klimafreundlich

In Sachen Bioenergie kann Deutschland noch viel von seinen Nachbarn lernen. Das wurde jetzt auf einer europäischen Forschertagung in Braunschweig deutlich, die vom Johann Heinrich von Thünen-Institut (vTI) ausgerichtet wurde. Eine besonders klimaverträgliche Nutzung von Energiepflanzen machen uns die britischen, skandinavischen und baltischen Staaten vor. Welchen Beitrag kann die Landwirtschaft zum Klimaschutz in Europa leisten? Mit dieser Frage befassten sich mehr als 100 Wissenschaftler bei der Jahrestagung des europäischen Forschungprojekts „GHG-Europe – Treibhausgas-Management in europäischen Landnutzungssystemen“. Das Johann Heinrich von Thünen-Institut (vTI) in Braunschweig koordiniert das Projekt und richtete die Tagung aus.

Im Rahmen des GHG-Europe-Projekts haben Wissenschaftler erstmals die Treibhausgasbilanzen beim Anbau unterschiedlicher Bioenergiepflanzen aus ganz Europa ermittelt. Bereits mit kurzen Messreihen konnten sie aussagekräftige Ergebnisse ableiten, da sich an vielen verschiedenen Standorten die gleichen Trends zeigten.

Bioenergie wird aus pflanzlicher Biomasse gewonnen, zum Beispiel aus Holz und Ackerfrüchten, aber auch aus Reststoffen der landwirtschaftlichen Produktion wie Gülle. In Deutschland werden aus landwirtschaftlicher Biomasse hauptsächlich Biokraftstoffe (E10 oder Biodiesel) und Biogas hergestellt. Die „Bioenergie-Platzhirsche“ auf deutschen Äckern sind Raps und Mais, alternative Energiepflanzen wie Chinagras oder Pappeln haben in Deutschland bisher kaum Fuß fassen können. Landläufig gilt Bioenergie als CO2-neutral, doch das ist bei näherem Hinsehen nicht ganz richtig. Bei der Produktion können erhebliche Mengen Treibhausgase entstehen. Daher steht die Frage im Raum: Welche Bioenergiepflanzen sind am effektivsten für den Klimaschutz?

Die auf der Tagung in Braunschweig präsentierten Messdaten bekräftigten, was seit Jahrzehnten von Fachkreisen gemahnt wird: Herkömmliche Bioenergieträger wie Biodiesel, Bioethanol und Biogas aus Mais und Raps sind erheblich energie- und nährstoffhungriger als schnellwüchsige mehrjährige Gräser und Gehölze. Dies liegt unter anderem am hohen Stickstoffbedarf von Mais und Raps; die Herstellung von Stickstoffdüngern ist ein energieaufwändiger Prozess. Auch setzen die Ackerböden nach der Düngung Lachgas frei – ein Gas, fast 300-mal so klimaschädlich wie Kohlendioxid. Damit wird ein Teil des positiven Effekts von herkömmlicher Bioenergie wieder zunichte gemacht. Mehrjährige Gräser und Hölzer hingegen können im Winter geerntet werden, wenn die meisten Nährstoffe in den Pflanzenwurzeln gespeichert sind und im nächsten Jahr wieder für das Wachstum zur Verfügung stehen. Pappelplantagen, so zeigten die Wissenschaftler, emittierten 40 bis 99 Prozent weniger Lachgas als Mais- oder Rapsfelder – bei vergleichbaren Energieerträgen. Darüber hinaus konnte unter Weiden und Pappeln ein deutlicher Humusaufbau über mehrere Jahre festgestellt werden. Diese Kohlenstoff-Festlegung (Sequestrierung) im Boden trägt zusätzlich zum Klimaschutz bei.

Mehrjährige Gräser und Bäume eignen sich für nasse und nährstoffarme Flächen und für eine klimafreundliche Form der Moornutzung, dort wo bisher Maisäcker für Biogas den Klimawandel anheizen.

Schnellwüchsige Pflanzen wie Miscanthus (Chinaschilf), Rohrglanzgras und Weiden werden bereits auf mehreren zehntausenden Hektar Fläche auf den britischen Inseln, in Skandinavien und den baltischen Staaten kommerziell angebaut und in Kraftwerken zur Wärme- und Stromproduktion beigemischt. Dr. Axel Don vom vTI-Institut für Agrarrelevante Klimaforschung, Koordinator des GHG-Europe-Projekts, betont: „Während die aus Sicht des Klimaschutzes effizientesten mehrjährigen Energiepflanzen in Deutschland noch erforscht werden, sind sie in vielen Nachbarländern längst praxisreif und Nummer eins der Bioenergieproduktion. Die deutsche Bioenergieförderung hat die effizientesten Klimaschutzwege bisher vernachlässigt.“

Weitere Informationen zum GHG-Europe-Projekt finden sich im Internet unter:
http://www.ghg-europe.eu (in englisch).
via Informationsdienst Wissenschaft

Montag, 18. April 2011

Riesensaurier in New York - Ausstellung entstand mit wissenschaftlicher Unterstützung aus Bonn

Der Argentinosaurus gilt mit 90 Tonnen als das größte Lebewesen, das jemals auf der Erde gelebt hat. Er und einige seiner etwas kleineren Verwandten sind Gegenstand der Ausstellung „The World’s Largest Dinosaurs“, die nun im American Museum of Natural History in New York eröffnet wurde und dort bis Anfang 2012 zu sehen ist. Den wissenschaftlichen Hintergrund der Ausstellung lieferten Wissenschaftler der Forschergruppe „Biology of the Sauropod Dinosaurs. The Evolution of Gigantism“ der Universität Bonn.
Unter der Leitung von Professor Dr. Martin Sander beschäftigt sich die Forschergruppe seit 2004 interdisziplinär mit der Biologie der Riesenechsen. Die Deutsche Forschungsgemeinschaft (DFG) fördert diese Forschungen über neun Jahre mit gut 5 Millionen Euro. Die Bonner Forscher interessiert unter anderem, wie sich die Saurier ernährten, wie schnell sie heranwuchsen und wie sie atmeten. Antworten geben nicht allein die gefundenen Skelette. Zwölf Arbeitsgruppen aus Paläontologie, Zoologie, Tierernährung, Geochemie und Materialwissenschaften untersuchen verschiedene Aspekte von Wachstum und Fortpflanzung, Physiologie und Biomechanik der Giganten.

Die Ausstellung in New York zeigt auf eindrucksvolle und interaktive Weise die Ergebnisse dieser wissenschaftlichen Arbeit. Besonders Kinder lernen an zahlreichen Stationen und Modellen die Biologie der Riesensaurier kennen. Die Ausstellung wird im Anschluss an die Station in New York auf eine zehnjährige weltweite Wanderung durch naturkundliche Museen gehen.

Vorteil: Blätter ergreifen nicht die Flucht

Die Ergebnisse der Bonner Wissenschaftler fanden bereits im Mai 2010 Niederschlag in einem Fachartikel in der Zeitschrift „Biological Reviews“. Im Zentrum stand dabei die Frage nach der Ernährung der riesigen Sauropoden. Professor Sander fasste jetzt in der Eröffnungspressekonferenz zur New Yorker Ausstellung die drei wichtigsten Merkmale zusammen: „Vegetarische Ernährung, ein extrem langer Hals und möglichst wenig kauen, statt dessen schlingen!“ Vegetarier seien Fleischfressern in der Energiebilanz um den Faktor zehn überlegen, denn „Gräser, Farne und Blätter ergreifen nicht die Flucht.“

Zusätzlich brauchten die Sauropoden keine großen Reißzähne, sondern starke „Rupfzähne“, die auch dem nahrhaften, aber sehr rauen Schachtelhalm gewachsen waren. Dadurch habe der Kopf klein sein können und der Hals umso länger. Dieser erreichte „wie ein Kranausleger“ größere Weideflächen, ohne dass sich der Pflanzenfresser von der Stelle bewegen musste – gut für die Energieeffizienz.
via Informationsdienst Wissenschaft

Freitag, 15. April 2011

Aufbau eines Tyrannosaurier Skeletts in Zeitraffer


Hier wird ein Tyrannosaurier Skelet in der neuen großen Dinosaurier Halle des Natural History Museums von Los Angeles aufgebaut.

Donnerstag, 14. April 2011

Remembering the Space Shuttle Program

Kinder mit Dino-Kostüm erschrecken

Auch eine Idee, Kinder für Saurier zu begeistern. So richtig erschreckt sehen die eigentlich nicht aus.

Tsunami trifft Nakatsugawa am 11. März 2011

Dieses Video zeigt, wie der Tsunami vom 11. März 2011 die Stadt Nakatsugawa trifft. Ein wirklich erschreckendes Dokument der Kraft, die ein Tsunami entfesseln kann.

Mittwoch, 13. April 2011

Kohlendioxid: Ein Treibhausgas als Rohstoff

Wie lassen sich Kohlendioxid-Emissionen nachhaltig senken? Diese Frage ist der Dreh- und Angelpunkt fast jeder Diskussion um Treibhausgase und Erderwärmung. Die bisherigen Bemühungen konzentrieren sich darauf, den Energieeinsatz bei Verkehrsmitteln und Industrieprozessen effizienter zu machen oder Kohlendioxid geologisch einzulagern – dabei lässt sich das Gas auch als Rohstoff für chemische Synthesen verwenden. Wie und für welche Produkte, lesen Sie in den „Nachrichten aus der Chemie“.
Einen Ausstoß von 21 Prozent weniger CO2 als im Jahr 1990 will Deutschland bis zum Jahr 2012 erreichen. Durch die gesteigerte Energieeffizienz von Autos, Gebäuden und Fabriken lässt sich ein großer Teil der Emissionen vermeiden; das allein reicht aber nicht aus. Zusätzlich kann Kohlendioxid beispielsweise geologisch eingelagert werden, was aber mit verschiedenen Unsicherheiten verbunden ist: Es ist weder klar, wie viel Speicherplatz zur Verfügung steht, noch wie sicher diese Methode ist.

Ein vielversprechender Ansatzpunkt ist die industrielle Nutzung von CO2. So machen seine physikalischen Eigenschaften Kohlendioxid zu einem vielseitigen Industriegas – ob als Kohlensäure für Getränke, Schutzgas für Lebensmittel, als Kühlmittel oder in Feuerlöschern. Eine größere Bedeutung hat aber die Verwendung von CO2 für die Herstellung chemischer Produkte. Nicht nur einfache Verbindungen wie Harnstoff, Methan oder Methanol sind möglich; die stoffliche Nutzung von CO2 bietet auch Zugang zu Produkten mit einer hohen Wertschöpfung wie beispielsweise Polymeren. Die Dechema-Mitarbeiter Alexis Bazzanella und Dennis Krämer und die Chemikerin Martina Peters von Bayer Technology Services geben einen Überblick über die Möglichkeiten, die CO2 als Synthesebaustein bietet, und welchen Beitrag das zum Klimaschutz leisten kann. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 80 000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten" über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte, das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen sowie der große Stellenmarkt.
via Informationsdienst Wissenschaft

Abschreckungswirkung der Todesstrafe ist nicht bewiesen

Der Einsatz der Todesstrafe lässt sich nicht mit einer angeblichen Abschreckungswirkung auf potenzielle andere Täter legitimieren. Während zahlreiche empirische Studien der Todesstrafe eine solche Wirkung zuschreiben, kommen andere Forschungsarbeiten zum gegenteiligen Schluss. Das lässt sich dadurch erklären, dass die Ergebnisse dieser Untersuchungen in erster Linie vom Forschungskontext der Wissenschaftler abhängig sind. Zu diesem Ergebnis kommt ein Projekt am Institut für Kriminologie der Universität Heidelberg.

Der Einsatz der Todesstrafe lässt sich nicht mit einer angeblichen Abschreckungswirkung auf potenzielle andere Täter legitimieren. Während zahlreiche empirische Studien der Todesstrafe eine solche Wirkung zuschreiben, kommen andere Forschungsarbeiten zum gegenteiligen Schluss. Das lässt sich dadurch erklären, dass die Ergebnisse dieser Untersuchungen in erster Linie vom Forschungskontext der Wissenschaftler abhängig sind. Zu diesem Ergebnis kommt ein Projekt am Institut für Kriminologie der Universität Heidelberg. „Wir wissen nicht, welche der gegenteiligen Ergebnisse zuverlässiger sind. Somit fehlt der Todesstrafe die generalpräventive Rechtfertigung“, erklärt der Heidelberger Forscher Prof. Dr. Dieter Hermann.

Die Todesstrafe wurde im Jahr 2010 in 57 Staaten angewandt. Legitimiert wird diese stark umstrittene staatliche Sanktionsform in erster Linie mit einer angenommenen Abschreckungswirkung. Zur Frage, ob diese Wirkung tatsächlich existiert, gibt es zahlreiche Untersuchungen, die diese Annahme entweder bestätigen oder widerlegen. Wissenschaftler am Institut für Kriminologie der Ruperto Carola und an der Technischen Universität Darmstadt haben in einem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt 82 dieser empirischen Abschreckungsstudien untersucht.

In ihrer sogenannten Metaanalyse kommen sie zu dem Ergebnis, dass der Forschungskontext einen maßgeblichen Einfluss auf das Untersuchungsergebnis hat - dass die Ergebnisse also davon abhängen, ob die Studie beispielsweise von Ökonomen oder von Soziologen durchgeführt wurde. „Die jeweiligen Fachrichtungen unterscheiden sich dabei in bevorzugten Handlungstheorien und Menschenbildern“, betont Prof. Hermann. „Diese Vorstellungen können die Ergebnisse publizierter Forschungsergebnisse beeinflussen, sei es durch die Konzeption einer Studie, durch selektive Wahrnehmung und Interpretation von Ergebnissen oder durch die Wahl von Methoden und Daten.“

Die Analyse der Heidelberger Wissenschaftler zeigte, dass zwischen kriminologisch-soziologisch-juristisch ausgerichteten Studien einerseits und ökonomisch ausgerichteten Studien andererseits unterschieden werden kann. „Aufgrund der empirischen Untersuchungen von Kriminologen, Soziologen oder Rechtswissenschaftlern wäre die Hypothese von der Abschreckungswirkung der Todesstrafe nicht tragbar, während Untersuchungsergebnisse, die von Ökonomen in wirtschaftswissenschaftlichen Zeitschriften publiziert wurden, den umgekehrten Schluss nahelegen“, erläutert Prof. Hermann. Das theoretische Vorverständnis des Forschers und die Tatsache, dass in Fachzeitschriften bevorzugt Studienergebnisse veröffentlicht werden, die die jeweiligen Theorien bestätigen, beeinflussen daher die veröffentlichten Ergebnisse.

An dem Forschungsprojekt „Metaanalyse empirischer Abschreckungsstudien“ wirken neben Prof. Hermann Prof. Dr. Dieter Dölling (Universität Heidelberg) und Prof. Dr. Horst Entorf (Technische Universität Darmstadt) mit. Weitere Informationen zu dem Projekt sind im Internet unter http://www.soz.uni-heidelberg.de/projektdetails/835,42,0,0,1.html abrufbar.

Originalveröffentlichung:
D. Hermann: Die Abschreckungswirkung der Todesstrafe – ein Artefakt der Forschung? In: D. Dölling, u.a. (Hg.): Festschrift für Heinz Schöch zum 70. Geburtstag am 20. August 2010. Verbrechen – Strafe – Resozialisierung. Berlin, New York (De Gruyter) 2010, S. 791-808.
via Informationsdienst Wissenschaft

Dienstag, 12. April 2011

Montag, 11. April 2011

Pale Blue Dot – Als Animationsfilm



via Solscape

Morgen vor 50 Jahren: erster bemannter Raumflug

Yuri Gagarin and Orbits - Sixty Symbols

Japan/Fukushima-Tsunami trifft AKW.Neue Bilder

So sah es also aus, als der Tsunami am 11. März 2011 das AKW Fukushima traf.


Freitag, 8. April 2011

Was haben wir aus der Geschichte gelernt?

Eigentlich sollte man doch annehmen, dass wir aus der Geschichte gelernt hätten. Nun, vielleicht sind manche Lektionen auch einfach zu lange her.... Außer den Türken konnte sich wohl keiner mehr so recht erinnern.

Donnerstag, 7. April 2011

Astrogeologist Jake Bleacher

When Neutron Stars Collide

Suche nach dem Sandkorn im Ozean

Was Sahara-Staub im Nordatlantik bewirkt, untersuchen Wissenschaftler des Leibniz Institutes für Ostseeforschung (IOW) im Rahmen einer Forschungsreise ins Madeira-Becken vom 15. April bis zum 8. Mai. Die Expedition MSM18/01 mit dem Forschungsschiff „Maria Sibylla Merian“ wird von der Ozeanographin Dr. Joanna Waniek vom IOW geleitet und ist Teil eines Projektes der Deutschen Forschungsgemeinschaft mit Namen „Lithflux“.
Im Madeira-Becken wird eine so genannte Verankerung mit zwei Sinkstofffallen geborgen und wieder ausgelegt. Verankerungen sind am Meeresboden fixierte Seile, an denen in unterschiedlicher Tiefe verschiedene Geräte befestigt sind. Durch Schwimmkörper werden diese Seile nahezu senkrecht im Wasser gehalten. Im Madeira-Becken ist diese Verankerung 5200 Meter lang und trägt neben den genannten Sinkstofffallen auch Strömungs- und Neigungsmesser
In Sinkstofffallen werden Partikel gesammelt, die von der Meeresoberfläche zu Boden sinken – unter anderem Staubteilchen aus der Sahara, die vom Wind auf den offenen Ozean getragen wurden.
Diese werden am Rasterelektronenmikroskop auf ihre chemische und mineralogische Zusammensetzung hin untersucht. Dadurch kann man bestimmen, woher sie genau stammen. Es lässt sich außerdem ableiten, welche Wirkung diese Staub-Regen auf die Produktion von Biomasse in den entsprechenden Meeresregionen haben. Das Madeirabecken vor Nordafrika gehört zu den nährstoffarmen Gebieten im Atlantik. Der Sahara-Staub könnte als Nährstoff-Lieferant die Biomasse-Produktion und damit die CO2-Aufnahme und O2-Produktion ankurbeln.
Sollte sich diese Hypothese bestätigen, müssten die Erkenntnisse in aktuelle Klimamodelle einfließen. Denn die Sahara ist zwar die größte, aber nicht die einzige Quelle für Staubpartikel, die in die Ozeane sinken. Die im Madeira-Becken beobachteten Phänomene werden durch Staubstürme aus der Wüste Gobi oder über Patagonien auch in anderen Meeresregionen ausgelöst. Und je zahlreicher sie vorkommen, umso größer ist ihr möglicher Einfluss auf das Klima.
Neben diesen Untersuchungen werden die Wissenschaftler an Bord der „Maria S. Merian“ auch neue Geräte für die Meeresforschung testen. Ein am IOW in Zusam-menarbeit mit der TU Berlin sowie den Firmen Enitech und Evologics entwickeltes Unterwasserfahrzeug soll Aufnahmen vom Meeresboden im Madeira-Becken liefern. Außerdem erhoffen sich die Wissenschaftler Erkenntnisse zur Sinkgeschwindigkeit von Partikeln. Der Meerestechniker Siegfried Krüger vom IOW wird aus diesem ersten Einsatz Schlüsse für die Weiterentwicklung des Gerätes ziehen.
via Informationsdienst Wissenschaft

Überwachungssystem warnt vor rutschenden Hängen

Als Folge des Klimawandels drohen in den Alpen und anderen Hochgebirgen immer mehr Hänge abzurutschen – mit fatalen Folgen für Mensch und Infrastruktur. Eine dauerhafte Überwachung aller gefährdeten Areale scheiterte bislang an zu hohen Kosten und zu großem Aufwand. Münchener Geoforscher haben nun ein preisgünstiges System entwickelt, das Hanglagen mithilfe mehrerer Technologien permanent beobachtet, Veränderungen auswertet und die betroffenen Kommunen frühzeitig vor drohenden Erdrutschen warnt. Die Wissenschaftler selbst erhoffen sich durch die langfristigen Messungen ein besseres Verständnis dieser Naturphänomene.
Doren im Bregenzerwald, Februar 2007: Auf einer Länge von 650 Metern bricht ein Hang weg, gewaltige Erdmassen rutschen in die Tiefe. Die nächstgelegenen Wohnhäuser stehen nur unweit der 70 Meter hohen Abbruchkante. Die Beinahe-Katastrophe ist kein Einzelfall. Geologen haben in den vergangenen Jahren in den Alpen und anderen Hochgebirgen zunehmend labile Bodenmassen beobachtet, die an Hanglagen ins Rutschen geraten und auf einem stabilen Untergrund unaufhaltsam Richtung Tal gleiten. Als Ursache sehen die Wissenschaftler vor allem stärkere Regenfälle und Schneeschmelzen aufgrund des Klimawandels, die den Untergrund aufweichen und gleichzeitig schwerer machen.
Potenziell gefährliche Bergflanken zu identifizieren, ist nicht allzu schwierig. Viele sind schon seit Jahrhunderten instabil, Überlieferungen zeugen von früheren Unglücken. In den Alpenländern stehen zudem geologische Aufnahmen zur Verfügung, die Risikokandidaten verraten. Eine permanente Überwachung aller unruhigen Massen aber war bislang unmöglich. Um Bewegungen aufzuspüren, mussten Experten Sonden in Bohrlöcher einlassen und an der Oberfläche aufgestellte Markierungspunkte vermessen. Diese Geräte dauerhaft zu installieren, ist jedoch in der Regel schlichtweg zu teuer. So können die Kontrolleure nur in Abständen prüfen und gewinnen nur punktuelle Erkenntnisse über das Innenleben der Hänge.

Forscher der Technischen Universität München (TUM) und der Universität der Bundeswehr München haben nun Geosensoren entscheidend weiterentwickelt und mit einer Kontrollsoftware zu einem ebenso flexibel einsetzbaren wie kostengünstigen Frühwarnsystem verknüpft. Auch sie bohren an mehreren Stellen in den Untergrund. „Die Bohrlöcher bestücken wir aber mit ganz simplen Koaxialkabeln, wie man sie beispielsweise von Antennenkabeln kennt“, sagt Prof. Kurosch Thuro vom TUM-Lehrstuhl für Ingenieurgeologie. Die Wissenschaftler nutzen einen einfachen, aber effektiven Mechanismus: Gerät die obere Erdschicht ins Rutschen, wird das Kabel am Übergang zur unbeweglichen Schicht gequetscht. Ein kleines Übertragungsgerät an der Oberfläche registriert dies und leitet die Information weiter. Daneben verteilen die Ingenieurgeodäten der Bundeswehruniversität (Prof. Otto Heunecke) Sensoren über den Hang, deren Position mittels GPS bestimmt werden kann. Auch hier lag die Herausforderung darin, mit preiswerten Bauteilen „von der Stange“ eine Messgenauigkeit im Millimeterbereich zu erreichen, um schon kleinste Verschiebungen zu registrieren.

Als Drittes setzen die Wissenschaftler eine neue Generation von Messgeräten ein, sogenannte Videotachymeter, die mit Laserscanner und Kamera arbeiten. Musste man früher noch künstliche Reflektoren aufstellen, um Richtung, Entfernung und Höhe eines Ziels zu messen, erkennen die Geräte heute auch natürliche Ziele, beispielsweise Steine oder Baumstümpfe. Die Wissenschaftler haben nun den Prototypen eines Herstellers so programmiert, dass er auch Bewegungen beliebig vieler Ziele erkennt. Der Tachymeter zeichnet die Struktur etwa eines Felsens auf, vermisst diese regelmäßig neu und registriert dabei Veränderungen. „Wenn wir keine Reflektoren aufstellen müssen, sparen wir erneut Geld“, sagt Prof. Thomas A. Wunderlich vom TUM-Lehrstuhl für Geodäsie. „Und wir müssen nicht fürchten, dass sie von weidenden Kühen umgerannt werden.“

Mit diesen drei Komponenten knüpfen die Wissenschaftler ein dichtes Netz an Beobachtungspunkten über den Hang. Zusammengeführt werden die Daten in einer zentralen Datenbank. Das Gehirn des Systems wertet die Informationen zusammen mit weiteren Kennziffern aus, vor allem mit Wetterdaten. Dreieinhalb Jahre lang haben die Forscher ihre Entwicklung auf dem Sudelfeld im oberbayerischen Oberaudorf getestet. Dort bewegt sich eine Bergflanke und bedroht mehrere Almen und eine Bundesstraße. „Die Datenreihen zeigen uns eindrucksvoll, was der Hang durchlebt, wie sich Niederschlag und Frost bemerkbar machen, was mechanisch vor sich geht“, sagt Kurosch Thuro. „Wir verstehen jetzt viel mehr von dieser Bewegung.“

Einzelne Ereignisse können die Wissenschaftler deshalb besser beurteilen. Als beispielsweise der Hang im Mai 2010 innerhalb kurzer Zeit um vier Millimeter abrutschte, wussten sie, dass die auf den ersten Blick geringe Distanz für dieses Areal außergewöhnlich und deshalb besorgniserregend war. Mehr noch: Die Auswertung der Daten ermöglicht sogar Frühwarnungen, bevor der Hang sich überhaupt bewegt hat. „Weil wir nun wissen, wie sich dort Regenfälle auswirken, konnten wir einen Grenzwert festlegen“, erklärt Thuro. Überschreitet der Grundwasserdruck einen bestimmten Wert, schlägt das System Alarm. „Dann gibt es noch circa zweieinhalb Tage Zeit zwischen dem Anstieg des Pegels und einer Hangbewegung.“

Betroffene Kommunen können aus dem System einen unmittelbaren Nutzen ziehen, weil es ihnen die Daten ohne Umweg zur Verfügung stellt – übersetzt in verständliche Schaubilder und Erklärungen. Nach einer Frühwarnung können die Verantwortlichen je nach Gefahr Hänge sperren, den Verkehr umleiten oder Häuser evakuieren.

Die Forscher entwickeln nun das vom Bundesforschungsministerium und der DFG geförderte System unter dem Titel „Early Warning System for Alpine Slopes (alpEWAS)“ mit zwei Industriepartnern zur Marktreife. Erste Interessenten haben sich bereits gemeldet, in Doren ist ein Teil des Systems sogar schon im Einsatz. Nicht nur für die Anwender, auch für die Wissenschaft selbst verspricht sich Thuro deutliche Fortschritte: „Je mehr Hänge wir dauerhaft untersuchen, desto mehr verstehen wir größere Zusammenhänge zwischen einzelnen Ereignissen und dem Makroklima in den Gebirgen.“
via Informationsdienst Wissenschaft

Forscher ebnen den Weg für elektronische Schaltungen aus Graphen

Graphen gilt wegen seiner physikalischen und chemischen Eigenschaften als eines der vielversprechendsten neuen Materialien. Wissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben jetzt ein Verfahren entwickelt, das es erlaubt, Bauelemente aus Graphen mithilfe einer integrierten Elektrode gezielt anzusteuern – eine wichtige Voraussetzung für industrielle Anwendungen. Ihre Forschungsergebnisse haben Prof. Dr. Heiko Weber, Daniel Waldmann, Johannes Jobst, Dr. Michael Krieger vom Lehrstuhl für Angewandte Physik und Prof. Dr. Thomas Seyller und Florian Speck vom Lehrstuhl für Technische Physik jetzt in der renommierten Zeitschrift „nature materials“ publiziert.
Graphen (mit der Betonung auf der zweiten Silbe) besteht aus einer einzigen Lage von Kohlenstoffatomen, die in einem aus Sechsecken zusammengesetzten Netzwerk so angeordnet sind, dass sie den ersten wahrhaft zweidimensionalen Festkörper bilden. Graphen begründet damit eine neue Klasse von Materialien. Seine Entdeckung im Jahre 2004 hat zu weltweiten Forschungsaktivitäten geführt, die nur mit denen anlässlich der Entdeckung der Hochtemperatursupraleiter vergleichbar sind. 2010 wurde die Entdeckung von Graphen mit dem Nobelpreis für Physik ausgezeichnet. Die Begeisterung der Wissenschaftler für dieses neue Material nährt sich aus den für einen Festkörper völlig neuen elektronischen, optischen und magnetischen Eigenschaften des Graphens. Diese revolutionären Eigenschaften stellen für den Forscher ein faszinierendes Labor neuer Physik dar, das es zu ergründen gilt; sie bergen aber auch ein ungeahntes Potenzial für Anwendungen, die von neuartigen Halbleiterbauelementen über chemische und biologische Sensoren bis zu Quanten-Computern reichen.

Um das große Potenzial von Graphen für elektronische Anwendungen nutzen zu können, ist die Schichtherstellung in hoher Qualität auf kristallinen Halbleiterscheiben – so genannten Wafern – sehr wichtig. Hier konnten Forscher der FAU einen bedeutenden Beitrag leisten: Prof. Dr. Thomas Seyller hat 2009 ein Verfahren entwickelt, mit dem Graphen in höchster Qualität auf Siliziumkarbid-Kristallen synthetisiert werden kann. Das Verfahren gilt in der Fachwelt als ein wichtiger Schritt auf dem Weg zu einer graphenbasierten Elektronik. Seyller erhielt dafür 2010 den Walter-Schottky-Preis der Deutschen Physikalischen Gesellschaft, den höchsten nationalen Preis für hervorragende Forschungsarbeiten zur Festkörperphysik.

Der nächste wichtige Schritt ist es, ausgehend von Graphen-Wafern Bauelemente herzustellen. Insbesondere gilt es, die Graphenschichten für elektronische Anwendungen ansteuerbar zu machen. Hier kommt das Trägermaterial ins Spiel: Siliziumkarbid ist ein Halbleiter, der durch geschickte Manipulation als integrierte Ansteuerelektrode verwendet werden kann. Das ist Professor Dr. Heiko Weber und seinem Team jetzt gelungen. Die FAU-Forscher haben nicht nur Musterbauelemente hergestellt, sondern konnten auch die physikalischen Effekte en détail erklären, die bei Verwendung einer solchen Elektrode auftreten können. Mit diesem Wissen ist es nun möglich, optimale integrierte Elektroden für Graphen für die verschiedensten Anwendungsbereiche maßzuschneidern. Der große Vorteil einer solchen Elektrode liegt auf der Hand: die Graphenschicht an der Oberfläche bleibt frei zugänglich. Dies eröffnet völlig neue Möglichkeiten sowohl in der Forschung als auch in der Anwendung, z. B. für ultra-empfindliche Sensoren, die sogar einzelne Atome detektieren können.
via Informationsdienst Wissenschaft

ADG-Tagung in Würzburg am 24./25.06.2011

Die diesjährige Tagung der Afrikagruppe Deutscher Geowissenschaftler findet am 24./25. Juni 2011 in Würzburg statt. Als Schwerpunkt-Thema haben wir aus aktuellem Anlaß die Thematik "Afrika am Beginn der UN-Dekade zur Desertifikationsbekämpfung" gewählt, aber wie jedes Jahr sind auch dieses mal Sitzungen zu anderen Themen vorgesehen. Als Abendvortrag ist "Fieber, Ausschlag und Durchfall - Die Geißeln der Geländearbeit in Afrika" von PD Dr. August Stich, dem Leiter der Tropenmedizin am Missionsärztlichen Institut Würzburg, geplant. Nähere Informationen zu Anmeldungen und Terminen sind auf http://www.adg2011.de/ zu finden.

Dienstag, 5. April 2011

Gefahr für den Nördlichen Schopfpinguin

Es ist bei den Katastrophenmeldungen des letzten Monats etwas untergegangen, aber wir Menschen neigen durchaus dazu, unsere eigene Spezies zu bevorzugen. Ist ja auch eigentlich gut zu verstehen. Der Nördliche Schopfpinguin würde das wohl ähnlich sehen und seine Prioritäten entsprechend anders setzen. Und für ihn war der 16 März der Tag der Katastrophe, als der Soja Frachter MV Olivia vor Nightingale Island havarierte und Treibstoff verlor. Seevögel und Öl sind keine sehr gute Mischung, und so war die Lage dann am 23. März entsprechend für den bedrohten Nördlichen Felsenpinguin nicht übermäßig gut, als eine Filmcrew unter der Leitung von Andrew Evans eintraf.

Tohoku Tsunami: 9,3 m hohe Schutzmauer überspült und zerstört

Wie gewaltig der Tsunami vom 11. März 2011 war, kann man oft an der Höhe der Schutzmauern erkennen, die er überspült hat. In dem Fischerort Ryoishi zum Beispiel stand eine 9,3 m hohe Tsunami-Schutzmauer, die aber von der Welle dem Video nach nicht nur einfach überspült, sondern dem Augenschein nach auch komplett zerstört wurde.

Die einzelnen Tsunami-Höhen hängen dabei sehr von den lokalen Gegebenheiten ab. Das zeigt auch die Karte mit den Höhenangaben, die von NOAA (National Oceanographic and Atmospheric Administration) zusammengetragen wurde.
Die Angaben finden sich auch mit all een älteren auf dem Blogbeitrag zum Erdbeben unter http://www.wissenslogs.de/wblogs/blog/mente-et-malleo/erdbeben/2011-03-11/schweres-erdbeben-vor-japan

Montag, 4. April 2011

Sediment 2011 - Abstract and Registration Deadline

June 23-26, 2011 Sediment 2011, Leipzig
http://www.geo.uni-leipzig.de/Sediment2011/home.html

Dear Colleagues,

The next Central European conference of sedimentology “Sediment 2011” will be held in Leipzig, Germany, June 23-26.

The „Sediment 2011" meeting of sedimentary geology is co-organized by two international scientific societies: SEPM-CES (Central European Section of the Society of Sedimentary Geology), and the Section Sedimentology of GV (Geologische Vereinigung).

The organizers encourage submission of abstracts in all fields of sedimentary geology. The meeting aims at bringing together young researchers and established scientists from industry and academia in order to stimulate and promote European education and research in sedimentology. The best poster presentations (students only) will be awarded a prize.

Conference dates: June 24 – 25.

Invited speakers:
Prof. Dr. H. Bahlburg (Münster): Tsunami sediments, origin and archive
Prof. Dr. W. Piller (Graz): Shallow water carbonate sediment archives
Prof. Dr. J. Reitner (Göttingen): Neoproterozoic critical intervals - facts and assumptions
Prof. Dr. H. Strauss (Münster): Tracing Earth´s oxygenation with stable isotopes

Pre-conference field-trips (June 23) will visit the Paleogene of the Leipzig embayment and a Lignite mine (leader Prof. Dr. A. Müller, Dr. J. Rascher, NN).

A post-conference (June 26) field-trip will deal with paleokarst of the Thuringian Muschelkalk and classical outcrops of the Buntsandstein (leaders M. Henninger, R. Leder).

Short courses will be on stable isotope applications in sedimentology (June 23; Prof. Dr. M.M. Joachimski, Dr. S. Krüger) and geoelectric field methods (June 26; Dr. C. Flechsig).

Meeting website with all dates, deadlines and fees at http://www.geo.uni-leipzig.de/Sediment2011/home.html

Abstract and early registration deadline: April 15, 2011

The Geologische Vereinigung (GV) pays students an allowance of € 75 Euros for attending the meeting if they are a member of the GV, or if they join the GV while attending the meeting. For more information please contact Rita Spitzlei (info(at)g-v.de).

Short Course - Summer School "Sulfur in melts"

An interdisciplinary short course on “Sulfur in Magmas and Melts and Its Importance for Natural and Technical Processes” is held in Goslar, Germany, on August 21st – 23rd, immediately after the 2011 Goldschmidt Conference, in cooperation with the Mineralogical Society of America. The location in Goslar can be reached within half a day from Prague.
The course will bring together experts in relevant geological and geochemical fields with those in the technical glass and steel industry and in the material sciences, and we invite interested students and professionals to attend. The short course will involve lectures based on the 15 chapters of the Reviews in Mineralogy and Geochemistry volume 73 on this broad subject, and it will be a forum for discussion of future research. Actual research can be presented in a poster session.
A summer school is offered to students and young researchers which includes the short course at Goslar and two practical one-day workshops at August 20 in Hannover, Germany, and at August 24 in Clausthal, Germany. For more information about the short course and the summer school see http://www.minsocam.org/MSA/SC and http://www.msasulfurinmelts.org, or send an e-mail to Harald Behrens (h.behrens(at)mineralogie.uni-hannover.de).

Freitag, 1. April 2011

Bohrung im türkischen Vansee: Forscher schauen 400.000 Jahre in die Vergangenheit

Nie zuvor konnten Wissenschaftler so weit in die Klimageschichte des Nahen Ostens zurückblicken: Ein internationales Team hat 220 Meter tief im Grund des Vansees gebohrt. Erste Stichproben der Bohrkerne zeigen: Das Klima schwankte dramatisch, gewaltige Vulkanausbrüche waren nicht selten, Erdbeben erschütterten die Region − und der jetzt lebensfeindliche salzhaltige See war früher mal ein Süßwassersee. Am Montag präsentieren Forscher der Universität Bonn zusammen mit ihren Kollegen ihre ersten Ergebnisse auf einem geowissenschaftlichen Kongress in Wien. Doch die eigentliche Arbeit beginnt erst.
Würde man alle Bohrkerne, welche die Forscher aus dem Grund des Vansees ergattert haben, aneinanderreihen, ergäben sie eine Länge von 800 Meter. Die Bohrung im letzten Jahr hat sich gelohnt, berichtet jetzt der Bonner Paläontologe Professor Dr. Thomas Litt. Er ist Sprecher eines internationalen Forscherkonsortiums, das die Sedimente des Vansees genauer unter die Lupe nehmen will. „Die Sedimente in unseren Bohrkernen stammen aus den letzten 400.000 Jahren − und das ist wirklich spektakulär!“, sagt Prof. Litt. „Bisher gibt es in der Region des Nahen Ostens kein so weit zurückreichendes kontinentales Klimaarchiv. Außerdem ist die Qualität der Bohrkerne und damit die zeitliche Auflösung hervorragend.“

See-Sedimente als Geschichtsbücher

Auf dem Boden eines Sees sammeln sich über viele Jahrtausende ungestört Mineralien, Blütenstaub und andere Materialien an − Zeitzeugen der Klimageschichte einer Region. Der Vansee liegt im Osten der Türkei; seine Sedimente haben besonders viele Geschichten zu erzählen, denn der See ist sehr alt. Außerdem ist er groß und tief, so dass sich dort ungestört alles ablagern konnte, unbeeindruckt von Wind und Wetter. In anderen Seen hingegen wühlen zudem Muscheln und Schnecken den Seegrund um, aber am Boden des Vansees gibt es kein Leben.

„In den Bohrkernen sind die jährlichen Schichten daher ausgezeichnet sichtbar“, sagt Prof. Litt. Ähnlich wie Baumringe lassen sich an Sedimenten die Jahre abzählen: Jedes Jahr ist durch eine weiße Sommerschicht und eine dunkle Winterschicht im Sediment verewigt. Im Sommer verdunstet Seewasser, und weißer Kalk scheidet sich ab. Im Winter spült die Regenzeit dunkle Tonschichten in den See. All diese Mineralien sammeln sich auf dem Seegrund.

Anhand der gefundenen Pollen lässt sich auch das Klima rekonstruieren: Ist es warm und feucht, gedeihen viele Eichen am Ufer des Sees; in kalten und trockenen Zeiten eher Gräser, Beifuß und Gänsefuß. „Eine erste Pollenanalyse hat gezeigt, dass ein mehrfacher Wechsel zwischen Warm- und Kaltzeiten in den Sedimenten dokumentiert ist“, erläutert der Paläontologe. „Neben dem jetzigen erdgeschichtlichen Zeitabschnitt, dem Holozän, können wir drei weitere Warmzeiten ablesen. Das ist bisher einmalig in dieser Region.“

Bei der Bohrung stießen die Forscher zudem auf mehr als hundert Ablagerungen von vulkanischer Asche. Eine dieser Schichten war sogar über sieben Meter dick: „Da hat es also mächtig gerumpelt in der Vergangenheit“, sagt Prof. Litt. Auch Erdbeben haben die Gegend erschüttert, zeigen die Bohrkerne: An einigen Stellen sind die Sedimente dadurch gerissen und deformiert.

„In den untersten Sedimentschichten haben wir auch die Überbleibsel von Muscheln und Schnecken gefunden“, sagt Litt. Der jetzt stark alkalische und salzhaltige lebensfeindliche See war früher also mal ein Süßwassersee mit lebendigen Bewohnern.

Aus der Vergangenheit lernen

„Neben der Rekonstruktion der Klimageschichte interessiert uns vor allem, wie die Vegetation auf den starken Vulkanismus der Region reagiert hat“, definiert Prof. Litt seine Forschungsziele. „Also die Frage: Wie schnell erholt sich die Pflanzenwelt nach einem Vulkanausbruch, der die ganze Landschaft mit einer dicken Ascheschicht eingedeckt hat?“

Der Blick in die Vergangenheit hilft dabei, die Zukunft besser einzuschätzen, sagt der Bonner Forscher: „Man kann zwar nicht die Zukunft voraussagen, aber man kann aus Szenarien in der Vergangenheit lernen. So können vergangene erdgeschichtliche Ereignisse beispielsweise dabei helfen, gewisse Risiken besser zu beurteilen.“

In den nächsten drei bis fünf Jahren wird das internationale Forscherteam die geborgenen Bohrkerne ganz genau im Labor untersuchen: „Wir haben bereits insgesamt 5000 Proben genommen, die alle analysiert werden wollen.“ Die wissenschaftliche Arbeit beginnt also gerade erst.

Die eigentliche Bohrung hat 1,4 Millionen US-Dollar gekostet. Dabei kam aufgrund der sehr großen Wassertiefen von bis zu 360 Meter erstmals eine neue Spezial-Bohrtechnik zum Einsatz. Die Finanzierung stammte aus Mitteln des International Continental Scientific Drilling Program (ICDP), der Deutschen Forschungsgemeinschaft (DFG) und des Schweizer Nationalfonds. An den Arbeiten beteiligt sind neben der Universität Bonn auch das Schweizer Wasser-Forschungsinstitut Eawag, das Leibniz-Institut für Meereswissenschaften an der Universität Kiel (IFM-GEOMAR), die Technische Universität Istanbul, die Yüzüncü Yil Universität in Van und die Bohrfirma DOSECC Exploration Services.

via Informationsdienst Wissenschaft

Ausbreitung des Tsunamis vom 11. März 2011

Ich habe ein Video der NOAA, in dem die Ausbreitung des Tsunamis vom 11. März über den Pazifik simuliert wird, einmal mit deutschen Untertiteln versehen. Natürlich habe ich es auch in meinen Blogbeitrag zum Tohoku Erdbeben eingefügt.

Research Blogging Awards 2010 Winner!
 
Creative Commons License
Amphibol Weblog von Gunnar Ries steht unter einer Creative Commons Namensnennung-Keine kommerzielle Nutzung-Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.