Freitag, 28. Januar 2011

Out of Africa - früher als bisher angenommen

Neue Funde belegen, dass der „Anatomisch Moderne Mensch“ Afrika viel früher verlassen hat, als bisher angenommen


Ein internationales Wissenschaftlerteam um Prof. Hans-Peter Uerpmann von der Eberhard Karls Universität Tübingen hat die bisher verbreitete Ansicht widerlegt, dass anatomisch moderne Menschen vor etwa 70.000 Jahren von Afrika über Arabien nach Südasien eingewandert seien. Die neuen Daten belegen, dass dies schon gut 50.000 Jahre früher geschah und dass moderne Menschen schon vor etwa 125.000 Jahren den Südosten Arabiens erreicht hatten. ‚Anatomisch moderne’ Menschen – unsere direkten Vorfahren – entstanden vor etwa 200.000 Jahren in Afrika und haben in der Folgezeit den Rest der Welt bevölkert.

Die neue Studie, die am 28. Januar in Science erscheint, berichtet über Funde eines langjährigen Grabungsprojekts am Jebel Faya in den Vereinigten Arabischen Emiraten. Das von Prof. Uerpmann geleitete Grabungsprojekt erreichte dort 2006 paläolithische (altsteinzeitliche) Schichten. Die sich anschließenden Laboruntersuchungen in Tübingen, Oxford und London führten zu den jetzt publizierten Resultaten.

Prof. em. Anhthony Marks von der Southern Methodist University in Dallas (USA) und Dr.Vitaly Usik vom Archäologischen Institut der Ukrainischen Akademie der Wissenschaften in Kiew untersuchten die paläolithischen Steinwerkzeuge vom Jebel Faya in Tübingen und kamen zu dem Ergebnis, dass diese technologisch denjenigen gleichen, die in Ostafrika von frühen modernen Menschen hergestellt wurden. Sie unterscheiden sich klar von solchen, die zu vergleichbaren Zeiten weiter nördlich in Arabien, in der Levante oder in Iran erzeugt worden sind. Dies ist ein klarer Hinweis darauf, dass frühe moderne Menschen direkt von Afrika nach Arabien eingewandert sind, und nicht wie früher angenommen durch das Niltal nach Norden und von dort weiter über den Nahen Osten nach Asien und Europa.

Zwei wesentliche Hindernisse liegen auf dem Weg zwischen Ostafrika und dem Jebel Faya: zum einen das südliche Rote Meer und zum anderen das flache, wasserlose Nedj-Plateau, das sich von der innerarabischen Wüste bis zum Indischen Ozean erstreckt. Prof. Adrian Parker von der Oxford Brookes Universität hat Daten zu Veränderungen des Meeresspiegels und des Klimas der Region untersucht. Er kommt zu dem Schluss, dass in der frühen Vergangenheit der direkte Verbindungsweg während kurzer Zeitspannen begehbar gewesen sein muss: Während der Eiszeiten waren große Wassermassen im Inlandeis gebunden, was zur Absenkung des Meeresspiegels geführt hat. In solchen Zeiten verengt sich die Meeresstraße „Bab al-Mandab“ am Südende des Roten Meeres beträchtlich, sodass sie leichter zu überwinden war. Andererseits führten natürliche Klimaveränderungen am Ende von Eiszeiten zu verstärkten Niederschlägen über dem Nedj-Plateau und machten diese Gegend bewohnbar. Prof. Parker erklärt: „Vor 130.000 Jahren war der Meeresspiegel noch rund 100 Meter tiefer als heute, während das Nedj-Plateau bereits passierbar war. Es gab einen kurzen Zeitraum, in dem frühe moderne Menschen in der Lage waren, den direkten Weg zwischen Ostafrika und Jebel Faya zu benutzen.“

Dr. Simon Armitage vom Royal Holloway College der Universität London errechnete das Alter der Steinwerkzeuge vom Jebel Faya mit Hilfe einer Methode, die Lumineszenz-Datierung genannt wird. Seine Altersbestimmung zeigt, dass moderne Menschen bereits vor etwa 125.000 Jahren am Jebel Faya waren – unmittelbar nach der Zeit, in der sowohl die Meerenge Bab al-Mandab wie auch die Wüste des Nedj-Plateaus passierbar waren. Er sagt: „Archäologie ohne genaue Altersbestimmungen ist wie ein Puzzle, dem die Verbindungsstücke fehlen – man hat viele Einzelinformationen, aber man kann sie nicht zu einem Gesamtbild zusammenbringen.“

Am Jebel Faya enthüllen die Datierungen zusammen mit den Grabungsbeobachtungen und Artefaktstudien ein faszinierendes Bild des frühen modernen Menschen, der – unterstützt durch globale Meeresspiegelschwankungen und Klimaveränderungen in Arabien – Afrika viel früher verlassen hat als bisher angenommen. Diese Ergebnisse werden zu einer Neubewertung der Mittel und Wege führen, mit deren Hilfe der moderne Mensch zur „Globalen Spezies“ geworden ist.

via Informationsdienst Wissenschaft

Atlantikwasser wärmt die Arktis auf


– "Science"-Studie: Jüngster Temperaturanstieg in der Framstraße einmalig in den letzten 2000 Jahren –

Nie in den vergangenen 2000 Jahren war das atlantische Wasser in der östlichen Framstraße zwischen Grönland und Spitzbergen so warm wie heute. Dies belegt eine Untersuchung von Meeressedimenten am westlichen Kontinentalhang Spitzbergens, die federführend von Wissenschaftlern des Leibniz-Institut für Meereswissenschaften IFM-GEOMAR und der Akademie der Wissenschaften und der Literatur, Mainz, gemeinsam mit Kollegen aus Bremerhaven, Tromsö (Norwegen) und Boulder (USA) durchgeführt wurde. Die entsprechende Studie erscheint in der aktuellen Ausgabe der renommierten Fachzeitschrift „Science“.
Die Framstraße zwischen Grönland und Spitzbergen ist die wichtigste Verbindung zwischen dem Arktischen Ozean und den übrigen Weltmeeren. Auf der Ostseite der Meeresstraße fließen warme und salzreiche Wassermassen aus dem Nordatlantik in die Arktis. Dieser warme Strom, die nördlichste Fortsetzung des Golfstroms, sorgt sogar im Winter für überwiegend eisfreie Bedingungen westlich von Spitzbergen. Wissenschaftler des Kieler Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) und der Akademie der Wissenschaften und der Literatur, Mainz, konnten jetzt zusammen mit Kollegen des Alfred-Wegener-Instituts für Polar und Meereforschung in Bremerhaven sowie Kollegen aus Tromsö (Norwegen) und Boulder (USA) anhand von Meeressedimenten nachweisen, dass die Wassertemperaturen des einströmenden Atlantikwassers in der östlichen Framstraße im Verlauf der vergangenen 2000 Jahre immer wieder um mehrere Zehntel Grad Celsius schwankten. Der jüngste Temperaturanstieg um etwa 2 Grad Celsius in den vergangenen 100 Jahren ist jedoch beispiellos im untersuchten Zeitraum. „Eine solche Erwärmung von Atlantikwasser in der Framstraße hebt sich wesentlich von den Klimaschwankungen der vergangenen 2000 Jahre ab“, sagt Dr. Robert Spielhagen, der für die Mainzer Akademie als Paläoozeanograph am IFM-GEOMAR forscht. Er ist Erstautor der Studie, die in der aktuellen Ausgabe von „Science“ erscheint.

Da kontinuierliche meteorologische und ozeanographische Messdaten nur etwa 150 Jahre zurückreichen, müssen die Wissenschaftler für die Untersuchung des Klimas der Vergangenheit indirekte Klimaarchive wie zum Beispiel Eisbohrkerne oder Sedimentkerne nutzen. Für die Rekonstruktion der Wassertemperaturen in der Framstraße nutzten die Autoren der „Science“-Studie spezielle Arten von Foraminiferen. Diese tierischen Einzeller leben in Wassertiefen von 50 bis 200 Metern und bilden während ihres Lebenszyklus Kalkschalen aus. Sterben sie ab, sinken die Schalen auf den Meeresboden, wo sie im Laufe der Zeit von Sediment bedeckt werden. So bleiben die Schalen als Fossilien im Meeresboden über lange Zeiträume gut erhalten. Da bestimmte Foraminiferen-Arten ganz spezielle Wassertemperaturen bevorzugen, können die Wissenschaftler anhand der im Meeresboden gefundenen Arten und ihres Alters die ozeanischen und klimatischen Bedingungen der Vergangenheit rekonstruieren. Parallel untersuchten sie die chemische Zusammensetzung der fossilen Kalkschalen, die ebenfalls Rückschlüsse auf Temperaturen in der Vergangenheit zulassen. So stellten Spielhagen und sein Team anhand zweier unabhängiger Untersuchungsmethoden fest, dass es während der jüngsten 2000 Jahre der Erdgeschichte immer wieder deutliche Schwankungen zwischen wärmeren und kühleren Phasen gab: „Besonders kalt war es während der ,Kleinen Eiszeit’, von etwa Mitte des 15. bis ins späte 19. Jahrhundert“, erklärt Koautorin Kirstin Werner vom IFM-GEOMAR. Ungewöhnlich viele wärmeliebende Foraminiferenarten, die mit dem Atlantischen Wasser in die Arktis transportiert werden, fanden die Autoren der Studie dagegen in den allerjüngsten Ablagerungen. Beide Untersuchungsmethoden zeigten übereinstimmend einen Temperaturanstieg von etwa 2 Grad Celsius in den letzten 100 Jahren. „Die heutigen Temperaturen des Atlantikwassers in der Framstraße liegen ca. 1,5 Grad Celsius höher als etwa im klimatisch warmen Hochmittelalter. Vieles spricht dafür, dass der beschleunigte Rückgang des Meereises und die in den letzten Jahrzehnten gemessene Erwärmung von Ozean und Atmosphäre in der Arktis unter anderem eine Folge des verstärkten Wärmetransports aus dem Atlantik sind“, so Robert Spielhagen.

Eine fehlende Meereisbedeckung verstärkt die Klimaveränderungen in der Arktis, wo anstelle der Rückstrahlung der Sonnenenergie durch das helle Eis ("Eis-Albedo-Effekt") die Wärme vom dunkleren Ozeanwasser aufgenommen und nachfolgend teilweise an die Atmosphäre abgegeben wird. Die aktuell in „Science“ publizierten Ergebnisse bestätigen eine weitere, am IFM-GEOMAR durchgeführte Untersuchung über den Verbleib des Atlantischen Wassers auf den sibirischen Schelfen im Arktischen Ozean. Im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projekts „System Laptev-See“ fanden die Autoren jener Studie, die 2010 in der Fachzeitschrift „Journal of Geophysical Research“ veröffentlicht wurde, die Schicht mit warmem Atlantischen Wasser in deutlich geringeren Wassertiefen als in den vorangegangen achtzig Jahren. Sollte sich die Atlantikwasserschicht weiter erwärmen und ausdehnen, so könnte dies dramatische Folgen für die Eisbildung und Eisbedeckung im Arktischen Ozean haben.

Originalarbeit:
Spielhagen, R.F., K. Werner, S. Aagaard Sørensen, K. Zamelczyk, E. Kandiano, G. Budeus, K. Husum, T. M. Marchitto, M. Hald, 2011: Enhanced Modern Heat Transfer to the Arctic by Warm Atlantic Water. Science, 331, 450-453, doi: 10.1126/science.1197397.

via Informationsdienst Wissenschaft

Antike Astronomie: Eine Neuentdeckung im Neuen Museum?

Berliner Wissenschaftshistoriker scannen antikes Marmorfragment mit eingravierter Sterndarstellung.
Über eine Millionen Besucher sind im ersten Jahr nach der Wiedereröffnung des Neuen Museums auf der Berliner Museumsinsel an der Vitrine mit dem unscheinbaren antiken Artefakt vorbeigelaufen. Das etwa 30 Zentimeter große Marmorfragment im Besitz der Antikensammlung Berlin trägt die Beschriftung „Teil eines Himmelsglobus – Römische Kaiserzeit, 1. Jh. n.Chr., Inventarnummer SK1050A“. Noch nie wurde mit modernen naturwissenschaftlichen Methoden geprüft, ob die darauf abgebildeten Sterne und Tierzeichen vielleicht mehr als bloße Verzierung sein könnten. Ob sich aus diesem Marmorfragment vielleicht ein neuer Einblick in den astronomischen Kenntnisstand antiker Wissenschaftler gewinnen lässt.

Der Sprecher des altertumswissenschaftlichen Exzellenzclusters TOPOI, Professor Gerd Graßhoff, der erst im vergangenen Herbst von der Universität Bern an die Humboldt-Universität zu Berlin abgeworben wurde, hat jetzt in Zusammenarbeit mit der Antikensammlung Berlin eine umfassende Präzisionsvermessung organisiert. Mit einer Messgenauigkeit von einem hundertstel Millimeter wurde das marmorne Fragment von einem „ATOS II Triple Scan“-Laserscanner (der Firma GOM aus Braunschweig) abgetastet und aus den Messdaten ein dreidimensionales Computermodell erstellt. Für die aufwändige Untersuchung kam es sehr gelegen, dass das Neue Museum wegen des großen Besucheransturms des vergangenen Jahres gerade zu Reinigungs- und Wartungsarbeiten für drei Tage geschlossen werden musste.

Das dreidimensionale Modell wird jetzt am Computer mit allen bekannten Sternpositionen verglichen und so die wahrscheinlichste Hypothese für die abgebildeten Figuren auf dem Artefakt errechnet. Wer den Film „Stargate“ von Roland Emmerich kennt, hat eine Vorstellung der Methode. Besonderes Augenmerk widmet Graßhoff einer über das ganze Fragment hinweg eingekerbten Linie. Möglicherweise wird sich herausstellen, dass sie als Führungsschiene einer antiken Mechanik diente, um die Bewegung von Sonne, Mond und Planeten nachzubilden. Gerd Graßhoff hofft, dass durch die Forschung der TOPOI-Wissenschaftler das unscheinbare Steinfragment im Neuen Museum vielleicht bald in die Reihe der bedeutendsten Zeugnisse antiker Himmelsdarstellungen aufgenommen wird.

via Informationsdienst Wissenschaft

Treibhausgasen auf der Spur

Eine Nachwuchsforschergruppe am KIT entwickelt neuartige Methoden, um die Konzentration von Kohlendioxid und Methan in der Erdatmosphäre zu messen. Ihre Erkenntnisse sollen dazu beitragen, dem Klimawandel entgegen zu steuern. Das Forschungsprojekt „Fernerkundung von Treibhausgasen zur Modellierung des Kohlenstoff-Kreislaufs“ des Physikers Dr. André Butz wird am Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung (IMK-ASF) als „Emmy-Noether-Nachwuchsgruppe“ fünf Jahre lang durch die Deutsche Forschungsgemeinschaft (DFG) mit Personal- und Sachmitteln ausgestattet.
Das englisch „Remote Sensing of Greenhouse Gases for Carbon Cycle Modelling“, kurz „RemoteC“, betitelte Forschungsvorhaben wertet Daten aus, die Satelliten über die von der Erde und der Atmosphäre zurückgestreute kurzwellige Infrarotstrahlung liefern. Für eine höhere Genauigkeit der Interpretation werden die Daten aus dem Weltraum mit Messungen an Bodenstationen kombiniert.

Ziel ist die Entwicklung einer Methode, die es erlaubt, global zu bestimmen, wo, wie viel und zu welchem Zeitpunkt Methan und Kohlendioxid durch natürliche Prozesse an die Atmosphäre abgegeben oder der Atmosphäre entzogen werden. Die Treibhausgase Methan und Kohlendioxid tragen wesentlich zum Klimawandel durch Erwärmung von Erdoberfläche und Atmosphäre bei. Mit Hilfe von „RemoteC“ wollen die Wissenschaftler zur Beantwortung wichtiger Fragen beitragen: Welche Rolle spielen die Tropen für die Konzentration der Treibhausgase in der Atmosphäre? Wie beeinflussen arktische Sumpfgebiete und tauende Permafrostgebiete die Treibhausgasbilanz? Kann dem Klimawandel durch veränderte Landnutzung entgegengewirkt werden?

„Die Herausforderung ist, dass Messung und Auswertung der Daten hochgenau erfolgen“, erklärt Dr. André Butz. Der 32-jährige in Coburg geborene Physiker entwickelte in den vergangenen vier Jahren als Postdoktorand am Niederländischen Institut für Weltraumforschung Software für die Auswertung von Satellitendaten. Nach dem Physik-Studium an der Universität Würzburg und der State University of New York erarbeitete er an der Université Pierre et Marie Curie in Paris sowie an der Universität Heidelberg seine Dissertation. An dem von Butz initiierten und geleiteten Projekt „RemoteC“ werden Physiker und Meteorologen zusammenarbeiten.

via Informationsdienst Wissenschaft

Geologische Karten der Schweiz

Für die Schweiz kann man geologische Karten online betrachten.
http://www.geologieviewer.ch/

Topographische Karten gibt es dort auch:
http://map.geo.admin.ch/

via spotts im geoversum

Donnerstag, 27. Januar 2011

Das „neue“ Kilogramm kommt näher

Avogadro-Konstante mit angereichertem Silicium-28 bestimmt
Ein Meilenstein im internationalen Avogadro-Projekt, das von der Physikalisch-Technischen Bundesanstalt (PTB) koordiniert wird: Mithilfe eines Einkristalls aus hochangereichertem 28Si ist jetzt die Avogadro-Konstante mit einer relativen Gesamtmessunsicherheit von 3 • 10–8 so genau wie nie zuvor gemessen worden. Im Rahmen der Kilogramm-Neudefinition ermöglicht der Wert NA = 6,02214078(18) • 1023 mol–1 die zurzeit genaueste Realisierung dieser Einheit. Die Ergebnisse sind in der aktuellen Ausgabe der Zeitschrift Physical Review Letters veröffentlicht.

Die heiße Phase des von der PTB koordinierten, langjährigen Avogadro-Projekts begann 2003: In dem Jahr begannen mehrere nationale Metrologieinstitute zusammen mit dem Bureau International des Poids et Mesures (BIPM) in Kooperation mit russischen Forschungsinstituten mit dem ehrgeizigen Vorhaben, etwa 5 kg hochangereichertes 28Si (99,99 %) als Einkristall herstellen zu lassen, die Avogadro-Konstante damit zu messen und bis zum Jahr 2010 eine Messunsicherheit von ca. 2 • 10–8 zu erreichen. Inzwischen sind erste Messungen an den zwei in Australien polierten 1 kg-Kugeln aus 28Si abgeschlossen und ihre Dichte, Gitterparameter und Oberflächenbeschaffenheit bestimmt worden.

Die Einzelschritte: Nach einer umfangreichen Prüfung der Kristallperfektion wurde der Einfluss der Kristallbaufehler abgeschätzt. Dann wurde am italienischen Metrologieinstitut (INRIM) mittels eines Röntgeninterferometers der Gitterparameter bestimmt und durch Vergleichsmessungen mit einem natürlichen Si-Kristall am amerikanischen NIST bestätigt. Die Massen der beiden Siliciumkugeln wurden am BIPM, am NMIJ (Japan) und in der PTB im Vakuum an die internationalen Massenormale angeschlossen. Das Kugelvolumen wurde optisch mit Interferometern unterschiedlicher Strahlgeometrien in den entsprechenden Arbeitsgruppen von NMIJ, NMI-A (Australien) und PTB mit exzellenter Übereinstimmung gemessen. Die Oberflächenschicht (im Wesentlichen bestehend aus Siliciumdioxid) wurde mit Elektronenen-, Röntgen- und Synchrotronstrahlung nach unterschiedlichen Verfahren spektroskopiert, analysiert und bei der Bestimmung der Siliciumdichte berücksichtigt. Die beim Polierprozess entstandene unerwartet hohe metallische Kontamination der Kugeloberflächen mit Kupfer- und Nickelsiliciden wurde gemessen und ihr Einfluss auf die Ergebnisse von Kugelvolumen und -masse abgeschätzt, was zu einer höheren Messunsicherheit führte.

Ausschlaggebend für den erzielten Erfolg, eine relative Gesamtmessunsicherheit von 3 • 10–8, war die Entwicklung einer neuen massenspektrometrischen Methode zur Bestimmung der molaren Masse in der PTB.

Das Ergebnis ist ein Meilenstein auf dem Weg zu einer erfolgreichen Darstellung der neuen Kilogrammdefinition auf der Basis einer in ihrem Wert festgelegten Fundamentalkonstanten. Zurzeit ist aber die Übereinstimmung dieses Wertes mit anderen Darstellungen des Kilogramm nicht gut genug, um die bestehende Definition der Masseeinheit zu ändern. Der gegenwärtige Status des Avogadro-Projekts ist aber so vielversprechend, dass auf der Basis neuer Messungen mit verbesserten Kugelinterferometern an kontaminationsfreien Kugeln in naher Zukunft die vom Beratenden Komitee für die Masse (CCM) verlangte Messunsicherheit von 2 • 10–8 erreicht und voraussichtlich sogar unterschritten wird.

via Informationsdienst Wissenschaft

Scientists postulate association between climatic fluctuations and social upheaval

Complete record of the Central European climate of the last 2,500 years reconstructed for the first time
It would seem that there are striking chronological parallels between significant variations of climate and major historical epochs, such as the Migration Period and the heyday of the Middle Ages. This is the conclusion reached following a study undertaken by researchers from Switzerland, Germany, Austria, and the USA, in which they were able to reconstruct the summer climate in Europe over the last 2,500 years from the information provided by annual tree rings. For example, the summers at the times when both the Roman Empire and the Middle Ages were at their zenith were relatively humid and warm. Professor Dr Jan Esper of the Institute of Geography at Johannes Gutenberg University Mainz (JGU), Germany was involved in this interdisciplinary study, the results of which were recently published in the leading specialist journal "Science".

The team, consisting of climatologists and archeologists, managed for the first time to put together a complete history of rainfall and temperature over the past two and a half millennia in Central Europe. In order to do this, they analyzed the annual growth rings of some 9,000 samples of subfossil, archeological-historical and living wood originating from Germany, France, Italy, and Austria. The width of these tree rings was measured using dendrochronological techniques. The results were compared with weather data compiled by Central European meteorological stations in order to collate the findings with actual information on precipitation and temperature variations.

This enabled the scientists to consider major historical events and epochs in the context of the fluctuations of the European summer climate in the period from the late Iron Age 2,500 years ago right up to the 21st century. "During the Roman era, the climate was predominantly humid and warm, and also relatively stable," explains the first author of the publication, Ulf Büntgen of Swiss Federal Institute for Forest, Snow and Landscape (WSL) in Zurich. The decline of the Western Roman Empire coincided with a period after 250 AD in which it became much colder and climatically changeable. This phase of more marked climatic variation persisted for 300 years, accompanying the age of Migration and the associated socio-economic destabilization. The cultural revival of the early Middle Ages occurred as both temperatures and rainfall began to increase with the dawn of the 7th century. It is also possible that climatic factors may have contributed towards the spread and virulence of the Black Death after 1347. In addition, the new findings suggest that a cold period during the Thirty Years' War in the first half of the 17th century could have exacerbated the contemporary widespread famines.

The publication impressively compares the climate of the 20th century and the changes (partly) attributable to human activity with the natural fluctuations of the past 2,500 years. The summers of the late 20th and early 21st centuries appear to be have been unusually warm when considered against the background of natural temperature variation. On the other hand, there were also periods of very heavy precipitation in the past that, in terms of quantity of rainfall and duration, were more extreme than anything we are witnessing today.

However, the team of authors explicitly draws attention to the complexity of the relationship between climatic change and historical events, and warns of the dangers of drawing overly simplistic conclusions with regard to cause and effect.
http://www.sciencemag.org/content/early/2011/01/12/science.1197175.abstract


via Informationsdienst Wissenschaft

Nanosilber: Neuer Name – altbekannte Wirkung

Nanosilber ist keine neue Erfindung der Nanotechnologien, sondern bereits seit mehr als 100 Jahren in verschiedenen Produkten im Einsatz. Dies zeigt eine neue Empa-Studie. Schon damals wurde die antimikrobielle Wirkung winziger Silberteilchen genutzt, die als «kolloidales Silber» bekannt waren.
Etliche Nanomaterialien stehen derzeit im Fokus der Öffentlichkeit. Besonders Silbernanopartikel werden sowohl von Wissenschaft als auch von Behörden detailliert untersucht. Die Annahme dahinter: dass es sich bei Nanosilber um eine völlig neue Substanz handelt. Die Empa-Forscher Bernd Nowack und Harald Krug zeigen zusammen mit Murray Height von der Firma HeiQ in einer vor kurzem in der Fachzeitschrift «Environmental Science & Technology» veröffentlichten Studie, dass Nanosilber keineswegs eine Erfindung des 21. Jahrhunderts ist. Bereits 1889 wurden Silberpartikel mit einem Durchmesser von nur sieben bis neun Nanometer erwähnt. Verwendet wurden diese in Heilmitteln oder in Bioziden, um das Wachstum von Bakterien auf Oberflächen zu vermeiden. Zum Beispiel in antibakteriellen Wasserfiltern oder in Algiziden für Swimmingpools.

Das Material ist stets das gleiche

Bekannt waren die Nanoteilchen als «kolloidales Silber». Doch gemeint ist damals wie heute das Gleiche: extrem kleine Silberpartikel. Neu ist lediglich die Verwendung der Vorsilbe «Nano». «Doch», so Bernd Nowack, «Nano bedeutet weder, dass etwas neu, noch, dass es von vorneherein schädlich ist.» Als das «kolloidale Silber» in den 1920er-Jahren in grossen Mengen auf den Markt kam, löste das zahlreiche Studien und entsprechende Regulierungen seitens der Behörden aus. Schon damals war den Entdeckern der Nanopartikel also deren Bedeutung und Wirkungsweise bewusst. «Das bedeutet aber nicht, dass die möglichen Auswirkungen der Nanopartikel auf Mensch und Umwelt verharmlost werden sollten», sagt Nowack. Wichtig sei, die Materialeigenschaften von Nanosilber genau zu charakterisieren und nicht einfach die Vorbehalte gegenüber Nanosilber zu glauben.

Nanosilber wirkt anders als Silber

Unter Nanopartikeln sind Teilchen mit einer Grösse von unter 100 Nanometer zu verstehen. Aufgrund ihrer extremen «Kleinheit» besitzen Nanoteilchen andere Eigenschaften als grössere Partikel desselben Materials. So weisen Nanopartikel pro Volumeneinheit eine viel grössere Oberfläche auf. Dadurch sind sie beispielsweise häufig reaktiver. Nanosilber gibt zudem, bei geringerem Materialeinsatz, mehr Silberionen ab als solides Silber. Die gelösten Silberionen wirken auf Bakterien toxisch und töten diese ab. Ob Nanosilber ein Risiko für Mensch und Umwelt darstellt, ist Gegenstand von derzeit laufenden Untersuchungen.

Nanosilber in der Kläranlage

Zurzeit sind Hunderte von Produkten im Umlauf, die Silbernanopartikel enthalten, zum Beispiel Kosmetika, Lebensmittelverpackungen, Desinfektions- und Reinigungsmittel, aber auch antibakterielle Socken und Unterwäsche. Weltweit werden pro Jahr rund 320 Tonnen Nanosilber eingesetzt. Einiges davon gelangt über das Abwasser in den Wasserkreislauf. Welche Wirkung die Silberpartikel auf Flüsse, Böden und die darin lebenden Organismen haben, ist noch nicht im Detail geklärt. Ein in der Fachzeitschrift «Science» erschienener Kommentar von Bernd Nowack diskutiert die Implikationen der neuesten Studien zu Nanosilber in Kläranlagen. Mehr als 90 Prozent wird gebunden und reichert sich im Klärschlamm in Form von Silbersulfid an. Dieses Silbersalz ist extrem schwerlöslich und um Grössenordnungen weniger giftig als freie Silberionen. Dabei spielt die ursprüngliche Form des Silbers im Abwasser – ob als metallische Nanopartikel, ob gelöst als Silberionen oder als unlöslicher Silbersalzniederschlag – offenbar keine Rolle. «Was die Umweltauswirkungen angeht, dürfte sich Nanosilber in Konsumgütern nicht von anderen Formen von Silber unterscheiden und für Ökosysteme nur ein geringes Problem darstellen», sagt Nowack. Geklärt werden müsse aber noch, in welcher Form das nicht gebundene Silber im Abfluss der Kläranlagen vorliege und was mit dem Silbersulfid in natürlichen Gewässern geschehe, ob es etwa stabil ist oder wieder in andere Silberformen umgewandelt wird.

Literaturangaben
120 Years of Nanosilver History: Implications for Policy Makers, Bernd Nowack, Harald F. Krug, Murray Height, Environ Sci Technol, 2011, DOI: 10.1021/es103316q
Nanosilver Revisited Downstream, Bernd Nowack, Science, 2010, Vol. 330 no. 6007, pp. 1054-1055, DOI: 10.1126/science.1198074

via Informationsdienst Wissenschaft

Fledermäuse füttern Pflanzen

Eine ungewöhnliche Partnerschaft beschreiben Würzburger Zoologen im Fachblatt „Biology Letters“: Tropische Fledermäuse haben sich mit fleischfressenden Kannenpflanzen zusammengetan – zum beiderseitigen Nutzen.
Bei Kannenpflanzen ist ein Teil der Blätter zu schlauchförmigen Fallen umgestaltet. An deren glatten Innenwänden verlieren Insekten und andere kleine Tiere leicht den Halt. Sie rutschen dann in die Tiefe – direkt in einen Verdauungssaft, der sie auflöst und aus ihren Körpern wertvollen Stickstoff freisetzt. Der wiederum geht ins Gewebe der Pflanze über. Stickstoff ist lebenswichtig für Pflanzen; sie brauchen ihn unter anderem als Baustein für das Blattgrün.

Kot der Fledermäuse als Stickstoff-Quelle

Eine andere Ernährungsstrategie verfolgt die Kannenpflanze Nepenthes rafflesiana, die im Regenwald der Insel Borneo in Südostasien wächst: Sie zieht ihre zusätzliche Stickstoff-Ration nicht aus den Kadavern gefangener Tiere. Stattdessen nutzt sie den Kot der Kleinen Wollfledermaus, die sich zum Schlafen ausschließlich in die geräumigen Fallen dieser Pflanze zurückzieht und dort ihren Kot in den Verdauungssaft fallen lässt.

Beide Partner ziehen Vorteile aus dieser Beziehung: Die Pflanze bietet der Fledermaus exklusiv einen sicheren Schlafplatz und bekommt als Gegenleistung den nährstoffreichen Kot. Rund 34 Prozent des Stickstoffs, der sich in den Blättern der Pflanze befindet, stammt aus dem Fledermauskot, schätzen die Wissenschaftler.

Die Kannen der südostasiatischen Nepenthes-Art werden bis zu 25 Zentimeter lang, ihr Durchmesser beträgt vier bis fünf Zentimeter. Die Kleine Wollfledermaus misst nur drei bis sechs Zentimeter in der Länge. Meistens befindet sich ein einziges Tier in einer Kanne, hin und wieder auch ein Muttertier mit Säugling.

Extrem seltene Form der Kooperation

„Ein sehr ungewöhnliches Beispiel für eine Kooperation zwischen Tier und Pflanze“, sagt Ulmar Grafe vom Lehrstuhl für Zoologie III (Tierökologie und Tropenbiologie) der Universität Würzburg. Bislang kenne man keine andere Kannenpflanze, die sich von Fledermauskot ernährt. Dass sich ein Säugetier mit einer fleischfressenden Pflanze zusammentut, sei bisher nur in einem einzigen anderen Fall belegt: Die Kannenpflanze Nepenthes lowii lockt Spitzhörnchen an, die von ihrem Nektar trinken. Dabei sitzen die Tiere auf der Kanne und benutzen sie bisweilen ebenfalls als Toilette.

Die exotische Beziehung zwischen der Fledermaus Kerivoula hardwickii und der Kannenpflanze Nepenthes rafflesiana hat Grafe zusammen mit den Würzburger Biologie-Studierenden Michael und Caroline Schöner entdeckt. Beteiligt waren auch Forscher von den Universitäten Brunei Darussalam und Greifswald.

Co-Evolution zwischen Fledermäusen und Kannenpflanzen?

Auf den ersten Blick ist die Kannenpflanze nicht auf den Kot der Fledermäuse angewiesen – schließlich fängt sie ja Insekten, wenn auch nicht sehr viele: „Die Kannen von Nepenthes rafflesiana sind ziemlich schlechte Fallen“, erklärt Grafe. Denn sie bilden im Vergleich zu anderen Arten sehr wenig Verdauungsflüssigkeit und kaum Duftstoffe, die Insekten anlocken.

Solchen Hinweisen auf eine mögliche Co-Evolution von Fledermäusen und Kannenpflanzen wollen die Würzburger Forscher weiter nachgehen. „Vermutlich haben zuerst die Fledermäuse die Kannen aufgesucht – als Notlösung, denn Schlafplätze sind begrenzt im Regenwald“, erklärt Grafe. Durch den Kot der Tiere waren die Pflanzen möglicherweise nicht mehr so stark auf Insekten angewiesen. Das könnte die geringere Produktion von Duftstoffen und Verdauungssaft erklären.

Fortgang der Forschungsarbeit

Als nächstes wollen die Biologen untersuchen, wie die Fledermäuse ihre Schlafkannen im dichten Gestrüpp des Regenwalds finden. Außerdem interessieren sie sich für die Frage, ob auch andere Nepenthes-Arten auf den Kot kleiner Säugetiere spezialisiert sind.
„A novel resource-service mutualism between bats and pitcher plants”, Ulmar Grafe, Caroline R. Schöner, Gerald Kerth, Anissa Junaidi & Michael G. Schöner, Biology Letters, online veröffentlicht am 26. Januar 2011, doi: 10.1098/rsbl.2010.1141

via Informationsdienst Wissenschaft

Künstliches Hüftgelenk für Tigerdame "Girl"

In der Klinik für Kleintiere der Veterinärmedizinischen Fakultät der Universität Leipzig ist weltweit erstmals einem Tiger ein künstliches Hüftgelenk implantiert worden. Die acht Jahre alte Raubkatze "Girl" aus dem Zoo Halle litt am rechten Hüftgelenk unter Arthrose, wie PD Dr. Peter Böttcher von der Kleintierklinik sagt. Er war einer der fünf Spezialisten, die dem Tiger am Sonntag in einer dreistündigen Operation ein speziell angefertigtes Hüftgelenk eingesetzt haben.
Der Patientin, die während der Operation fast einen Herzstillstand erlitten hätte, gehe es mittlerweile den Umständen entsprechend gut. "Wir sind zufrieden", sagt Dr. Böttcher. Anästhesie-Professorin Michaele Alef, die neben ihm die Operation geleitet hat, habe den Zustand des Tieres während des Eingriffes wieder stabilisiert. Unmittelbar nach der Operation wurde die Malaysische Tigerin in ihr bekanntes Umfeld im Zoo zurück gebracht. Dort befindet sie sich jetzt in einem separaten Innengehege, das die Besucher nicht einsehen können. Diese Ruhe ist dem Fachmann zufolge notwendig, um ein gefährliches Ausrenken des künstlichen Hüftgelenkes zu verhindern. Dies sei die größte Gefahr in den ersten sechs Wochen nach der Operation. Danach stünden für den Tiger die Chancen gut, bis zu seinem Tod mit der künstlichen Hüfte zu leben. Die Raubkatzen haben eine Lebenserwartung von bis zu 20 Jahren.

Ausgangspunkt für die Operation war eine schmerzhafte Lahmheit, an der "Girl"
seit dem Frühling des letzten Jahres litt. Der Malaysische Tiger zählt zu den vom Aussterben bedrohten Tierarten. Weltweit leben in der freien Wildbahn nur noch 500 Tiere. Das war ein weiterer Grund, "Girl" zu operieren.

Die Hüftgelenk-Endoprothese, die der Malaysischen Tigerin eingesetzt wurde, sei bisher nur Hunden implantiert worden, für die sie von Prof. Pierre Montavon von der Universität Zürich in Zusammenarbeit mit der Schweizer Firma Kyon entwickelt wurde. "Mir ist weltweit kein anderer Fall bekannt, bei dem einem Tiger ein künstliches Hüftgelenk implantiert wurde", berichtet Dr. Böttcher. Kyon habe speziell für "Girl" eine passende Prothese gefertigt und kostenlos zur Verfügung gestellt. Auch der italienische Kleintierspezialist Dr. Aldo Vezzoni, der weltweit über die größten Erfahrungen mit dem Einsatz dieser speziellen Prothesenart bei Hunden verfügt, sei ohne Honorar zur OP nach Leipzig geflogen, um seine Kollegen bei dem Eingriff zu unterstützen. Dem Zoo in Halle, mit dem die Kleintierklinik der Universität seit Jahren zusammenarbeitet, seien daher durch diese aufwendige Operation keine größeren Kosten entstanden.

Seit einigen Jahren wird die Kyon Hüft-Endoprothese auch beim Menschen eingesetzt. "Der Hund war in dem Fall Vorreiter für den Menschen", erklärt Dr. Böttcher. Die Hüft-Endoprothese der Firma Kyon ist Dr. Böttcher zufolge eine sehr spezielle Prothese, da das Pfannenimplantat eine doppelte Titanummantelung für eine bessere Knochenintegration hat. Zudem ermöglicht ein spezielles Design von Kopf und Pfanne einen reduzierten Materialverschleiß, so dass diese Prothese deutlich länger halte als andere.

via Informationsdienst Wissenschaft

Vorratsdatenspeicherung: Debatte ohne Datengrundlage

Vorratsdatenspeicherung oder nicht? Mit ihrem Mitte Januar in einem Zeitungsinterview angekündigten neuen Gesetzesentwurf gab die Bundesjustizministerin Sabine Leutheusser-Schnarrenberger der teils hitzig geführten Debatte über diese Grundsatzfrage neuen Zündstoff. Doch eigentlich fehlt dieser Diskussion eine vernünftige Datenbasis, sagt Hans-Jörg Albrecht, Direktor am Max-Planck-Institut für ausländisches und internationales Strafrecht in Freiburg.
"An sich hätte die EU-Kommission Anfang September eine Evaluation vorlegen müssen, wie häufig bei Ermittlungen auf Vorratsdaten zurückgegriffen wurde", so der Kriminologe. "Die liegt aber nicht vor, weil die Mitgliedsländer die Daten nicht haben."

Dabei sind in der Debatte die Fronten längst geklärt. Datenschützern ist selbst das in dem Eckpunktepapier der Ministerin vorgesehene kurzfristige Einfrieren von Daten suspekt, das Strafverfolgungsbehörden im Einzelfall bei "hinreichenden Anlass" erlaubt, das Löschen der Verbindungsdaten von Festnetz- oder Mobilgesprächen oder Internet seitens der Provider zu verhindern. Anderen wiederum geht dieses "Quick Freeze Plus" genannte Verfahren nicht weit genug. Sie halten sich lieber an die Richtlinie, wie sie das EU-Parlament als Instrument der Terrorbekämpfung beschlossen hatte, oder an die seinerzeit von Union und SPD in der großen Koalition beschlossenen deutschen Fassung, nach der Telekommunikationsunternehmen verpflichtet waren, ab dem Jahr 2008 ohne Anlass die Daten von Telefonverbindungen aller Bundesbürger und ab 2009 auch die Daten von Internetverbindungen sechs Monate aufzubewahren. Dieses Gesetz hatte das Bundesverfassungsgericht jedoch im vergangenen März für verfassungswidrig erklärt.

Spätestens seit diesem Urteil dürfte jedoch allen klar sein, wie sensibel die Gesellschaft auf dieses Thema reagiert. Gegen das Gesetz hatten 2008 über 34.000 Menschen Verfassungsklage in Karlsruhe eingereicht - und damit so viele wie noch nie. "Die EU hat die Diskussionen unterschätzt, die dieses Thema aufwirft", so Albrecht. Ebenso den Widerstand: Längst nicht alle Mitgliedsstaaten haben wie Frankreich oder die Niederlande eine Vorratsdatenspeicherung eingeführt, manche wie Schweden weigerten sich sogar explizit und nahmen eine Strafe vom Europäischen Gerichtshof in Kauf. Auch Irland beschäftigt den Europäischen Gerichtshof mit der Frage, ob Vorratsdatenspeicherung nach der EU-Richtlinie mit der Grundrechtecharta vereinbar sei. "Das sind alles Fragen, die man besser vorher ausdiskutiert hätte ", so Albrecht.

Das von der Bundesjustizministerin in die Debatte gebrachte Quick Freeze-Verfahren hält Albrecht durchaus für praktikabel. Es handelt sich um ein schnelles Einfrieren von Verbindungsdaten, die "für die Erforschung des Sachverhalts oder die Ermittlung des Aufenthaltsortes des Beschuldigten erforderlich" sind. Konkret geht es um schon vorhandene, gespeicherte und die ab dem Zeitpunkt der richterlichen Anordnung anfallenden Daten.
"Das ist ein Modell, das in einigen Ländern funktioniert", stellt der Freiburger Kriminologe er mit Blick auf die USA fest, wo es schon seit geraumer Zeit praktiziert wird. Weil die Ermittler nach amerikanischem Recht die Genehmigung durch einen Richter nicht vorab, sondern im Nachhinein einholen dürfen, biete sich ihnen damit die Möglichkeit schnellen Zugriffs. "Das ist eine Vorgehensweise, die als effizient betrachtet wird", so sein Eindruck. Einen weiteren Vorteil dieser Methode sieht er darin, dass Datenschutzprobleme in verfassungsrechtlicher Hinsicht nicht anfielen. "Die eigentliche Herausforderung liegt hier zwischen Totalerfassung und Gefahrenabwehrpotenzial", so Albrecht. "Darf man das für alle Bürger verordnen?" Denn während bei der Vorratsdatenspeicherung im Sinne der EU die Telekommunikationsdaten aller Bürger gespeichert werden und somit theoretisch jeder Bürger wie ein Krimineller behandelt wird, sieht die Light-Variante eine gezielte Erhebung von Daten über einen bestimmten Zeitraum vor und ist aus Sicht ihrer Befürworter "auf das notwendige Maß begrenzt". Damit wäre der Gesetzgeber zumindest in dieser Frage aus dem Schneider. Auch beim Datenschutz träten bei dieser Methode nicht die Sicherheitsprobleme auf, die das umfassende Speichern aller Telekommunikationsdaten der Deutschen mit sich gebracht hätten - und die letztlich auch dazu beigetragen hatten, dass die Karlsruher Richter das Gesetz zur Vorratsdatenspeicherung vergangenes Jahr kippten. "Das Speichern solch ungeheurer Datenmengen birgt ein nicht zu unterschätzendes Missbrauchspotenzial", so Albrecht.

Doch bleibt die Frage, wie wichtig solche Vorratsdaten tatsächlich für die Aufklärung von Straftaten sind. Genaue Informationen dazu sollte eigentlich eine Evaluation liefern, die der EU-Kommission Anfang September vorliegen sollte. Dass dieses bislang mangels Daten nicht geschehen ist, hält der Freiburger Max-Planck-Direktor Albrecht "für ein starkes Stückchen". Doch ist es wenig wahrscheinlich, dass dieses Instrument in der Praxis Einsatz bei der Terrorfahndung findet. Zumindest haben die Forscher in seiner Abteilung bei ihren Recherchen zur ersten deutschen Studie zur Überwachung der Verkehrsdaten, deren Ergebnisse sie im Jahr 2008 veröffentlichten, nichts Entsprechendes feststellen können.

Nur in 18 Prozent der Fälle fanden die Forscher Hinweise auf Verbindungen zur organisierten Kriminalität. Ferner ergab die Analyse der in den untersuchten Fällen verhängten Sanktionen, dass ein bedeutsamer Anteil der Verfahren mit Verkehrsdatenabfrage allenfalls der mittleren Kriminalität zuzuordnen ist. Dabei kam es überhaupt nur in jedem fünften Fall zu einer Verurteilung; und nur 16 Prozent der Verurteilten erhielten eine Freiheitsstrafe von mehr als fünf Jahren.

Die Untersuchung basierte auf der Analyse von 467 Strafakten aus dem Jahr 2005 in vier Bundesländern, einer bundesweiten schriftlichen Befragung von 874 Staatsanwälten, mündlichen Vertiefungsinterviews mit Richtern, Staatsanwälten, Polizisten, Strafverteidigern und Mitarbeitern von Telekommunikationsunternehmen sowie der Analyse anonymisierter Datensätze von zwei Unternehmen aus den Bereichen Mobil- und Festnetz. Wie die Freiburger Kriminologen bei der Auswertung ihrer Datensammlung herausfanden, nutzen Ermittlungsbehörden die Verkehrsdatenabfrage immer öfter. "Während 2004 noch Daten zu etwa 6.300 IP-Adressen abgefragt wurden, stiegen diese Anordnungen 2005 auf 75.500", so Albrecht. Damit lässt sich beispielsweise ein individueller Computer identifizieren, mit dem bestimmte Adressen im Internet aufgerufen werden. Der deutliche Anstieg hängt nach seiner Beobachtung unter anderem mit großflächigen Ermittlungen im Bereich der Urheberrechtsverletzungen durch illegale Downloads zusammen. "Allein im Bereich der Staatsanwaltschaft Karlsruhe gingen 2005 etwa 20.000 Anzeigen wegen Urheberrechtsverletzungen ein." In diesen Fällen haben allerdings viele Staatsanwaltschaften das Verfahren eingestellt - so die Anzeige nicht einen gewissen Schweregrad erreicht, der sich in der Regel an einer Mindestanzahl illegaler Downloads orientiert.

Einen Anstieg etwa um das Vierfache verzeichneten die Forscher bei den Abfragen zu einer sogenannten IMEI-Nummer - die Abkürzung steht für International Mobile Equipment Identity; verdreifacht hatten sich im gleichen Zeitraum die angeordneten Zielwahlsuchen. "Insgesamt spricht die Verteilung der Straftatbestände dafür, dass die Verkehrsdatenabfrage in einem breiteren Deliktsspektrum angewendet wird als die „traditionelle“ , auf das Abhören der Gesprächsinhalte bezogene Telekommunikationsüberwachung", so Albrecht.
Auch hat die Analyse der gerichtlichen Verfahrensakten deutliche Unterschiede zu Tage gefördert, je nachdem, ob Mobil- oder Festnetzanschlüsse überwacht werden. "In vielen Fällen geht es bei den Überwachungen im Festnetzbereich um Betrug", erklärt Albrecht. Als häufig auftretendes Beispiel nennt er den sogenannten Enkeltrick, bei dem sich Fremde älteren Menschen gegenüber als Kindeskinder ausgeben, um sie finanziell auszunehmen. Auch Raub und Mord sowie Betäubungsmitteldelikte tauchen in dieser Statistik häufig auf. Im Mobilfunkbereich dominieren dagegen neben den Straftaten aus dem Betäubungsmittelbereich Raub- auch Diebstahlsdelikte.

Die Abfrage von IP-Adressen konzentriert sich auf Betrugsdelikte sowie die Bereiche Kinderpornografie und Urheberrechtsverletzung. Bei der Funkzellenabfrage geht es hingegen sehr häufig um Raub- und Diebstahlsdelikte, darunter oftmals um die Aufklärung des Verbleibs von gestohlenen oder geraubten Mobiltelefonen. Auf diese Weise sollen auch die Täter des Münchner U-Bahn-Falles vom Dezember 2007 von der Polizei erfolgreich lokalisiert worden sein. "Hier wie bei den Straftaten, die mittels Endeinrichtung begangen werden, bietet die Verkehrsdatenabfrage oft den einzigen erfolgversprechenden Ermittlungsansatz", sagt Albrecht.

Zu Sinn oder Unsinn von Vorratsdatenspeicherung für die Ermittlungspraxis sagen diese Beobachtungen jedoch nichts aus. "Alle Untersuchungsergebnisse basieren noch auf der Rechtslage, wie sie sich in Deutschland vor Einführung der Vorratsdatenspeicherung dargestellt hat", betont Albrecht. Insoweit orientiert sich die Praxis maßgeblich an den verfügbaren Datenbeständen der Telekommunikationsdienstleister, die für Rechnungsstellung Verbindungsdaten aufhoben. In der Regel seien diese Daten damit nur über einen Zeitraum von höchstens drei Monaten verfügbar gewesen. "Daher waren auch aussagefähige Verbindungsdaten bei Kunden mit Prepaid-Karten und Nutzern von Flatrates bislang praktisch nicht verfügbar", so der Forscher.

Ob, und gegebenenfalls wie, sich die Überwachungspraxis unter den Bedingungen der bis vor einem Jahr geltenden sechsmonatigen Vorratsdatenspeicherung verändert hatte, versuchen Hans-Jörg Albrecht und seine Kollegen an dem Freiburger Institut im Rahmen einer Wiederholungsstudie herauszufinden. Im kommenden Frühjahr liegen die Ergebnisse vor, ist er überzeugt. "Derzeit führen wir Gespräche mit verschiedenen Innenministerien und Behörden, um an die Daten zu kommen." Für die Debatte über die Vorratsdatenspeicherung dürften die neuen Resultate jedenfalls interessant sein. "Denn wie es damit weitergeht, hängt vor allem davon ab, was für Daten vorgelegt werden."

via Informationsdienst Wissenschaft

Entdeckung der Grenze zwischen der Arabischen und der Indischen Platte

Einige Plattengrenzen in der Tiefsee sind noch heute unbekannt. Dank der "Owen" Expedition im Jahr 2009 gelang es einem Forscherteam des Instituts für Geowissenschaften Paris (iSTeP, CNRS-INSU, UPMC), des Labors für Geologie des ENS (CNRS-INSU, ENS) und des Géoazur (CNRS-INSU, IRD) die Grenze zwischen der arabischen und der indischen Platte zu definieren. Die Forscher stützten sich bei ihrer Arbeit auf ein hochauflösendes Tiefseelot an Bord des Forschungsschiffes Beautemps-Beaupré.
Die bathymetrischen Daten brachten ein bislang unbekanntes Verwerfungssystem ans Licht, das sich über mehr als 800 km im Nordwesten des Indischen Ozeans erstreckt. Die Ergebnisse dieser Untersuchung wurden in der Fachzeitschrift Earth and Planetary Science Letter veröffentlicht.

Die arabische und die indische Platte gleiten in Höhe der Owen Fracture Zone (Owen-Bruchzone) im Indischen Ozean aneinander vorbei. Die Owen-Bruchzone gehört wie die San-Andreas-Spalte in Kalifornien zu den wichtigsten Plattengrenzen. Diese Zone zeichnet sich durch eine geringe Seismizität und eine Falte aus, die sich bis zu 2000 m über den Ozeanboden erhebt. Die arabische Platte bewegt sich, etwas schneller als die indische Platte, mit einer Geschwindigkeit von 2 bis 4 mm pro Jahr nach Norden.

Die bathymetrischen Daten zeigen ein spektakuläres System von aktiven Verwerfungen, das den Owen-Rücken spaltet und ihn sowohl zum südlichsten Punkt als auch in die Mitte verschiebt (d.h., dass sich der östliche Block der Verwerfung nach Süden verschiebt). Die gesamte Verschiebung erreicht 10 bis 12 km. Mit Hilfe einer Extrapolation der aktuellen Verschiebung von 3 ± 1 mm pro Jahr könnte die Verschiebung der letzten 3 bis 6 Millionen Jahren berechnet werden. Diese winzige Verschiebung ist ein Beweis dafür, dass diese Verwerfungen sich auf der geologischen Zeitskala erst vor relativ kurzer Zeit gebildet haben.

Besonders an der westlichen Seite des Owen-Rückens sind zahlreiche Spuren von Erdrutschen zu beobachten, die wahrscheinlich durch Erdbeben entlang der Owen-Bruchzone ausgelöst wurden. Aufgrund ihres großen Volumens sind diese Verschiebungen eine potenzielle Quelle für Tsunamis an den benachbarten Küsten von Oman.

Mit Hilfe dieser Studie konnte ein bislang unbekanntes System aktiver Verwerfungen auf einer Länge von 800 km entdeckt werden, das mit riesigen Erdrutschen an der Grenze zur arabischen und zur indischen Platte verbunden ist. Auf der Grundlage dieser Ergebnisse müssen das seismische und das Tsunami-Risiko im Indischen Ozean neu bewertet werden.

Weitere Information unter:
Campagne OWEN: http://www.insu.cnrs.fr/co/expeditions-et-campagnes/owen

via Informationsdienst Wissenschaft

Mittwoch, 26. Januar 2011

Klimageheimnis im Marianengraben

Die tiefste Stelle im Meeresboden speichert überraschend viel Kohlenstoff. Ein internationales Team von Meereswissenschaftlern bringt jetzt überraschende Erkenntnisse zum Klimageschehen vom tiefsten Punkt des Meeres mit.
Den Wissenschaftlern der Japan Agency for Marine-Earth Science and Technology (JAMSTEC), der Scottish Association for Marine Science (SAMS), der University of Southern Denmark (SDU), der University of Copenhagen, der HGF-MPG Brückengruppe für Tiefseeökologie und Technologie vom Max-Planck-Institut für Marine Mikrobiologie (MPI Bremen,und des Alfred Wegener Instituts für Polar- und Meeresforschung (AWI Bremerhaven) gelang es, zum ersten Mal Daten über klimarelevante Prozesse direkt am Grund des Marianengrabens mit einem Tiefsee-Messsystemen zu gewinnen. Der Marianengraben liegt ca. 2000 km östlich der Philippinen und gilt mit fast 11000 Metern als tiefster Punkt der Erde.

Ein speziell für diese Untersuchungen entwickeltes Messsystem ging für mehrere Male hinab zum Grund der Challenger-Tiefe, einem Graben in 10,9 km Wassertiefe, um dort mikrobielle Prozesse zu verfolgen. Dieser wissenschaftliche Einsatz in der extremen Tiefe ist der erste seiner Art und erfolgte während der Expedition YK 10-16 mit dem japanischen Forschungsschiff Yokosuka, unter der Fahrtleitung von Prof. Hiroshi Kitazato (JAMSTEC).

Um den globalen Kohlenstoffkreislauf besser verstehen zu können, ist es wichtig zu wissen, welche Rolle die Meere in der Speicherung des Kohlenstoffs spielen. Tiefe Ozeangräben wie der Marianengraben decken zwar nur 2% des Meeresbodens ab, könnten aber eine ungleich größere Rolle im Kohlenstoffumsatz spielen. Das Ziel dieser Expedition war herauszufinden, wie schnell Kohlenstoffverbindungen in diesen Tiefen umgesetzt werden und anhand von Sedimentproben herauszufinden, wie viel Kohlenstoff dort in den Gräben gespeichert wird. Erst der Vergleich zwischen dem Anteil gespeicherten Kohlenstoffs zu dem Anteil zersetzter Kohlenstoffverbindungen im Meeresboden liefert den Schlüssel zum Verständnis des Kohlenstoffkreislaufs und damit zum Klima unseres Planeten.

Der Wasserdruck in dieser Tiefe ist enorm und mikrobielle Untersuchungen sind sehr schwierig. Die Proben können nicht einfach an die Wasseroberfläche geholt werden, denn das würde die Lebewesen stark beeinflussen. Die Forscher, um Prof. R.N. Glud (SDU und SAMS) und Dr. F. Wenzhöfer (MPI und AWI), mussten ein spezielles Messsystem entwickeln, das an Ort und Stelle die Messungen durchführen konnte. Besondere Sauerstoffsensoren kamen zum Einsatz, um damit ein engmaschiges Netz von Sauerstoffprofilen im Meeresboden zu erhalten, denn Sauerstoff ist wichtig bei dem Abbau organischer Verbindungen. Das autonome Messsystem in 10000 Metern Tiefe zum Laufen zu bringen war eine große Herausforderung. Das gesamte Tiefsee-Landersystem ist auf einen Druck von mehr als 1000 Atmosphären ausgelegt und ist das Ergebnis internationalen Teamworks zwischen japanischen, schottischen, dänischen und deutschen Forschern.
Mit Hilfe des neu entwickelten Spezialgerätes konnte die mikrobielle Aktivität am Meeresboden genau kartiert werden. Die ersten vorläufigen Ergebnisse sorgten für eine Überraschung, denn der Kohlenstoffumsatz am Grund des Grabens ist viel höher als weiter oben auf dem Tiefseeplateau in 6000 Metern Tiefe. Das bedeutet, dass die Tiefseegräben als Kohlenstoffsenke fungieren. Genauere Ergebnisse dazu werden weitere Untersuchungen der Sedimentproben liefern. Diese Expedition ist ein Beispiel für gute internationale Zusammenarbeit. Denn es ist schon ein Erfolgserlebnis, an der tiefsten Stelle des Meeresbodens Messungen durchzuführen und Daten zu sammeln. Jetzt hoffen die Wissenschaftler, dass mit den Auswertungen der neuen Ergebnisse wichtige Fragen über die Mineralisierung und Speicherung von Kohlenstoff am Meeresboden beantwort werden können.

Via Informationsdienst Wissenschaft

Videos vom Kirishima

In Japan ist der Vulkan Kirishima ausgebrochen. Lars Fischer hat mich auf zwei spektakuläre Videos aufmerksam gemacht, die ich hier einmal einstelle.



Climate secrets locked at the bottom of the Mariana Trench

The deepest part of the ocean traps amounts of carbon. An international team of marine scientists got surprising data from the deepest part of the oceans affecting the world’s climate.
For the first time scientists from the Japan Agency for Marine-Earth Science and Technology (JAMSTEC), the Scottish Association for Marine Science (SAMS), the University of Southern Denmark, the University of Copenhagen (Denmark), the HGF-MPG Joint Research Group on Deep-Sea Ecology and Technology from the Max Planck Institute for Marine Microbiology (MPI Bremen, Germany), and the Alfred Wegener Institute for Polar and Marine Research (AWI Bremerhaven, Germany) successfully collected data directly at the bottom of the Mariana Trench located 2000 km East of the Philippines, in a depth of 11000 meters.

A sophisticated deep-diving autonomous lander has carried out a series of descents to the seafloor of the Challenger Deep, a canyon 10.9 km beneath the ocean surface. Here it performed detailed investigations of microbial processes occurring in the sediment. Such detailed science has never been carried out at these extreme depths. The work was carried out during an expedition with the Japanese research vessel Yokosuka (Cruise YK 10-16), with Prof. Hiroshi Kitazato (JAMSTEC) acting as cruise leader.
To better understand the global carbon cycle it is critical to know what role the oceans play in carbon sequestration. Deep ocean trenches make up only 2% of the seafloor but may be disproportionately important as a trap for carbon. The aim of this research was to measure the rate by which organic carbon is degraded at these extreme depths and to estimate from collected sediment samples how much organic carbon is retained in the trenches. The fraction of carbon retained versus degraded in the seabed is crucial to understand the marine carbon cycle and hence the climate of our planet.

The pressure at these great depths is extreme, so to investigate microbial processes in samples from such depths can be very difficult – bringing the organisms to the surface can radically affect them. Therefore scientists around Prof. R.N. Glud (SAMS and SDU) and Dr. F. Wenzhöfer (MPI and AWI) developed an instrument capable of performing the measurements directly on the seafloor at this great depth. Specially constructed sensors probed the sediment in small grids and mapped out the distribution of oxygen in the seabed, providing key insight into the rate at which organic carbon is degraded. To get the “robot” to operate at 10.9km depth was a great challenge. Equipment designed by the team was specially engineered for the mission to function at pressures in excess of 1000 atmospheres. The deployed deep-sea system was a joint effort of Japanese, Scottish, Danish and German scientists. During the cruise the scientist succeeded in performing detailed mapping of microbial activity using highly sophisticated, movable instrumentation and microsensor arrays. Preliminary data from the measurements came as a surprise, as they reveal that the turnover of carbon is much greater at the bottom of the Trench than on the Abyssal plain (6000 metres down). This demonstrates that the seabed in the trenches acts as a trap for organic material and may therefore have high rates of carbon retention. Analyses will be carried out on recovered samples by the research team and they will reveal the rate at which sediment is accumulating at the bottom of the trench. The expedition is a good example of international teamwork. There was a great sense of achievement to study and bring back data from the deepest part of the ocean. Now the researchers expect that this information will help to answer some very important questions regarding carbon mineralisation and sequestration in the ocean trenches.

via Informationsdienst Wissenschaft

Von Vögeln und Menschen – wie Grippenviren ihr Reservoir wechseln

Influenza A Viren, die Erreger der Grippe, verursachen jährlich millionenfach schwere Infektionserkrankungen mit oft tödlichem Ausgang. Ihre Fähigkeit, die Barrieren zwischen Vögeln, Schweinen und Menschen zu überspringen und hoch-aggressive Krankheitsverläufe zu verursachen, gehört zu den großen Herausforderungen der Gesundheitsforschung. Am Hamburger Heinrich-Pette-Institut arbeitet Gülsah Gabriel mit ihrem Team an diesem Problem. Jetzt beschreibt sie in Nature Communications detailliert, wie Influenza A Viren eine zellinnere Barriere überwinden und sich so an einen neuen Wirt anpassen können (1).
Bei der Anpassung an neue Wirte müssen Grippeviren zwei Barrieren überwinden: die äußere Zellmembran sowie die innere Hülle um den Zellkern. Die Überwindung der ersten, äußeren Barriere ist seit vielen Jahrzehnten bekannt und wird intensiv erforscht. „Wir beschreiben nun erstmals im Detail die zweite innere Barriere, an die sich Grippeviren anpassen müssen, wenn sie von Vögeln auf den Menschen übergehen“, fasst Gülsah Gabriel zusammen. Mit Kollegen aus Hamburg, Marburg und Oxford untersuchte sie in detektivischer, mehrjähriger Arbeit unterschiedlichste Grippeviren von Mensch, Vogel und Schwein, unter anderem auch das H1N1-Virus der Grippepandemie 2009. „Um diese Anpassungsprozesse zu verstehen, müssen wir beide Partner untersuchen: das Grippevirus und seinen Wirt. In unseren Experimenten mit Zellkulturen und so genannten knock-out Mäusen interessierte uns vor allem eine Familie zellulärer Proteine, die so genannten alpha-Importine“, so Gabriel. Importine sind Teil einer Importmaschine: Sie transportieren Proteine und Virusbestandteile in Richtung Zellkern und sind somit Teil der zweiten innneren Barriere für Viren. Zelleigene und virale Proteine docken an Importine an und gelangen so ins Innere des Zellkerns, wo die Vermehrung des viralen Erbguts stattfindet. Auch das dazu notwendige Polymerase-Enzym der Grippeviren braucht Importin.

„Man kennt bei Vögeln und Menschen inzwischen 6 verschiedene Importin-alpha Varianten (Isoformen). Jetzt zeigen wir erstmals, dass Influenza A Viren sich an eine neue Isoform anpassen, wenn sie von Vögeln auf Menschen überspringen. Vogelgrippeviren nutzen das Importin-alpha 3 und Menschengrippeviren brauchen Importin-alpha 7. Das Polymerase-Enzym des H1N1-Grippevirus aus dem Jahr 2009 braucht jedoch beide Isoformen und hat sich somit noch nicht vollständig an den Menschen angepasst. Es befindet sich noch in der Anpassungsphase“, erklärt Gülsah Gabriel. „Damit haben wir ein neues Gen entdeckt, das für die Virusübertragung über Artgrenzen hinweg wichtig ist und unsere Empfänglichkeit gegenüber Influenzaviren reguliert.“ Importin alpha-7 könnte ein neues therapeutisches Ziel im Kampf gegen humane Grippeviren sein: „Indem wir das Importin-alpha 7 Gen zeitweise ausschalten, hätten wir vielleicht eine neue Strategie gegen gefährliche und hochaggressive Grippepandemien“, hofft Gülsah Gabriel.

(1) Gülsah Gabriel, Karin Klingel, Anna Otte, Swantje Thiele, Ben Hudjetz, Gökhan Arman-Kalcek, Martina Sauter, Tatiana Shmidt, Franziska Rother, Sigrid Baumgarte, Björn Keiner, Enno Hartmann, Michael Bader, George G Brownlee, Ervin Fodor und Hans-Dieter Klenk: Differential use of importin-alpha isoforms governs cell tropism and host adaptation of influenza virus. Nature Communications, 18. Januar 2011, DOI: 10.1038/ncomms1158

via Informationsdienst Wissenschaft

Neues Buch bringt Laien die faszinierende Welt Fossilien nahe

In Bernstein eingeschlossene Mücken, über Jahrhunderttausende konservierte Pflanzen, Fußabdrücke von rennenden Dinosauriern: Ebenso vielschichtig wie die bislang gefundenen Fossilien sind die Geschichten, die sie erzählen. Ein Paläontologe der Universität Bonn hat nun ein Buch zu den uralten Meilensteinen der Evolution herausgegeben. Der mit vielen faszinierenden Bildern ausgestattete Band richtet sich an alle, die sich für Fossilien interessieren.
Der Neandertaler ist gar nicht ausgestorben. Das behauptet zumindest der schwedische Molekularbiologe Svante Pääbo. Homo sapiens und Homo neanderthalensis haben noch bis vor ca. 28.000 Jahren nebeneinander existiert. Pääbo ist der Überzeugung, dass es vor dieser Zeit zu sexuellen Kontakten zwischen Ur- und Jetztmensch gekommen ist.

Woher hat der renommierte Wissenschaftler seine Einblicke in diese prähistorischen Bettgeschichten? Die Antwort ist einfach: aus den Genen. Denn die haben sich in den Gebeinen des Homo neanderthalensis zumindest teilweise bis heute erhalten. 60 Prozent des Neandertaler-Genoms haben Pääbo und Kollegen inzwischen entschlüsselt. Genug, um zu dem Schluss zu kommen, dass ein gewisser Teil unseres Erbguts (nach Schätzungen ein bis vier Prozent) von dem lange als tumber Tor verspotteten Urmenschen stammt. In uns allen steckt also ein Stück Neandertaler.

Der Bonner Paläontologe Professor Dr. Jes Rust hat dem Thema „alte DNA“ in seinem Buch „Fossilien: Meilensteine der Evolution“ ein umfassendes Kapitel gewidmet. Darin geht er auch auf die Frage ein, ob die Forschung aus uralter DNA die Dinosaurier wieder auferstehen lassen könnte. Die Antwort wird manche enttäuschen, andere wiederum erleichtern: „Jurassic Parc“ wird wohl nie Realität werden - schon deshalb, weil DNA selbst bei günstigsten Bedingungen zu schnell zerstört wird. Auf 65 Millionen Jahre alte Erbgut-Funde zu hoffen, scheint daher mehr als realitätsfern.

Tödlichen Naturkatastrophen fielen 90 Prozent aller Arten zum Opfer

Spannende Geschichten erzählen Fossilien jedoch zu Genüge - zumindest dem, der sie zu lesen weiß. Sie sind anschauliche Zeugen für Darwins Evolutionstheorie. Sie künden von riesigen Katastrophen, denen in der erdgeschichtlichen Vergangenheit bis zu 90 Prozent der damals lebenden Arten zum Opfer fielen. Sie zeigen, zu welchem Boom manche Arten ansetzten, die diesen großen Massenaussterben entrannen.

Manche Geheimnisse der Fossilien beginnen wir erst in den letzten Jahren zu enträtseln. So können Experten inzwischen anhand geochemischer Analysen der uralten Überbleibsel Einiges über die Lebensweise von längst ausgestorbenen Tieren sagen. Rust geht in seinem 160-seitigen Buch auch auf die aktuellen Entwicklungen in der Erforschung von langfristigen Evolutionsprozessen ein und erläutert die Bedeutung von so genannten Fossillagerstätten, die zahlreiche, besonders herausragende Funde geliefert haben. Schließlich wagt er einen Ausblick darauf, welche Antworten von der Fossilforschung in Zukunft zu erwarten sein dürften.

Bei aller Detailfülle richtet sich das Buch vor allem an interessierte Laien. Dass dabei auch die Ästhetik nicht zu kurz kommt, dafür sorgen unter anderem die rund 95 hervorragenden Fotos, die zum größten Teil zuvor noch nicht veröffentlicht wurden. Viele von ihnen stammen von dem Fotografen Georg Oleschinski, der seit Jahren die Funde der Bonner Wissenschaftler ins rechte Licht setzt.

Jes Rust: Fossilien – Meilensteine der Evolution. 160 Seiten, 104 Abbildungen. Wissenschaftliche Buchgesellschaft, Darmstadt. ISBN 978-3-534-17987-0 und Primus Verlag, Darmstadt. ISBN 978-3-89678-717-0

via Informationsdienst Wissenschaft

Kinder mit Grunderkrankungen sollten gegen Influenza geimpft sein

Infektionsepidemiologische Forschung hat einen hohen Stellenwert, um Ursachen, Folgen und die Verbreitung von Infektionskrankheiten besser zu verstehen und gezielte Präventionsmaßnahmen zu empfehlen. In der amerikanischen Fachzeitschrift Emerging Infectious Diseases haben Infektionsepidemiologen des Robert Koch-Instituts eine Studie mit Daten zu schweren und tödlichen Erkrankungen durch pandemische Influenza (Influenza A(H1N1) 2009 oder „Schweinegrippe“) bei Kindern und Jugendlichen veröffentlicht. Für diese Gruppe gab es bislang europaweit kaum wissenschaftliche Daten. Die Ergebnisse zeigen deutlich mehr schwere Erkrankungen als in den Jahren zuvor und unterstreichen die Bedeutung der Influenzaschutzimpfung insbesondere für Kinder mit Grunderkrankungen, die von der Ständigen Impfkommission seit Jahren empfohlen wird.

Da derzeit „Influenza A(H1N1) 2009“ dominiert, muss insbesondere beim Vorliegen von Grundkrankheiten auch bei jüngeren Erwachsenen und Kindern weiterhin mit schweren Erkrankungen gerechnet werden. Die Impfung gegen Influenza ist für Chronisch Kranke aller Alterstufen empfohlen, für Schwangere, Menschen über 60 Jahre und Medizinpersonal. “Auch wenn die Influenzawelle bereits begonnen hat, kann die Impfung noch sinnvoll sein, man sollte seinen Arzt ansprechen“ sagt Prof. Dr. Reinhard Burger, Präsident des RKI.

Das Wissenschaftler-Team untersuchte intensivstationspflichtige und tödliche Fälle von pandemischer Influenza bei Kindern unter 15 Jahren. Die RKI-Epidemiologen befragten zwischen August 2009 und April 2010 monatlich rund 380 Kinderkliniken. Sie kooperierten dabei mit der „Erhebungseinheit für Seltene Pädiatrische Erkrankungen in Deutschland“ (ESPED) an der Universität Düsseldorf, in der alle Kinderkliniken beteiligt sind. Mehr als 80 Prozent der ausgeteilten Fragebogen wurden ausgefüllt und zurückgeschickt.

Für die Studie wurden die Angaben zu 93 schwer erkrankten Kindern und Jugendlichen mit laborbestätigten Influenzainfektionen ausgewertet, 15 von ihnen sind gestorben (16 Prozent). Im selben Zeitraum wurden in Deutschland insgesamt 29 influenzaassoziierte Todesfälle bei Kindern und Jugendlichen unter 15 Jahren gemeldet. Der Unterschied zwischen Studien- und Meldedaten dürfte dadurch zustande kommen, dass in der Studie nur Fälle in Kinderkliniken untersucht wurden.

Drei Viertel der Patienten aus der RKI-Studie hatten mindestens eine chronische Grunderkrankung, am häufigsten neurologische Entwicklungsstörungen, gefolgt von chronischen Atemwegserkrankungen, Immunschäden und Herzkrankheiten. In einer Studie mit dem selben Kliniknetzwerk waren in den drei Influenza-Saisons 2005/06, 2006/07 und 2007/08 insgesamt nur zwei Todesfälle registriert worden. „Die höhere Zahl in der Pandemie könnte teilweise auf die erhöhte Aufmerksamkeit während der Pandemie zurückgehen“, vermutet Walter Haas, Leiter des Fachgebiets Respiratorisch übertragbare Erkrankungen und Mitautor der Studie. Nur neun Prozent der Kinder über sechs Monaten waren gegen die pandemische Influenza geimpft, alle überlebten. Allerdings stand der Impfstoff erst Anfang November 2009 zur Verfügung.

Neun der 93 Kinder erkrankten während des Krankenhausaufenthaltes. Das Risiko einer solchen (nosokomialen) Übertragung ist auch in zwei Studien in anderen Staaten belegt worden. Diese Studien zeigen, dass das pandemische Virus vermutlich durch Medizinpersonal übertragen worden war. Dies unterstreicht die Notwendigkeit der Impfung des Medizinpersonals und einer raschen Diagnostik.

Vorab-Veröffentlichung: Altmann et al., Severe cases of Pandemic (H1N1) 2009 in Children, Germany, Emerg Infect Dis., 2/11, http://www.cdc.gov/eid/content/17/2/186.htm

via Informationsdienst Wissenschaft

Stickstoff – lebensnotwendiger Nährstoff und gefährlicher Schadstoff

UBA veröffentlicht neue Broschüre „Stickstoff - Zuviel des Guten?“
Stickstoff hat zwei Gesichter: Er ist zum einen – als Grundbaustein der Natur – ein lebensnotwendiger Nährstoff, zum anderen ein gefährlicher Schadstoff für Menschen und Ökosysteme. Hauptverursacher so genannter reaktiver Stickstoffemissionen in alle Umweltmedien ist die Landwirtschaft mit mehr als 50 Prozent. Doch auch Emissionen aus dem Verkehr, aus Industrie und Energiegewinnung sowie aus Abwässern tragen jeweils mit annähernd 15 Prozent bei.
In der neuen Broschüre „Stickstoff – Zuviel des Guten?“ stellt das Umweltbundesamt (UBA) die verschiedenen Wirkungen des Stickstoffs vor, benennt die wichtigsten Quellen und zeigt Möglichkeiten auf, schädliche Stickstofffreisetzungen zu reduzieren.
Stickstoff ist für die Landwirtschaft von entscheidender Bedeutung – seine Verfügbarkeit bestimmt die Erträge auf den Feldern. Die Verwendung stickstoffhaltiger Düngemittel ist daher in der Landwirtschaft gängige Praxis. So nützlich reaktiver Stickstoff auf den Feldern ist, so schädlich kann er sich in anderen Bereichen auswirken. Reaktive Stickstoffverbindungen gefährden die menschliche Gesundheit (Stickstoffoxide), vermindern die Qualität unseres Grundwassers (Nitrat) und verschärfen den Klimawandel (Lachgas); sie führen zur Versauerung und Überdüngung naturnaher Ökosysteme und damit zu einem Verlust an biologischer Vielfalt (Ammoniak). Zudem fördern sie auch die Zerstörung von Bauwerken.
UBA-Präsident Jochen Flasbarth sagt dazu: „Die Reduktion der Stickstoffeinträge aus der Landwirtschaft kommt zu langsam voran. Wir brauchen deshalb weitergehende Maßnahmen, um die damit verbundenen Umwelt- und Gesundheitsgefahren zu vermindern. Längerfristig muss es das Ziel sein, regionale Stoffkreisläufe zu schließen.“
Das Umweltbundesamt stellt die neue Broschüre „Stickstoff – Zuviel des Guten?“ in Berlin auf der Grünen Woche, der Messe für Ernährung, Landwirtschaft und Gartenbau, vor.
Die-UBA-Broschüre: „Stickstoff – Zuviel des Guten?“ steht auch unter http://www.uba.de/uba-info-medien/4058.html zum kostenlosen Download zur Verfügung.

Dienstag, 25. Januar 2011

Neues Verfahren verringert Arsen im Grundwasser

Arsenbelastung ist eine wachsende Bedrohung für die weltweiten Wasserressourcen. Betroffen sind Millionen von Menschen, vor allem in Teilen von Bangladesch, Ost-Indien, Vietnam, Mexiko, Argentinien und Chile. Auch in den USA und in Mitteleuropa sind an unterschiedlichen Orten immer weiter steigende Konzentrationswerte zu finden. Durch Menschen verursachte Arsenbelastungen entstehen beispielsweise durch Bergbau, in der modernen Landwirtschaft durch den Einsatz von Pestiziden, sowie in der militärischen Produktion.

Das Institut für Wasserwirtschaft, Hydrologie und landwirtschaftlichen Wasserbau (WAWI) an der Leibniz Universität hat ein neues Verfahren entwickelt, mit dem die Konzentration von Arsen im Grundwasser verringert werden soll. Im Auftrag des Staatlichen Baumanagements Lüneburger Heide und mit Unterstützung der Bundesanstalt für Geowissenschaften und Rohstoffe forschten Prof. Max Billib und sein Team vom WAWI auf dem Gelände eines ehemaligen Militärstandorts in Norddeutschland. Dort gibt es eine sehr hohe Arsenkonzentration: Durch militärische Produktionsanlagen wurden Boden und Wasser während der beiden Weltkriege hochgradig kontaminiert.

Die Wissenschaftler errichteten eine Pilotanlage, die die unterirdische Aufbereitung von arsenhaltigem Grundwasser gewährleistet. Dazu bohrten sie zwei Brunnen, durch die das Grundwasser sowohl gefördert als auch infiltriert werden kann. Das Wasser wird hochgepumpt, Eisenchlorid zugesetzt, und über den zweiten Brunnen wieder nach unten befördert. Das Gleiche passiert bei der Zugabe von Sauerstoff.

Die Methode: Durch Zugabe von Sauerstoff oxidiert das Eisen und fällt im Grundwasserleiter aus, wird also fest. In diesem Fällungsprozess bindet sich Arsen an die schwammartigen Eisenverbindungen und lagert sich an deren Oberfläche an. Die Eisenverbindungen altern und entwässern. Dadurch wird das angelagerte Arsen in einen kristallinen, schwer lösbaren Zustand überführt. Mit diesem Verfahren wird der Arsengehalt im Grundwasser verringert. Laborversuche zur Optimierung der Abläufe ergänzten die Feldforschung.

Die bisher bekannte Reinigungstechnologie mit Filteranlagen verursacht hohe Betriebskosten und kontaminierte Filter, die mehrmals im Jahr ausgetauscht und als Sondermüll entsorgt werden müssen. Im Fall des norddeutschen Militärgeländes kommen so pro Jahr etwa 600.000 Euro an Kosten zusammen – und das bei einem fast 20 Jahre laufenden Einsatz. Das von den Forschern am WAWI entwickelte und erprobte Verfahren erzeugt keinen Restmüll, ist kostengünstiger und unterstützt die bereits bestehenden Filteranlagen.

via Informationsdienst Wissenschaft

Montag, 24. Januar 2011

Juristisches Handbuch für Fotografen

Wenn man fotografiert und seine Bilder auch im Netz ausstellt, oder sie sogar bei Agenturen zum Verkauf anbietet, dann kommt man unweigerlich mit einigen juristischen Regelungen in Berührung. Wie das mit der Panoramafreiheit funktioniert, glauben wir ja noch alle halbwegs zu wissen. Aber wie ist es mit dem recht am eigenen Bild? Wie funktioniert es, wenn Logos oder Markenzeichen mit im Bild sind? Und was sind Modell- und Property Releases? Diese und einige weitere Fragen versucht das juristische Handbuch zu klären und einen Einblick in die Gesetzeslage und die Rechtsprechung zum Thema Fotorecht zu geben.

Zum Download des juristischen Handbuches für Fotografen als pdf

Webcams von Vulkanen

Mittlerweile stehen an vielen Vulkanen Webcams, mit denen man die Aktivität der Feuerberge live im Internet verfolgen kann. Bei Big Think ist eine Liste mit (nach eigener Aussage) aller Vulkan-Wbcams zu finden.

TU Berlin: Stellungnahme zu den Äußerungen von Dr. Thilo Sarrazin

Stellungnahme zu den Äußerungen von Dr. Thilo Sarrazin

Stellungnahme der TU Berlin zu den Äußerungen von Dr. Thilo Sarrazin anlässlich einer Absage seines Gastvortrags in einem Seminar:

In einer großen Boulevardzeitung wird Herr Sarrazin unter anderem mit folgenden Aussagen zitiert: „Diese Linksfaschisten verhindern die freie Meinungsäußerung an einer deutschen Universität.“ und „Es ist auch eine Analogie zum Auftreten von Studenten in SA-Uniform, die Anfang der 30er-Jahre vor der Machtergreifung der Nazis Andersdenkende niederbrüllten.“

„Über diese Zitate von Herrn Sarrazin sind wir erschüttert. Derartige politische Einordnungen können wir nicht stehen lassen und verwahren uns entschieden dagegen. Wir fordern Herrn Sarrazin auf, solche Vergleiche zu unterlassen“, so TU-Präsident Prof. Dr.-Ing. Jörg Steinbach.

Zum Hintergrund: Ein Wissenschaftler der TU Berlin hatte Ende vergangener Woche den Gastvortrag von Herrn Sarrazin in einem Seminar der Fakultät VII Wirtschaft und Management abgesagt, da eine ordnungsgemäße Durchführung nicht absehbar war. „Als Universitätsleitung stehen wir zu der Entscheidung der Fakultät und sprechen uns mit allen Mitteln gegen die politische Diffamierungen unserer Universität und unserer Studierenden durch Herrn Sarrazin aus“, so TU-Präsident Prof. Dr.-Ing. Jörg Steinbach.

Weitere Informationen erteilt Ihnen gern: Stefanie Terp, Pressesprecherin der TU Berlin, Tel.: 030/314-23922, E-Mail: pressestelle@tu-berlin.de

Dazu auch: Herr Sarrazin und seine Quellen

Mit Röntgenstrahlen werden Materialeigenschaften erforscht

Gemeinschaftsprojekt von Siegener, Wuppertaler und Dortmunder Wissenschaftlern: Einweihung einer neuen Beamline an der Synchrotronstrahlungsquelle DELTA der Technischen Universität Dortmund
Die kleinsten, d.h. atomaren Strukturen von Materialien, ob in der Nanotechnologie oder der Biologie, interessieren Wissenschaftler und Unternehmer gleichermaßen. Mit Hilfe hochintensiver Röntgenstrahlung, der so genannten Synchrotronstrahlung, kann die genaue Anordnung von Atomen in Materialien aufgeklärt werden. Von dieser Anordnung hängt es beispielsweise ab, ob Stahl hart oder spröde ist, ob ein Transistor funktioniert oder nicht, ob Medikamente wirken oder wirkungslos sind. Das Wissen über die Anordnung der Atome in Materialien aller Art ist letztlich der Schlüssel zum Verständnis ihrer Eigenschaften. In der Elektronen Speichering Anlage DELTA, die von der TU Dortmund betrieben wird und im Land NRW einzigartig ist, wird diese Strahlung erzeugt.

Wissenschaftler der Universität Siegen und der Bergischen Universität Wuppertal haben in den vergangenen Jahren mit etwa 1 Million Euro einen hochkomplexen Messplatz, eine so genannte Beamline, zum Studium der atomaren Struktur von Materialien aufgebaut, die am Montag eingeweiht worden ist. Anwesend waren die Rektorin der TU Dortmund, Prof. Ursula Gather, der Rektor der Universität Siegen, Prof. Holger Burckhart, der Prorektor für Forschung der Bergischen Universität Wuppertal, Prof. Michael Scheffel, der Siegener Physiker und Projektleiter Prof. Ulrich Pietsch, Prof. Ronald Frahm, Physiker von der Bergische Universität Wuppertal und der Leiter von DELTA und Prorektor Forschung der TU Dortmund Prof. Metin Tolan. „Mit diesem neuen Messplatz wollen wir weiterhin einen Vorsprung in der Wissenschaft erzielen“, sagte die Rektorin der TU Dortmund. Ihr Amtkollege aus Siegen, Prof Burckhart, lobte „die fruchtbare Zusammenarbeit in diesem Projekt. Wir werden damit den Wissenschaftsstandort NRW prägen.“

Insgesamt stehen jetzt bei DELTA sieben Beamlines für Nutzer aus der Wissenschaft und Industrie aus ganz NRW zu Verfügung und liefern einmalige Forschungsmöglichkeiten, die die beteiligten Universitäten allein so nicht anbieten könnten. Mit Hilfe der neuen Beamline kann beispielsweise die Langzeit-Lebensdauer von Stahl untersucht werden, ein Projekt des Siegener Wissenschaftlers Prof. Dr.-Ing- Hans-Jürgen Christ. Die Grundlagen für die Belastbarkeit von Stahlteilen werden auf atomarer Ebene erforscht. Anwendung findet dies beispielsweise bei Flugzeugrotoren, Windrädern oder Eisenbahnradsatzwellen. So soll verhindert werden, dass es in dauerfest deklarierten Bereichen zu Rissbildung, Rissausbreitung und damit zum Bauteilversagen kommen kann.

Ein weiteres Siegener Projekt, welches an diesem Messplatz durchgeführt wird, ist die Erforschung der inneren Ursache des so genannten piezoelektrischen Effekts. In bestimmten Materialien wie Quarz entsteht elektrische Spannung, wenn ein äußerer Druck aufgebaut wird. Umgekehrt können sich Materialien bei Anlegen einer elektrischen Spannung verformen. Dies nutzt die Industrie, um feinste Bewegungen auszuführen. Die Strukturänderungen, die mit dem Piezzo-Effekt einhergehen, werden analysiert, um Materialien zu optimieren. Weltweit gebe es nur zwei oder drei Forschergruppen, die diese Untersuchungen überhaupt machen, so Prof. Pietsch.
via Informationsdienst Wisssenschaft

Mineralogen halfen mit, die Götter vom Tell Halaf zu retten

Die in einem einzigartigen Restaurierungsprojekt wieder zusammengesetzten monumentalen Skulpturen sind ab dem 28. Januar 2011 in Berlin zu sehen

70 Jahre nach ihrer Zerstörung im Zweiten Weltkrieg werden die monumentalen Statuen vom Tell Halaf ab dem 28. Januar 2011 wieder in Berlin zu sehen sein. Das Vorderasiatische Museum Berlin zeigt im Pergamonmuseum die Ausstellung „Die geretteten Götter aus dem Palast vom Tell Halaf“.

Zeit: 28. Januar 2011 bis 14. August 2011
Ort: Museumsinsel Berlin, Pergamonmuseum, Am Kupfergraben, 10117 Berlin

Dass die monumentalen Bildwerke wieder gezeigt werden können, daran haben auch die Mineralogen Dr. Kirsten Drüppel und Prof. Dr. Gerhard Franz ihren Anteil. Ihre mineralogischen Bestimmungen haben mit dazu beigetragen ein einzigartiges Restaurierungsprojekt zu vollenden.

1943 waren die 3000 Jahre alten Statuen und Reliefs, die Max von Oppenheim zwischen 1911 und 1913 im heutigen Syrien ausgegraben hatte, durch einen Bombentreffer in Berlin-Charlottenburg vollständig zerstört worden und in 27.000 Teile zerborsten. 55 Jahre, von 1944 bis 1999, lagerten die Trümmer in den Kellern und Außendepots des Pergamonmuseums und waren von den Gelehrten als unwiederbringliches Kulturgut abgeschrieben.

Im Jahr 2001 begann unter Leitung der Archäologin Dr. Nadja Cholidis vom Vorderasiatischen Museum Berlin die wissenschaftliche Erforschung und Restaurierung der Funde. Die Bildwerke wurden anhand des Dekors wie wallenden Löwenmähnen, Tatzen, Barthaaren, Haarschmuck, Gefieder, Fell, Sehnen und Muskeln zusammengesetzt. Bei jenen Steinen jedoch, die aus dem Inneren der Skulpturen stammten, holten sich Nadja Cholidis und ihre Kollegen Hilfe bei den TU-Mineralogen Prof. Dr. Gerhard Franz und Dr. Kirsten Drüppel. Kirsten Drüppel, die mittlerweile an der FU Berlin forscht, leitete ab 2005 die mineralogischen, petrologischen und geochemischen Untersuchungen der Basaltstatuen an der TU Berlin. Finanziert wurden ihre Arbeiten von der Deutschen Forschungsgemeinschaft. Zur Beschreibung der Basaltteile, die kein Dekor haben, kristallisierten Kerstin Drüppel und ihr Team verschiedene mineralogische Kriterien heraus, wobei die Verteilung von Blasenhohlräumen sowie der Verwitterungsgrad und die Verwitterungsfarbe des Minerals Olivin sich als sicherste Kriterien für eine korrekte Zuordnung erwiesen. Auf dieser Grundlage gelang das schwierige Vorhaben, bisher nicht zuzuordnende Teile einfügen zu können.

Außerdem widerlegen Kirsten Drüppels Nachforschungen zur Herkunft der Basalte in der Türkei und Syrien Max von Oppenheims Vermutung, sie stammten aus dem vom Tell Halaf nur 15 Kilometer nördlich gelegenen Steinbruch El Kbise. Vielmehr kam die TU-Wissenschaftlerin zu dem Ergebnis, dass der Basalt aus dem 60 Kilometer südlich gelegenen Basaltplateau Ard esh-Sheik gewonnen wurde.

Zu ebenfalls neuen Erkenntnissen führt die Rekonstruktion des Brandverlaufs durch Kirsten Drüppel. „Wir fanden auf dem Basalt zum Beispiel Apatit, ein Reaktionsprodukt aus weißem Phosphor und dem Karbonat der Kalksteinreliefs. Das lässt den Schluss zu, dass eine Phosphorbombe eingeschlagen war“, erzählt Drüppel. Und sie konnte eine schon früher aufgestellte Hypothese bestätigen: Die konzentrischen Rissstrukturen bei zahlreichen Basaltobjekten sind eine Folge der Löscharbeiten. „Die Risse deuten auf eine rasche Abkühlung der Bildwerke durch Löschwasser hin, was wiederum erklären würde, warum der Basalt in oftmals nur zentimeterkleine Teile zersprungen war“, sagt Drüppel.

Internetseite zur Ausstellung
http://www.gerettete-goetter.de/index.php?node_id=2


via Informationsdienst Wissenschaft

Fahrstuhlfahrten im Erdmantel

Forscher klären die bewegte Vergangenheit der Adula-Decke in den Schweizer Alpen auf

Der Teil der Erdkruste, den wir heute als Alpen kennen, hat eine bewegte Geschichte hinter sich. Forscher der Universitäten Köln, Bonn und Münster haben sie nun für die Adula-Decke in der Südschweiz zumindest teilweise rekonstruiert: Demnach ist das Gebiet in den letzten 350 Millionen Jahren zweimal bis auf Tiefen von über 50 Kilometern in den Erdmantel abgetaucht. Erst danach hat sich die Gesteinsformation, die flächenmäßig etwa doppelt so groß ist wie der Bodensee, auf ihre aktuelle Höhe von über 2000 Metern aufgefaltet. Die Studie ist in Nature Geoscience erschienen (doi: 10.1038/NGEO1060).

Dass Oberflächengestein in Richtung Erdzentrum abdriftet, ist nicht ungewöhnlich. Die Erdkruste fährt praktisch ständig Fahrstuhl: An den Nahtstellen der tektonischen Platten wird Krustenmaterial in die Tiefe gezogen - Experten sprechen von Subduktion. Bei der Fahrt unter Tage gelangt das Gestein unter extrem hohen Druck, bei dem charakteristische Minerale wachsen können. So bildet sich zum Beispiel das Mineral Granat, welches ein Hauptbestandteil des Hochdruckgesteins Eklogit ist. Die Wissenschaftler aus Bonn, Köln und Münster haben derartige Eklogite von der Adula-Decke analysiert und eine Altersbestimmung vorgenommen. Dabei haben sie eine interessante Beobachtung gemacht: "Teile der Eklogite sind maximal 38 Millionen Jahre alt, andere dagegen mindestens 330 Millionen Jahre", erklärt Daniel Herwartz. Der Doktorand am Kölner Institut für Geologie und Mineralogie und am Bonner Steinmann-Institut für Geologie, Mineralogie und Paläontologie hat die Studie geleitet.

Die Forscher konzentrierten sich bei ihren Untersuchungen auf die Eklogit-Komponente Granat. Granat baut bei seiner Bildung große Mengen des radioaktiven Spurenelementes Lutetium ein. Dieses zerfällt mit einer Halbwertszeit von 37 Milliarden Jahren zu stabilem Hafnium. Aus dem Lutetium-Hafnium-Verhältnis lässt sich also bestimmen, wann das Mineral entstanden ist. Granat bildet sich in diesen Gesteinen nur unter starkem Druck, wie er in mehr als 50 Kilometern Tiefe herrscht. Daher kann man an seinem Alter den Zeitpunkt der Subduktion festmachen.

200.000 Kristallkörnchen unter der Lupe sortiert

Herwartz und seine Kollegen haben für die Studie unter der Stereolupe Hunderttausende von Mineral-Kristallen sortiert, jedes so groß wie ein kleines Sandkorn. Eine Sisyphos-Arbeit, die sich aber gelohnt hat: "Uns ist es gelungen, im Eklogit der Adula-Decke zwei Granatgenerationen zu datieren", sagt der Geologe. Eine Weltpremiere, die bis vor wenigen Jahren noch undenkbar gewesen wäre. Denn die für die Analysen nötigen Massenspektrometer sind dazu erst heute empfindlich genug. Die Deutsche Forschungsgemeinschaft (DFG) hatte den Wissenschaftlern aus Köln und Bonn erst im Jahr 2008 ein etwa 1 Million Euro teures Gerät zur Verfügung gestellt.

Aus ihren eigenen Ergebnissen und denen anderer Arbeitsgruppen schließen die Wissenschaftler, dass der größte Teil der ca. 1000 Quadratkilometer großen Adula Decke vor etwa 350 Millionen schon einmal abgetaucht ist. Dieser Vorgang hat sich dann mit der gesamten Einheit vor knapp 40 Millionen Jahren noch einmal wiederholt. Möglicherweise gab es davor sogar noch weitere Subduktions-Zyklen. "Das ist aber bislang reine Spekulation", betont Herwartz und Münker. "Anhaltspunkte dafür liefern zumindest unsere aktuellen Daten nicht."

via Informationsdienst Wissenschaft

Freitag, 21. Januar 2011

Carl Sagan, Richard Dawkins and James Randi thoroughly debunk Astrology

Drilling into the Alpine Fault

Space Shuttle Start - aus der Sicht eines Boosters.

Ziemlich beeindruckende Bilder vom Start des Space Shuttles Atlantis, teilweise aus der Sicht des Boosters. Toll, wie man dem Shuttle nach der Trennung der Booster beim davonfliegen zusehen kann. Und dann erst der Sturz der Booster wieder auf die Erde...

Donnerstag, 20. Januar 2011

Symphony of Science - The Big Beginning (ft. Hawking, Sagan, Dawkins, Shears, Tyson)

Eine neue Folge der Symphony of Science. Diesmal geht es um den Beginn des Universums und dem ganzen Rest.

Befund: Humusreiche Ackerböden verlieren Kohlenstoff

Der europäische Forschungsverbund CARBOEUROPE hat eine neue Studie vorgelegt, in der der Kohlenstoffhaushalt von Äckern erstmals umfassend mit einer neuen Methode bilanziert wurde (Sonderband der Fachzeitschrift 'Agriculture, Ecosystems and Environment', Band 139/3). Diese Methode beruht auf der direkten Messung der CO2-Flüsse zwischen dem Ökosystem und der Atmosphäre. Die Pflanzen nehmen tagsüber CO2 (Kohlendioxid) im Zuge der Photosynthese auf. Einen Teil davon veratmen sie nachts wieder. Darüber hinaus setzt der Boden durch die Mineralisation von Humus CO2 frei. Die Netto-Bilanz dieser Flüsse wurde durch kontinuierliche Messungen direkt bestimmt und mit der Ernte und dem Eintrag von Kohlenstoff durch Wirtschaftsdünger kombiniert. So konnte eine integrierte Kohlenstoffbilanz der Äcker dargestellt werden.

Dr. Werner Kutsch vom Johann Heinrich von Thünen Institut (vTI), der von deutscher Seite Daten einbrachte und die Studie mit koordinierte, ist begeistert von den Fortschritten dieser Methode: „Bisher konnte die Frage, ob ein Ackerboden Humus verliert oder nicht, nur durch wiederholte Beprobung in einem Zeitrahmen von Jahrzehnten beantwortet werden. Jetzt können wir kurzfristigere Aussagen machen und bei größeren Datensätzen sogar den Einfluss von Klima und Fruchtfolgen trennen.“

Um den Einfluss einzelner Fruchtarten auszuschließen, koordinierte Dr. Kutsch ein Teilprojekt, in dem die Bilanzen verschiedener europäischer Standorte über eine volle mehrgliedrige Fruchtfolge untersucht wurden. Hier zeigte sich bei allen neun bisher in Europa untersuchten Standorten eine Humuszehrung, die im Mittel etwa 95 g Kohlenstoff pro Quadratmeter und Jahr betrug und mit zunehmender Kohlenstoff-Konzentration im Boden anstieg. Bemerkenswert ist dieser Kohlenstoffverlust, weil viele Standorte nach guter fachlicher Praxis bewirtschaftet wurden und die Mengen an Kohlenstoff, die dem Boden zugeführt wurden, durchaus den aktuellen Empfehlungen (z.B. der VDLUFA) entsprachen.

Dr. Kutsch: „Ein solches Ergebnis hatten wir nicht erwartet. Es ist in doppelter Hinsicht schlecht, denn es verringert die Bodenfruchtbarkeit und belastet die Atmosphäre.“ Weitergehende Forschung sollte sich daher auf die Frage konzentrieren, ob auf Böden mit hohem Kohlenstoffgehalt, wie etwa dem vom VTI untersuchten Schwarzerde-Standort im Thüringer Becken, eine angepasste fachliche Praxis den Humusgehalt stabilisieren kann. Schließlich ist zu analysieren, ob ein bereits stattfindender Klimawandel schon zu Kohlenstoffverlusten in Agrarökosystemen führt.

Prof. Pete Smith von der Universität Aberdeen, der britische Koordinator der Studie: „Wir beginnen jetzt die Schlüsselprozesse des Gasaustausches auf Ackerflächen und die Einflüsse von Bewirtschaftung und Umweltfaktoren zu verstehen. Die vorgelegte Studie repräsentiert den aktuellen Stand der Forschung hinsichtlich der Treibhausgasflüsse auf europäischen Äckern, ist aber eher der Anfang einer wissenschaftlichen Reise als ihr Endpunkt.”

Am Institut für Agrarrelevante Klimaforschung des vTI wird diese Reise in den nächsten Jahren in Rahmen von zwei Großprojekten weitergehen. Die Flussmessungen auf Acker-Ökosystemen werden von bisher zwei auf sechs Standorte in Deutschland ausgeweitet. Gleichzeitig werden die landwirtschaftlichen Böden in einer Bodenzustandserhebung erstmals systematisch und flächendeckend beprobt.

via Informationsdienst Wissenschaft

Auch leichte Schwangerschaftsdiät schadet der Hirnentwicklung des Babys

Obwohl das körperliche Wachstum der Babys und das Gewicht der Mütter kaum vermindert waren, beeinträchtigte eine 30%ige Nährstoffreduktion während der ersten Schwangerschaftshälfte die kindliche Gehirnentwicklung wesentlich. Dies ist das Ergebnis einer Studie mit Pavianen, die Neurologen des Universitätsklinikums Jena gemeinsam mit Genetikern und Fetalphysiologen aus Antonio, Texas, jetzt in den renommierten Proceedings of the National Academy of Sciences of the USA veröffentlichten.
Untersuchungen der letzten Jahre haben gezeigt, dass eine moderate Nährstoffreduktion Alterungsprozesse verlangsamt und so lebensverlängernd wirkt. „Während der Schwangerschaft aber, insbesondere in der ersten Hälfte, stellt auch eine leichte Reduktion der Energiezufuhr eine Gefährdung für die gesunde Entwicklung des Baby-Gehirns dar“, fasst der Jenaer Neurologe Professor Matthias Schwab das Ergebnis einer Studie zusammen.

Darin untersuchte ein Wissenschaftlerteam aus Neurologen des Jenaer Universitätsklinikums, Genetikern des Primatenforschungszentrums San Antonio und Fetalphysiologen der Universität San Antonio in Texas die fetale Gehirnentwicklung von Pavianen. Die Mütter erhielten in der Schwangerschaft 30% weniger Nahrung als sie vorher in einer ad libitum Ernähung zu sich genommen hatten. Nach der Hälfte der Schwangerschaft verglichen die Neurowissenschaftler anhand von immunhistochemischen und molekularbiologischen Analysen den anatomischen und funktionellen Entwicklungsstand der fetalen Hirnreifung mit dem der Kinder normal ernährter Pavianmütter.

Verminderte Wachstumsfaktoren bremsen Hirnentwicklung

Obwohl sich das Gewicht der Babys und ihrer Gehirne nicht unterschied, zeigten sich bei der Entstehung der Nervenzellen und beim Grad ihrer Vernetzung Defizite. „Die Ursache hierfür ist eine Verminderung von Wachstumsfaktoren“, so Professor Schwab. „Dies schränkt die Expression von Genen und Eiweißen ein, die für die Hirnentwicklung wesentlich sind.“ Die Folge ist eine gestörte oder zumindest verzögerte Entwicklung des fetalen Gehirns.

Offensichtlich kann der Körper der Mutter einen Nahrungsmangel nicht so gut kompensieren wie bisher angenommen Hiervon ist der neuronale Wachstums- und Entwicklungsprozess insbesondere betroffen, denn er fordert die Hälfte der Energie, die der Fötus verbraucht. Die Verminderung der Bildung von Wachstumsfaktoren im Baby schützt möglicherweise auch die Gesundheit der Mutter und verhindert, dass all ihre Ressourcen aufgebraucht werden. So waren die mangelernährten Mütter nur etwa 9% leichter.

Defizite beeinflussen die Hirnfunktion möglicherweise zeitlebens

Moderate Minderernährung in der Schwangerschaft tritt sowohl in Entwicklungs- als auch in Industrieländern häufig auf. Ursachen sind neben niedrigem Einkommen auch das heutige Schlankheitsideal der Frauen oder plazentare Versorgungsprobleme der Babys bei Teenager-Schwangerschaften und bei älteren Müttern. Wie epidemiologische Studien zeigen, ist ein niedriges Geburtsgewicht im späteren Leben häufig mit verminderten kognitiven Leistungen assoziiert. „Wir vermuten, dass die Defizite in der strukturellen Hirnentwicklung, die aus einer Minderernährung der Mütter während der Schwangerschaft resultieren, die Hirnfunktion zeitlebens beeinflussen“, betont die Jenaer Wissenschaftlerin Iwa Antonow-Schlorke. „In einer Folgestudie werden wir dies weiter analysieren.“

Literatur: I. Antonow-Schlorke, M. Schwab, L. A. Cox, C. Li, K. Stuchlik, O. W. Witte, P. W. Nathanielsz, T. J. McDonald. Vulnerability of the fetal primate brain to moderate reduction in maternal global nutrient availability, PNAS, 2011, in press

via Informationsdienst Wissenschaft

Expertentreffen zur geologischen Speicherung von CO2

Sichere geologische Speicherung von CO2
Expertentreffen zur geologischen Speicherung von CO2
Am heutigen 20.01. beginnt im Deutschen GeoForschungsZentrum GFZ ein zweitägiges Status-Seminar zum Projekt CO2MAN. In diesem Projekt geht es um die Überwachung der dauerhaften geologischen Speicherung des Treibhausgases CO2. Im brandenburgischen Ketzin wurden im Vorgängerprojekt CO2SINK bisher rund 45000 Tonnen Kohlendioxid in rund 700 Metern Tiefe gespeichert. Rund 70 Wissenschaftler, Anwender und politische Entscheidungsträger diskutieren heute und morgen in Potsdam die bisherigen Ergebnisse und zukünftige Projekte.
Auf dem Potsdamer Treffen wurde unter anderem auch über die Meldungen einer Leckage im kanadischen Weyburn-Projekt diskutiert. „Zu den Meldungen einer Leckage beim CCS-Projekt Weyburn können wir keine detaillierten Fragen beantworten, weil wir als Deutsches GeoForschungsZentrum nicht aktiv in dieses Projekt eingebunden sind. Festzuhalten ist aber in jedem Fall, dass Sicherheit absoluter Maßstab bei der geologischen Speicherung von Kohlenstoffdioxid sein muss“, sagte dazu Dr. Michael Kühn, Leiter des Zentrums für CO2-Speicherung am GFZ. „Die beiden dort vorliegenden Gutachten widersprechen sich, der Sachverhalt wird zur Zeit durch kanadische Wissenschaftler und Aufsichtsbehörden geprüft“. Das kanadische Projekt unterscheide sich an einem wesentlichen Punkt vom Forschungsvorhaben in Ketzin, führte Kühn aus; im Weyburn-Projekt werde das Kohlendioxid hinuntergepumpt, um damit Gasdruck auf das dort vorhandene Erdölfeld auszuüben, es diene vor allem zum besseren Ausfördern des Erdöls. Das Ketzin-Projekt des GFZ diene allein zur sicheren geologische Speicherung von CO2 in Sandstein.

via Informationsdienst Wissenschaft
Research Blogging Awards 2010 Winner!
 
Creative Commons License
Amphibol Weblog von Gunnar Ries steht unter einer Creative Commons Namensnennung-Keine kommerzielle Nutzung-Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.