Junge Wissenschaft ­ Ausgabe 78 (2008)

Page 1

Junge Wissenschaft

Ausgabe Nr. 78 03/2007

Jugend forscht in Natur und Technik

Young Researcher

The European Journal of Science and Technology

eu

Experimente, e w tiv

räg

chaftliche B s n eit e iss

a

in geb Er

sse:

Inn ov

Die Zauberflöte Eiskaltes Geheimnis Regen ist nicht gleich Regen Emerging Behaviors in Braitenberg-type Robotic Vehicles Besser Hören im Klassenzimmer Mikrometallbäume

Außerdem im Heft: Mathematikum – Das mathematische Mitmachmuseum in Gießen, der Daniel-Düsentrieb-Wettbewerb, Neues aus der Welt der Wissenschaft u.v.m.

nd spann e n d e

zin a g a hs M c s u Da chw r Na che r ü s f for


*IS 4QF[JBMJTU GยดS 8FSCVOH %FTJHO VOE 7FSNBSLUVOH 8JS MJFGFSO *IOFO EJF QBTTFOEF ,PNNVOJLBUJPOTTUSBUFHJF EBT PQUJNBMF %FTJHO EFO SJDIUJHFO 1SPEVLUJPOTXFH EFO FSGPMHWFSTQSFDIFOEFO 7FS NBSLUVOHTBOTBU[ VOE CFSBUFO 4JF BMT LPNQFUFOUFS ,PPQFSBUJPOTQBSUOFS CFJ EFS 6NTFU[VOH *ISFS &JO[FMQSPKFLUF VOE (FTBNULPO[FQUF

6OTFSF -FJTUVOHFO 4DIยดMFS VOE "CJ[FJUVOH TPOTUJHF TDIVMFJHFOF 1VCMJLBUJPOFO )PDITDIVMQVCMJLBUJPOFO 'BDITDIBGUT[FJU TDISJGUFO *NBHFCSPTDIยดSFO +VCJMร VNTCSPTDIยดSFO V B ,PO[FQU (FTUBMUVOH 6NTFU[VOH 7FSNBSLUVOH

)PNFQBHFT +PC 1PSUBMF $PNNVOJUZ 1PSUBMF .FSDIBOEJTJOH 4IPQ MยนTVOHFO 3FEBLUJPOTTZTUFNF TPXJF 4DIVMVOH WPO .JUBSCFJUFSO V B ,PO[FQUJPO &OUXJDLMVOH 1SPHSBNNJFSVOH 6NTFU[VOH WPO 0OMJOF "OXFOEVOHFO 7FSNBSLUVOH

.FSDIBOEJTJOH ,PO[FQUF VOE BSUJLFM 8FSCFBSUJLFM (BTUHFTDIFOLF $PSQPSBUF 5FYUJMFT 4DIVMLMFJEVOH 5SJLPUT 5BTDIFO V B &OUXJDLMVOH (FTUBMUVOH 6NTFU[VOH 1SPEVLUJPO 7FSNBSLUVOH

Bild: aboutpixel.de - Arts&Crafts ยฉ aluisiuz

4QFDJBM

VM TDIVM VOE 4DI DI P ) N F E T V FO B O 6OTFSFO ,VOE FSLPOEJUJPOF E O P 4 WF TJ MV YL XJS F CFSFJDI CJFUFO VHOJTTFO F [ S F L D V S % O OH WP JO EFS )FSTUFMMV F VOUFS NFO XJS HFSO I "OGSBHFO OFI F PEFS QFSTยนOMJD E S F MU m O F F ESVDL!JE FOUHFHFO OO GPO 4BSBI -FINB

*EFFOmMUFS 8FSCF VOE %FTJHOBHFOUVS (NC) /FVFS ;PMMIPG %ยดTTFMEPSG GPO GBY JOGP!JEFFOmMUFS EF XXX JEFFOmMUFS EF


Magazin Editorial

Die Junge Wissenschaft wird ausgezeichnet und stellt sich neu auf Liebe Leserin, lieber Leser, Herausgeber und Redaktionsteam haben am 13. Oktober diesen Jahres guten Grund stolz zu sein: Prof. Dr. Paul Dobrinski, der Begründer der Jungen Wissenschaft, erhält an diesem Tag aus der Hand des bayerischen Ministerpräsidenten den Kulturpreis der Eduard-RheinStiftung. Dieser Preis ist im Bereich des Wissenschaftsjournalismus ein anerkannter Preis, der unter anderem schon an Ranga Yogeshwar (2000) für seine populärwissenschaftlichen Beiträge im deutschen Fernsehen oder Armin Maiwald (2002), den Begründer der Sendung mit der Maus, vergeben wurde. Prof. Dobrinski erhält diesen Preis als Gründungsherausgeber stellvertretend für das Redaktionsteam der Jungen Wissenschaft. Mit der Vergabe dieses Preises wird gewürdigt, dass sich Prof. Dobrinski zusammen mit vielen Mitstreitern seit über 20 Jahren erfolgreich darum bemüht, die wissenschaftlichen Arbeiten junger Leute zu veröffentlichen. Die junge Wissenschaft ist in Europa die einzige wissenschaftliche Zeitschrift, die ausschließlich begutachtete Arbeiten junger Forscher bis maximal 23 Jahren veröffentlicht. Davon profitieren zum einen die jungen Autoren selbst: Sie erhalten durch das Gutachten Feedback von erfahrenen Wissenschaftlern und lernen durch die Zusammenarbeit mit der Redaktion das Handwerkszeug des Publizierens. Auf der anderen Seite erleben die jugendlichen Leser an gleichaltrigen Vorbildern, wie spannend es sein kann, sich mit Naturwissenschaft und Technik zu beschäftigen – auch wenn dies manchmal mühevoll ist.

der Universität zu kämpfen, denn sie bilden das Rüstzeug für erfolgreiche Naturwissenschaftler und Ingenieure – allerdings nur, wenn sie durch die Bildungspolitik nicht weichgespült werden. Naturwissenschaftler und Ingenieure gestalten seit etwa 150 Jahren maßgeblich die Welt, in der wir leben. Aber dies wird häufig genug zu wenig beachtet. Ein Weg dies zu ändern, ist die verstärkte Lust an den Themen der Jungen Wissenschaft, ist Medienpräsenz. In diesem Zusammenhang freuen sich die Herausgeber der Jungen Wissenschaft einen ambitionierten Verleger gefunden zu haben, der vertriebliche Neu-Ansätze verfolgt, um die wirtschaftliche Basis dieser Zeitschrift zu manifestieren. Vor allem aber freuen wir uns, mit dieser Zusammenarbeit einen fundierten Zugang zu weiteren wissenschaftlichen Lesern und Autoren zu finden: Studenten, junge Akademiker, wissenschaftliche Mitarbeiter, Dozenten und Hochschullehrer bilden eine wunderbare Möglichkeit, den – auch bildungspolitisch geforderten – Brückenschlag zwischen Schule und Hochschule zu unterstützen. Die erweiterte Themenpalette im

Magazinteil der Jungen Wissenschaft, die Darstellung von Forschungsthemen an Hochschulen oder die Präsentation von Lehrstühlen hilft, interessierte Schüler zu gewinnen und zu vielversprechenden Studenten zu entwickeln – entgegen aller Versäumnisse der Vergangenheit. Und sicher können die Beiträge der jungen Autoren, noch weitere naturwissenschaftliche-technische Arbeitsgemeinschaften in Schulen anregen, denn der aktuelle Anteil von 15% an allen schulischen Arbeitsgemeinschaften ist einfach zu wenig. Die Herausgeber, das Redaktionsteam und der Verleger der Jungen Wissenschaft werden den aktuellen Fachkräftemangel nicht ändern aber hoffentlich beeinflussen können. Denn jede Ausgabe der Jungen Wissenschaft zeigt, welches Potential in unseren jungen Leuten steckt. Es „macht Spaß“ – wie Prof. Dobrinski es immer formuliert – sich ernsthaft mit Naturwissenschaft und Technik zu beschäftigen!

Sabine Walter und Athanasios Roussidis

Es lohnt sich für junge Leute, sich durch die vermeintlich „harten“ Fächer der Schule und

Impressum Gründungsherausgeber: Prof. Dr. rer. nat. Paul Dobrinski

Herausgeber: Prof. Dr. Manfred Euler, Dr. Dr. Jens Simon, Dr.-Ing. Sabine Walter Verlag: Verlag Junge Wissenschaft Athanasios Roussidis Neuer Zollhof 3, 40221 Düsseldorf

Chefredaktion: Dr.-Ing. Sabine Walter

Auflage : Gesamtauflage 10.000 (6.300 Patenschaftsabonnements, 3.700 frei verteilte Exemplare) Erscheinungsweise: vierteljährlich

Anzeigen: Dirk Sandvohs Telefon (01 78) 83 28 419 Fax (02 11) 52 28 89 5-49 d.sandvohs@verlag-jungewissenschaft.de Grafik & Layout: Ideenfilter Werbe- und Designagentur GmbH Neuer Zollhof 3, 40221 Düsseldorf Bilder: aboutpixel.de, photocase.de, sxc.hu

Druck: QuickPrinter GmbH Hauptstraße 53, 51491 Overath

Geschäftsbedingungen: Es gelten die Allgemeinen Geschäftsbedingungen des Verlags Junge Wissenschaft, Athanasios Roussidis ISSN 0179-8529

Young Researcher


Magazin

Inhalt Vorwort / Impressum /Inhalt

Neues juFORUM Camp

Die Zauberflöte

6-13 7 8-13

Richtlinien für Beiträge Eiskaltes Geheimnis

Autor: Ron Gerrit Becker

6

Forschungsergebnisse

Die Zauberflöte

Nur Übung macht den Meister, aber das hören Nachbarn ambitionierter Flötenspieler nicht so gern. Mit der Silent-Querflöte wird das anders: nur noch der Übende hört den Ton über Kopfhörer.

3-5

Tolle Erfolge beim ISEF

Jugend forscht

S. 14

Eiskaltes Geheimnis

14-61 14-23

S. 24

Das Eis der Antarktis enthält Luft, die vor Jahrtausenden eingeschlossen wurde. Die Form der vorhandenen Luftblasen lässt Rückschlüsse auf den Einschlussvorgang zu.

23 24-31

Autor: Markus Giftthaler

Regen ist nicht gleich Regen 32-39 Emerging Behaviors of Braitenberg-type Robotic… 40-44 Besser Hören im Klassenzimmer

45-52

Mikrometallbäume

53-61

Magazin

Regen ist nicht gleich Regen Mal nieselt es, mal prasselt der Regen nur so runter. Mit einem Tropfenspektrometer können die Unterschiede der Tropfenimpulswerte gemessen und so der Regen charakterisiert werden.

62-76

Das Mathematikum in Gießen

62-64

Porträt der TU Hamburg-Harburg

65-67

Wettbewerb Daniel Düsentrieb

68-69

Buchrezensionen

72-73

Autoren: Sebastian Glasl, Magnus Anselm

Feedback Einer der Artikel aus dem Bereich „Jugend forscht“ hat Ihr Interesse geweckt? Sie möchten sich mit dem Autor in Verbindung setzen? Dann nehmen Sie gern mit uns Kontakt auf. Senden Sie uns einfach eine E-Mail oder einen Brief unter Angabe des Autors und des Artikelnamens. Wir leiten Ihre Post dann entsprechend weiter. Sie erreichen uns per Post: Verlag Junge Wissenschaft Athanasios Roussidis Neuer Zollhof 3 40221 Düsseldorf oder via E-Mail an info@verlag-jungewissenschaft.de Selbstverständlich freuen wir uns auch über Ihre Anregungen, Ideen und Kritik zum Heft.

S. 32

Junge Wissenschaft // Ausgabe 78 // Inhalt

Emerging Behaviors in Braitenberg-type Robotic Vehicles

S. 40

Ein Roboter mit Lieblingsplätzen: Er sucht sich den höchsten Punkt und liebt das Licht. Dies ist relativ einfach mit nur drei Sensoren zu realisieren. Autor: Samuel Gross

Besser Hören im Klassenzimmer

S. 45

Um am Unterricht teilzunehmen, muss man den Lehrer hören – doch dafür sind viele Klassenräume nicht ideal ausgestattet. Aber es gibt wirksame Verbesserungsmöglichkeiten. Autoren: Christian Kohlen, Dimitri Seboldt, Paul Schubert

Mikrometallbäume In Metallsalzlösungen gewachsene Metallbäume sehen faszinierend aus und lassen sich als Fraktale charakterisieren und simulieren. Autoren: Johannes Ewald, Andreas Krawitz

S. 53


Magazin

Bitte berühren! Mathematik zum Anfassen

S. 62

Jugend forscht in Natur und Technik

In Gießen gibt es das Mathematikum - das erste mathematische Mitmachmuseum der Welt. Seit 2002 begeistert es Kinder, Schüler und Erwachsene. Exponate und Experimente mit Bezug zum Alltag machen Mathematik leicht und anschaulich…

Die Technische Universität Hamburg-Harburg

S. 65

S. 68

In Hamburg wetteifern die Naturwissenschaftler, Physiker und Mathematiker von morgen um den Daniel-Düsentrieb-Preis mit ihren Beiträgen zum Wettbewerb - und das schon seit dem Jahr 2000. Beim letzten Mal nahmen über 48 Schulen teil...

Wie aus Jungforschern junge Wissenschaftler werden Sie sind nicht älter als 23 Jahre und haben gerade in der Schule, z. B. im Rahmen von Jugend forscht, oder im Studium eine eigene Forschungsarbeit durchgeführt? Haben Sie schon einmal darüber nachgedacht, was mit Ihren Ergebnissen jetzt passiert – wie aus einem jungen Forscher ein junger Wissenschaftler werden kann? Denn es gilt: „Forschen ohne Veröffentlichen ist keine Wissenschaft“. Die Zeitschrift Junge Wissenschaft ist für Sie das geeignete Forum, um Ihre Ergebnisse wissenschaftlich zu veröffentlichen. Und das geht wie folgt: Auf Seite 23 im „Jugend forscht“-Teil sind die Kriterien aufgeführt, die das reibungslose Veröffentlichen Ihrer wissenschaftlichen Beiträgen ermöglichen. Hier finden Sie wichtige Hinweise, wie die Arbeit aufgebaut sein soll, wie lang die Arbeit sein darf und wie die Bilder einzureichen sind und welche weiteren Informationen wir benötigen. Dann schicken Sie die Arbeit an die Redaktion. Von dort wird die Arbeit an Fachgutachter weitergeleitet, welche die inhaltliche Richtigkeit der Aussagen begutachten. Gelegentlich ergeben sich daraus Hinweise, wo noch etwas verbessert werden kann, was dann an den Autor weitergeleitet wird. Schließlich kommt die Arbeit in die Redaktion, wird für das Layout vorbereitet und veröffentlicht.

Junge Wissenschaft veröffentlicht Originalbeiträge junger Autoren bis zum Alter von 23 Jahren mit anspruchsvollen Themen aus allen Bereichen der Naturwissenschaften und Technik. Gründungsherausgeber: Prof. Dr. rer. nat. Paul Dobrinski

Die TUHH bemüht sich um „gute Studenten“. Denn nur mit Motivation und überdurchschnittlichem Interesse sind Absolventen erfolgreich. Um schon früh Begeisterung für Naturwissenschaften zu wecken, lädt die Hochschule regelmäßig Schüler zum praxisnahen Experimentieren ein …

In Hamburg radelt, fliegt und schwimmt Daniel Düsentrieb

Junge Wissenschaft-

Was haben Sie davon? Ihre Forschungsarbeiten sind nun in einer Gutachterzeitschrift (peer reviewed journal) veröffentlicht worden, d.h. Sie können die Veröffentlichung in Ihre wissenschaftliche Literaturliste aufnehmen. Die Junge Wissenschaft wird in wissenschaftlichen Datenbanken gelistet, d.h. Ihre Arbeit kann von Experten gefunden und beachtet werden. Sie selbst haben durch den Gesamtprozess eine ganze Menge gelernt: Das Erstellen einer wissenschaftlichen Arbeit. Dies werden Sie spätestens im Studium wieder benötigen. Und schließlich erhalten alle jungen Autoren der Jungen Wissenschaft als Dankeschön ein Jahr lang ein Freiabonnement der Zeitschrift.

Beirat: Dr. J. Georg Bednorz Nobelpreisträger IBM Research Division Forschungslaboratorium Zürich Prof. Dr. rer. nat. Dr. h.c. Manfred Eigen Nobelpreisträger, Max-PlanckInstitut für Biophysikalische Chemie, Göttingen Prof. Dr. Ernst O. Göbel Präsident der PhysikalischTechnischen-Bundesanstalt, Braunschweig Dr. Uwe Groth Dr. Groth und Partner Unternehmensberatung VDI Projektleitung „Jugend entdeckt Technik“ Prof. Dr. Elke Hartmann Universität Halle VDI Bereichsvorstand „Technik und Bildung“ Dr. Uta Krautkrämer-Wagner Geschäftsführerin der Stiftung „Jugend forscht“ e.V., Hamburg Prof. Dr. Bernd Ralle Schriftführer der Zeitschrift MNU, Fachbereich Chemie, Universität Dortmund Wolfgang Scheunemann Geschäftsführer der Doceo GmbH, Stuttgart

Wir freuen uns auf Ihre Zuschriften: Junge Wissenschaft Dr.-Ing. Sabine Walter Schacht-Albert-Ring 52, 30952 Ronnenberg s.walter@verlag-jungewissenschaft.de

Young Researcher


Neues

Jungforscher diskutieren über „Verantwortung der Wissenschaftler“ Die Frage nach der Verantwortung des Wissenschaftlers stand im Zentrum des zweiten International Summer and Science Camp (ISSC), das dieses Jahr in Darmstadt stattfand. Jungforscher und junge Wissenschaftler aus Australien und acht europäischen Ländern beschäftigten sich in mehreren Workshops mit verschiedenen Aspekten des Konferenzthemas. Während der lebhaften und spannenden Diskussionen wurde schnell klar, dass sich die Nachwuchsforscher ihrer Verantwortung bewusst sind, die sie als Wissenschaftler und Entdecker von morgen tragen. Ein Themenfeld war die Frage, wo die Wissenschaft an Grenzen stößt, sei es durch gesetzliche Vorgaben oder durch ethische Fragen. Gerade heute können die in einem Land freiwillig gesetzten Grenzen durch weltweite

Kommunikation und Zusammenarbeit umgangen werden, um völlig uneingeschränkt zu forschen. Hier war man sich jedoch einig, dass eine Einschränkung der Forschung wichtig ist, um Grundrechte der Menschheit und ethische Grenzen zu wahren. Ein weiteres Thema war die Frage, wie Geld und die Interessen der Geldgeber die Forschung lenken. Kommerzielle Forschung spielt eine immer bedeutendere Rolle, während Grundlagenforschung immer mehr zurückgedrängt wird. Neueste Forschungserkenntnisse finden vor allem dort ihre Anwendung, wo sie viel Geld einbringen und nicht unbedingt dort, wo sie für die Menschheit am nützlichsten wären. Hier muss sich der Forscher darüber im Klaren sein, dass seine Forschung an sich neutral, die Verwendung der Ergebnisse aber hochpolitisch ist.

Für die Teilnehmer am ISSC war es eine beeindruckende Erfahrung, dass sie nicht nur das Interesse an Wissenschaft einigt, sondern auch das gemeinsame Nachdenken über ihre Verantwortung. Insofern können die Jungforscher gespannt sein auf die folgenden Sommercamps, die 2008 in Portugal und 2009 in Dänemark stattfinden werden. Auch diese werden wieder – wie das diesjährige Camp von juFORUM e. V. – von nationalen Jungforschernetzwerken ausgerichtet.

Ausführlichere Informationen zu weiteren Inhalten des Camps finden sich unter www.juforum.de

Einige der Teilnehmer des International Summer and Science Camp bei der Besichtigung eines Teleskops beim MPI in Heidelberg

Junge Wissenschaft // Ausgabe 78 // Neues


Neues

Deutsche Erfolge bei der ISEF in den USA Deutsche „Jugend forscht“-Teilnehmer gewinnen Preise bei der Intel International Science and Engineering Fair (ISEF) Im Mai 2007 trafen sich etwa 1500 Jungforscher aus über 50 Ländern bei dem internationalen Wettbewerb ISEF in Albuquerque in den USA. Katja Miller und Simon Schmitt konnten dabei mit ihren Projekten überzeugen: Katja Miller erhielt den „Grand Award“ der Intel® Foundation in der Kategorie „Computer Science“ sowie den 1. Preis von Agilent Technologies – ein mehrwöchiges Auslandspraktikum in den USA. Simon Schmitt errang ebenfalls einen großartigen Erfolg – mit dem 1. Preis der „China Association for Science and Technology“ und so

abends das Licht ausgeht, beginnen Mücken oft ihr nervenaufreibendes Summen. Sobald jedoch die Lampe eingeschaltet wird, verhalten sie sich ruhig. Dieses Problem brachte Schmitt auf die Idee, ein GPS-ähnliches System zur Lokalisierung von Geräuschen zu entwickeln. Katja Miller spezialisierte sich auf „Neuronen für den Computer“. Die meisten Menschen bringen neuronale Netze zuerst mit künstlicher Intelligenz in Verbindung. Biologische neuronale Netze werden jedoch in erster Linie verwendet, um die Funktion realer Nervensysteme zu untersuchen, da eine neuronale Analyse besonders bei komplexeren Systemen keine umfassenden, detaillierten

Neben dem Wettbewerb war für beide Teilnehmer der Kontakt zu Jugendlichen aus vielen Ländern ein echtes Highlight: Sie erfuhren, dass Deutschland in aller Welt berühmt für seine Burgen ist. Mit israelischen Jugendlichen führten die deutschen „Jugend forscht“-Teilnehmer lebhafte politische Diskussionen – und schauten dabei vor allen Dingen in die Zukunft. Und schließlich haben sie ein bisschen arabisch schreiben und brasilianisch feiern gelernt.

Auf dem Weg zum Wettbewerb: Simon Schmitt (links) und Katja Miller (2. v. li.) treffen Jungforscher aus Pennsylvania

auch der Chance bei Wettbewerben in China dabei zu sein. Das Projekt von Simon Schmitt beschäftigte sich mit der akustischen Mückenjagd: Wenn

Ergebnisse liefert. In einer selbst geschriebenen Computersimulation konnte Miller nicht-assoziative Lernprozesse, bei denen weder belohnt noch bestraft wird, abbilden und analysieren.

Young Researcher


Neues

Metrologie Kostbare

Kristallkugeln

Ein weltweit einmaliger Einkristall aus hochreinem Silizium soll bei der Neudefinition des Kilogramms helfen. Wissenschaftler des Berliner Instituts für Kristallzüchtung (IKZ) haben im Mai 2007 den entscheidenden Siliziumkristall erzeugt, der

den Kugeln „zählen“ und so zu einer exakten Definition des Kilogramms kommen. Bislang bestimmt sich das Kilogramm immer noch aus dem Vergleich mit dem Ur-Kilogramm in Paris, einem 39 Millimeter hohen und ebenso dicken Platin-Iridium-Zylinder.

nötig. Zunächst müssen die Kugeln mit dem Standard-Kilogramm in Braunschweig verglichen werden, um festzustellen, wie genau ihre tatsächliche Masse mit der deutschen Kopie des Ur-Kilogramms übereinstimmt. Dann geht es darum, die Kugelgestalt exakt zu vermessen. Und schließlich werden die

Weltweit einmalig: Der hochreine Siliziumkristall hat einen Wert von rund zwei Millionen Euro. Die Perfektion der Struktur und die hohe chemische und Isotopen-Reinheit des Kristalls sollen es ermöglichen, die Anzahl von Atomen in einem Kilogramm Silizium exakt zu bestimmen. Bild: Zens/Forschungsverbund Berlin

zu einer Neudefinition der Einheit Kilogramm führen könnte. Die Perfektion der Struktur und die hohe chemische und Isotopen-Reinheit des Kristalls sollen es ermöglichen, die Anzahl von Atomen in einem Kilogramm Silizium exakt zu bestimmen. Aus dem Einkristall werden dazu zwei Kugeln herauspräpariert, die je ein Kilogramm wiegen. Experten der Physikalisch-Technischen Bundesanstalt (PTB) in Braunschweig wollen dann die Atome in

Nur: Jedes Handhaben des Zylinders, vor allem seine Reinigung, führt dazu, dass er zigtausende Atome verliert. Das gilt auch für die Kopien, die es in vielen Staaten der Erde gibt. Experten gehen davon aus, dass mittlerweile Abweichungen von 70 Mikrogramm auftreten (0,000 000 07 kg).

Mitarbeiter des internationalen AvogadroProjekts die Atomabstände ermitteln. All diese Messungen müssen zusammengenommen bis auf ein Hundertmillionstel genau sein. Sind diese Voraussetzungen erfüllt, kann man die Zahl der Silizium-Atome in der Kugel berechnen und so eine für alle Zeiten gültige Einheit festlegen.

Bis jedoch das Kilogramm neu definiert werden kann, sind weitere wichtige Messungen

Schülermarketing Die Deutsche Schülerwerbung ist Ihr kompetenter Partner für Bildung, Kommunikation und Marketing im Schulbereich: Vermittlung von Sponsoren im Bereich Schulmarketing

PR-Service für Schülerredakteure

Vermittlung von Werbekunden für Schülerzeitungen, Abizeitungen sowie weiterer Schülerzeitschriften

Design und Produktion von Schulkleidung

Vermarktung von Online-Seiten

Neuer Zollhof 3 • 40221 Düsseldorf

Aufbau und Betreuung von Informationsund Werbesystemen an öffentlichen Einrichtungen

Für weitere Informationen wenden Sie sich bitte an Dirk Sandvohs: Telefon: 0211-385489-12, E-Mail: d.sandvohs@deutsche-schuelerwerbung.de


Neues

Physik Ein

Interface für zukünftige Quantencomputer

Noch liegt die Realisierung eines vollständigen Quantencomputers in der Zukunft, aber Forscher am Max-Planck-Institut für Quantenoptik konnten einen weiteren Schlüsselbaustein entwickeln. Quantensysteme, die elementare Quantenrechnungen erfolgreich ausführen, gibt es schon seit einigen Jahren. Bislang operieren sie aber nur mit wenigen Quantenbits oder Qubits – Atomen oder Ionen, die in der Quantenwelt die Aufgaben der klassischen Bits übernehmen. „Die bisherigen Systeme sind von ihrer Struktur her nicht skalierbar, lassen sich also nicht auf viele Qubits erweitern“, erklärt Gerhard Rempe, Direktor am MaxPlanck-Institut für Quantenoptik in Garching. Ein skalierbarer Quantenrechner könnte aus einem Netz von Qubits, etwa einzelnen Atomen, bestehen, die über Photonen miteinander kommunizieren. Eine Gruppe von Wissenschaftlern unter seiner Leitung hat jetzt eine Voraussetzung für einen skalierbaren Quantencomputer geschaffen. Sie haben nämlich eine Schnittstelle zwischen einem Qubit und einem Photon verwirklicht. Die Garchinger Forscher kodierten die Quanteninformation im internen Zustand eines Rubidiumatoms. Dieser Zustand ist mit dem Polarisationszustand eines Photons, der die Schwingungsrichtung des Lichtquants beschreibt, verknüpft. Kernstück dieser EinzelAtom-Einzel-Photon-Schnittstelle ist ein von zwei hoch reflektierenden Spiegeln gebildeter optischer Resonator, der ein einzelnes Rubidiumatom enthält. Dieses Rubidiumatom regen die Wissenschaftler mit Laserpulsen zum Leuchten an. Der Abstand zwischen beiden Spiegeln des Resonators sorgt dafür, dass das Atom nur Photonen einer bestimmten Frequenz in einer genau definierten Richtung emittiert. Mit einem Atom im freien Raum ist dies nicht zu bewerkstelligen. Das Atom hat bei der Emission des Photons nun zwei Möglichkeiten: Es sendet entweder ein rechts-zirkular oder ein links-zirkular polarisiertes Photon aus. Da der Gesamtdrehim-

puls erhalten bleiben muss, rotiert das Atom dabei jeweils in die Gegenrichtung. Das heißt, sein Spin zeigt entweder nach oben (UP) oder nach unten (DOWN). Wie es für Quantensysteme typisch ist, entscheiden sich jedoch weder das Atom noch das ausgesendete Photon für eine der beiden Möglichkeiten. "Sie schlagen vielmehr beide Wege gleichzeitig ein und befinden sich dann in Superpositionszuständen, in dem sich jeweils beide Möglichkeiten überlagern", erklärt Tatjane Wilk, eine der beteiligten Wissenschaftlerinnen. Auf eine bestimmte Möglichkeit würden sie sich erst festlegen, sobald entweder der Polarisationszustand des Photons oder der Spins des Atoms gemessen würde. Dann aber stünde für beide die entsprechende Eigenschaft augenblicklich fest – obwohl sich nur eines in einer Messung offenbaren müsste. Die beiden Teilchen befinden sich also in einer quantenmechanischen Verschränkung.

zur Aussendung eines Photons stimuliert. Dabei geht nun der atomare Zustand UP in ein links-zirkular polarisiertes Photon über, der Zustand DOWN in ein rechts-zirkular polarisiertes. Alle Eigenschaften des gewissermaßen zweideutigen atomaren Zustandes werden dabei auf die Polarisation des zweiten Photons übertragen. Auf diese Weise entstehen nacheinander zwei verschränkte Photonen. Durch Messung der Polarisationszustände beider Photonen haben die Wissenschaftler die Verschränkung experimentell nachgewiesen. Dies bedeutet, dass sowohl die Atom-Photon Verschränkung bei der ersten Photoemission mit hoher Zuverlässigkeit funktioniert, als auch dass die Schnittstelle zwischen Atom und Photon die Quanteninformation des Atoms vollständig auf das zweite Photon überträgt. "Mit den einzelnen Atomen

An der Schnittstelle zwischen Atom und Photon: Ein Atom in einem optischen Resonator wird durch Laserblitze zur Emission eines verschränkten Photonenpaares stimuliert. Die Farben Rot und Blau symbolisieren zwei Spinzustände des Atoms beziehungsweise zwei Polarisationszustände der Photonen. Bild: Max-Planck-Gesellschaft

Den Quantenzustand des Atoms haben die Physiker nun noch zuverlässig auf ein zweites Photon übertragen, so dass nun nicht mehr das Atom und das erste Photon verschränkt sind, sondern die beiden nacheinander emittierten Photonen. "Auf diese Weise lässt sich die in einem Atom gespeicherte Information wieder herauslesen", sagt Gerhard Rempe. Zu diesem Zweck haben die Wissenschaftler das Atom wieder mit Hilfe eines Laserpulses

und einzelnen Photonen steht nun erstmals eine Schnittstelle zwischen einem digitalen Speicher und einem digitalen Überträger von Quanteninformationen zur Verfügung", betont Gerhard Rempe. "In einem nächsten Schritt planen wir, Photonen aus zwei Atom-Resonator-Systemen zur Überlagerung zu bringen und dadurch zwei entfernte Quantenspeicher miteinander zu verschränken. Damit erhielten wir ein erstes, wenn auch noch kleines Quantennetzwerk."

Young Researcher


Neues

Ökologie Wie

umweltfreundlich sind Biotreibstoffe?

Eine Studie untersucht die ökologische Gesamtbilanz von Biotreibstoffen

spielsweise zur Nahrungsherstellung oder auch dem Erhalt natürlicher Flächen.

weltauswirkungen bei der Rohstoff-Bereitstellung sehr gering.

Biotreibstoffe verursachen mehr als ein Drittel weniger Treibhausgase als Benzin oder Diesel. Sie gelten daher als wichtige Alternativkraftstoffe für den Verkehr. Wie hoch der tatsächliche ökologische Vorteil ist, hat nun eine Studie der Eidgenössischen Materialprüfungs- und Versuchsanstalt (Empa) in der Schweiz im Auftrag der Regierung un-

Brandrodungen in tropischen Ländern verursachen große Mengen CO2 sowie erhöhte Luftverschmutzung durch Ruß, Stickoxide, Aerosole und Dioxine. In gemäßigten Zonen wirken sich intensive Düngung und mechanische Bodenbearbeitung negativ aus. Durch niedrigen Ernteertrag erklärt sich die extrem hohe Umweltbelastung des in Europa aus

Die Umweltbelastungen aller untersuchten Biotreibstoffe lassen sich gemäß der Studie im Gegensatz zu jenen fossiler Treibstoffe durch gezielte Maßnahmen deutlich verringern. So könnten strenge Zertifizierungsrichtlinien das Problem der Brandrodung von Regenwald mindern.

Biotreibstoffe vom Acker als Alternative zu fossilen Treibstoffen – eine Studie hat die ökologische Gesamtbilanz untersucht.

tersucht. Hierbei wurde die Gesamtbilanz bewertet: Vom Anbau, über die Verteilung bis hin zum Einsatz in Fahrzeugen. Obwohl Biotreibstoffe aus erneuerbaren Rohstoffen bestehen, kann bei deren Anbau und Verarbeitung ein breites Spektrum von Umweltbelastungen entstehen. Diese reichen von Überdüngung und Versauerung des landwirtschaftlich genutzten Bodens bis hin zum Verlust der Artenvielfalt durch Regenwaldrodungen. Eine landwirtschaftliche Energieproduktion steht zudem in Konkurrenz mit anderen Formen der Landnutzung wie bei-

Roggen produzierten Ethanols. Dieses weist laut Studie die mit Abstand schlechteste Ökobilanz aller untersuchten Biotreibstoffe auf. Die beste Ökobilanz gegenüber fossilen Treibstoffen hat dagegen die energetische Nutzung von Abfall, Reststoffen und Holz. Dabei entfielen einerseits hohe Umweltbelastungen aus der Rohstoff-Bereitstellung, andererseits verringerten sich die Schadstoffemissionen aus der Abfallbeseitigung. Bei der energetischen Nutzung von Holz, etwa durch dessen Vergasung, seien die Um-

10 Junge Wissenschaft // Ausgabe 78 // Neues

Die Optimierung bestehender und die Entwicklung neuer Herstellungsverfahren könnten zu besseren Biotreibstoff-Ökobilanzen führen. Begrenzt ist laut Empa die Menge der einheimischen Bioenergie. Sie könnte aber eine wichtige Rolle in der künftigen Energieversorgung übernehmen, wenn die verfügbare Biomasse umweltfreundlich in Energie umgewandelt und die Energieeffizienz gleichzeitig erhöht werde.


Neues

Biologie Schimpansen "Affen sind egoistisch", so lauteten die bisherigen Ergebnisse von Verhaltensforschern. Max-Planck-Forscher vom Institut für evolutionäre Anthropologie haben diesen Trugschluss jetzt widerlegt: Nicht nur der Mensch verhält sich selbstlos und uneigennützig. Was macht einen Schimpansen zum Helfer? Bisher galt eine sehr einfache Antwort: der unmittelbare eigene Nutzen. Ähnlich wie beim Menschen, soll der Affe eine KostenNutzen-Rechnung aufstellen. Dieses Bild vom egoistischen Primaten konnten jedoch Felix Warneken und seine Kollegen entkräften: "Wir wollten herausfinden, ob Schimpansen und Kleinkinder helfen, um dafür eine sofortige Belohnung zu erhalten, oder ob sie helfen, weil die andere Person ein Problem hat.“ Das Forscherteam konzipierte drei Aufgaben für die 36 Schimpansen aus dem Ngamba Schutzgebiet in Uganda und führte diese gleichzeitig mit einer Gruppe von 36 Kleinkindern durch. In der ersten Aufgabe sah der Schimpanse zu, wie eine unbekannte Person sich vergeblich bemüht, nach einem Stock zu greifen. Der Stock war außerhalb der Reichweite des Menschen, befand sich aber in Reichweite des Schimpansen. Nach seinen verzweifelten Versuchen nahm der Mensch Blickkontakt mit den Affen auf. 12 von 18 Schimpansen hoben den Stock daraufhin auf und reichten ihn weiter, obwohl sie keine Belohnung dafür erhielten. Auch 16 von 18 Kindern halfen selbstlos der Person, indem sie ihr den Gegenstand gaben. Wichtig war aber offenbar der Faktor Hilflosigkeit. "Wenn der Gegenstand außer Reichweite war, die betroffene Person aber gar nicht versuchte, ihn aufzuheben, so boten Schimpansen und Kinder dem Gegenüber den Gegenstand auch nicht an", sagt Warneken. Offensichtlich helfen sowohl Affen als auch Kleinkinder nur in Problemsituationen. Für beide gilt: Sie sind in der Lage zu erkennen, wann jemand Hilfe benötigt, und helfen dann ohne unmittelbaren Eigennutz – in der vorliegenden Studie bis zu zehnmal hintereinander. Verblüffend war

zeigen selbstloses Verhalten auch, dass eine Belohnung die Helfer-Rate nicht weiter erhöhte. In der zweiten Versuchsanordnung steigerten die Forscher den Schwierigkeitsgrad. Sie wollten herausfinden, wie viel Mühe Schimpansen und Kleinkinder auf sich nehmen, um zu helfen. Die Schimpansen mussten dazu eine zweieinhalb Meter hohe Rampe hinaufklettern, um den Stock reichen zu können, die Kinder einen Hindernisparcours durchlaufen. Trotz der großen Anstrengungen halfen mehr als die Hälfte der Schimpansen und Kinder gleichermaßen, ohne dafür belohnt zu werden. "Allerdings müssen wir berücksichtigen, dass die Affen und Kinder möglicherweise bereits in der Vergangenheit für ähnliches Verhalten von einem Menschen belohnt wurden", schränkt Warneken die Aussagekraft dieser Versuche ein. "Denn die Schimpansen halfen in diesem Fall Menschen, aber nicht Artgenossen." Die Forscher lösten sich daher vom Faktor Mensch und untersuchten, ob die Affen auch nicht verwandten Artgenossen zur Hand gehen. Der Versuchsaufbau sah dabei wie folgt aus: Futter wurde hinter einer Tür platziert, die versperrt war. Ein Affe stand vor der Tür, konnte sie aber nicht öffnen. Der potenzielle

Helfer war in einem anderen Käfig ohne Zugang zum Futter, konnte aber dem Artgenossen die Tür zum Futter öffnen. Die Ergebnisse erstaunten die Forscher: Knapp 80 Prozent der potenziellen Helfer öffneten ihren Artgenossen die Tür und verschafften ihnen damit Zugang zum Futter, obwohl sie selbst leer ausgingen. "Wir konnten nicht einmal beobachten, dass die Helfer den Begünstigten um Futter anbettelten oder ihn einschüchterten", sagt Warneken. "Dieses selbstlose Verhalten ist auch deshalb erstaunlich, weil sich die Schimpansen niemals zuvor in dieser Situation befunden haben. Und das zeigt, dass sie auch neuartige Problemsituationen flexibel erkennen und entsprechend neue Formen der Hilfe entwickeln können." Die Studie liefert somit den Beweis, dass unsere nahen Verwandten auch altruistisch handeln und bereits Kleinkinder dies tun. "Hilfsbereitschaft hat ihren Ursprung also nicht allein in Kultur und Erziehung. Wir sollten uns von der Idee verabschieden, dass wir als Egoisten auf die Welt kommen und allein durch Kultur und Erziehung zu hilfsbereiten Wesen heranwachsen", sagt Warneken.

Haarige Helfer: Neue Studien haben gezeigt, dass die Schimpansen wie der Mensch altruistisches Verhalten zeigen.

Young Researcher

11


Neues

Informationstechnik

Wussten Sie schon, dass...

Neue

Datendichte auf CD möglich Mit Hologrammen bis zu 500 Gigabyte Daten auf einer CD speichern Während erste Geräte mit BluRay oder HDDVD-Technologie mit einer Speicherkapazität von bis zu 50 Gigabyte nun die Läden erreichen, wird weltweit bereits an der nächsten Generation optischer Datenspeicher gearbeitet, den sogenannten holographischen Speichern: Forscher bei Bayer MaterialScience testen mit Partnern wie InPhase Technologies aus den USA bereits eine Disc mit 300 Gigabyte. Dagegen hat das Team Optische Technologien (OptTech) an der TU Berlin im Projekt "MICROHOLAS" ein neuartiges System entworfen und realisiert, das etwa 500 Gigabyte an Daten auf eine Disk der bekannten Größe speichern kann. Bisher werden Daten lediglich an der Diskoberfläche abgelegt. Hologramme jedoch lassen sich unabhängig voneinander auch in die Tiefe eines Speichermediums schreiben, in mehreren Ebenen gewissermaßen "stapeln", was die Kapazität einer Standarddisk vervielfacht. Winzig kleine Hologramme werden durch zwei

gegenläufige Laserstrahlen in einem fotosensitiven Medium geschrieben, sogenannte Mikrogitter, die fast unsichtbar für Lichtstrahlen sind. Dadurch beeinflussen sie sich nicht in übereinander liegenden Schichten. Eine einzige Hologrammschicht speichert die Daten einer DVD. Nun gelang es dem interdisziplinären, international besetzten OptTech-Team unter Leitung von Professor Susanna Orlic, auf mittlerweile 50 gestapelten Datenebenen, Rekordspeicherdichten von 500 Gigabyte auf einer üblichen 12-Zentimeter-Disk statt der ursprünglich angepeilten 150 Gigabyte zu erreichen. Und dieser Wert verdoppelt sich nun noch einmal mit dem Wechsel von grünem zu blauem Laserlicht. Für das neue optische Speicherverfahren muss nun ein völlig neuartiges Laufwerk konzipiert werden. Zahlreiche optische und elektronische Komponenten müssen entwickelt und mit Verfahren zur Datenkodierung und Signalverarbeitung in ein kompaktes und robustes System integriert werden – auch dieses hat sich die Gruppe – mit finanzieller Unterstützung der Europäischen Kommission – nun vorgenommen.

...erst mit der Entwicklung des Kunststoffes Makrolon von Bayer die Massenproduktion der CD möglich wurde? Dieser Kunststoff weist eine hohe Fließfähigkeit auf und ist kristallklar. ...zwischen 1992 und 2006 weltweit circa 90 Milliarden Datenträger aus Makrolon hergestellt wurden? Alle optischen Datenträger aufgefädelt auf einer Kette würden den Äquator 2,7 mal umspannen. ...die kleinste niederländische Münze die Lochgröße im Zentrum der CD bestimmt hat?

Die Compact Disk wird 25 – einige Zahlen zur Entwicklung 17.8.1982 die erste Musik CD kommt auf den Markt mit bis zu 74 Minuten Spieldauer 1992 Die CD–ROM (read only memory) speichert Daten von mehr als 450 Floppy Disks 1994 Einführung der CD/R (recordable) und CD/RW (rewritable) 1996 Es folgt die DVD (Digital Versatile Disc), auf der 4,7 Gigabyte Daten gespeichert werden können.

Reichlich Speicherplatz für brillantes HD-TV: BluRay Disc und HD-DVD (Hintergrund: Makrolon®-Granulat). Quelle: Bayer MaterialScience

12 Junge Wissenschaft // Ausgabe 78 // Neues

Aktuell sind HD-DVDs und BluRay-Discs mit Speicherkapazitäten von 15 bis mehr als 100 Gigabyte. Nur sie sind in der Lage, die volle Dateninformation für das hoch auflösende HighDefinition-TV bereitzustellen.


Neues

Bionik Was

Ingenieure von Bienen lernen können

Die Frage, wie Bienen es schaffen, den Zellen ihrer Waben eine beinahe kristallin anmutende sechseckige Gestalt zu geben, hat Forscher schon vor mehreren hundert Jahren beschäftigt. Sogar Johannes Kepler und Galileo Galilei haben sich mit diesem Problem befasst und vermutet, Bienen hätten einen mathematischen Verstand. Dass dem nicht so ist, hat vor geraumer Zeit die Würzburger BEEgroup um den Bienenforscher Jürgen Tautz aufgezeigt: "Wir konnten nachweisen, dass eine Kombination aus einem sozusagen intelligenten Werkstoff – dem Wachs – und einem bestimmten Verhalten der Biene für die regelmäßige Struktur der Waben verantwortlich ist", erklärt Tautz. Denn eigentlich bauen die Bienen ihre Zellen rund; erst wenn ein darauf spezialisiertes Tier das Wachs auf 45 Grad Celsius erwärmt, nimmt der Bau von alleine die regelmäßige sechseckige Struktur an. Die Entdeckung war für Bienenexperten natürlich eine kleine Sensation; dass sich auch Physiker und Ingenieure dafür begeistern würden, hatten die Mitglieder der BEEgroup allerdings nicht erwartet: Sechsecke kommen in der Industrie überall dort vor, wo ein leichtes und gleichzeitig stabiles Material benötigt wird. Das ist beispielsweise in der Luftfahrt der Fall beim Bau von Flugzeugen, das spielt in der Architektur eine Rolle, wenn es darum geht, erdbebensichere Gebäude zu entwickeln, das ist aber auch für Handyhersteller interes-

Sechseckige Strukturen sind für Ingenieure noch eine Herausforderung, sie wollen jedoch von Bienen lernen. (Foto: sxc.hu)

sant, die einen möglichst sparsamen Vibrationsalarm in ihre Geräte installieren wollen. Bisher ist die Produktion solcher Waben in der gewünschten Präzision ohne die gefürchteten Mikrorisse schlichtweg nicht möglich. Aus diesen Überlegungen ist nun ein Projekt entstanden, dass beim Bionik Wettbewerb des Bundesforschungsministeriums ausgezeichnet wurde. Gemeinsam mit dem Institut für Faserverbundleichtbau und Adaptronik des Deutschen Zentrums für Luft- und Raumfahrt e. V. (DLR) und dem Institut für

Nichtmetallische Werkstoffe der TU Clausthal wollen die Bienenforscher nun so genannte "Bionische Schwingungserregersysteme" entwickeln, also eine lebendige Strukur, die sich verändernden Gegebenheiten anpasst. Die Verwertung wird angestrebt in der Kommunikations- und Medizintechnik, in der Robotik und Raumfahrt, in der optischen Industrie, im Maschinen- und Anlagenbau und in der Verkehrstechnik – im Prinzip überall dort, wo Schwingungen auftreten, die entweder zu bestimmten Zwecken genutzt oder möglichst unterdrückt werden sollen.

Vielen Dank allen Firmen und Unternehmen, die mit Patenschaftsabonnements in die Zukunft investieren: Physikalisch Physikalisch-TechnischeTechnische Bundesanstalt

Bundesanstalt, Bonn

Miele & Cie. KG Bonn

Bayer AG, Leverkusen

Forschungszentrum Jülich, Jülich

Evonik Industries AG, Essen

Henkel KGaA, Düsseldorf

Robert Bosch GmbH, Stuttgart

Deutsche Hochschulwerbung, A. Roussidis e. K., Düsseldorf

ThyssenKrupp AG, Düsseldorf

Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., München

Deutsche Telekom, Stiftung, Bonn

Mepha Pharma AG, Aesch (Schweiz)

Deutsche Schülerwerbung, Düsseldorf

Universität Bonn, Bonn

Braunschweig und Berlin


Jugend forscht

Die Zauberflöte Eine Silent-Querflöte für das Musizieren im Amateurbereich Mit einer Silent-Querflöte kann man üben, ohne andere zu stören. Dafür wird der Ton vom Instrument abgenommen, und der Übende hört ihn über Kopfhörer. Realisiert wird dies, indem ein PC je nach Klappenstellung und Anblasart den zugehörigen Ton generiert. Die Art des ausgegebenen Tons kann dabei, wie bei einem Keyboard, frei gewählt werden.

1 Einleitung 1.1 Ausgangssituation und Forschungsidee Nicht nur der „Zauberton“ in der „Zauberflöte“ aus Mozarts Oper ist stark, sondern auch der akustische Klang einer realen Querflöte. Allerdings sind die Nachbarn, El-

tern, Geschwister oder Mitbewohner nicht immer, wie die wilden Tiere im Fall der Zauberflöte, erfreut, dem Spiel der Querflöte lauschen zu dürfen (oder zu müssen). Die Lautstärke einer „Gewaltröhre“, wie der Komponist Richard Wagner die Querflöte nannte, wird häufig unterschätzt. Hugo Pinksterboer erklärt Flöten-Anfängern

Autor Ron Gerrit Becker, *1986 Leipzig FernUniversität Hagen Eingang der Arbeit: Januar 2007

14 Junge Wissenschaft // Ausgabe 78 // Die Zauberflöte

in einem Handbuch über die Querflöte: „Auch wenn du es vielleicht nicht glaubst, aber eine Flöte kann fast so laut sein, wie ein Klavier oder eine Posaune.“ [10, S. 32] Für Posaunen gibt es Dämpfer, viele Klaviere haben ein mittleres Pedal, mit dem sich die Lautstärke drosseln lässt. Für Querflöten gibt es solche Möglichkeiten nicht. Darum empfiehlt Pinksterboer [10, S. 32] in dem


Jugend forscht

Absatz, der auf das oben genannte Zitat folgt, mit den Nachbarn Übungszeiten zu vereinbaren oder einen kleinen Raum schallisolieren zu lassen.

Abbildung 1

Die Nachteile liegen auf der Hand: Feste Übungszeiten schränken eine Flötistin/einen Flötisten stark ein, so dass eine Flötistin/ein Flötist weniger üben kann, als sie/er gerne möchte. Zur Lösung dieses Problems will ich mit meiner Entwicklung ein Stück beitragen. 1.2 Lösungsansätze Um das Musizieren auch zu Ruhezeiten so zu ermöglichen, dass andere Menschen nicht mithören können, bieten verschiedene Hersteller Instrumente an, deren Klang man in einer Weise umstellen kann, dass er nur noch über Kopfhörer hörbar ist. Solche Instrumente werden als Silent-Instrumente bezeichnet. Für andere Instrumente gibt es Silent-Systeme, Dämpfer, die dem akustischen Instrument die Funktionen eines Silent-Instruments geben.

Kopfstück einer Querflöte

bei Querflöten nicht wie z.B. bei Trompeten kurz vor dem Ausgang des Instruments den akustisch erzeugten Ton aufnehmen, ihn akustisch dämpfen und über Kopfhörer hörbar machen, da die Querflöte nicht bis zum Ende des Fußstücks geschlossen ist. Es galt also, diese These zu überprüfen und nach Möglichkeit zu widerlegen. Zunächst probierte ich daher, ob der Quer-

Abbildung 2

nommen werden können, ohne dass Unbeteiligte mithören können. 2 Das Instrument 2.1 Material und Aufbau der Querflöte Die Querflöte gehört zu den Holzblasinstrumenten, wird aber heute in den meisten Fällen aus Metall hergestellt. Aus welchem Metall eine Flöte besteht, ist in erster Linie eine Frage des Preises. Die Wandstärke des Flötenrohrs kann von Modell zu Modell variieren. Jede Querflöte besteht aus drei Teilen: Kopfstück (siehe Abb. 1), Mittelstück (siehe Abb. 2) und Fußstück (siehe Abb. 3).

Mittelstück einer Querflöte

Das Angebot erstreckt sich in diesem Bereich von E-Gitarren und Bässen über Streichinstrumente wie Violinen und Celli, Blechblasinstrumente wie Trompete, Posaune und Horn bis hin zu Schlagzeug und Klavier oder Flügel [8].

flötenton sich akustisch sperren ließe, indem ich eine alte Querflöte mit Küchenrollenpapier verstopfte. Erwartungsgemäß gelang dieser Versuch: Der Klangkörper der Flöte war ausgeschaltet, die „Töne“ ließen sich nicht mehr hörbar anblasen.

Für Querflöten suchte ich ein solches System allerdings vergeblich.

Schwieriger war es da schon, die Töne wieder hörbar zu bekommen. Für diesen Zweck müssen die Stellung jeder Klappe und die Anblasart ermittelt werden, um damit ein Gerät zur Tonerzeugung anzusteuern. Die Tonerzeugung und -wiedergabe übernimmt bei meinem System ein PC, sodass die Töne von den Übenden über Kopfhörer wahrge-

Mitarbeiter eines Musikalienhandels gaben mir die Auskunft, es sei nicht möglich, eine Silent-Flöte zu entwickeln, weil sich ihr Klangkörper nicht einfach wegnehmen ließe, wie z.B. bei Violinen. Auch kann man

Am Kopfstück befindet sich die Mundlochplatte mit dem Mundloch; am oberen Ende des Kopfstücks ist die Krone. Innerhalb des Kopfstücks, von außen unsichtbar, steckt der Stimmkork. Das untere Ende des Kopfstücks wird ins Mittelstück geschoben, wenn man die Flöte zusammenbaut. Abbildung 3

Fußstück einer Querflöte

Young Researcher

15


Jugend forscht

Das Mittelstück wird auch Korpus genannt. Es ist das längste der drei Teile, dort befinden sich die meisten Klappen. Das untere Ende des Mittelstücks wird in das Fußstück geschoben. Am Fußstück (oder Fuß) sind die restlichen drei bzw. vier Klappen angebracht.

Mit Offset-G sollen die Klappen mit dem linken Ringfinger leichter zu erreichen sein, E-Mechanik und Fis-Mechanik sollen das Spielen der Töne e’’’ und fis’’’ erleichtern. Was sich wie darauf auswirkt, wie sich ein bestimmter Ton auf der Flöte anhört, ist umstritten.

Der Klappenmechanismus ist nötig, weil die Löcher der Querflöte zu groß sind, um sie – wie beispielsweise bei der Blockflöte – nur mit den Fingern zu verschließen. Es gibt Klappen, die geschlossen sind, wenn die Flöte nicht gespielt wird, und Klappen, die im Ruhezustand geöffnet sind. Die Klappen, die im Ruhezustand geöffnet sind, nennt man aktive Klappen, die anderen nennt man inaktive Klappen.

Die Diskussion um solche Konstruktionsunterschiede ist insofern relevant, als klargestellt werden soll, dass meine Arbeit zwar im Prinzip auf die anderen metallischen Querflöten übertragbar ist, jedoch kleine Anpassungen vorgenommen werden müssten. Die Grenze ist dort erreicht, wo die Querflöte nicht mehr aus einem gut leitenden Material besteht.

Um die Löcher fest verschließen zu können, haben die Klappendeckel an ihrer Innenseite Polster (siehe Abbildung 4). Diese Polster sind elastisch. Sie bestehen in der Regel aus einer Schicht Karton und einer Schicht Filz, die mit einem dünnen Vlies überzogen sind. Auch beim Fußstück gibt es Unterschiede. Es gibt Querflöten mit C-Fuß und Querflöten mit H-Fuß. Welchen Fuß eine Flöte hat, ist maßgeblich dafür, welches der tiefstmögliche Ton ist. Beim C-Fuß ist dies das c’, beim H-Fuß das h. Der C-Fuß hat drei, der H-Fuß vier Klappen.

Abbildung 4

Meine Experimente habe ich auf einer Flöte mit geschlossenen Klappen, C-Fuß, Offset-G und ohne E-Mechanik oder sonstigen Extras gemacht. Das Material ist mir nicht genau bekannt, da ich sie nicht auf ihren Rohstoff hin analysiert habe. Es handelt sich aber wahrscheinlich um eine versilberte Flöte. 2.2 Tonerzeugung bei der Querflöte Um auf einer Querflöte einen Ton zu erzeugen, bildet die Flötistin/der Flötist mit den Lippen eine Art Spalte. (Diese ersetzt die Kernspalte, die in einer Blockflöte eingebaut ist. [1]) Dabei bläst die/der Spielende gegen die Kante des Mundlochs. Periodisch strömt während dieses Vorgangs ein Teil der Atemluft in die Flöte, ein anderer über die Flöte hinweg. Das Blasen versetzt die Luftsäule in der Flöte in Schwingung. Die schwingende Bewegung setzt sich durch das Flötenrohr fort und wird an den offenen Klappen und am offenen Ende abgestrahlt (vgl. [4]). Die Luftsäule ist am längsten, wenn alle Klappen der Flöte geschlossen sind. Je mehr Klappen vom Fußstück in Richtung Kopfstück geöffnet werden, desto kürzer wird die Luftsäule. Im Allgemeinen kann man davon ausgehen, dass der Ton höher wird, je kürzer die Luftsäule wird. Für die höchsten Töne werden Gabelgriffe verwendet, d.h. Griffe, bei denen weiter oben liegende Klappen geöffnet, weiter unten liegende dagegen wieder geschlossen werden.

Die Klappe einer Querflöte von unten

16 Junge Wissenschaft // Ausgabe 78 // Die Zauberflöte

2.3 Die elektronische Querflöte von Keller Im Zuge meiner Internetrecherche nach einer elektronischen Querflöte wurde ich zwar fündig, doch war die dort geschilderte Zielrichtung des Flötisten und Flötenentwicklers Stefan Keller eine andere als die, die ich mir vorgestellt hatte: „Durch Mikrofone, die in der Flöte eingebaut sind, werden die gespielten Tonfolgen übernommen und können elektronisch bearbeitet werden. Die nachfolgend gespielten Klänge werden durch »Live Sampling« wieder dazu gemixt, bis ein abgerundetes, harmonisches Klangbild entsteht. Unter anderem können so auch bisher nur schwer, manchmal sogar überhaupt nicht erkennbare Töne hörbar gemacht und beeinflusst werden. Durch diese elektronischen Effekte bieten sich dem Musiker auch erweiterte Ausdrucksmöglichkeiten; es kann auf einer höheren und vielfältigeren Ebene gearbeitet werden.“[6] Es scheint sich hierbei also um ein anderes Konzept zu handeln als das der SilentInstrumente: Kellers elektronische Querflöte ist kein Instrument für den Hausgebrauch, bei dem es vorrangig darum geht, die Mitmenschen nicht zu stören. Vielmehr handelt es sich um die Einzelanfertigung für einen Musiker, der damit auch sonst nicht wahrnehmbare Klänge der Querflöte hörbar machen kann. Diesen Eindruck bestätigt auch Stefan Roos in einem Zeitungsartikel über Kellers Entwicklung: „Seine [Kellers] Idee beruht auf der Tatsache, dass die Querflöte im klassischen Sinne auch unerwünschte Geräusche erzeugt, die Keller bewusst verstärkt und meist als perkussive Elemente einsetzt.“ [5] 3 Die Hardwareseite: Probleme und Lösungsansätze Bevor ein PC einen Ton als Simulation eines Querflötentones erzeugen und abspielen kann, muss er Informationen über die Anblasart und die Stellung der Klappen bekommen. Die Anblasart sowie die Stellung der Klappen der Querflöte müssen also in elektrische Signale umgewandelt werden. Diese


Jugend forscht

Signale müssen dann über eine Schnittstelle des Rechners in den PC gelangen, sodass mit Hilfe einer Software die aktuell gespielte Note entschlüsselt werden kann.

schließen. Auch hier ergaben sich Probleme. Zusammenfassend kann man sagen, dass ich keine Möglichkeit gefunden habe, alle Adern so zu befestigen, dass sie zuverlässig die Stellung der Klappen angaben.

3.1 Registrieren der Klappen (Griffe)

Daher änderte ich die Verkabelung und experimentierte mit einer Ader pro Loch und mit der Querflöte als Teil des Stromkreises. Jede Klappe wird mit einer Ader versehen, die unter dem Polster abisoliert ist. Die Adern sind mit Gaffa-Tape an den Klappen befestigt. Da die Querflöte selbst mit einem Pol der Spannungsquelle verbunden ist, schließt sich beim Drücken einer Klappe der dazugehörige Stromkreis. Diese Möglichkeit erwies sich bei meinen Versuchen als die zuverlässigste.

Da eine Querflötenklappe nur zwei Zustände annehmen kann (offen oder geschlossen), bietet es sich an, die darin enthaltene Information in die Zustände Strom bzw. kein Strom umzusetzen und auf diese Weise informationstechnisch abfragbar zu machen. Das bedeutet: Es muss unter jede Klappe ein Sensor eingebaut werden, der bei geschlossenem Zustand einen Stromkreis schließt und ihn ansonsten öffnet (oder umgekehrt). Während der Entwicklungsphase habe ich verschiedene Ansätze verfolgt, um die Klappenstellung zu registrieren. Zuerst experimentierte ich mit Fotodioden. Es gestaltete sich jedoch schwierig, unter jede Klappe eine Fotodiode anzubringen. Außerdem ist eine einheitliche Belichtung aller Klappen nicht möglich, da man sich dann beim Flötespielen nicht bewegen dürfte. Leider lieferte eine Fotodiode, bei geöffneter Klappe, dann nie eine konstante Spannung. Unter anderem aus diesem Grund habe ich mich gegen die Verwendung von Fotodioden entschieden. Daraufhin versuchte ich einen Taster unter jede Klappe zu bauen. Leider lieferten sowohl kommerziell erhältliche Taster, als auch selbst entwickelte Taster keine zufrieden stellende Lösung für die beschriebene Aufgabe. Die Hauptprobleme waren eine zu kleine Oberfläche, eine zu kurze Tastenkappe oder ein zu großer Widerstand beim Drücken des Tasters. Es war mir somit mit meinen Mitteln nicht möglich, einen Taster für die Registrierung der Klappenstellung einzusetzen. Beim darauf folgenden Versuch verbaute ich zwei Adern unter jede Klappe. Die Adern sollten im geöffneten Zustand der Klappe sich und die Querflöte nicht berühren, jedoch unter einer Klappe sitzen. Im gedrückten Zustand sollte sich der Stromkreis durch die Berührung der beiden Adern mit der metallischen Oberfläche der Querflöte

3.2 Anblasarten Eine Besonderheit des Querflötespielens (wie auch des Spielens anderer Blasinstrumente) ist die Problematik des Anblasens: „Für die [...] neuen Töne in der zweiten Oktave [...] muss man eine höhere Luftgeschwindigkeit wählen, sonst brechen sie ab in ihre tiefere Oktave.“ [12, S. 41] Überblasen nennt man das Anblasen mit einer höheren Luftgeschwindigkeit. Die Töne von e’ bis cis’’ haben die gleichen Griffe wie e’’ bis cis’’’. Sie unterscheiden sich nur in der Art des Anblasens. Beim Oktavieren von e’ bis cis’’ wird „überblasen“. Mit höherer Luftgeschwindigkeit und leicht veränderter Blasrichtung werden auch die Töne, die höher sind als cis’’’ angeblasen; darüber hinaus haben diese individuelle Griffe, durch die sie sich von den Tönen eine Oktave tiefer unterscheiden. Um festzustellen, ob ein Flötist oder eine Flötistin überbläst, wäre es also nötig, die Luftgeschwindigkeit am Mundstück zu messen. Ich habe dabei zwei Ansätze verfolgt. 3.2.1 Anblasarten über den Fußtaster (Pedal) Da es also zwei Arten des Anblasens gibt, um die Oktave eines Tons festzulegen, kann man die Anblasart auch durch ein Pedal angeben.

Wird das Pedal gedrückt, signalisiert der Flötist/die Flötistin, dass er/sie den höheren Ton des durch den Griff festgelegten Tons meint. Dies ist besonders für Flötenanfänger, die noch nicht richtig anblasen können, hilfreich. Ein Flötenanfänger muss also nur irgendwie anblasen und legt die Anblasart über das Pedal fest. Somit kann er erst einmal seine Fingerfertigkeit trainieren, bevor er das richtige Anblasen übt. 3.2.2 Anblasarten über eine Mikrofonkapsel Beim Anblasen entstehen Luftschwingungen, die man registrieren muss, wenn man die Art des Anblasens bestimmen will. Die Idee ist also, die Luftschwingungen in elektrische Signale umzuwandeln, sodass sie später weiter verarbeitet werden können. Genau dies leistet ein Mikrofon (vgl. [2, S. 146ff]). Ich habe eine Mikrofonkapsel in das Mundstück so eingebaut, dass diese registriert, wenn der Flötist/die Flötistin anbläst. Die Unterscheidung der Anblasarten ist dann noch vom Pegel abhängig und wird über die Software realisiert. 3.3 Datenübertragung an den PC Die Daten werden von den Klappen mit Hilfe eines Multiplexers über die parallele Schnittstelle zum PC übertragen. Das Pedal ist direkt an die parallele Schnittstelle angeschlossen. Für die Übertragung der Signale von der Mikrofonkapsel nutze ich den Mikrofon-Eingang der Soundkarte, weil diese bereits einen A/D-Wandler eingebaut hat. 3.3.1 Signalbündelung über den Multiplexer Für meine Zwecke benötigte ich einen 16:1 Multiplexer, um die Stellung der 16 Klappen an den Computer zu übertragen. Dieser besitzt einen Anschluss für die positive Versorgungsspannung (V) und einen für die Masse (GN). Darüber hinaus verfügt er über 16 Anschlüsse, welche die Eingänge darstellen (Y0 bis Y15).

Young Researcher

17


Jugend forscht

Z ist der Ausgang des Multiplexers. An die Anschlüsse S0 bis S3 wird binär der Eingang angegeben, der auf den Ausgang gelegt werden soll (siehe Abbildung 6). Beispiel: [5]10 = [0101]2. Um Eingang Y5 auszugeben, müssen S0 und S2 auf 1 und S1 und S3 auf 0 gelegt werden (vgl. Tabelle 1). S3 ist das Bit mit der höchsten und S0 das Bit mit der niedrigsten Wertigkeit. Anschluss 15 (EN) muss auf 0 gelegt werden, um die Eingänge S0 bis S3 zu aktivieren. Tabelle 1 Eingänge

Ausgang Z nimmt Potential an von

EN

S3

S2

S1

S0

keinem

1

X

X

X

X

Y0

0

0

0

0

1

Y1

0

0

0

1

0

Y2

0

0

0

1

1

Y3

0

0

1

0

0

Y4

0

0

1

0

1

Y5

0

0

1

1

0

Y6

0

0

1

1

1

Y7

0

1

0

0

0

Y8

0

1

0

0

1

Y9

0

1

0

1

0

Y10

0

1

0

1

1

Y11

0

1

1

0

0

Y12

0

1

1

0

1

Y13

0

1

1

1

0

Y14

0

1

1

1

1

Y15

X = don’t care

Wertetabelle eines 16:1 Multiplexers

3.3.2 Die Parallele Schnittstelle Die parallele Schnittstelle habe ich aus folgenden Gründen gewählt: Die Schnittstelle muss bidirektional sein (sie muss also Ein- und Ausgänge besitzen). Der Gameport scheidet aus diesen Gründen aus. Die Schnittstelle muss mindestens 4 Aus und 2 Eingänge besitzen. Der Port sollte möglichst auch bei mo derneren PCs vorhanden sein. Die serielle Schnittstelle scheidet daher ebenfalls aus.

Die parallele Schnittstelle eines PersonalComputers (PC) besitzt 25 Pins. Die Pins 2 bis 9 sind Datenleitungen, die vom PC jeweils entweder auf 0 oder 1 gesetzt werden können (Ausgänge). Die Pins 10, 11, 12, 13 und 15 sind Eingänge, die von externen Geräten entweder auf 0 oder 1 gesetzt werden können. Die Pins 1, 14 und 16 sind zusätzliche Ausgänge, die allerdings über ein anderes Datenregister angesteuert werden. Der Pin 17 ist ein zusätzlicher Eingang, der über das gleiche Datenregister, wie die Pins 1, 14 und 16 angesteuert wird. Die restlichen Pins sind Masseleitungen. Die genaue Belegung eines Druckerports ist beschrieben in [3]. Um die Daten, die an der parallelen Schnittstelle anliegen, zu lesen bzw. zu verändern, muss man den zugehörigen E/A-Port auslesen. Standardmäßig ist die Basisadresse des ersten Parallel-Ports (LPT 1) [378]16 und die des zweiten (LPT 2) [278]16. Ruft man die Basisadresse auf, erhält man die Werte der Ausgänge 2-9 (vgl. Abb. 5). Ebenso kann man die Werte der Ausgänge 29 verändern, indem man dem E/A-Port mit der Basisadresse einen neuen Wert zuweist. Wie dies softwaretechnisch funktioniert, wird im folgenden Kapitel genauer erläutert. Ruft man den E/A-Port mit der um 1 erhöhten Basisadresse auf, erhält man den Status der Eingänge 10, 11, 12, 13 und 15. Der Pin 11 ist dabei das Bit mit der höchsten Wertigkeit, der Pin 10 das nächst niedrigere Bit, danach kommen Pin 12, 13 und 15. Ruft man den E/A-Port mit der um 2 erhöhten Basisadresse auf, erhält man den Zustand des Kontrollports. Die Anschlüsse S0-S3 des Multiplexers werden nun mit den Pins 2-5 und der Ausgang Z mit dem Pin 12 der parallelen Schnittstelle verbunden. Außerdem erhält der Multiplexer seine Versorgungsspannung über den Pin 1 und die Masse über den Pin 22 der parallelen Schnittstelle. Da der Multiplexer immer aktiviert sein soll, wird der Anschluss EN ebenfalls an den Pin 22 angeschlossen, wodurch er auf Masse gelegt wird. An die Eingänge Y0-Y15 werden die einzelnen Klappen angeschlossen und die Oberfläche der Querflöte wird mit der Masse (Pin 22)

18 Junge Wissenschaft // Ausgabe 78 // Die Zauberflöte

verbunden. Zum Schluss wird das Pedal an die Masse und an den Pin 13 (ein weiterer Eingang der parallelen Schnittstellen) angeschlossen. Da das Potential der Eingänge der parallelen Schnittstelle im Ruhezustand hoch ist, muss beim Drücken einer Klappe (oder beim Treten des Pedals) eine Verbindung zur Masse hergestellt werden, um das Potential herunterzuziehen. Ist die Klappe geschlossen (bzw. Pedal getreten) liegt der zugehörige Eingang der parallelen Schnittstelle also auf 0, andernfalls liegt er auf 1. Der gesamte Aufbau ist in Abb. 6 dargestellt. 4 Die Softwareseite: Programmstruktur und Algorithmen Die Software zur rechnergestützten Wiedergabe der Flötentöne ist in der Entwicklungsumgebung Delphi 7 Enterprise, welche auf OBJECT PASCAL basiert, programmiert. Ich entschied mich für den Einsatz dieser Programmiersprache und Entwicklungsumgebung, weil sie die von mir angestrebte Funktionalität angemessen unterstützt und weil ich dabei auf meine jahrelange Programmiererfahrung zurückgreifen konnte. 4.1 Wie Delphi die Daten abruft: Das Protokoll Über die beiden externen Methoden Inp32 und Out32 aus der Datei inpout.dll von Douglas Beattie Jr. steuere ich die parallele Schnittstelle an. Diese habe ich eingebunden, da die Ansteuerung der parallelen Schnittstelle unter Windows XP/2000/NT überwacht wird und bei Programmen wie meinem den Zugriff verweigert (vgl. [7]). Die Datei inpout.dll umgeht dabei diese Sperre. Zuerst setzt die Software über die Methode Out32 den Datenport des Parallel-Ports auf die Nummer der Klappe, deren Stellung abgefragt werden soll. In einem Array vom Typ Boolean werden die Zustände der einzelnen Klappen abgespeichert. Die Klappennummer wird dabei als Index auf dieses Array benutzt.


Jugend forscht

ist, wird in das Datenfeld Klappe an die aktuelle Stelle False eingetragen. Danach wird der Zustand der nächsten Klappe abgefragt, indem die nächste Klappennummer über die Software an den Multiplexer angelegt wird.

Abbildung 5

Bei jedem Durchgang wird zusätzlich die Stellung des Pedals abgefragt und in eine Variable des Typs Boolean gespeichert (False = Pedal nicht gedrückt; True = Pedal gedrückt). Währenddessen wird der Pegel am Mikrofon-Eingang eingelesen und in einer Variablen des Typs Integer gespeichert. Wurde der Zustand jeder Klappe abgefragt und im Array gespeichert, werden diese Zustände über denselben Mechanismus kontinuierlich aktualisiert, um die Griffwechsel zu erkennen.

Pinbelegung des Parallel-Ports

Beim Abfragen des Zustands einer Klappe wird zuerst eine binäre [1]2 durch Linksschieben in [10000]2 umgewandelt. Diese Zahl wird bitweise addiert mit dem Wert, der am Statusport des Parallel-Ports anliegt. Beim bitweisen Addieren müssen beide Summanden an der Stelle x eine 1 haben, damit im Ergebnis an der Stelle x ebenfalls eine 1 steht. Dadurch, dass der Summand [10000]2 nur eine 1 enthält, wird durch die bitweise Addition mit dem Wert am

Statusport nur die Stelle in das Ergebnis übernommen, die den aktuellen Zustand der Klappe anzeigt. Alle anderen Stellen erhalten im Ergebnis eine 0 und werden somit ausgeblendet. Falls die Klappe geöffnet ist, ergibt sich: [01110111]2 AND [10000]2 = [00010000]2. Nun wird die Stelle, an der sich die Information über die Klappe befindet (in diesem Fall die fünfte Stelle), ganz nach rechts geschoben, sodass sich folgendes ergibt: [00000001]2 = [1]2. Da 1 ungleich 0

Um jedoch den Ablaufstrang des Hauptprogramms nicht ausschließlich mit der Abfrage der Klappenstellung zu belasten, wird ein spezieller Thread erzeugt, der sich nur mit der Abfrage der Stellung der Klappen und des Pedals beschäftigt. Mit dieser Implementierung wird die Multithreadingfähigkeit der modernen Betriebssysteme ausgenutzt. Ein Beispiel für ein solches Betriebssystem ist Windows 2000 (W2K) und damit auch Windows XP.

Abbildung 6

Flöte mit Multiplexer und paralleler Schnittstelle

Young Researcher

19


Jugend forscht

neuer Griff erkannt wird, verlängern. Die Kollisionen würden sogar noch steigen, wenn man die Griffe, die keinen harmonischen Klang bilden, ebenfalls in die Datenstruktur einbeziehen würde. Im Extremfall wird die Hashtabelle ebenfalls so groß wie das von mir definierte Feld, nämlich dann, wenn die Anzahl der Behälter 131071 beträgt. Dadurch würden allerdings auch keine Kollisionen mehr auftreten. Deswegen habe ich mich für ein Feld entschieden.

Abbildung 7

Die Silent-Querflöte und die benötigte Hardware

4.2 Vom elektrischen Signal zum fertigen Ton (Klang)

gebnis wird wiederum in result gespeichert. Beispiel: Klappe 1 und 3 sind geschlossen: [1]2 shl [2]10 = [100]2 OR [00000000000000001]2 = [00000000000000101]2. Danach wird der Pegel überprüft. Liegt dieser unter dem ersten Schwellwert, der angibt, ob überhaupt angeblasen wurde, wird das Bit mit der höchsten Wertigkeit auf 1 gesetzt. Übersteigt er den zweiten Schwellwert, wird überblasen und an die Stelle für die Anblasart eine 1 gesetzt. Ersatzweise wird das Pedal abgefragt, falls über dies die Anblasart bestimmt werden soll.)

4.2.1 Erkennen des aktuellen Griffes Um die Tastenkombinationen und Anblasart richtig zu den Flötentönen zuordnen zu können, muss der Rechner sie zunächst erkennen. Dieser Vorgang gliedert sich in mehrere Schritte: 1. Zusammenfassung der Klappenkombination und der Anblasart in einen Zahlenwert (z.B. Klappe 1 und 3 geschlossen, Pedal nicht gedrückt, angeblasen, nicht überblasen: [00000000000000101]2 = [5]10):

2. Einführung eines Arrays: Type TTonArray = Array[0..131071] of String[6]. Durch diesen Array wird jedem Zahlenwert ein eindeutiger Name (String) zugeordnet. Eine alternative Methode wäre das Hashverfahren gewesen. Beim Hashing wären allerdings Kollisionen nur schwer vermeidbar gewesen und damit wäre ein Laufzeitverhalten O(1) [11] überschritten worden. Das würde die Dauer bis zu dem Zeitpunkt, zu dem ein

(Dazu wird eine Variable result vom Typ Integer auf [0]2 gesetzt. Ist nun eine Klappe geschlossen, wird eine binäre 1 um die aktuelle Klappennummer (i) nach links verschoben und über ein bitweises ODER mit der Variable result verknüpft. Das Er-

3. Dieser Array wird mit Hilfe einer speziellen Prozedur aus einer Datei geladen. Der Datei, in der ich jedem Ton einen eindeutigen Schlüssel zugeordnet habe, liegt eine Tabelle, in der Form der Tabelle 2, zugrunde. In die Tabelle 2 habe ich die Griffe eingearbeitet, die ich in verschiedenen Quellen gefunden habe (vgl. [12] und [13]). In den mir vorliegenden Quellen ist immer nur dargestellt, welche Klappen die Flötistin/der Flötist mit den Fingern betätigen muss, aber nicht, welche Klappen durch die Mechanik der Querflöte dabei automatisch auch geschlossen werden. Für einen Ton kann es acht oder mehr verschiedene Griffmöglichkeiten geben (vgl. [10, S. 58]). Spielt eine Flötistin/ein Flötist unterschiedliche Griffe kann das über die Mechanik durchaus dazu führen, dass die gleichen Klappen geöffnet oder geschlossen sind. Ich habe die Klappenkombinationen der gebräuchlichsten Griffe in einer Tabelle zusammengefasst. Allerdings kann ich nicht ausschließen, dass es korrekte Griffe für einen Ton gibt, deren Klappenkombination in der Tabelle nicht aufgeführt ist und die somit auch nicht erkannt werden. Weitere Kombinationen könnten jedoch problemlos hinzugefügt werden. Beispielhaft sind in Tabelle 2 zwei Tastenkombinationen für b’ dargestellt. Die anderen Töne sind analog eingetragen.

Tabelle 2 Ton

Überblasen

K16

K15

K14

K13

K12

b`

X

b`

X

K11

K10

K9

X

X

X

X

X

X

X

X

X

X

K8

K7

K6

X

X

K5

K4

K2

K1

Dezimal 63.744

Beispiel für die Zuordnung der Töne zu den Griffen und den Schlüsseln (erstellt nach [12] und [13]) X bedeutet Klappe geschlossen bzw. Pedal getreten

20 Junge Wissenschaft // Ausgabe 78 // Die Zauberflöte

K3

63.840


Jugend forscht

4. Der erstellte Zahlenwert für die Klappenkombination (+Anblasart) wird nun als Index auf das Array vom Typ TTonArray verwendet. (Beispiel: Bei [00000000000000101]2 = [5]10 wird die Zeichenkette in TonArray[5] auf dem Bildschirm ausgegeben und/oder der zugehörige Ton über Kopfhörer hörbar gemacht.) 4.2.2 Wiedergabe des erkannten Tons Da ein Klang im physikalischen Sinn (der weitgehend einem musikalischen „Ton“ entspricht) aus einem Grundton und mehreren Obertönen besteht, ist es schwierig, den musikalischen Ton dynamisch vom Computer erzeugen zu lassen. Der Computer müsste sowohl die Grundfrequenz als auch die Frequenz der Obertöne errechnen und an die Soundkarte senden. Darüber hinaus müssten neben der Klappenkombination noch einige weitere Faktoren gemessen und erkannt werden, z.B. wie weit das Kopfstück im Mittelstück steckt (das ist relevant für die Tonhöhe), wie weit die Flöte am Mund ein- oder ausgedreht und wie hoch die Blasgeschwindigkeit ist. Derartig detaillierte Messungen benötigen jedoch noch weitere Entwicklungszeit. Es bleibt fraglich, ob damit die Ausdrucksmöglichkeiten für die Flötistin/den Flötisten bzgl. der unterschiedlichen Klangfarbe mit der von mir konzipierten Silent-Flöte so groß würden wie beim akustischen Instrument. Meines Erachtens hätte es auch keinen Sinn, zu versuchen, ein Original zu kopieren, ohne die Chance zu haben, an dessen Qualität heranzukommen, zumal das Ziel meiner Entwicklung ohnehin ein anderes ist: Das Instrument soll ja weder auf der Bühne noch beim Üben im Profibereich eingesetzt werden, sondern im Amateur- und Lernbereich Übende unterstützen. Aus diesen Gründen habe ich mich entschieden, die Töne als Audiodateien in den Computer einzuspielen. Diese werden dann von der Software (je nach Griff) wiedergegeben.

4.2.2.1 Aufnehmen der Töne von einer Querflöte

1. Ein Array wird angelegt, das jedem Ton die passende Audiodatei zuordnet.

Mit Hilfe eines Mikrofons und eines Stereo Mischpults habe ich versucht, Töne, die auf einer Querflöte gespielt wurden, aufzunehmen. Dabei ergaben sich jedoch einige Probleme: die Querflötentöne sind nicht ganz gleich gestimmt, die Blasgeschwindigkeit ist von Ton zu Ton unterschiedlich, eine konstante Entfernung zum Mikrofon konnte nicht eingehalten werden und nach jeder Aufnahme musste abgesetzt werden, dadurch änderten sich bei neuem Anblasen Haltung, Blasgeschwindigkeit und Stellung des Mundstücks. Auch mit computerunterstützter Nachbearbeitung klangen Töne, die sich normalerweise harmonisch zueinander anhören, schräg und disharmonisch. (Dieses Phänomen lässt sich auch anhand der Fachliteratur erklären: [10, S. 26].)

2. Die Audiodateien werden alle aus einem Verzeichnis geladen. Somit kann man z.B. mehrere CDs erzeugen, die jeweils die Töne eines anderen Instruments zum Inhalt haben. Durch Wechseln der CDs kann also das Instrument gewechselt werden, das durch die Querflöte imitiert werden soll.

4.2.2.2 Aufnehmen einem Keyboard

der

Töne

von

Aufgrund der geschilderten Schwierigkeiten entschied ich mich, die Töne von einem Keyboard einzuspielen. Diese Verfahrensweise hatte folgende Vorteile: bei einem Keyboard kann man das (simulierte) Instrument frei wählen, das Verhältnis der Töne zueinander ist immer gleich, und da das Keyboard über den AUX-Ausgang direkt mit der Soundkarte des PCs verbunden werden kann (ein Mikrofon also nicht mehr nötig ist), entstehen keine Störgeräusche oder ähnliches. Ich habe jeden Ton etwa 30 Sekunden lang aufgenommen und in einer separaten Datei in einem Verzeichnis abgelegt. Mit der Idee, die Töne vom Keyboard aufzunehmen und abzuspielen, eröffnen sich ganz andere Chancen: Es entsteht eine KeyboardQuerflöte, mit der sich wie am Keyboard andere Instrumente imitieren lassen, auch ohne dass man auf einer Klaviatur spielen kann. 4.2.2.3 Wiedergabe der Töne über die Software Um die (musikalischen) Töne über die Software wiedergeben zu können, kann man vorgehen wie nachfolgend geschildert:

3. Im Hauptprogramm wird mit einem bestimmten Intervall eine Methode aufgerufen, die überprüft, ob überhaupt gespielt wird. Falls ja, speichert sie den Wert des aktuellen Tons in der Variable Ton. Unterscheidet sich der erkannte Ton von dem aktuell wiedergegebenen Ton und gibt es überhaupt einen Ton zum aktuellen Griff, so muss die aktuelle Audiodatei angehalten und die neue abgespielt werden. Die neue Audiodatei wird nun solange abgespielt, wie sich die Klappenkombination nicht ändert. Ändert sich die Klappenkombination wird der neue Ton identifiziert, die aktuelle Audiodatei angehalten und die neue Audiodatei (falls es eine gibt) abgespielt. Dies wird so lange wiederholt, bis die Flötistin/der Flötist aufhört anzublasen. 5 Ausblick In Gestalt der von mir entwickelten SilentQuerflöte (Abb. 7) gibt es also neben dem in der Einleitung erwähnten schallisolierten Raum eine weitere Möglichkeit, während der Ruhezeiten zu üben bzw. zu spielen. Für den musikpädagogisch-technischen Bereich eröffnet sich damit eine neue Übungsmöglichkeit. Einschränkend muss allerdings gesagt werden, dass mit meiner Silent-Querflöte noch nicht alles geübt werden kann, was eine Flötistin/ein Flötist auf einer akustischen Flöte üben sollte oder müsste. Dafür fehlt vor allem eine Übungsmöglichkeit im Bereich der Tonerzeugung und -beeinflussung mit Atmung und Lippenstellung. Dies wäre demnach eine von vielen Möglichkeiten, das vorliegende Projekt weiterzuentwickeln. Außerdem können schnelle Tonwechsel (z.B. bei Läufen) noch nicht schnell genug

Young Researcher

21


Jugend forscht

erkannt werden, um alle Töne wiedergeben zu können. Wie schnell ein Tonwechsel erkannt wird, hängt vor allem von der Hardware des PCs ab (z.B. von der Taktung des Prozessors). Zu den weiteren Bereichen, in denen Hardund Software weiterentwickelt werden könnten, gehört die Möglichkeit, das System zum Registrieren der Klappen ein- und ausbaubar zu machen, sodass man ohne großen Aufwand dasselbe Instrument benutzen kann, egal, ob man akustisch oder elektronisch spielen will. Die Software könnte so ausgestaltet werden, dass sie sich als Lernprogramm einsetzen lässt. Zu diesen Weiterentwicklungen könnte z.B. die Möglichkeit gehören, Noten eines Musikstückes einzugeben und mit der Querflöte nachzuspielen. Die Software könnte dann häufige Fehlerstellen lokalisieren und die Fehler analysieren. Aber auch an die Bedürfnisse von FlötenNeulingen, die sich damit beschäftigen, die verschiedenen Griffe zu lernen, wäre die Software anpassbar. Tritt man in den fortgeschrittenen oder semi-professionellen Bereich ein, könnte die Software das Abspielen einer Zweitstimme übernehmen, sodass Flötistinnen und Flötisten auch alleine wie im Duo spielen könnten. Für die hier vorgestellte Variante der SilentQuerflöte wurde ein Gebrauchsmuster eingetragen. Dank Ich bedanke mich ganz herzlich bei … Thomas Paridon für seine alte Querflöte, Peter Engels für seine kritischen Anregungen,

Literaturangaben [1] Binkowski, Bernhard; Brändle, Walter; Prinz, Ulrich (Hrsg.): Musik um uns – 7. – 10. Schuljahr – Mit Beiträgen von Arthur Dangel, Manfred Hug, Peter Koch und Albrecht Scheytt; J. B. Metzlersche Verlagsbuchhandlung und Carl Ernst Poeschel Verlag GmbH; Stuttgart; 13., völlig neu bearbeitete Auflage von „Unser Liederbuch“ Mittelstufenband; 1958/1975, S. 99-100 [2] Dickreiter, Michael: Handbuch der Tonstudiotechnik Band 1 Raumakustik, Schallquellen, Schallwahrnehmung, Schallwandler, Beschallungstechnik, Aufnahmetechnik, Klanggestaltung; Hrsg: SRT – Schule für Rundfunktechnik; K. G. Saur Verlag KG; München; 6., verbesserte Auflage; 1997 [3] http://home.arcor.de/fredrik.matthaei/HTML/Schnittstellen.htm [4] http://www.flutepage.de/deutsch/goodies/physik.shtml [5] http://www.flutetrends.ch/AlbidoPressede.html [6] http://www.flutetrends.ch/Die%20Symbiose%20de.html [7] http://www.logix4u.net/inpout32.htm [8] http://www.musikhug.ch/deutsch/0805_ratgeber/0950_sil.asp [9] N.N.: Hilfe-Datei von Borland Delphi 7 Enterprise; Borland GmbH; Langen; 2002 [10] Pinksterboer, Hugo: Querflöte und Piccolo – Praktisch, klar und aktuell. Das ideale Nachschlagewerk für Anfänger und fortgeschrittene Flötisten – mit benutzerfreundlichem Mini-Lexikon.; Reihe: Pocket-Info; Schott Musik International; Mainz; 2002 [11] Verbeek, R: Grundlagen der Theoretischen Informatik – Komplexitätsmaße, Komplexitätsklassen und Hierarchiesätze – Kurseinheit 4; FernUniversität Hagen; Fachbereich Informatik; Hagen; 1999, S.11 [12] Wye, Trevor: Flöte lernen mit Trevor Wye – Teil 1 – Aus dem Englischen übertragen von Viktor Rusti; Musikverlag Zimmermann; Frankfurt am Main; (Originaltitel:Trevor Wye: A Beginner’s Practice Book fort he Flute; Novello u. Comp. Ltd.; 1984) [13] Wye, Trevor: Flöte lernen mit Trevor Wye – Teil 2 – Aus dem Englischen übertragen von Viktor Rusti; Musikverlag Zimmermann; Frankfurt am Main; (Originaltitel:Trevor Wye: A Beginner’s Practice Book for the Flute; Novello u. Comp. Ltd.; 1984)

Günther Schulze und Ian Umlauff für die freie Benutzung der Theaterwerkstatt des Amos-Comenius-Gymnasiums Bonn und Silke Speidel, die mir als Flötistin mit Tipps und Softwaretests zur Seite stand.

22 Junge Wissenschaft // Ausgabe 78 // Die Zauberflöte


Jugend forscht

Glossar

Richtlinien für Beiträge

Gaffa-Tape Ist ein Klebeband, das vor allem in der Bühnentechnik häufig eingesetzt wird, da es in Längsrichtung besonders hohe Kräfte aufnehmen kann.

Die Junge Wissenschaft veröffentlicht Originalbeiträge junger Autoren bis zum Alter von 23 Jahren. Für die allermeisten jungen Autoren ist dies die erste wissenschaftliche Veröffentlichung. Die Einhaltung der folgenden Richtlinien hilft allen - den Autoren und dem Redaktionsteam:

Multiplexer Mit Hilfe eines Multiplexers kann man unter einer bestimmten Anzahl von Eingängen einen auswählen, dessen Potential vom Ausgang angenommen werden soll. Multithreading Multithreading ist die Fähigkeit eines Betriebssystems, Prozesse mit mehreren Ablaufsträngen (Threads) zu unterstützen. Taster Der Begriff Taster bezeichnet in der Elektrotechnik ein Bauteil, das bei Betätigung einen Stromkreis, je nach Beschaltung, schließt und/oder öffnet ohne, wie ein Schalter, einzurasten, d.h. nach dem Loslassen wird der betroffene Stromkreis wieder unterbrochen bzw. geschlossen. Threads „Mithilfe von Threads kann die Ausführung eines bestimmten Quelltextabschnitts für jeden dieser parallelen Zweige gleichzeitig gestartet werden. Ebenso können verschiedenen Programm-Tasks unterschiedliche Prioritäten zugeordnet werden, damit kritische Tasks mehr CPU-Zeit erhalten.“ [9]

!

Die Beiträge sollten nicht länger als 12 Seiten mit je 35 Zeilen sein. Hierbei sind Bilder, Grafiken und Tabellen mitgezählt. Formulieren Sie eine eingängige Überschrift, um bei den Lesern Interesse für Ihre Arbeit zu wecken. Diese Überschrift erscheint über der eigentlichen, wissenschaftlichen Überschrift. Formulieren Sie eine kurze, leicht verständliche Zusammenfassung (max. 400 Zeichen). Die Beiträge sollen in der üblichen Form gegliedert sein, d.h. Einleitung, Erläuterungen zur Durchführung der Arbeit sowie evtl. Überwindung von Schwierigkeiten, Ergeb nisse, Schlussfolgerungen, Diskussion, Liste der zitierten Literatur. In der Einleitung sollte die Idee zu der Arbeit beschrieben und die Aufgabenstellung definiert werden. Außerdem sollte sie eine kurze Darstellung schon bekannter, ähnlicher Lösungsver- suche enthalten. Am Schluss des Beitrages kann ein Dank an Förderer der Arbeit, z.B. Lehrer und Sponsoren, mit vollständigem Namen angefügt werden. Für die Leser kann ein Glossar mit den wichtigsten Fachausdrücken hilfreich sein. Alle Bilder nummerieren und eine zugeordnete Bildunterschriftenliste beifügen. Formelzeichen nach DIN, ggf. IUPAC oder IUPAP verwenden. Gleichungen sind stets als Größengleichungen zu schreiben. Vermeiden Sie bitte aufwändige und lange Zahlentabellen.

Reichen Sie Ihren Beitrag sowohl in ausgedruckter Form als auch in einer digitalen Version ein. Für die weitere Bearbeitung und die Umsetzung in das Layout der Jungen Wissenschaft ist ein Word Dokument mit möglichst wenig Formatierung erforderlich. Bilder (möglichst 300 dpi), Grafiken und Tabellen bitte zusätzlich als eigene Dateien mitliefern.

Senden Sie mit dem Beitrag eine Erklärung ein, in der versichert wird, dass der Beitrag vom angegebenen Autor selbst stammt und noch nicht an anderer Stelle veröffentlicht wurde (außer im Zusammenhang mit „Jugend forscht“ oder einem vergleichbaren Wettbewerb). Schließlich sind die genauen Anschriften der Autoren (für Zusendung eines Beleg- exemplars) mit Telefonnummer und E-Mail-Adresse sowie Geburtsdaten und Fotografien (Auflösung 300 dpi bei einer Bildgröße von mindestens 6x4 cm) erforderlich. Neulingen im Publizieren werden als Vorbilder andere Publikationen, z.B. hier in der Jungen Wissenschaft empfohlen. Noch eine Anmerkung: eine hochgestochene und gedrechselte Ausdrucksweise ist kein Merkmal besonderer Wissenschaftlichkeit. Neue Ideen, die noch nicht erschöpfend bearbeitet sind, trotzdem aber schon vorgestellt werden sollen, sind als Kurzmitteilungen an den Herausgeber willkommen.

Anschrift für die Einsendung der Beiträge: Junge Wissenschaft Dr.-Ing. Sabine Walter Schacht-Albert-Ring 52 30952 Ronnenberg s.walter@verlag-jungewissenschaft.de

Young Researcher

23


Jugend forscht Quelle: AWI

Eiskaltes Geheimnis Untersuchung des Lufteinschlusses im polaren Eis Der antarktische Eispanzer stellt für Klimaforscher ein wichtiges Datenarchiv dar. Vor allem die im Eis eingeschlossenen Luftblasen ermöglichen Aussagen über den Atmosphärenzustand vor Jahrtausenden. Dabei tritt das Problem auf, dass die Gase gegenwärtig noch nicht genau datiert werden können, weil das Eisarchiv komplexen Deformationsprozessen unterworfen ist. Deshalb wurden Eiskerne aus der Antarktis mittels hochauflösender Röntgenverfahren untersucht und eine Anisotropie der Lufteinschlüsse erstmals nachgewiesen.

1 Die Klimaveränderung aktuelles Thema

-

ein

Beinahe jede Woche werden auf der Erde verheerende Schäden durch Naturkatastrophen verursacht. Hohe Opferzahlen lassen auch die Angst der Menschen steigen. Die Öffentlichkeit stellt sich zahlreiche Fragen:

Sind diese extremen Klimaverhältnisse und Katastrophen wie z.B. der Wirbelsturm „Katrina“, der New Orleans zerstörte, neuartige Erscheinungen? Oder gab es so etwas bereits in der Vergangenheit? Wieso schmelzen die Polkappen ab? Welche Auswirkungen hat der Rückgang des Permafrostes? Ist etwa die Menschheit selbst verantwortlich für die

Autor Markus Giftthaler, *1988 Vilsbiburg Maximilian-von-Montgelas-Gymnasium, Vilsbiburg Eingang der Arbeit: Januar 2007

Erderwärmung, oder handelt es sich lediglich um ein Phänomen, das sich in der Geschichte periodisch wiederholt? Es ist nicht leicht, all diese Fragen zu beantworten, denn direkte Messungen, die uns etwas über die natürlichen Klimaschwankungen verraten, existieren meist nur für in klimageschichtlicher Hinsicht sehr kurze Zeiträume. Doch die Natur bietet uns hier selbst eine Lösung an: sie speichert in natürlichen Archiven Informationen über lange Zeiträume, zum Beispiel in Seesedimenten, Korallen und vor allem auch im polaren Eis. Das antarktische Eis ist Jahrtausende alt und so ein Schlüssel zur Vergangenheit! Durch die Analyse des dort eingeschlossenen Klimaarchivs lassen sich Erkenntnisse über knapp 900 000 Jahre Klimageschichte gewinnen. Im Sommer 2005 verbrachte ich fünf Wochen am Alfred-Wegener-Institut für Polar und Meeresforschung in Bremerhaven (AWI), einem der weltweit führenden Institute auf dem Fachgebiet der Glaziologie und Klimaforschung. In dieser Zeit ist diese Arbeit entstanden.

24 Junge Wissenschaft // Ausgabe 78 // Eiskaltes Geheimnis


Jugend forscht

Abbildung 1

Eingeschlossene Luftblasen im Eis (Quelle: Chris Gilbert, British Antarctic Survey)

2 Eine Reise in die Vergangenheit Eiskerne stellen ein außergewöhnliches Klimaarchiv dar. Der große Eispanzer der Antarktis besteht aus vielen tausend einzelnen Schneefallereignissen, die zeitlich geordnet übereinander geschichtet sind. Deshalb besteht das polare Eis zum Beispiel beim FirnEis-Übergang auch nur zu 90% aus Wasser, denn im Laufe der Jahrtausende wurde zwischen den Schneekristallen Luft eingeschlossen, die sich nun untersuchen lässt. Die Abbildung 1 zeigt einen Querschnitt durch einen Eiskern aus der Antarktis.

Abbildung 2

Eisbohrkerne besitzen also ein großes wissenschaftliches Potential, zum Beispiel hinsichtlich der Untersuchung der Gase im Eis und deren zeitlicher Veränderung. Die Untersuchung der eingeschlossenen Luft bringt der Forschung schon jetzt viele neue Erkenntnisse über die Atmosphärenluftzusammensetzung vergangener Zeiten. Allerdings gibt es eine teilweise noch sehr unerforschte und unverstandene Problematik: das Eisarchiv ist komplexen Bildungs- und Deformationsprozessen unterworfen. Voraussetzung für ein möglichst unverfälschtes Bild des Luftspeichers ist aber das genaue Verständnis der Luftabschlussprozesse im Oberflächenschnee und in der Firnsäule. Denn schließlich war alles Eis vormals Schnee, welcher der Sonneneinstrahlung, dem Wind und den jahreszeitlichen und täglichen Temperaturschwankungen ausgesetzt war. Für genauere Erkenntnisse im polaren Klimaarchiv (z.B. Datierung der Luft) sind also zunächst die physikalischen Vorgänge und Bedingungen beim Luftabschluss zu verstehen. Um diese Prozesse zu erforschen, ist eine Untersuchung des Eiskernes auf seiner ganzen Länge notwendig. Der Sinterungsprozess beginnt an der Oberfläche und pflanzt sich bis in große Tiefen fort. Glücklicherweise stehen der Forschung komplette Bohrkerne aus der Antarktis zur Verfügung. Solche Bohrkerne, die üblicherweise einen Durchmesser von rund 10 cm besitzen und aus mehreren Kilometer Tiefe stammen können, stehen auch für strukturelle Untersuchungen der Blasen und der Eismatrix zur Verfügung.

1998/1999 am Dome C auf dem antarktischen Polarplateau durchgeführt wurde. Dome C ist mit rund -54 °C Jahresmitteltemperatur eine der kältesten Regionen der Erde und hat einen sehr geringen jährlichen Schneezutrag, so dass das Eis bereits in den verhältnismäßig geringen Tiefen meiner Untersuchungen ein Alter von über 1000 Jahren erreicht. Bei so extremen Bedingungen wie am Dome C tritt der Firn – Eis Übergang (Lufteinschluss) erst sehr spät auf. Des Weiteren ist die Akkumulationsrate an diesem Ort sehr gering, das heißt nur wenig Schnee bleibt im Laufe eines Jahres liegen und wird gebunden. Dies resultiert in einer sehr langsamen Sinkgeschwindigkeit. Der Schnee bleibt also länger in den Oberflächenregionen als an anderen Orten und die Veränderungen durch oberflächennahe Prozesse wie der Sonneneinstrahlung werden größer, sind also besser messbar. 3 Untersuchungsmethoden 3.1 Die Verarbeitung der Bohrkerne Eisproben aus einer Tiefe von 10 – 60 Metern bilden den Grundstock meiner Untersuchungen. Das Eis ist sehr wertvoll und hochempfindlich. Um ein möglichst repräsentatives Bild zu erhalten, entschloss ich mich, Proben aus sechs verschiedenen Tiefen zu untersuchen. Abbildung 3

Bisher sind die Prozesse in den oberen Schneeschichten bis in eine Tiefe von 10 m schon gut verstanden. Auch ab einer Tiefe von ca. 60 Metern waren am AWI zahlreiche Proben schon untersucht und die Blasenstruktur analysiert worden. Doch dazwischen klaffte eine Lücke, mit der man sich nur selten auseinander gesetzt hatte, welche jedoch für ein vollständiges Verständnis und Bild des Sinterungsprozesses wichtig war und erforscht werden sollte. Genau an dieser Stelle setzt die hier vorliegende Arbeit an, worin versucht wird, das fehlende Zwischenstück zu ergänzen.

Ein Eisbohrkern

Das von mir untersuchte Eis ist in mehrerlei Hinsicht ein sehr besonderes Eis. Es stammt aus der FIRETRACC Bohrung, welche

Die Bohrkerne werden nach einem festgelegten Schema zerlegt und die einzelnen Teile bestimmten Untersuchungen zugeführt.

Young Researcher

25


Jugend forscht

Abbildung 4

Eine zylindrische Eisprobe, bereit für die Untersuchung im Computertomographen

Nun kann man mit einem bloßen Eisbohrkern noch wenig anfangen, weshalb er nach einem genau festgelegten Schema (Abbildung 3) Stück für Stück zerlegt wird (ich verwendete den mit A beschrifteten Teil). Das geschieht wiederum im Eislabor bei einer Temperatur von –20°C. Zunächst zersägte ich die Proben mittels einer Bandsäge zu jeweils einem langen Kanteisblock. Diese schnitt ich dann wiederum in kleine Quader, so dass letztendlich 84 Proben aus verschiedenen Tiefen vorhanden waren. Bereits hier ließen sich erste Unterschiede erkennen. In manchen Klötzen waren dünne, härtere und dichtere Einzeleisschichten zu erkennen! Es handelte sich um vor vielen Jahrhunderten von der Sonne aufgeschmolzenen und verdichteten Oberflächenschnee. Schlussendlich wurden die Klötze in kleine, für die spätere Untersuchung günstigere Zylinder, verwandelt (siehe Abbildung 4). 3.2 Mikro-Röntgencomputertomographie (MiCT) Nach diesen vorbereitenden Schritten waren die Eisproben fertig zur Untersuchung. Es gibt zahlreiche Methoden, wovon die meisten aber nur unter Zerstörung der Probe funktionieren, was eine spätere Nachuntersuchung

unmöglich macht. Um dies zu vermeiden, machte ich von einem der modernsten Verfahren Gebrauch, welches sehr sauber und vor allem zerstörungsfrei vonstatten geht und außerdem ein hohes Maß an Präzision liefert: die Mikro-Röntgencomputertomographie (MiCT). Die hierbei beim zu untersuchenden Material auftretenden Unterschiede in der Absorptionsfähigkeit für Röntgenstrahlung werden ausgenutzt, um dreidimensionale Strukturen aus unterschiedlich dichten Materialien abzubilden. Natürlich hat das Verfahren auch seine Grenzen. Bei Anwendung auf Eis und Firn zum Beispiel kann nur zwischen den luftgefüllten Poren und dem reinen, festen Eismaterial unterschieden werden. Komplexere Strukturen, wie z.B. die Grenzflächen zwischen Flüssigund Festphase sowie Korngrenzen können nicht aufgelöst werden. Abbildung 5

Der Skyscan Computertomograph

Zur Untersuchung meiner Eisproben stand mir ein Skyscan S-1074 Tomograph (siehe Abbildung 5) zur Verfügung. Es handelt sich um ein Gerät, das speziell für den Betrieb bei niedrigen Temperaturen umgerüstet wurde, mit einer Auflösung von 40 µm bei einer zylindrischen Probengröße von maximal 27 mm Durchmesser. Die Eisprobe wird von der Seite mit der Röntgenquelle durchleuchtet, ein Detektor nimmt ein zweidimensionales Bild auf. Dann wird die Probe automatisch um 0,9° gedreht, ein weiteres Bild gemacht usw., bis pro Eiszylinder insgesamt 210 Bilder vorliegen. Dabei sind pro Probe rund 20 Minuten Untersuchungszeit nötig. Für alle 84 Proben bedeutet das einen Zeitaufwand von knapp 30 Stunden.

26 Junge Wissenschaft // Ausgabe 78 // Eiskaltes Geheimnis

4 Image Processing Nun lagen also rund 40 GB an Rohdatenmaterial vor. Es folgte eine Reihe komplexer Schritte, mit dem Ziel, ein digitales, dreidimensionales Modell des Eisklötzchens vorliegen zu haben. Dazu kam eine Reihe von Programmen zum Einsatz. 4.1 Einsatz von ImagePro Der Anfang wurde von ImagePro gemacht. Ursprünglich ist ImagePro nur für die 2D Bildverarbeitung konzipiert. Für die 3D taugliche Bildverarbeitung machte ich mir folgendes zu nutze: Über ein Interface können eigene Auswertungsmodule integriert werden, welche dann im Batch-Modus laufen. Als Batchbetrieb bezeichnet man das sequenzielle Abarbeiten von Einzeloperationen im Gegensatz zur kontinuierlichen Laufweise. Also war es nun noch notwendig, ein geeignetes Auswertemodul zu finden und so zu verändern, dass es zur Rekonstruktion meiner Bilddaten fähig ist. Beim ersten Schritt wurden aus den Seitenansichtsbildern, die jeweils um 0,9° verdreht sind, horizontale Schnittbilder rekonstruiert. Diese wurden dann wie bei der Sandwichmethode übereinandergestapelt. Da die Auflösung des Tomographen 40 µm beträgt, genügt es, wenn der Abstand zwischen den Schnittbildern auch jeweils 40 µm nicht unterschreitet. Abbildung 6

Ein rekonstruierter Querschnitt durch eine Eisprobe


Jugend forscht

Im fertigen Bild blickt man von oben auf die Luftblasenquerschnitte (siehe Abbildung 6). Die Rekonstruktion erfolgte auf einem Rechner, der für eine Probe ungefähr eine Stunde benötigt. Die Aufgaben wurden daher vorwiegend über Nacht bearbeitet, wobei insgesamt rund 90 Stunden Rechenzeit benötigt wurden. Abbildung 6 zeigt exemplarisch den Querschnitt durch die Probe. Der zylindrische Rand ist der Plexiglaszylinder, in welchen die Eisprobe während der Messung eingespannt war. Weiß dargestellt sind die Lufträume, die Eismatrix ist grau bis schwarz. Bei diesen Rekonstruktionsschritten werden zusätzlich diverse Filter benötigt, welche verhindern, dass im Bild störende Artefakte auftreten. Das Image Processing beschränkt sich im Weiteren auf Kuben mit konstanter Seitenlänge im Bildinnenbereich. Der Vorteil ist, dass nun von jeder Probe, unabhängig von eventuell auftretenden äußeren Beschädigungen, ein vergleichbarer, für die jeweilige Tiefe charakteristischer Ausschnitt vorliegt. Der Rand wird ausgeblendet. 4.2 Segmentierung Als nächster Schritt der digitalen Bildanalyse folgte die Segmentierung. Damit bezeichnet man die Erstellung eines binären Bildes aus den eben gewonnenen Querschnittsbildern. Die einzelnen Bildpunkte aus 265 Graustufen werden hierbei eindeutig entweder der eingeschlossenen Luft oder der Eismatrix zugeordnet. Wiederum kommt das Programm ImagePro zum Einsatz. Zunächst greift man sich einen Datensatz einer kleinen Zylinderprobe heraus und glättet alle Einzelbilder mit einem Medianfilter. Ein Medianfilter hat die Eigenschaft, dass er das Rauschen im Bild unterdrückt, während die Kanten, also die Übergänge zwischen Luft und Eis, erhalten bleiben. Dann stellt sich die Frage, wie man aus dem Bild in Graustufen auf die Zugehörigkeit der einzelnen Pixel entweder zur Luft oder zum Eis schließen kann. Die Lösung liegt in einem Grauwerthistogramm. Aus dem vorliegenden Stapel von Einzelbildern wählt man drei verschiedene Schichten aus, um einen möglichst repräsentativen Querschnitt durch die ganze Probe zu erhalten. Es können z.B. Unterschiede

durch verschiedene Windstärken in aufeinanderfolgenden Jahren entstanden sein. Von jeder dieser drei Schichten berechnet man nun ein Histogramm, siehe Abbildung 7. Sie werden als Wertetabellen ausgegeben, was es einfach macht, die drei Diagramme übereinander zu legen und zu mitteln. Dies geschieht bereits mit dem nächsten Programm: „Igor Pro“. Es fällt auf, dass sich eine bimodale Verteilung ergibt: es existieren zwei lokale Maxima. Das linke, hier sehr stark ausgeprägte Maximum wird der Eismatrix zugeordnet, das rechte Maximum gehört zu den Luftporen. Das Ziel ist es nun, einen bestimmten Grauwert zu finden, der die Schwelle zwischen Luft und Eis repräsentiert. Zunächst werden die beiden Hochpunkte mittels Gaußverteilungsfunktion angefittet und die Grauwerte der Schwerpunkte bestimmt. Als Segmentierungsschwelle verwendet man jetzt den Mittelwert aus den beiden Schwerpunkten. Alle Pixel, die einen Sättigungswert darunter besitzen, werden als Eis angesehen, alle Pixel mit einem Sättigungswert darüber werden der Einfachheit halber als Luft betrachtet. Das binäre Bild bildet nun den Grundstock für alle weiteren Untersuchungen und Auswertungen (siehe Abbildung 8).

In der Visualisierung (Abbildung 9) ist die Luft farbig dargestellt, das Eis wurde weggerechnet. Die Abbildung ist so konzipiert dass man sie mit einer 3D-Brille betrachten kann, um einen räumlichen Eindruck zu erhalten. Deutlich kann man dabei die einzelnen Poren und das Gangsystem des Firns erkennen. Die abgebildete Probe stammt ursprünglich aus einer Tiefe von rund 65 Metern. Solche Bilder sind zwar recht eindrucksvoll, erlauben aber keine weitergehende wissenschaftliche Untersuchung. Deshalb stützt sich der Hauptteil der Arbeit auch auf strukturelle und morphologische Untersuchungen mit Hilfe mathematischer Methoden. 5 Strukturelle und morphologische Untersuchungen Für allgemeine morphologische Untersuchungen wurde die Software MAVI entwickelt. Sie lässt sich also besonders gut für die Untersuchung des Lufteinschlusses im Eis verwenden. Die binären zweidimensionalen Abbildung 8

4.3 3D-Bildrekonstruktion Was lässt sich nun mit diesen Bilddaten alles bewerkstelligen? Eine interessante Anwendung ist die Rekonstruktion eines dreidimensionalen Firnmodells. So lässt sich ein Einblick ins Innenleben der Proben gewinnen. Abbildung 7

Durch die Segmentierung ist ein binäres Bild entstanden: Das Eis ist schwarz, die Luftblasen sind weiß

Bilder lassen sich damit zu einem binären, dreidimensionalen Kubus zusammenfügen, was dann komplexe Berechnungen erlaubt, die auf keine andere Art und Weise möglich sind. Bei der Segmentierung hilft ein Grauwerthistogramm

Young Researcher

27


Jugend forscht

Abbildung 9

Dreidimensionale Rekonstruktion einer Firnprobe – zur Betrachtung mit 3D-Brille geeignet

5.1 Charakterisierende Größen Grundsätzlich gibt es verschiedene Größen, welche die physikalische Beschaffenheit des Eises und der eingeschlossenen Blasen beschreiben. Zu den Wichtigsten zählen die Porosität und die Permeabilität. Die Porosität ist gleich dem Verhältnis zwischen dem Volumenanteil der Luft zum Gesamtvolumen. Der offene Porenraum ist als derjenige Raum definiert, der in vertikaler Richtung offen ist und sowohl im Kontakt zur Ober- als auch im Kontakt zur Unterseite des betrachteten Kubus steht. Besitzt eine Probe offene Poren, so wird sie als permeabel bezeichnet. Dies ist in oberen Firnschichten meist der Fall. Ansonsten ist sie impermeabel, was besonders in großen Tiefen, bei vollkommenem Luftabschluss auftritt. Die Tortuosität ist ein Maß für die Gewundenheit der Gänge. Sie wird in die x , y und z-Komponente aufgeteilt. Je gewundener und dichter die Luftwege werden, desto größer wird die Tortuosität. Sehr wichtig sind die Interzeptlängen, welche auch als Chordlength bezeichnet werden. Sie werden wiederum auf die drei Raumrichtungen in der Eisprobe aufgeteilt. Die Interzeptlänge spiegelt den mittleren Durchmesser der Luftblasen wieder. Diese Parameter werden von MAVI be-

stimmt. Dabei tritt aber noch ein Problem auf. Im Eis können kleine Partikel und kleinste Luftblasen eingeschlossen sein. Diese würden die Messergebnisse genauso verfälschen wie Bildfehler, die unvermeidlich auftreten. Um dies zu verhindern, werden diese Fehlerquellen durch Filterung beseitigt, so dass nur die reinen Luft-Eis-Strukturen übrig bleiben. Im Folgenden wurden alle gewonnenen Eisproben bzw. deren Datensätze mit MAVI einer Auswerteprozedur unterzogen. Es wurde auch noch zusätzlich zur Porosität deren Gegenteil, die sogenannte Volume Density (= 1-Porosity), und des Weiteren die Gesamtzahl aller Blasen (dabei zählen verbundene Blasen als eine) bestimmt. Die Daten aus den Tabellen wurden nun in passender Form in das Programm „Igor Pro“ übertragen. Hierbei handelt es sich um ein wissenschaftliches Tabellenkalkulationsprogramm mit großem Funktionsumfang. Die Daten können untereinander verknüpft, gefiltert und in Diagramme ausgegeben werden. Mit Hilfe solcher Diagramme war es möglich, erste Ergebnisse zu erzielen. Grundsätzlich ist noch zu erwähnen, dass mein Hauptaugenmerk auf der Suche nach Hinweisen auf die sogenannte Anisotropie lag. So bezeichnet man die Deformation von Luftblasen. Von Forschern wurde schon lange vermutet, dass die „Bubbles“ im Eis durch unbekannte Mechanismen in einer oder zwei Raumrichtungen gezerrt oder gestaucht werden. Ein direkter Nachweis war allerdings noch nie gelungen.

x-Richtung und der mittleren Blasenlänge in y-Richtung immer konstant und liegt bei 1. Beim idealen Sinterungsprozess ergeben sich, wie ja eigentlich nicht anders zu erwarten, keine relativen Verschiebungen in x-y-Richtung. Aufgrund des Befundes in Abbildung 10 stellte sich mir sofort die Frage, wie das Verhältnis zur dritten Raumrichtung, der z-Achse, aussieht. Also bildete ich (Chord_x)/(Chord_z) und trug es gegen die Volumendichte auf. In der Abbildung 11 ist die Streuung noch sehr groß und es fehlen noch einige Daten in der Mitte bei einer Volumendichte von rund 0,5. Dennoch lässt sich schon die deutliche Tendenz erkennen, dass das Verhältnis mit zunehmender Volumendichte größer wird und sich erst dann bei rund 1 befindet. Mit anderen Worten: es scheint eine Anisotropie vorzuliegen! Dies wäre der erste direkt gelungene Nachweis. Diese Erkenntnis ist jedoch zunächst mit Vorsicht zu genießen. Später soll detaillierter darauf eingegangen werden. Abbildung 12 zeigt die Gesamtzahl aller Blasen in Abhängigkeit der Volumendichte. Unter der Gesamtzahl aller Blasen versteht man die Zahl der Blasen, die in dem Kubus von 400 Pixeln Seitenlänge eingeschlossen sind. Bei geringen Volumendichten, also in geringen Tiefen, ist die Blasenzahl gleich 1. Das heißt alle sind noch miteinander verbunden und bilden im Prinzip ein einziges Gangsystem. Dieser Zustand erhält sich über große Abbildung 10

5.2 Darstellungen in Abhängigkeit der Volumendichte In Abbildung 10 ist auf der y-Achse das Verhältnis zwischen der x-Chordlength und der y-Chordlength, also den beiden Raumrichtungen, die eine Ebene parallel zur Eisoberfläche aufspannen, aufgetragen. An der x-Achse ist die Volumendichte aufgetragen, die mit zunehmender Tiefe wächst (siehe auch Kapitel Tiefenabschätzung). Wie nun die Abbildung 10 zeigt, bleibt das Verhältnis zwischen mittlerer Blasenlänge in

28 Junge Wissenschaft // Ausgabe 78 // Eiskaltes Geheimnis

Das Verhältnis zwischen mittlerer Blasenlänge in x-Richtung und der mittleren Blasenlänge in y-Richtung ist nahezu konstant.


Jugend forscht

Abbildung 13 zeigt den Zusammenhang zwischen dem Quotienten aus der X-Tortuosität und der Z-Tortuosität und der Volumendichte. Bis zu einer Volumendichte von rund 0,7 ist der Betrag der Tortuositäten gleich, das Verhältnis liegt bei 1. Dann entwickeln sich starke Irregularitäten und es treten Schwankungen mit einem Faktor bis zu 1,5 auf. Auffällig ist vor allem die massive Streuung bei ≈ 0,89. Dies lässt wieder einen Zusammenhang mit dem Blasenabschluss vermuten, da es sich im Bereich der kritischen Porosität bewegt. Es handelt sich also um einen direkten Hinweis auf das Einsetzen der Isolation von Luftblasen.

Abbildung 11

Aus Abbildung 14 wird der allgemeine Zusammenhang zwischen dem mittleren Das Verhältnis zwischen mittlerer Blasenlänge in x-Richtung und der mittleren Blasenlänge in z-Richtung zeigt eine Abhängigkeit von der Volumendichte.

Tiefen, doch plötzlich beginnt die Zahl der isolierten Blasen rapide zu steigen. Bei einer Abbildung 12

Abbildung 14

„kritische Volumendichte“ bezeichnet. Angesichts dieser rapiden Veränderung in der Eisstruktur stellt sich die Frage nach der Veränderung der anderen Größen. Als erstes fällt die Tortuosität ins Auge, welche Gewundenheit der Gänge beschreibt. Was geschieht mit der Tortuosität wenn sich die Gänge, also die Poren, so weit verengen, dass die Luftblasen isoliert werden? Abbildung 13 Mittlere Chordlänge (entspricht dem mittleren Blasendurchmesser) in Abhängigkeit der Volumendichte

Blasendurchmesser und der Volumendichte klar. Es ist schön zu erkennen, wie der Blasendurchmesser mit zunehmender Tiefe immer kleiner wird. Bei dem Balken rechts unten in Abbildung 14 handelt es sich um einen Fehler. Er ist ohne Bedeutung.

Gesamtzahl aller Blasen in Abhängigkeit der Volumendichte

Volumendichte von 0,9 sind durchschnittlich schon 600 Blasen abgeschlossen. Offenbar gibt es einen gewissen Schwellwert zwischen 0,8 und 0,9 ab dem die Blasenbildung einsetzt. Dies ist der Übergang von der Permeabilität zur Impermeabilität, welcher in der Praxis weitreichende Folgen hat. Die eben angesprochene Schwelle wird als die

5.3 Tiefenabschätzung

(X-Tortuosität)/(Z-Tortuosität) in Abhängigkeit der Volumendichte

In Tabelle 1 ist die gemessene Volumendichte und die Tiefe, in der die Probe gewonnen wurde, angegeben. Daraus wird deutlich, dass der Zusammenhang zwischen der Volumendichte und der Tiefe nicht linear ist.

Young Researcher

29


Jugend forscht

Tabelle 1 Volumendichte

Tiefe (m)

0.4

11

0.5

22

0.6

33

0.7

55

0.8

66

0.9

96

Gemessene Volumendichte der Probe und Tiefe, in der die Probe gewonnen wurde

Der Luftabschluss bei einer Volumendichte von etwa 0,9 geschieht also beim Dome C Eis in einer Tiefe von rund 96 Metern. Diese Tatsache wird oft verkannt. Oftmals wird der Fehler gemacht, dass man annimmt dass das Eis, welches die Luft umgibt, genauso alt ist wie die Luft selbst. Dies ist aber nicht der Fall. Bei Akkumulationsraten von höchstens ein paar Millimetern im Jahr wie bei Dome C ergibt sich eine Altersdifferenz von Jahrtausenden. 6 Überlegungen zur Anisotropie Wie erwähnt wurde die Anisotropie bereits vermutet, konnte aber noch nie direkt nachgewiesen werden, weil spezifische Untersuchungen bisher fehlten. Des Weiteren war auch eine große Datenlücke vorhanden, die mit dieser Arbeit geschlossen wurde. Nun ist es zum ersten Mal möglich, die Verhältnisse der mittleren Blasenlängen über ein großes Tiefenintervall von der Oberfläche bis in ca. 100 Meter Tiefe darzustellen. In Abbildung 11 ist das Verhältnis der Blasenlänge in XRichtung zur Blasenlänge in Z-Richtung gegen die Volumendichte aufgetragen. Ein Problem stellt die teilweise sehr hohe Streuung der Messwerte dar. Dies kann einerseits durch Messfehler verursacht sein, andererseits natürlich dadurch, dass jede Jahresschicht im Eis anders beschaffen ist und somit andere Eigenschaften besitzt. Die allgemeinen Tendenzen (und nur um solche geht es) sind allerdings klar zu erkennen. Um

die starke Streuung zu unterdrücken, ist eine Kombination der Messdaten denkbar. Dies bedeutet, dass man benachbarte Werte mittelt. In „Igor Pro“ kann man sogenannte Makros implementieren und damit das „Schiebemittel“ bestimmen: Dabei werden aus einem bestimmbaren Intervall gewisser Breite alle Messwerte herausgegriffen, addiert und gemittelt. Dann wird das Intervall um eine gewisse Breite nach rechts verschoben. Schrittweite und Intervallbreite brauchen dabei nicht gleich zu sein. Sie können beliebig verändert und den jeweiligen Bedingungen angepasst werden. Das Ergebnis des Schiebemittelns in Abbildung 15 ist in Form von roten Balkenstrukturen dargestellt. Die roten Messpunkte stammen von meinen persönlichen Untersuchungen, die blauen Messpunkte gewann ich zusätzlich aus bereits vorhandenen Datenmaterialien des gleichen Eiskerns. Das eigentlich unscheinbar aussehende Diagramm besitzt viel Bedeutung. Hier wird endlich klar, dass tatsächlich eine Anisotropie existiert. Das Erstaunliche ist, dass die Blasendeformation genau anders geschieht, als man intuitiv erwarten würde. Man könnte meinen, dass die z-Länge aufgrund des hohen Druckes der Eismassen von oben verkürzt wird. Doch stattdessen wird sie verlängert. Hier ist die Anisotropie in oberflächennahen Schichten (rund 11 Meter Tiefe) am stärksten ausgebildet. Im Extremfall gilt: Z ≈ 1,1 * X (Mit Z als vertikaler und X als mittlerer horizontaler Luftblasendurchmesser.) Mit zunehmender Tiefe nimmt die Asymmetrie dann langsam ab, bei einer Volumendichte von 0,65 verschwindet sie vollkommen. Das Verhältnis bleibt nun relativ konstant bei 1. Diese Konstanz verschwindet bei ca. 0,85 aber wieder! Wie lassen sich diese Deformationen erklären? Das Auftreten der Anisotropie lässt sich durch eine Theorie erklären, die auch bei namhaften Wissenschaftlern am AWI Unterstützung findet: der Einfluss der Son-

30 Junge Wissenschaft // Ausgabe 78 // Eiskaltes Geheimnis

nenstrahlung resultiert in einer Erwärmung des Firns bis in eine Tiefe von ca. 10 Metern. In kalten Nächten allerdings kühlen die Schneeschichten direkt an der Oberfläche schneller aus als die darunter liegenden, und es kommt zu einer Dampfdruckdifferenz. Der entstehende Wasserdampf drängt nach oben und deformiert dabei kontinuierlich die Poren, so dass sie in z-Richtung aufgeweitet und länger werden. Dann nimmt die Anisotropie mit der Tiefe ab. Der Grund ist die Verdichtung der Firnstruktur durch sogenanntes „Grain Boundary Sliding“, also durch das Verschieben der Eiskörner entlang der Korngrenzen. Hierbei verschieben sich die Körner so, dass möglichst wenig Hohlraum zwischen ihnen übrig bleibt, bis hin zur dichtesten Packung. Dies wäre bei idealen kugelförmigen Schneekristallen bei einer Volumendichte von ungefähr 0,6 der Fall. Bei nicht reinen Kugeln liegt sie allerdings ein wenig höher! Da das „Sliding“ nicht unbedingt isotrop sein muss (einzelne Körner können rotieren oder sich in Zwischenräume beliebig versetzt hineinzwingen), reduziert sich mit Erhöhung der Volumendichte die Anisotropie und verschwindet beinahe. Die mit zunehmender Tiefe aber plötzlich wieder auftretende Blasenverformung erklärt sich folgendermaßen: bei einer Volumendichte von ungefähr 0,9 beginnt der Lufteinschluss (vgl. Diagramm 3!). Das heißt , einzelne Luftkanäle werden so schmal, dass sie sich abschließen. Hier beginnt sich wieder die Anisotropie zu zeigen. Der Grund ist, dass sich die horizontalen Kanäle in x- und yRichtung früher abschließen als die vertikalen Kanäle, gerade weil sie eben geringfügig kleiner sind als in x- oder y-Richtung. Diese kleine Abweichung wurde durch die Anisotropie in Oberflächenregionen (vgl. oben) verursacht. Wenn sich nun jedoch plötzlich alle horizontalen Kanäle schließen und nur noch die vertikalen existieren, kommt es zur Ausbildung einer beachtlichen Anisotropie. 7 Zusammenfassung Der Lufteinschluss im polaren Eis ist, wie eingangs bereits erwähnt, für die Klimaforschung von großer Wichtigkeit. Man muss


Jugend forscht

schiede in der Eisstruktur, wenn die Luftblasen deformiert sind. Wurde bisher zum Beispiel immer davon ausgegangen, dass die Schneekristalle Kugelform besitzen, so stellte sich heraus, dass Ellipsoide eine wesentlich günstigere „Packungsdichte“ hervorrufen als Kugeln. Die Form der Schneekristalle wirkt sich auf die Struktur der Luftzwischenräume aus, und diese können mittels Mikro-Röntgencomputertomographie untersucht werden. Um solche Erkenntnisse zu erzielen, ist es zunächst eine der wichtigsten Aufgaben, dreidimensionale Untersuchungen des Firns durchzuführen.

Abbildung 15

Durch die Berechnung des „Schiebemittels“ für das Verhältnis aus mittlerer Blasenlänge in x-Richtung und der mittleren Blasenlänge in z-Richtung wird die Abhängigkeit von der Volumendichte noch deutlicher.

sich erst einmal bewusst werden, was es eigentlich bedeutet, das einzige Atmosphärenluftarchiv auf der Erde zu besitzen. Kein globales Klimamodell könnte auch nur ansatzweise richtig verlaufen, wenn es Klimadaten aus dem Eis nicht gäbe.

darüber hinaus auch noch mit anderen Klimaparametern wie zum Beispiel der Temperatur, die man aus den Sauerstoffisotopenverhältnissen des Wassers erhält, vergleichbar. Die polaren Eiskerne sind also Multiparameterarchive.

Die Atmosphärenzeitreihen, die aus der Untersuchung der Lufteinschlüsse gewonnen wurden, gehen in alle globalen Klimamodelle ein. Wenn man sie nicht hätte, wüsste man wenig über den Treibhauseffekt und wenig über den menschlich verursachten CO2 –Anstieg. Es gäbe praktisch keine Daten, um Klimaprozesse zu verstehen oder um Annahmen über Atmosphären – Ozean – Erde –Wechselwirkungen zu prüfen.

Voraussetzung für eine klimatologische Auswertung der Lufteinschlüsse ist aber, dass man die Luft im Eis genau datieren kann. Denn schließlich ist das Luftalter nicht gleich dem Alter des umgebenden Eises. Die Luft steht bis zum Firn-Eis Übergang im Kontakt mit der Atmosphärenluft. Bis zum endgültigen Luftabschluss kann das Eis bereits über 1000 Jahre alt sein.

Doch reichen gewöhnlich Zeitreihen, die der Mensch gemessen hat, nur maximal 300 Jahre zurück – was nicht ausreicht, um die großen Wechselwirkungen im Klimasystem zu erkennen! Man ist also auf natürliche Archive angewiesen, in welchen es aber nur sehr selten quantifizierbare Klimadaten gibt. Meistens sind diese nur qualitativ, zum Beispiel bei der Betrachtung von Baumringen. Eine Ausnahme ist die Luft im Eis. Die Luft lässt sich quantitativ untersuchen und ist

Mit anderen Worten: die Qualität der gewonnenen Atmosphärenzeitreihen ist davon abhängig, wie gut man den Altersunterschied zwischen Eis und Luft bestimmen kann. Hier kommt die Struktur der Eismatrix ins Spiel. Niemand besaß bisher 3D-Informationen über den Luftabschluss und niemand kennt bisher die Auswirkungen von Variationen der Kristallformen auf die Einschlussmechanismen von Luft. Hier erscheint vor allem die Anisotropie, deren Nachweis in dieser Arbeit gelungen ist, als wichtiger Parameter. Schließlich ergeben sich erhebliche Unter-

Mit den vorliegenden Untersuchungen ist es mir gelungen, eine Datenlücke zu schließen, und somit zu einem vollständigeren Bild des Lufteinschlusses im DOME C Kern beizutragen. Es konnten zahlreiche charakteristische Größen bestimmt und viele Zusammenhänge aufgedeckt werden. Am wichtigsten ist vor allem der Nachweis, dass die Anisotropie tatsächlich existiert. Dennoch gibt es noch viele Fragen zu lösen: Sind die Interceptlängen in solchen Tiefen überhaupt noch zur Blasenbeschreibung geeignet oder verlieren sie durch den Abschlussmechanismus ihre Aussagekraft? Wie findet der Prozess der Luftabschnürung überhaupt genau statt? Ist es ein unregelmäßiger, zufälliger Übergang oder findet die Abschnürung „gerichtet“, also in einer bevorzugten Raumdimension, statt? Solche Fragen können in Zukunft auf Basis der gemessenen Daten geklärt werden. Sehr wichtig ist dabei, auch Datensätze von anderen Bohrungen zu implementieren und zum Vergleich zu untersuchen. Vermutlich handelt es sich bei dieser speziellen Form von Polarforschung um ein Fachgebiet, das uns in naher Zukunft noch viele aufregende Ergebnisse bescheren wird.

Weitere Informationen rund ums Eis und Polarforschung: www.awi-bremerhaven.de

Young Researcher

31


Jugend forscht Foto: Antje Bunzel

Regen ist nicht gleich Regen Das Tropfenspektrometer – ein Messgerät zur detaillierten Niederschlagscharakterisierung Der Regen ist einer der wichtigsten Bestandteile des irdischen Klimas, und einer der am schwierigsten zu messenden. Je nach Fragestellung kommt es nicht nur auf die Menge, sondern auch auf weitere Eigenschaften, wie Niederschlagsform, räumliche und zeitliche Verteilung an. Mit dem Tropfenspektrometer entwickelten wir ein Regenmesssystem, das einige der komplexen Eigenschaften des Regens messen und visualisieren kann.

1 Einleitung In letzter Zeit rückt der Klimaschutz immer mehr in das Interesse der Medien. Im Süden Europas kommt es nach andauernden Dürreperioden zu verheerenden Waldbränden, regelmäßig wird von immer stärkeren Stürmen und Überschwemmungen berichtet.

Der Winter war in Deutschland 2006/2007 um zwei Grad wärmer als ein durchschnittlicher Winter, in manchen Regionen war die Abweichung noch wesentlich höher. Der Klimawandel ist in vollem Gange, das glauben mittlerweile auch die Vereinten Nationen.

Autor Sebastian Glasl, *1987 Bad Tölz Magnus Anselm, *1986 Bad Heilbrunn Gabriel-von-Seidl-Gymnasium, Bad Tölz Eingang der Arbeit: April 2007

32 Junge Wissenschaft // Ausgabe 78 // Regen ist nicht gleich Regen

Daher wird es immer wichtiger, das sich ändernde Klima und das Wetter mit geeigneten Messgeräten besser beobachten und analysieren zu können. Einfache Angaben wie „es hatte 10 mm Niederschlag in zwei Stunden“ sind längst zu unpräzise. Um eine detaillierte Niederschlagsanalyse durchführen zu können, sind neben der


Jugend forscht

Abbildung 1

So entstand das Tropfenspektrometer, ein dreiteiliges Messsystem bestehend aus Tropfensensor, Messverstärker und einem Computer zur Auswertung (siehe Abb. 1), welches den Impuls der einzelnen Tropfen direkt misst und darstellen kann. 2 Physikalische Grundlagen

Gewichtskraft gleich sind:

(3)

In Gleichung 3 werden Gleichung 1 und 2 eingesetzt und nach der Fall-Endgeschwindigkeit der Tropfen aufgelöst:

2.1 Herleitung der Tropfenmasse

Das Messsystem besteht aus drei Teilen: Sensor, Messverstärker und PC mit Soundkarte und Auswertungssoftware

Gesamtniederschlagsmenge vor allem Größe und Geschwindigkeit bzw. Impuls der Hydrometeore (Wasser- oder Eisteilchen unterschiedlicher Größen in der Atmosphäre) von Interesse. Um diese Parameter zu messen, bestehen bereits einige Ansätze. Neben dem klassischen Wetterradar, das mit Hilfe des Dopplereffekts die Radarreflektivität eines bestimmten Gebiets erfassen kann und somit Rückschlüsse auf die Niederschlagsintensität ermöglicht, existieren auch optische und mechanische Messgeräte zur lokalen Bestimmung der Niederschlagsintensität bzw. der Tropfengrößenverteilung. Diese Parameter werden von einigen Regensensoren, wie dem Laserdisdrometer oder dem Joss-Waldvogel-Disdrometer, anhand der Messung einzelner Regentropfen berechnet. Jedoch gibt es kein kompaktes Messgerät auf dem Markt, welches Informationen zu Auftreffzeitpunkt, Größe und Impuls jedes einzelnen Tropfens direkt misst und speichert, ohne eine Hochrechnung auf ungenauere Parameter (z.B. Intensität oder Gesamtniederschlagsmenge) durchzuführen. Daher sahen wir den Bedarf, ein Messgerät zu entwickeln, das die originalen Rohdaten speichert und eine höchst detaillierte Charakterisierung des Niederschlags ermöglicht.

Zur Berechnung der Tropfengröße und der Masse der Tropfen wird der gemessene mechanische Impuls p durch eine Formelbeziehung, unter Zuhilfenahme der Fall-Endgeschwindigkeit, auf die Masse m übertragen (Gl. 14). Die Fall-Endgeschwindigkeit ist dann erreicht, wenn die Luftreibungskraft Fr gleich der Gewichtskraft Fg ist. So lange die Fall-Endgeschwindigkeit noch nicht erreicht ist, beschleunigen die Tropfen während des Falls durch Fg. Gleichzeitig wird die Luftreibungskraft Fr größer, die Tropfen nähern sich somit asymptotisch einer von ihrer Masse abhängigen Endgeschwindigkeit an, die bereits nach wenigen Metern Flug nahezu erreicht wird. Für die Luftreibungskraft gilt:

(4) Aus dieser Formel für die Fall-Endgeschwindigkeit (Gl. 4) wird leicht ersichtlich, dass die Geschwindigkeit von der Masse und der Frontfläche A des Tropfens abhängt. Mit „Frontfläche“ ist hier die Fläche gemeint, mit der der Tropfen Widerstand leistet. Zur Vereinfachung wird eine Kreisform angenommen. Um die Frontfläche A zu berechnen ist der Radius der Kugel bzw. des Kreises nötig. Dieser berechnet sich aus dem Volumen:

(5)

Volumen und Masse sind über die Dichte miteinander verknüpft:

(1) Mit

= Widerstandsbeiwert = Frontfläche = Dichte der Luft = Geschwindigkeit des Tropfens

Mit

= Tropfenradius = Dichte von Wasser

Zusammengefasst und nach dem Radius aufgelöst ergibt sich also

Für die Gewichtskraft gilt:

(6)

(2) (7)

Mit

= Masse des Tropfens

= Erdbeschleunigung

Die Fall-Endgeschwindigkeit wird dann erreicht, wenn Luftreibungskraft und

Setzt man Gleichung 7 in die Gleichung für die Kreisfläche ein, erhält man:

(8)

Young Researcher

33


Jugend forscht

In Gleichung 8 ist zu erkennen, dass die Frontfläche nur von der Masse der Tropfen abhängt. Setzt man nun die Fläche in die Formel für die Geschwindigkeit (Gl. 4) ein, erhält man:

(9)

Der Fallbeschleunigung g : 9,80665 m/s2

Die Dichte der Flüssigkeit, aus der der Tropfen besteht (hier Wasser): 998 kg/m3 Der Widerstandsbeiwert für eine Kugel in Luft cw: ~0,45 2.2 Eichung

(10)

Setzt man die Geschwindigkeit ein (aus m unter die Wurzel erhält Gl. 9) und zieht m man:

Kreiszahl π: 3,14159

Die Dichte des Gases, in dem der Tropfen fällt (hier Luft): 1,293 kg/m3

Der Detektor liefert, ausgedrückt durch die Amplitude, den Wert des Impulses p der Tropfen. Letzterer berechnet sich aus:

Zur Berechnung der Masse sind folgende Konstanten nötig:

(11)

Zieht man die Wurzel und kürzt, erhält man für den Impuls:

Der Detektor des Tropfenspektrometers liefert allerdings nicht direkt den Impuls der Tropfen, sondern einen Spannungswert, der proportional zu diesem Impuls ist. Diese Spannung wird nach der Aufzeichnung des Signals in Form von Amplitudenwerten in AIFF-Dateien gespeichert. Um den Impuls in Abhängigkeit von der gemessenen Amplitude angeben zu können, hilft folgender Ansatz:

Y = Amplitudenwert in der Sounddatei

= Empfindlichkeitsfaktor p = Impuls (Gl. 14)

Y

Die Empfindlichkeit des Geräts γ =muss mit p Hilfe einer Eichmessung bestimmt werden. Dazu werden Tropfen bekannter Größe aus einer bekannten, relativ geringen Höhe auf den Sensor fallen gelassen. Durch die geringe Höhe kann bei der Rechnung der Einfluss der Luftreibung vernachlässigt werden: Ein Tropfen mit 1,0 mm Radius hat zum Beispiel nach einer Fallstrecke von ~ 50 cm mehr als 30% seiner Endgeschwindigkeit erreicht und es greifen nur ca. 10% der Luftreibungskraft an ihm an (siehe Abb. 2). Der Impuls der Tropfen kann folglich, ohne genauere Betrachtung der Luftreibung, berechnet und zusammen mit dem gemessenen Amplitudenwert zum Empfindlichkeitsfaktor Gamma verrechnet werden. Diese Methode zur Eichung bringt jedoch einige Probleme mit sich. So wird davon ausgegangen, dass der Sensor linear misst. Außerdem wird die Luftreibungskraft vernachlässigt und somit ein systematischer Fehler verursacht. Im Versuch hat sich gezeigt, dass die Linearität des Sensors annähernd als gegeben betrachtet werden kann, und die Vernachlässigung der Luftreibungskraft die Messgenauigkeit nicht wesentlich beeinflusst. Auch weitere Varianten der Eichung wurden angedacht. Zum Beispiel eine Eichung mit

Abbildung 2

(12) Der Impuls ist also direkt proportional zur Masse hoch sieben Sechstel.

(13)

Löst man nach der Masse auf, erhält man:

(14)

Geschwindigkeitszunahme der Regentropfen während der ersten 15 Sekunden nach dem Fallenlassen, aufgetragen für verschiedene Tropfendurchmesser

34 Junge Wissenschaft // Ausgabe 78 // Regen ist nicht gleich Regen


Jugend forscht

Plastilinkügelchen oder anderen festen Stoffen. Dies hätte den Vorteil, dass die Masse vor der Impulsmessung mit hoher Präzision abgewogen werden kann. Bei Wassertropfen ist dies wesentlich schwieriger, da sie beim Aufprall zerplatzen. Eine Erzeugung von Tropfen mit genau definierter Masse ist nur aufwändig realisierbar. Gegen eine Eichung mit festen Stoffen spricht allerdings, dass diese mit hoher Wahrscheinlichkeit ein anderes Verhalten bei der Impulsübertragung aufweisen. Der Regentropfen führt einen inelastischen Stoß durch und spritzt zu den Seiten davon. Ein Plastilinkügelchen würde zwar ebenfalls einen inelastischen Stoß durchführen, dem aber mit hoher Wahrscheinlichkeit eine andere Impulsübertragung zu Grunde liegt (zerplatzt nicht, sondern verformt sich). Abbildung 3

Ein Prototyp des Sensors mit Messverstärker

3 Das Messkonzept 3.1 Der Tropfensensor

struktion geachtet. Denn nach jedem Auftreffen eines Tropfens muss die Auswertesoftware Rainalyser aufgrund der Nachschwingungen eine „Totzeit“ (im Folgenden auch Eventlänge genannt) festlegen, in der keine weiteren Tropfen berücksichtigt werden können. Daher gilt es, eine möglichst gute Dämpfung der schwingenden Sensorfläche zu erreichen. Eine hohe Resonanzfrequenz ist ebenfalls von Vorteil. Um diesem Anspruch gerecht zu werden, wurden besonders leichte und gut gedämpfte Aluminium-PVC-Platten der Firma Aluform ausgewählt. Es kommen Platten des Typs Alucobond® und Dibond® zum Einsatz. Zusätzlich dient eine Feder, die die Deckplatte auf die Grundplatte zieht, als Dämpfungsglied. Die Gesamtmasse der Deckfläche wird nur um ca. 5 Gramm erhöht und die Eigenschwingung erheblich gedämpft. Der Messverstärker verstärkt die Signalspannung von wenigen mV, die durch die Piezoelemente erzeugt werden, auf bis zu 0,5V, um eine höhere Maximalkabellänge zu erreichen und den Hintergrundrauschpegel zu mindern. Die Einstellung der Empfindlichkeit erfolgt durch die stufenlos wählbare Verstärkung von 0,5- bis 100-fach. Die vom Messverstärker kommenden Signale werden über den Line-Eingang einer Soundkarte am PC als Audiostream aufgezeichnet und in AIFF-Dateien gespeichert. Dadurch gehen keinerlei Daten verloren. Längere Auf-

zeichungszeiträume können zudem vor der Auswertung in kürzere Zeitabschnitte zerkleinert werden. Die originalen Messdaten bleiben durch die strikte Trennung von Aufzeichnung und Auswertung jedoch immer erhalten. 3.2 Die Software Rainalyser 3.2.1 Auswertung der Rohsignale Die Software Rainalyser wertet im ersten Arbeitsschritt die AIFF-Dateien aus. Die Software sucht während der Analyse nach Amplitudenwerten, die eine gewisse Messschwelle überschritten haben. Da der Sensor ähnlich wie ein Mikrofon arbeitet, herrscht vor allem bei Niederschlag stets ein gewisses Grundrauschen. Durch die Wahl einer minimalen Amplitude wird dieses Grundrauschen unterdrückt. Trifft nun ein Tropfen auf die Messfläche, kommt an der Soundkarte des PCs eine Spannungsspitze an, die aufgezeichnet wird und deren Amplitudenwerte wesentlich größer als die minimale Amplitude sind (siehe Abb. 4). Erkennt die Software einen Amplitudenwert, der größer als die minimale Amplitude ist, wird in einem definierten Bereich nach dem größten Amplitudenwert gesucht. Dieser Bereich wird Eventlänge genannt und sollte mindestens so lang gewählt werden, dass die Schwingungen des Sensors nach der Eventlänge wieder unter der Messschwelle liegen. Bei den

Abbildung 4

Um den Impuls der Tropfen zu messen, wurde ein piezoelektrischer Tropfensensor entwickelt (siehe Abb. 3). Auf das Wesentliche reduziert besteht er aus einer Grundplatte mit darauf gelagerten piezokeramischen Elementen, aus einer Deckplatte und aus einer Feder, welche Grund- und Deckplatte verbindet. Die Piezokeramikscheiben selbst bestehen aus modifiziertem Bleizirkonat-Titanat (PZT) des Typs PIC 155 der Firma PI Ceramic. Diese weisen Eigenschaften auf, die besonders für den Einsatz in Mikrofonen und Schwingungsaufnehmern mit Vorverstärker geeignet sind. Beim Aufbau des Sensors wurde besonders auf ein schnelles Ausschwingen der Kon-

Typischer elektronischer Puls, wie er von einem Tropfen ausgelöst und am PC ausgezeichnet wird.

Young Researcher

35


Jugend forscht

Abbildung 5

Darstellung eines Zeit-Tropfengröße-Diagramms in Rainalyser

aktuellen Prototypen liegt dieser Wert zwischen 10 und 20 ms für mittlere Tropfengrößen (~ 1,5 mm Durchmesser). Diese Totzeit, in der nur ein Tropfen registriert werden kann, ist nötig um Nachschwingungen, die größer als die minimale Amplitude sind, nicht fälschlicherweise als eigenständige Tropfen zu erkennen. Rainalyser scannt mit diesem Verfahren die gesamte Audiodatei ab und speichert die Peaks und den Zeitpunkt ihres Auftretens in einer Auswertungsdatei. Die Auswertung nimmt dabei eine gewisse Zeit in Anspruch, da die Sounddateien oft viele MB groß sind. Die Aufzeichnung erfolgt mit 8000 Hz, 16 Bit, Mono und hat somit eine Datenrate von 16 kb/s (~ 55 MB und 28,8 Millionen Frames pro Stunde). Die beiden wichtigen Auswertungsparameter, Eventlänge und minimale Amplitude, schränken maßgeblich den Messbereich

des Tropfenspektrometers ein. Je größer die Eventlänge ist, desto weniger Tropfen können pro Sekunde registriert werden. Bei einer hohen Rate an Tropfen können also einige unterschlagen werden. Die minimale Amplitude definiert die Größe der kleinsten messbaren Tropfen (realistischer Wert ca. 0,5 mm Durchmesser). Je kleiner die minimale Amplitude, desto kleiner können auch die gemessenen Tropfen sein. Allerdings besteht dann die Gefahr, eine Nachschwingung als Tropfen zu registrieren, wenn die Eventlänge zu kurz eingestellt wurde. Es gilt also ein Mittelmaß zwischen den beiden Parametern zu finden, um bestmögliche Ergebnisse zu erzielen. Durch die analytische Auswertungsmethode, bei der keinerlei Rohdaten verloren gehen, ist dies sehr gut möglich. So können Auswertungsdateien mit verschiedenen Auswertungsparametern erstellt und verglichen werden.

36 Junge Wissenschaft // Ausgabe 78 // Regen ist nicht gleich Regen

Um die Wahl der Auswertungsparameter zu vereinfachen, wird geprüft, ob es möglich ist, die Eventlänge dynamisch zu definieren, also von der Software automatisch an die Größe des Tropfens anpassen zu lassen. Dadurch könnten kleine Tropfen eine kürzere Eventlänge erhalten und große Tropfen, die das System stärker anregen, eine längere. Neben den beiden Hauptparametern für die Auswertung kann noch eine maximale Amplitude definiert werden. Außerdem können alle physikalischen Größen, die für die Berechnung der Tropfengröße relevant sind, manuell eingegeben werden. 3.2.2 Darstellungsmöglichkeiten Rainalyser bietet neben der Auswertung der Sounddateien auch die Möglichkeit, die Ergebnisse tabellarisch und grafisch darzu-


Jugend forscht

stellen. In einer Wertetabelle können alle Messwerte der einzelnen Tropfenereignisse wie Masse, Durchmesser, Impuls, kinetische Energie und Zeitpunkt abgelesen werden. Diese Tabelle kann als Trennkommadatei exportiert und in anderen Programmen weiterverarbeitet werden. Die Übersichtsseite ermöglicht einen schnellen Überblick über die Parameter Gesamtniederschlagsmenge, Dauer der Aufzeichnung, Zeit mit und ohne Niederschlag, durchschnittliche Tropfengröße usw.

Die zweite grafische Darstellungsform ist das Tropfenspektrum (siehe Abb. 6). Dabei werden die gemessenen Tropfen anhand ihrer Größe in bis zu 100 Tropfenklassen unterteilt und diese Klassen in Form eines Balkendiagramms dargestellt. Die dadurch sichtbar gemachte Tropfengrößenverteilung gibt Auskunft über die Art des Niederschlags und dessen individuelle Charakteristika. So lässt z.B. die Bandbreite der besetzten Tropfenklassen Rückschlüsse auf die Intensität zu.

Eine wohl einzigartige Darstellungsform dürfte das Zeit-Tropfengröße-Diagramm sein (siehe Abb. 5). Dabei erstellt die Software ein Punktdiagramm, bei dem in x-Richtung nach rechts die Zeit und in y-Richtung nach oben die Tropfengröße angetragen ist. Jeder einzelne Tropfen wird als Punkt dargestellt. Dies ermöglicht Rückschlüsse auf den zeitlichen Verlauf des Niederschlags und dessen Intensität. Besonders Intensitätsschwankungen und Pausen lassen sich so leicht erkennen. Das Diagramm ist detailliert anpassbar, so können zum Beispiel die Achsen beschriftet, ein Gitternetz angezeigt oder ein Teilbereich zur genauen Betrachtung markiert und vergrößert werden. Auch Zeit- und Größenachse sind beliebig skalierbar.

Kombiniert man die Informationen aus den verschiedenen Darstellungsmöglichkeiten, ist mit dem nötigen Fachwissen eine ausgesprochen detaillierte Charakterisierung des gemessenen Niederschlagsereignisses möglich. Durch die zahlreichen Einstellungs- und Exportmöglichkeiten können die Messergebnisse an die Bedürfnisse des Nutzers angepasst und auf die konkrete Messsituation eingestellt werden. 4 Diskussion und Anwendungs- möglichkeiten 4.1 Messbereich 4.1.1 Untergrenze

Abbildung 6

Die Größe der kleinstmöglichen messbaren Regentropfen hängt von den Auswertungsparametern von Rainalyser, der Qualität des Sensors und der gewählten Empfindlichkeit des Messverstärkers ab. Denn bei geringem Grundrauschen und kurzen Nachschwingungen lässt sich auch die minimale Amplitude reduzieren. Mit dem ersten funktionsfähigen Prototyp konnten 2006 bereits Tropfen deutlich kleiner als 1,0 mm im Durchmesser gemessen werden. Allerdings wurde die Sensorplatte zu heftigen und langen Nachschwingungen angeregt. Die daraus folgenden langen Eventlängen führten in den Testmessungen zur Unterschlagung von kurz aufeinander folgenden Tropfenereignissen. Deshalb wurde der Nachfolger besonders auf kurze Nachschwingzeiten und optimales Ansprechverhalten optimiert. Dies erfolgt durch Verwendung hochwertigerer Materialien. Insbesondere die zuvor verwendeten Piezo-Feuerzeugzünder wurden durch professionelle Keramiken der Firma PI Ceramic ersetzt. Auch physikalische Faktoren setzen eine Grenze. Tröpfchen mit einem kleineren Durchmesser als 0,3 mm besitzen eine ihrer geringen Masse gegenüber große Oberfläche. Daher reichen bereits geringste Luftströmungen aus, um deren Fallverhalten stark zu verfälschen. Man kennt diesen Effekt von Nebeltröpfchen, die praktisch in der Luft schweben. Selbst wenn diese Tröpfchen auf die Messfläche fallen, sind sowohl Masse als auch Geschwindigkeit so gering, dass sie zu keiner nennenswerten Signalamplitude führen. Prinzipiell ist deren Beitrag zur Gesamtniederschlagsmenge bei herkömmlichen Regenfällen jedoch gering, weder die Radarreflektivität noch die Niederschlagsrate wird nennenswert von dieser Tropfenklasse beeinflusst [1]. 4.1.2 Obergrenze

Darstellung eines Tropfenspektrums in Rainalyser

Tropfen mit Durchmessern größer als 5 mm können nur mit abnehmender Genauigkeit bestimmt werden. Denn bei Durchmessern ab 5 mm verhalten sich Wassertropfen auch auf Grund ihrer höheren Endfallgeschwindigkeit zunehmend instabil und unberechenbar. Die physikalischen Grundlagen, die für kleinere Tropfen gelten, lassen sich nur noch

Young Researcher

37


Jugend forscht

bedingt anwenden [2]. In der Praxis können derartig große Tropfen durchaus bei starkem Gewitterniederschlag vorkommen. Ein Großteil dieser Tropfen zerreißt jedoch bereits während des Falls in kleinere Sekundärtropfen, welche problemlos messbar sind. Sehr große Tropfen werden trotz Ungenauigkeit im absoluten Größenwert ebenso ausgewertet. Um diese Ungenauigkeiten zu minimieren, wird an einer genaueren Betrachtung der Strömungsverhältnisse gearbeitet. 4.2 Einfluss von Wind Einflüsse durch eine aufsteigende bzw. fallende Luftströmung beeinflussen die FallEndgeschwindigkeit der Tropfen und können messprinzipbedingt zu verfälschten Tropfengrößenwerten führen. Ein solcher Messfehler würde sich in der Visualisierung der Messergebnisse durch eine Verschiebung bzw. Verzerrung des Größenspektrums bemerkbar machen. Generell gilt: je kleiner der Regentropfen, umso größer ist die Anfälligkeit gegen Wind und der resultierende Messfehler. Eine Ursache hierfür ist die Tatsache, dass die Masse der Tropfen unverhältnismäßig stärker abnimmt als die Oberfläche bei reduziertem Durchmesser. Darüber hinaus erreichen kleine Tropfen deutlich geringere Endgeschwindigkeiten als große Tropfen, was sich anhand der Gleichung 4 erklären lässt. Diese Überlegung gilt nur für fallende bzw. steigende Winde. Horizontale, durch Wind verursachte Geschwindigkeitskomponenten der Tropfen führen zu keinem nennenswerten Messfehler, da lediglich der Vertikalimpuls gemessen wird.

gel vergleichbar, welche einem -Wert von 1,35 (zum Vergleich Kugel: 0,45) entspricht. Diese Nierenform führt des Weiteren zu einem veränderten Strömungsverhalten: Tropfen mit Durchmessern größer als 5 mm werden folglich zunehmend instabil und beginnen stark in ihrer Form zu schwingen [3]. Diese Tatsache hat zur Folge, dass große Tropfen eine niedrigere, während des Falls durch die Oszillation sogar variierende Geschwindigkeit vorweisen, die bis zu 30% von der berechneten Endgeschwindigkeit abweichen kann [3].

4.5.2 Einsatz in der Grundlagenforschung

4.4 Bedeutung von Tropfengröße und -impuls

4.5.3 Mikrophysikalische Forschung

Nicht nur die Tropfengröße allein ist von großem Interesse. Die physikalisch mechanische Wirkung des Regentropfens wird zum Beispiel in der Erosionsforschung in den Fokus gestellt, der Impuls bzw. die kinetische Energie wird somit zur Schlüsselgröße. Eine Vielzahl von Forschungsprojekten bedienen sich unterschiedlicher Messgeräte bzw. -methoden, mit denen zunächst die Größe bzw. Geschwindigkeit der Tropfen bestimmt wird. Erst im zweiten Schritt wird mit rechnerischen Mitteln der Impuls anhand von Masse und Geschwindigkeit ermittelt. Das Tropfenspektrometer kann den Impuls des Tropfens nicht nur direkt mechanisch messen, sondern auch ohne Umrechnung wiedergeben – ein unberechenbares Verhalten der Regentropfen spielt bei der reinen Impulsmessung keine Rolle. 4.5 Anwendungsmöglichkeiten 4.5.1 Einsatz in der Klimaforschung

4.3 Tropfenform und

- Wert

Während Wolken- und Nebeltröpfchen perfekt kugelrund und Nieseltropfen noch eindeutig kugelförmig sind, flachen größere Tropfen zunehmend an der Unterseite ab bzw. dellen ein. So nehmen große Regentropfen im fließenden Übergang eine Art Nierenform ein [3], welche je nach Ausprägung einen deutlich höheren -Wert als eine runde Kugel aufweist. Dabei ist eine stark ausgeprägte Nierenform näherungsweise mit einer nach unten geöffneten Halbku-

Unser Wissen über das zukünftige Klima, aber auch teilweise über das Klima der Gegenwart und der Vergangenheit, stammt aus computergestützten Modellberechnungen. Diese Klimamodelle könnten durch Niederschlagsmessungen mit dem Tropfenspektrometer erweitert oder bestätigt werden, sodass das Messsystem hilfreich wäre, ein schärfer umrissenes Bild unserer Zukunft zu zeichnen.

38 Junge Wissenschaft // Ausgabe 78 // Regen ist nicht gleich Regen

Zu einem besonders wichtigen Anwendungsbereich dürfte die Grundlagenforschung im Allgemeinen werden. Hier könnte das Tropfenspektrometer in zahlreichen Forschungsthemen, die sich mit der Hydrologie, dem Niederschlag oder generell der Atmosphärenund Bodenphysik beschäftigen, Anwendung finden. Ein wichtiges Beispiel wäre die Erosionsmodellierung bzw. -simulation, welche im Folgenden näher betrachtet werden soll.

Das Tropfenspektrometer könnte zur Erforschung der Niederschlagsentstehung und -entwicklung verwendet werden. „So brauchen z.B. mikrophysikalische Modelle, die die Abläufe in Wolken simulieren wollen, gelegentlich Anhaltspunkte über die Tauglichkeit ihrer Spektren.“ [1] 4.5.4 Erosionsmodellierung bzw. -simulation Um Erosion unter Laborbedingungen zu erforschen, verwendet man Regensimulatoren, die Niederschlag mit den gewünschten Eigenschaften erzeugen. Um das Erosionsverhalten jedoch korrekt deuten zu können, ist es von großer Notwendigkeit, die Charakteristik des künstlich erzeugten Niederschlags zu kennen. Dabei interessiert man sich neben der Regenstruktur besonders für die kinetische Energie bzw. den Impuls der Tropfen [4]. Für den Einsatz in der Erosionssimulation besitzt das Tropfenspektrometer den großen Vorteil, dass der entscheidende Parameter, der Impuls, direkt mechanisch gemessen wird. 5 Zusammenfassung Mit der Entwicklung des Tropfenspektrometers ist ein Niederschlagsmesssystem entstanden, das nicht nur für ein großes Spektrum an Anwendungsmöglichkeiten geeignet ist, sondern auch durch seinen simplen und kostengünstigen Aufbau handelsüblichen Niederschlagsmessgeräten ernsthaft Kon-


Jugend forscht

kurrenz machen könnte: zum Beispiel dem Joss-Waldvogel-Disdrometer (JWD), das die Tropfengröße ebenfalls mechanisch misst und zur Überprüfung von Wetterradaranlagen häufig eingesetzt wird. Das Tropfenspektrometer könnte diese Überprüfung noch genauer machen, vor allem weil das JWD alleine keine zuverlässigen Tropfengrößenverteilungen liefert [2].

Literaturangaben [1] Grimbacher T., http://www.iac.ethz.ch/en/groups/richner/cd/index.html (Stand vom 01.06.07), Institute for Atmospheric and Climate Science, Swiss Federal Institute of Technology Zurich, 2002 [2] Tokay A. et al., Error Characteristics of Rainfall Measurements by Collocated Joss-Waldvogel Disdrometers, American Meteorological Society, 2004 [3] Vössing H.-J., In-situ Messung großer Hydrometeore mit Hilfe der In-line Holographie, Johannes Gutenberg-Universität Mainz, 2001 [4] Hassel J. und Richter G., Ein Vergleich deutscher und schweizerischer Regensimulatoren nach Regenstruktur und kinetischer Energie, Z. f. Pflanzenernährung und Bodenkunde 155/185-190, 1991

Dank

Weitere Informationen zum Tropfenspektrometer

Besonders möchten wir uns bei der GSF – dem Forschungszentrum für Umwelt und Gesundheit bedanken, die uns durch die Verleihung des „Carl Friedrich von Martius Umweltpreises“ und das Vertrauen in unser Messgerät sehr unterstützt haben. Die Möglichkeit der Präsentation des Messgeräts auf der EGU General Assembly im Mai in Wien verdanken wir unter anderem Silas Michaelides vom Metereological Service Cyprus und Eyal Amitai von der NASA GSFC.

2005 Beginn der Entwicklung des Tropfenspektrometers im Rahmen der Schul-Facharbeit im Leistungskurs Physik

Einen großen Dank auch an Frank Moeller, von der Firma PI Ceramic, für das kostenlose zur Verfügung stellen der Piezokeramiken, sowie an die Firmen Aluform und Gleich für die umfangreichen Materialproben. Darüber hinaus sind wir Matthias Kuhnert vom Geo Forschungszentrum Potsdam, Karl Auerswald von der Technischen Universität München und Ali Tokay vom Goddard Space Flight Center der NASA für die Zusammenstellung umfangreicher Paper zu großem Dank verpflichtet.

2006 Erstanmeldung zum Patent Start der Website www.tropfenspektrometer.de „Jugend forscht“- Teilnahme im Fachbereich Physik („Bau eines Tropfenspektrometers“) Verleihung des „Carl Friedrich von Martius Umweltpreises“ für Facharbeiten durch die GSF – Forschungszentrum für Umwelt und Gesundheit Einsatz des Tropfenspektrometers im Auftrag des Forschungszentrum für Umwelt und Gesundheit (GSF); Institut für Strahlenschutz, Abteilung Radioökologie 2007 „Jugend forscht“- Teilnahme im Fachbereich Geo- und Raumwissenschaften („Das Tropfenspektrometer – ein Messkonzept zur detaillierten Niederschlags charakterisierung“) Teilnahme an der European Geosciences Union General Assembly 2007 in Wien in Form eines mündlichen Vortrags. Session: „Observation, Prediction and Verfication of Precipitation“ (AS 1.03)

Weitere Informationen und News finden Sie unter www.tropfenspektrometer.de

Young Researcher

39


Jugend forscht

Emerging Behaviors in Braitenberg-type Robotic Vehicles I planned and built robots with simple internal structures which can produce behaviors similar to those of primitive animals: My robots like hill climbing and light.

1 Introduction In his book, Braitenberg [1] describes how robots with simple internal structures can produce behaviors similar to those of primitive animals. One of the early vehicles Braitenberg describes has a light sensor on both sides connected to a motor on the same side. As the light sensor is activated more strongly, the connected motor speeds up. This vehicle fears light; as it approaches light it turns and speeds away. By adding more sensors in difAutor Samuel Gross, *1988 Fairfax, Virginia Scitech 2005 des Technion, Haifa Eingang der Arbeit: März 2007

ferent configurations it is possible to create a vehicle that fears light and likes warm places. The goal of my project was to create several robots similar to the ones Braitenberg described and to observe and explain the robots’ behaviors. It was also necessary to create an arena in which the robots could navigate. 2 Methods and Materials 2.1 Lego Mindstorm and Technic

The robots were created using Lego Mindstorm and Technic parts. Each robot was controlled by a Lego RCX programmable brick and was powered by two motors configured in a differential drive (the left and right wheels were controlled separately). The RCX was connected to two light sensors and a “gravity sensor,” which measured the roll of the robot using a pendulum and a rotation sensor. The RCXs ran the LegOS operating system, which allowed complete control of the robots using the C programming language. 2.2 Closed-loop System Before beginning work on the main part of the project, I built a two-wheel differential drive robot to familiarize myself with the Lego pieces and the LegOS libraries (see figure 1). Both wheels of the robot were connected to rotation sensors to measure the distance each wheel rolled. The right motor was then set to 75% speed, while the left motor was set to full speed. The RCX was programmed so that it turned the left motor off when the left wheel had traveled 3/16th of a revolution farther than the right wheel, and then turned the motor back on when the distance traveled

40 Junge Wissenschaft // Ausgabe 78 // Emerging Behaviors in Braitenberg-type Robotic Vehicles


Jugend forscht

Figure 1

The closed-loop demonstration robot

Figure 2

Control flow diagram

was equal. A test of the robot showed that by quickly switching on and off the left motor, it was able to travel along a straight line. The robot is considered a closed-loop system because feedback from adjusting the motors (by means of the rotation sensors) was used to correct the motor speed.

affect the robots movement more than the gravity sensor does. The results from the gravity and light sensors are summed and then normalized to within a range of speeds that the motor supports.

2.3 Structural Design

The gravity sensor consisted of a pendulum connected to a series of gears that spun a rotation sensor. The pendulum was placed so that it swung perpendicularly to the direction of the robot. The placement of the pendulum allowed the gravity sensor to detect the path of steepest ascent or descent. The gravity sensor had a precision of 1.5 degrees because it had a net gear ratio of 15:1 and the rotation

The robot created for the closed-loop demonstration was unsuitable for the main part of the project because its high center of gravity caused it to be unstable, and there were no obvious places to mount the light sensors. A new robot was created with these problems in mind. The new robot had a much lower center of gravity, and allowed for light sensors to be mounted on both sides near to the ground. Later in the project another robot was created using a similar design with more efficient motors and a stronger structure.

2.5 Gravity Sensor

sensor measured 16 positions per revolution (360° / 15 * 16 = 1.5°). One of the problems encountered with the gravity sensor was that when the robot made sudden turns, the pendulum swung back and forth, which gave incorrect values for the roll of the robot. To mitigate this problem, the average value over the period of the pendulum was taken from the rotation sensor. In order to determine the period of the pendulum, a short program that measured the time between pendulum swings was created for the robot. 2.6 Environment In order to observe the full effects of using the gravity sensor and light sensors together, it

Figure 3

2.4 Control Flow Design Before programming the robot, a schematic diagram was drawn to depict how the values from the sensors affect the speed of the motors (see figure 2). On the left side of the diagram there are the three inputs: the left light sensor, the right light sensor, and the “gravity” sensor. After calibration, the values from the light and gravity sensors are transformed by the light and gravity transfer functions. For most of the experiments, the transfer functions were either linear or absolute value functions. The constants K1 and K2 control the relative effects of the light and gravity sensors; when K1 is larger than K2, the light sensors

The arena under construction

Young Researcher

41


Jugend forscht

was necessary to create an environment with varying heights and to create a floor pattern with many different shades of gray. The varying heights were achieved by using sheets of plastic supported by cardboard boxes and newspaper (see figure 3). A floor pattern was created in Adobe Photoshop and printed on 72 A3-sized tiles (see figure 4). After the tiles were trimmed, they were glued and taped together in 4x2 and 5x2 blankets, which were then attached to the plastic sheets.

Figure 4

Figure 6

2.7 Turning The first robot created had difficult turning because its motors did not produce enough torque to overcome the friction between its wheels and the ground. The second robot was able to turn in place by moving one set of wheels forward and the other backwards because its motors were more efficient. When one motor was turned off or ran at a slower speed than the second motor, however, the robot did not turn as was expected. The robot moved in a straight line because the force required to turn the robot was greater than the force required to accelerate the slow running motor (see figure 5). To solve this problem, the program was changed so that the motors always ran at full speed or were set to “brake.” When a slower speed was desired, the motor pulses of “brake” and “full speed”

The floor pattern

were sent to the motor about every 20 ms. For example, repeating the series “brake, brake, full speed” would cause the motor to run at 33 % of its maximum speed. 3 Experimental Results 3.1 Hill Climbing Most of the experiments with the gravity sensor involved a robot that “liked” higher

Transfer function for the gravity sensor

altitudes. This was achieved by using a simple linear function to transform the value from the pendulum (see figure 6). This value is added to one motor and subtracted from the other. A small constant is added to both motors, so that the robot would move forward. As the pendulum swings to the left, the robot rotates clockwise, and as the pendulum swings to the right, the robot rotates counterclockwise. If the robot is heading uphill and deviates slightly to the right, the pendulum will swing to the right, causing the robot to

Figure 5a, b, c

The robot can turn in different kinds: a) the robot turns in place b) the robot turns around stopped wheels c) the robot turns in wide circle

42 Junge Wissenschaft // Ausgabe 78 // Emerging Behaviors in Braitenberg-type Robotic Vehicles


Jugend forscht

Figure 7

Figure 8

Control flow and motor speed for road tracking

colored road, causing it to turn back onto the road it prefers.

Absolute-value transfer function

turn towards the uphill. Because the pendulum swings perpendicularly to the direction of the robot, there is no way for the robot to determine if it is heading uphill or downhill. However, the robot’s journey uphill is stable (any deviation from the path of steepest ascent will be corrected by the pendulum), while its journey downhill is unstable (a slight deviation from the path of steepest descent will cause the robot to turn around and head back uphill). 3.2 Road Tracking Two types of roads were used to test the robot’s tracking ability. The first type of road (seen near the bottom of the floor pattern in figure 4) consists of a gray area that fades to white at the edges. A robot that likes lightgray would follow the light-gray road from either end, by turning away from the lighter colored edges. Similarly, a robot that likes dark-gray would also follow the light-gray road, because it would be repelled by the lighter edges. If one sensor of the robot were over the darker road, the robot would turn onto that road, because it prefers the darker color. An absolute-value transfer function with its minimum at the road color was used for this experiment (see figure 7). The transfer function causes the robot to speed up on a side that touches the lighter color edge or a darker

Experimentation with the robot showed that it did not make sharp enough turns to stay on the road. This problem was solved by subtracting the speed of the left motor from the right motor, and the speed of the right motor from the left motor. A small constant is added to both motors to move the robot forward: newleftmotor = leftmotor - rightmotor + c and newrightmotor = rightmotor - leftmotor + c (see figure 8). Subtracting the speeds from each other keeps the overall speed of the robot low so that there can be a large difference in speed between the left and right motors. The second type of road, the “banana,” consisted of a dark inner area that fades to light shades of gray (see figure 9). The goal of this

experiment was for the robot to follow the banana in either a clockwise or counterclockwise direction. The transfer function for the other road tracking experiment is not acceptable because, as the robot moves towards moves toward darker or lighter areas, both sensors will read values that are off by similar amounts from their preferred values, so the robot would not turn as desired. The reason for this behavior is that one side of the road fades to a darker color near its edge, while the other side fades to a lighter color. In order to achieve the desired behavior, reverse transfer functions were used for the left and right motors. If the robot travels clockwise (the right light sensor is over darker colors), then the right motor would speed up near dark colors and slow down near light colors, while the left motor would act the opposite way. The reverse transfer functions combined with subtracting the speeds of the motors from

Figure 9

Banana with desired path and shortcut marked

Young Researcher

43


Jugend forscht

Figure 10

The closer robot, which has just come down the hill, begins to turn towards its left because its right light sensor is on the very edge of the road. Once both sensors are on the road, the robot continues to turn due to its gravity sensor. The farther robot is running the hill climbing program without light sensors.

each other allowed the robot to follow the banana. A bright spot near the center of the banana, however, caused the robot to sometimes take a shortcut through the banana. This problem was never completely solved – different starting positions determined whether the robot followed the shortcut. 3.3 Combined Sensors One of the major goals of this project was to create a robot that combined both types of sensors. To demonstrate this ability, the robot was programmed to dislike dark areas and to like inclines. The light sensors were weighted four times a strongly as the gravity sensor, so that the robot would dislike the dark spots much more than it liked the inclines. Depending on the initial position, the robot was sometimes able to find the summit while avoiding the dark areas. Other times, a dark spot would force the robot to turn downhill, causing the gravity sensor to have little effect

on the path of the robot. In these cases, the robot might have reached the summit eventually, but the effect of the gravity sensor would not have been obvious. The road-tracking robot also used a gravity sensor combined with light sensors that were weighted more than the gravity sensor. The robot stayed on the road for most of the time, sometimes taking shortcuts. When the road traveled parallel to the hill, the robot began to turn because of the light sensors but continued to turn around the whole way because of the gravity sensor. On the other side of the hill, the robot again turned around for the same reasons. The robot continued traveling back and forth along the segment of the road (see figure 10).

strated Dr. Braitenberg’s ideas. With only simple control rules and a few sensors, the robots demonstrated interesting and useful behaviors – heading towards the goal, while avoiding obstacles. During this project I created a new Lego sensor, the gravity sensor, as well as several new robot designs.

Acknowledgements I would like to thank my mentors Noam Gordon and Ronen Keidar of the Technion – Israel Institute of Technology for their time and effort and for teaching me so much through the course of this project. References

4 Conclusion The robots, running simple programs and using only a few sensors, successfully demon-

44 Junge Wissenschaft // Ausgabe 78 // Emerging Behaviors in Braitenberg-type Robotic Vehicles

[1] Braitenberg, Valentino, Vehicles, The MIT Press (1984)


Jugend forscht

Besser Hören im Klassenzimmer Untersuchung von Nachhallzeiten und Verbesserung der Sprachverständlichkeit in Klassenräumen Mit dem Ziel, den Geräuschpegel zu senken und die Sprachverständlichkeit in Klassenräumen zu verbessern, wurden Nachhallzeitmessungen in Klassenräumen durchgeführt. Mit diesen Ergebnissen wurden die Absorptionsdefizite bestimmt, Abhilfemaßnahmen erarbeitet und durchgeführt. Sprachtests mit Logatomen zeigten eine Verbesserung der Sprachverständlichkeit in dem ausgerüsteten Klassenraum.

1 Einleitung Diese Arbeit beschäftigt sich mit der Akustik in Klassenräumen. Die Ausführungen des Lehrers müssen von den Schülern auf jedem einzelnen Platz des Klassenraumes deutlich zu verstehen sein. Ebenso muss der Lehrer an der Tafel auch die Antworten von

den Schülern aus der letzten Reihe verstehen können. Eine gute Sprachverständlichkeit im Unterricht ist eine Grundvoraussetzung für erfolgreiches Lernen. Die Sprachverständlichkeit während des Unterrichtes wird durch verschiedene Störfaktoren beeinflusst. Diese Störfaktoren sind:

Störgeräusche durch die Schüler in der Klasse Störgeräusche innerhalb des Gebäudes Störgeräusche von außen erhöhter Grundgeräuschpegel durch un genügende Absorption im Klassenraum.

Autoren Christian Kohlen,*1988 Elmenhorst Dimitri Seboldt, *1987 Rostock Paul Schubert, *1988 Rostock Erasmus-Gymnasium Rostock Eingang der Arbeit: Februar 2007

Young Researcher

45


Jugend forscht

Für einen optimalen Schulbetrieb sind derartige Störungen so gering wie möglich zu halten.

und ob die akustischen Anforderungen nach DIN 18041 in unseren Klassenräumen eingehalten werden.

Absorption im Klassenraum beeinflusst die Geräusche wesentlich. Es ist deshalb sehr wirkungsvoll, die Absorption im Klassenraum zu erhöhen und damit den im Klassenraum durch Störungen erzeugten hohen Grundgeräuschpegel zu minimieren.

Auf der Grundlage der Ergebnisse von Nachhallzeitmessungen entwickelten wir ein Computerprogramm, welches die Möglichkeit bietet, unter Berücksichtigung der Anforderungen der DIN 18041, das Absorptionsdefizit in Klassenräumen näherungsweise zu berechnen und grob die Kosten für eine eventuell notwendige Sanierung zu bestimmen.

Am Beispiel eines großen Kirchenraumes ist besonders gut hörbar, dass ein Raum an die Art und Weise seiner Nutzung angepasst sein muss. Wenn der Pastor in einer großen Kirche zu schnell sprechen würde, könnte niemand mehr etwas von seiner Predigt verstehen. Er kann deshalb erst weiter sprechen, wenn ein vorheriges Wort seiner Predigt ausreichend im Raum abgeklungen ist. Deshalb sprechen die Pastoren in großen Kirchen bei der Predigt langsam und getragen. Die Predigt ist aber auch nur dann gut zu verstehen, wenn die Mitglieder der Kirchengemeinde ruhig sind. Der Raum einer großen Kirche ist nicht besonders gut für Sprache geeignet. Im Vergleich dazu ist ein großer Kirchenraum für das Orgelspiel ideal, da der Raum mit den Tönen der Orgel gut mitklingt. Auch in Klassenräumen besteht ein solcher Zusammenhang zwischen Nutzung des Raumes und seiner raumakustischen Ausstattung. Ein Klassenraum muss eine hohe Absorption besitzen, damit Störgeräusche nicht reflektiert werden und die Informationen des Redners direkt und laut zum Hörer übertragen werden. Im Rahmen unserer Arbeit wurden die raumakustischen Zusammenhänge in den Klassenräumen unserer Schule untersucht. Dazu wurden in den Klassenräumen die Nachhallzeiten gemessen. Die bei der Auswertung der Ergebnisse gefundenen allgemeinen Raumkategorien konnten für die Entwicklung einer Software zur Berechnung der Absorption von Unterrichtsräumen angewendet werden. 2 Zielsetzung In dieser Arbeit wird untersucht, warum die Sprachverständlichkeit in Klassenräumen im hinteren Bereich häufig ungenügend ist

3 Akustische Grundlagen

Rauschabstand (zahlenmäßige Differenz in dB zwischen dem Pegel des Nutzgeräusches und dem Pegel des Störgeräusches) zwischen Allgemeingeräusch und Nutzgeräusch (z.B. Rede des Lehrers) verringert. Das Gesamtgeräusch (Allgemeingeräusch + Nutzgeräusch) in einem Klassenraum wird bei gleicher Schallenergie umso lauter sein, je geringer die Absorption im Raum ist, da mehr Reflexionen an den Wänden entstehen können. Je geringer die Absorption ist, umso länger braucht die Schallenergie um im Raum abzuklingen. Dadurch entsteht eine lange Nachhallzeit im Raum und die Sprachverständlichkeit ist schlecht. Zwischen der Absorption, der Nachhallzeit und der Sprachverständlichkeit im Raum besteht ein unmittelbarer Zusammenhang. Die Sprachverständlichkeit im Raum ist gekennzeichnet durch ein Abklingen der späten Reflexionen (bestimmen die Nachhallzeit) und durch das Verhältnis der Energien vom Direktschall, von den Anfangsreflexionen und von den späten Reflexionen zur Gesamtenergie des Gesamtgeräusches.

Wird eine Schallinformation von einem Sender ausgesandt, so trifft sie auf direktem Wege, aber auch durch Reflexion bei dem Empfänger ein. Wenn die Schallinformation auf direktem Wege oder nur über kurze Reflexionswege beim Empfänger eintrifft, so wird sie als eine Information wahrgenommen, da das menschliche Ohr zu träge ist, um diese beiden Informationen zu trennen. Kurze Reflexionswege unterstützen den Direktschall, da sie die Schallinformation beim Empfänger verstärken.

Für jeden Platz in einem Raum sind die Verhältnisse anders. Dadurch ist die Sprachverständlichkeit in der Nähe des Sprechers besser als auf den hinteren Hörerplätzen. Allgemein kann man anhand der Nachhallzeit im Raum auf die Sprachverständlichkeit schließen und durch Veränderungen der Nachhallzeit die Sprachverständlichkeit beeinflussen. Die Nachhallzeit und die Absorption besitzen über eine zugeschnittene Größengleichung einen formelmäßigen Zusammenhang:

Hat eine Schallinformation jedoch einen zu langen Reflexionsweg, dann entsteht beim Empfänger aus der einen Schallinformation noch eine Zweite (Echo), weil das menschliche Ohr die beiden Schallinformationen (Direktschall und Reflexionsschall), welche bedingt durch die unterschiedlichen Wege zu unterschiedlichen Zeiten am Ohr eintreffen, nicht mehr trennen kann.

A=S

Mit dem Computerprogramm werden bestehende Klassenräume nach DIN 18041 beurteilt und Verbesserungsmöglichkeiten aufgezeigt. Ein Klassenraum wird optimal mit Absorptionsmaterial ausgerüstet. Ein anschließender Vergleich zwischen einem herkömmlichen Klassenraum und dem neuausgerüsteten berücksichtigt die Nachhallzeiten und die Sprachverständlichkeit.

Störgeräusche, die neben den Nutzgeräuschen, auch im Raum vorhanden sind, werden in gleicher Weise verstärkt und erhöhen das Allgemeingeräusch im Raum. Dadurch wird der so genannte Signal-

46 Junge Wissenschaft // Ausgabe 78 // Besser Hören im Klassenzimmer

S V T

V T

: Absorption in m2 : Sabin’sche Nachhallkonstante in s/m : Volumen des Raumes in m3 : Nachhallzeit in s

Die Absorption A ist keine geometrische, sondern eine akustische Größe, auch wenn sie in m2 angegeben wird. Die Nachhallzeit T ist die Zeit, in der ein Geräuschsignal um 60 dB abfällt. Beim Messen


Jugend forscht

4 Feststellung des akustischen Zustandes unserer Klassenräume

Abbildung 1

Im Rahmen dieser Untersuchung wurden Schallpegelmessungen während des Unterrichts von 13 verschiedenen Fächern in unterschiedlichen Klassenräumen und Nachhallzeitmessungen in 27 verschie- denen Klassenräumen durchgeführt.

Nachhallzeiten in Abhängigkeit der Raumgröße und der Nutzungsart nach DIN 18041

der Nachhallzeit wird in einem Raum ein Geräusch von mindestens 90 dB erzeugt. Nach dem Abschalten der Geräuschquelle wird gemessen, wie lange das Geräusch braucht, um 60 dB leiser zu werden. Die Messungen werden in Abhängigkeit von der Frequenz in Terzschritten durchgeführt. Ein Raum hat häufig bei tiefen Frequenzen längere Nachhallzeiten als bei höheren Frequenzen. Der Frequenzbereich für die Bestimmung von Nachhallzeiten in Räumen beschränkt sich allgemein auf die Terzfrequenzen zwischen 100 Hz und 3150 Hz. Besitzt ein Klassenraum lange Nachhallzeiten in diesem Frequenzbereich, dann wird das Geräusch im Raum durch viele Reflexionen an den Wänden und Decken verstärkt. Trifft Schall aber auf eine absorbierende Fläche, wird er zum großen Teil nicht reflektiert, sondern absorbiert. Eine Fläche absorbiert Schall dann, wenn von dem auftretenden Schall nur ein kleinerer Teil wieder reflektiert wird. Die nicht reflektierte Schallenergie wird im Absorptionsmaterial in Wärmeenergie umgewandelt. Durch das Anbringen von absorbierenden Flächen im Raum kann man die Nachhallzeit verringern. Unter Berücksichtigung der verschiedenen Reflexionsbedingungen von Störschall und Nutzschall lässt sich ebenfalls durch absorbierende Flächen der SignalRauschabstand zwischen diesen verbessern. Es ist deshalb sinnvoll, Absorptionsmateri-

al im Klassenraum so anzubringen, dass der Störschall nach einem kurzen Weg auf eine absorbierende Fläche fällt und der Nutzschall an einer Fläche in der Nähe seiner Entstehung reflektiert wird. Die Beurteilungsgrundlage für die Festlegung akustischer Anforderungen in Klassenräumen ist in der DIN 18041 festgelegt. Die Raumakustiknorm DIN 18041 legt die akustischen Anforderungen und Planungsrichtlinien für die Auslegung von Räumen in Abhängigkeit von ihrem Verwendungszweck fest. Die wichtigste akustische Größe für einen Raum ist die Nachhallzeit. Sie hängt für den zu planenden Raum neben dem Raumvolumen weiter von der vorgesehenen Nutzung ab. Für die drei markanten Nutzungen von Räumen „Musik“, „Sprache“, „Unterricht“ gibt es Berechnungsformeln. Diese lassen sich zur einfachen Handhabung in einem Diagramm in Abhängigkeit vom Volumen darstellen (siehe Abb. 1). Aus Abbildung 1 kann für Unterrichtsräume verschiedener Größe die notwendige Nachhallzeit TSoll abgelesen werden. Für Unterrichtsräume in unserer Schule mit einem Volumen von 150 m3 und 220 m3 lässt sich eine notwendige mittlere Nachhallzeit TSoll = 0,55 sec ermitteln. Dieser Soll-Wert ist jedoch über den gesamten sprachrelevanten Frequenzbereich von 100 Hz bis 5000 Hz mit einer Toleranz von ca. ± 20% einzuhalten.

Während des Unterrichts wurden, in Abhängigkeit von den verschiedenen Fächern, Schallpegel von 60 dB(A) bis 75 dB(A) gemessen. Die Schallpegel während des Unterrichts variieren in Abhängigkeit vom Unterrichtsfach (siehe Abb. 2) und von der Art des Unterrichtes. Allgemein ist jedoch festzustellen, dass der Allgemeingeräuschpegel während des Unterrichtes sehr hoch ist. Bei den Nachhallzeitmessungen wurden mittlere Nachhallzeiten von 1,4 sec bis 1,8 sec gemessen, wobei der Musikraum, zwei Informatikräume und zwei vollständig leere Klassenräume Ausnahmen bildeten. Aus diesen Ergebnissen ließen sich drei charakteristische Raumkategorien für die Absorption in Klassenräumen ableiten (siehe Abb. 3). Die Nachhallzeiten in unseren Klassenräumen entsprechen nicht den Anforderungen der DIN 18041. Auch unter der Berücksichtigung der Absorption durch Schüler und Lehrer in der Klasse werden die Anforderungen nicht erfüllt. Dies ruft den, von uns gemessenen, hohen Grundgeräuschpegel während des Unterrichts und eine zu geringe Sprachverständlichkeit in den letzten Reihen der Klasse hervor. Die Schüler können hier dem Unterricht schlecht folgen und werden unkonzentriert. Als Folge erhöhen die Schüler den Grundgeräuschpegel, da sie anfangen zu reden. Dadurch verringert sich wiederum die Sprachverständlichkeit im Raum. Dies geschieht aufgrund der Tatsache, dass in den Klassenräumen eine zu geringe Absorption und damit eine zu lange Nachhallzeit vorhanden ist. Durch kurze Reflexionswege an den schallharten Wänden wird der Störschall in der Klasse erhöht. Durch den Einbau von Absorptionsmaterial könnte die Nachhallzeit

Young Researcher

47


Jugend forscht

Aus den Nachhallzeitmessungen in unseren Klassenräumen ergab sich ein Defizit an Absorption im Vergleich mit den Anforderungen der DIN 18041. Dieses Defizit an Absorptionsfläche kann mithilfe von zusätzlich in den Raum eingebauten Absorptionsmaterialien ausgeglichen werden.

Abbildung 2

Die obige Formel erweitert sich demzufolge um eine weitere Variable:

ALeerraum + AMobiliar + AZusatz = AOptimal

Mittlerer Schallpegel bei Unterricht in verschiedenen Fächern

im Klassenraum verringert und somit der Allgemeingeräuschpegel während des Unterrichts gesenkt werden. Die DIN 18041 schreibt für Klassenräume mit einer Raumgröße, wie sie an unserer Schule vorhanden ist, eine mittlere Nachhallzeit von TMittel = 0,55 sec vor. Zur Klärung, inwieweit eine höhere Absorption im Klassenraum eine Verringerung der Schallpegel hervorruft, wurde mit Schülern in einem Klassenraum mit langer Nachhallzeit und in einem mit niedriger Nachhallzeit gleicher Unterricht durchgeführt und der Schallpegel gemessen. Die Messergebnisse zeigten, dass im Raum mit niedriger Nachhallzeit die Schallpegel 5 dB bis 7 dB geringer sind.

Absorption ermitteln. Auf der Basis dieser Kenntnisse lässt sich folgender grundsätzlicher Algorithmus zur Bestimmung der Absorption für ein Berechnungsprogramm ableiten:

ALeerraum + AMobiliar = ARaum Die Berechnungen, unter Anwendung dieser Formel, für verschiedene Klassenräume in unserer Schule zeigten, dass die Ergebnisse gut mit den Messergebnissen der Nachhallzeitmessungen übereinstimmten.

Mit diesem Algorithmus ist es möglich, relativ einfach die Absorption von Klassenräumen zu bestimmen und das mögliche Defizit zu berechnen. Die Anwendung dieser Formel ist dadurch möglich, dass die Größe und die Einrichtung von Klassenräumen sich nur unwesentlich unterscheiden. 6 Programmbeschreibung Mithilfe des entwickelten Computerprogramms soll ein Klassenraum akustisch analysiert werden. Anhand der so gewonnenen Ergebnisse ist es möglich, den Raum unter Berücksichtigung der DIN 18041 zu beurteilen und Verbesserungsvorschläge zu erarbeiten.

Abbildung 3

5 Herleitung des Programm- algorithmus Aus den Messergebnissen konnten drei charakteristische Raumgruppen in Bezug auf die Absorption ermittelt werden. Zusätzlich standen mehrere Leerräume (Klassenräume ohne Mobiliar) zur Verfügung, deren Absorption, neben der messtechnischen Ermittlung, auch relativ einfach berechnet werden konnte. Die Absorption von Klassenräumen setzt sich aus der Absorption des Leerraumes und der Absorption des Mobiliars entsprechend den drei charakteristischen Gruppen zusammen. Durch die Kenntnis von der Absorption des Leerraumes lässt sich über die gemessenen Nachhallzeiten der drei Raumgruppen deren zusätzliche

Die Raumkategorien für die Absorption in Klassenräumen, die anzustrebende mittlere Nachhallzeit beträgt 0,55 s.

48 Junge Wissenschaft // Ausgabe 78 // Besser Hören im Klassenzimmer


Jugend forscht

Frequenzbereiche im kompletten Klassenraum berechnet.

Abbildung 4

Die gewonnenen Ergebnisse werden nachfolgend dem Benutzer graphisch (siehe Abb. 5) bzw. tabellarisch dargestellt. Nun ist es möglich den momentanen Raum mit den ebenfalls abgebildeten Anforderungen nach DIN 18041 zu vergleichen.

Für die akustische Analyse werden die Daten des Klassenraums eingegeben.

Im ersten Schritt des Programms wird der Klassenraum im Rohzustand betrachtet. Hierfür gibt der Benutzer die Maße des Raumes sowie die geometrischen Flächen der fest eingebauten Einrichtungsgegenstände (z.B. Heizkörper) des leeren Raumes an (siehe Abb. 4). Jetzt berechnet die Software die Grundabsorptionsfläche (ALeerraum) des Unterrichtsraumes. Dies geschieht unter Zuhilfenahme spezifischer Absorptionsgrade, die für bestimmte Oberflächen experimentell in [4] und [5] angegeben wurden.

Auf der folgenden Ebene wird die (mobiliare) Ausstattung des Raumes mithilfe eines Fragenkataloges ermittelt. Somit kann der Raum in eine bestimmte Raumkategorie eingeordnet werden. Eine solche Raumkategorie bezeichnet die zusätzliche Absorptionsfläche (AMobiliar) im Vergleich zum leeren Raum. Auf Grundlage der Addition der Absorptionsflächen, die sich aus dem ersten und dem zweiten Schritt ergeben, werden nun die Nachhallzeiten sowie die Absorptionsflächen bezüglich der

Abbildung 5

Autoren

Im zweiten Teil der Software besteht die Möglichkeit, die Nachhallzeiten des vorhandenen Raumes durch das Einbringen verschiedener Absorber mit unterschiedlichen Absorptionseigenschaften optimal zu verändern. Es ist jedoch akustisch gesehen sinnvoll, maximal drei von den fünf zur Verfügung stehenden Absorbern zu nutzen. Das Optimum ist erreicht, wenn die simultan zu den Veränderungen dargestellten Nachhallzeiten im Sollwertbereich der DIN 18041 liegen (siehe z.B. Abb 6). Solche Absorptionsmaterialien besitzen frequenzabhängige Konstanten (Absorptionsgrade), die es ermöglichen mit der eingebrachten geometrischen Fläche des Absorbers durch Rechnungen die eingebrachten Absorptionsflächen zu bestimmen. Diese werden wieder zu den bereits vorhandenen hinzugefügt und anschließend werden die neuen Nachhallzeiten berechnet. Das Programm bietet weiterhin die Möglichkeit, einen optimalen Verbesserungsvorschlag automatisch zu berechnen. Auf der letzten Ebene kann der Benutzer die endgültigen Ergebnisse des gesamten Verbesserungsprozesses betrachten. Die Ergebnisse können wahlweise als Tabelle oder als Diagramm angezeigt werden. Zudem liefert das Programm einen groben Planungspreis für die Ausrüstung des Klassenraumes mit Absorptionsmaterial.

Die Software errechnet die Nachhallzeiten unter Berücksichtigung der Absorptionsflächen.

Um den akustischen Unterschied zwischen dem nicht ausgerüsteten und verbesserten Raum zu verdeutlichen, ist es möglich diesen Unterschied hörbar zu machen. Hierzu wurden Hörbeispiele in die Software eingearbeitet, die die für die jeweiligen Raumkategorien charakteristischen Nachhallzeiten wiedergeben. Am besten hört man sich diese

Young Researcher

49


Jugend forscht

tet, dass die Anforderungen der DIN 18041 für Klassenräume eingehalten wurden.

Abbildung 6

In dem Klassenraum wurde die Decke mit zwei verschiedenen Absorptionsmaterialien belegt, welche unterschiedliche Absorptionsgrade besitzen. An der Rückwand des Klassenraumes wurde ein absorbierendes Wandpaneel angebracht. Die Tafelseite des Raumes blieb schallhart, um den Vortrag des Lehrers akustisch zu verstärken.

Das Programm berechnet die Wirkung eingebrachter Absorptionsmaterialien auf die Nachhallzeiten.

Hörbeispiele per Kopfhörer an, um die Hörbeispiele nicht durch die akustischen Eigenschaften des Raumes zu verfälschen. Es wäre aber auch mit normalen Lautsprechern möglich, da die Hörbeispiele nur näherungsweise den Zustand des Raumes repräsentieren.

7 Ausrüstung eines Klassenraumes mit Absorptionsmaterial Um die Korrektheit des Berechnungsprogramms zu überprüfen, wurde ein Klassenraum mit Absorptionsmaterial so ausgestat-

Abbildung 7

Gemessene und berechnete Nachhallzeiten im nicht ausgerüsteten Klassenzimmer mit und ohne Möbel

50 Junge Wissenschaft // Ausgabe 78 // Besser Hören im Klassenzimmer

Um die Funktionsfähigkeit des Berechnungsprogramms überprüfen zu können, wurden vor und nach der akustischen Verbesserung des Raumes die Nachhallzeit gemessen. Zusätzlich ist mittels üblicher Berechnungsalgorithmen von Hand die Absorption im nicht verbesserten und im verbesserten Raum berechnet worden. Diese Berechnungsergebnisse wurden zunächst mit den Resultaten von den Nachhallzeitmessungen verglichen und danach mit den Berechnungsergebnissen der Software abgeglichen. In den Abbildungen 7 bis 9 sind die Mess- und Berechnungsergebnisse zusammengestellt. Abbildung 7 zeigt die berechnete Nachhallzeit des nicht ausgerüsteten Klassenraums (die Absorption des nicht verbesserten Unterrichtsraums wurde von Hand berechnet) und die gemessene Nachhallzeit in Abhängigkeit von der Frequenz im Vergleich mit den Anforderungen nach DIN 18041. Die Abbildung 8 zeigt den Kurvenverlauf der Nachhallzeit des mit Absorptionsmaterial ausgerüsteten Klassenraums für den Berechnungsfall von Hand und für die Messung nach Einbau der Materialien im Vergleich mit den Anforderungen. In Abbildung 9 ist das Ergebnisdiagramm für den Fall der Berechnung mit unserer Software dargestellt. Aus den Kurvenverläufen ist zu ersehen, dass bis auf den unteren Frequenzbereich die Anforderungen für den ausgerüsteten Klassenraum erfüllt werden und dass eine ausreichende Übereinstimmung der Berechnungsergebnisse zwischen Hand- und Softwarerechnung sowie messtechnischer Ermittlung besteht. Im unteren Frequenzbereich hätte im Klassenraum noch ein Plattenabsorber in Form von Sperrholzresonatoren (Kastenbauform bzw. Paneele) oder Verbundplattenabsorbern eingebaut


Jugend forscht

Abbildung 8

war es uns möglich, in diesem die Sprachverständlichkeit im Vergleich mit einem gleichgroßen nicht verbesserten schallharten Raum festzustellen und zu vergleichen. In den Logatomlisten sind Konsonant-VokalKonsonant-Gruppen – so genannte Logatome – zusammengestellt (z.B. Mer, Girn, Stenz, Trib usw.). Dieses sind sinnlose, unverständliche, häufig vorkommende Silben der deutschen Sprache.

Gemessene und berechnete Nachhallzeiten im ausgerüsteten Klassenzimmer

werden müssen. Aus zeitlichen und Kostengründen war dies leider nicht mehr möglich. 8 Überprüfung der Sprachverständlichkeit in zwei Klassenräumen Der Nachweis der akustischen Verbesserung eines Raumes durch die Messung der Nach-

hallzeit vor und nach dem Einbau von Absorptionsmaterial ist technisch eindeutig und nachvollziehbar. Es ist allerdings kein Nachweis für die Behauptung, dass eine kürzere Nachhallzeit auch die Sprachverständlichkeit im Raum verbessert. Mittels so genannter Logatomlisten kann man die Sprachverständlichkeit in unterschiedlichen Räumen feststellen und beurteilen. Durch die optimale Ausrüstung eines Klassenraumes mit Absorptionsmaterial

Abbildung 9

Die Listen wurden vor der besetzten Klasse vorgelesen und die Logatome mussten von den Schülern aufgeschrieben werden. Um zu vermeiden, dass die gesprochenen Silben in den Klassen unterschiedlich laut und eventuell auch unterschiedlich gesprochen werden, sind die gesprochenen Silben vorher elektronisch aufgezeichnet worden. Die Logatome wurden dann über einen Lautsprecher abgestrahlt, wobei darauf geachtet wurde, dass in einem Abstand von zwei Metern in beiden Versuchsräumen der gleiche Lautstärkepegel vorhanden war. Für die Versuche wurden jeweils 25 Schüler mit je einem Lehrer in den beiden Versuchsräumen beschallt. Die Schüler mussten die gesprochenen Silben, wie sie sie verstanden haben, in Listen eintragen. Die Listen wurden im Vergleich mit den Originallisten hinsichtlich der verstandenen Silben und unter Berücksichtigung der Sitzposition des Schülers im Klassenraum ausgewertet. Die Auswertung ergab, dass die Sprachverständlichkeit im Raum von der Sitzposition des Schülers, also von seiner Entfernung zur Geräuschquelle, abhängt. Die Sprachverständlichkeit nahm im unbehandelten Klassenraum mit zunehmender Entfernung zur Geräuschquelle ab. Beim mit Absorptionsmaterial ausgerüsteten Raum bleibt die Sprachverständlichkeit auch bei größerer Entfernung annähernd gleich (siehe Abb. 10).

Berechnung der Nachhallzeiten des ausgerüsteten und des nicht ausgerüsteten Klassenraums mit unserer Software

Die Schüler in unmittelbarer Nähe des Sprechenden (2 Meter Abstand) verstehen die Silben im nicht ausgerüsteten und im ausgerüsteten Raum gleich gut. Im mittleren Bereich (ca. 4 Meter Radius) wird die Silbenverständlichkeit im mit Absorptionsmaterial ausgerüsteten Raum besser (ca. 2-3 %). Im hinteren Bereich (Radius in

Young Researcher

51


Jugend forscht

Abbildung 10

Dank Unser besonderer Dank gilt dem Applikationszentrum Akustik in Rostock, Uhlenweg 36, welches uns mit fachlicher und gerätetechnischer Unterstützung die Bearbeitung dieses Forschungsthemas ermöglicht hat. Insbesondere die Bereitstellung der umfangreichen Literatur und die fachliche Erläuterung der theoretischen Grundlagen zur Themenproblematik waren für uns sehr wichtig. Außerdem danken wir der Firma „Ecophon“ aus Lübeck, die uns bei der Ausrüstung eines Klassenraums mit Absorptionsmaterial unterstützte. Die Firma „Wirth“ aus Rostock hat die Materialien fachgerecht eingebaut.

Graphische Auswertung der Logatomtests: Vergleich der Silbenverständlichkeit im ausgerüsteten (grün) und nicht ausgerüsteten (rot) Klassenraum

Bezug auf Schallquelle 6 Meter) hat sich die Silbenverständlichkeit im ausgerüsteten Raum im Vergleich zum schallharten Raum um ca. 10 % verbessert. Auch die subjektive Aussage der Schüler zum Raumeindruck im Vergleich zwischen den beiden untersuchten Räumen zeigte, dass die Schüler in den hinteren Reihen im ausgerüsteten Raum die Silben besser verstanden haben. 9 Zusammenfassung Während des Unterrichts wurden in verschiedenen Fächern Schallpegelmessungen durchgeführt, um den Allgemeingeräuschpegel während des Unterrichts zu bestimmen. Es wurde festgestellt, dass die Schallpegel je nach Fach zwischen 60 dB(A) und 75 dB(A) liegen. Da der Schallpegel während des Unterrichts wesentlich von der Absorption in Klassenräumen abhängt, wurde zu ihrer Bestimmung die Nachhallzeit gemessen. Aus den Ergebnissen ließen sich drei charakteristische Raumkategorien mit typischen Nachhallzeiten ableiten. Bei der Ausrüstung eines Klassenraumes mit Absorptionsmaterial wurde versucht, die Forderungen der DIN 18041 zu erfüllen.

Die geforderte mittlere Nachhallzeit von TMittel = 0,55 s sollte im gesamten Frequenzbereich von 125 Hz bis 3150 Hz erreicht werden. Bei der Anbringung der Absorptionsmaterialien wurde beachtet, dass die Information vom Lehrer zusätzlich zum Direktschall durch Reflexionsschall an der schallharten Wand der Tafelseite verstärkt wird und der Störschall aus der Klasse möglichst nicht schallhart reflektiert wird. Außerdem wurden rückseitige Reflexionen durch die Anbringung eines Wandpaneels an der Rückseite des Klassenraumes vermieden. Bei den Messungen zeigte sich, dass bis auf den unteren Frequenzbereich die Anforderungen der DIN 18041 für den ausgerüsteten Klassenraum erfüllt werden. Im unteren Frequenzbereich hätte im Klassenraum noch ein Plattenabsorber eingebaut werden müssen, um die Nachhallzeit bei den tiefen Frequenzen weiter zu verkürzen. Aus zeitlichen und Kostengründen war dies leider nicht mehr möglich. In dem neu ausgerüsteten Raum und einem gleich großen Klassenraum wurden Silbenverständlichkeitsprüfungen mittels Logatomtabellen durchgeführt. Sie ergaben, dass die Sprachverständlichkeit im ausgerüsteten Klassenraum verbessert werden konnte.

52 Junge Wissenschaft // Ausgabe 78 // Besser Hören im Klassenzimmer

Der Hörgerätehersteller Phonak stand uns fachlich und finanziell zur Seite.

Literaturverzeichnis [1] Akustik in Klassenräumen; Forschungsbericht 1999; Autoren: D.J.M. Kenzie, S. Airey Henriot-Watt University Edinburgh, Riccarton, Edinburgh [2] Der Nachhall wird kürzer; Carsten Ruhe, DIN 18041, Zeitschrift Trockenbau Akustik, Jahrgang 2003, S. 36 - 40 [3] DIN 18041, Hörsamkeit in kleinen bis mittelgroßen Räumen, Ausgabe:Mai 2004 [4] Messungen; Firmenschrift in der Bau- und Raumakustik der Firma Brüel & Kjaer; 1982 [5] Schallmessungen; Firmenschrift der Firma Brüel & Kjaer; Juli 1984 [6] Verkehrs- und Arbeitslärm Firmenschrift in der Nachbarschaft der Firma Brüel & Kjaer; Januar 1989 [7] Schallschutz + Raumakustik, Planungsbeispiele und konstruktive Lösungen; W. Fasold, E. Veres Verlag Bauwesen; 2003, Berlin


Jugend forscht

Mikrometallbäume Chemische Fraktale und ihre geometrische Struktur Metallbäume sind Abscheidungen aus Metallsalzlösungen. Sie bilden fraktale Strukturen. Diese haben wir untersucht und charakterisiert. Um den Wachstumsprozess besser zu verstehen, haben wir noch eine Computersimulation durchgeführt.

1 Einleitung Metallbäume sind Abscheidungen aus Metallsalzlösungen. Sie bilden fraktale Strukturen, so wie sie auch bei Bäumen in der Natur, den Bronchien in der Lunge, einem Flussdelta oder anderen selbstähnlichen Strukturen zu finden sind.

Herstellen lassen sich Metallbäume z.B. durch elektrochemische Redoxreaktionen. Hierzu wird an zwei Elektroden Spannung angelegt, worauf es zu einer Kathoden- und einer Anodenreaktion kommt:

Summe: 2 Zn2+ + 6 H2O -> 2 Zn + 4 H3O+ + O2 Für unsere Untersuchung stellten wir uns drei Aufgaben:

Kathode: 2 Zn2+ + 4e --> 2 Zn -> 4 H3O+ + 4e - + O2 Anode: 6 H2O

Eine geeignete Möglichkeit zur Herstel lung der Metallbäume zu finden. Dies

Autoren Johannes Ewald, *1988 Landau Andreas Krawitz, *1987 Landau Otto-Hahn-Gymnasium Landau Eingang der Arbeit: Mai 2007

Young Researcher

53


Jugend forscht

Abbildung 1

Messzelle zum Erzeugen und Beobachten von Metallbäumen

bedeutet insbesondere, dass die Metallbäume annähernd zweidimensional sein sollten, reproduzierbar und somit insgesamt gut zu untersuchen.

Eine Simulation zu entwickeln, die die Metallbäume in ihrem Wachstum möglichst realistisch nachbildet und

Rückschlüsse auf das tatsächliche Wachstum unserer Metallbäume zu ziehen – wo sind die Schwächen, wo die Stärken der Simulation? Welcher Teil wird realistisch wiedergegeben, welcher nur nachgeahmt?

2 Herstellung der Metallbäume 2.1 Versuchsaufbau Die Entwicklung der Messzelle erfolgte in mehreren Etappen. Am Anfang stand der Makroversuch: In eine Metallsalzlösung wird ein unedleres Metall in elementarer Form gegeben, worauf die edleren Metallionen der Lösung das unedlere Metall oxidieren. Darauf folgend geht das unedlere Metall in Lösung und die ehemaligen Metallionen des edleren Metalls kristallisieren am vorgegebenen Keim und bilden dreidimensionale Metallbäume. Um an den Metallbäumen Untersuchungen anzustellen, sollten diese aber möglichst zweidimensional sein. Wir stiegen also auf eine Zementation im Mikromaßstab um. Die Metallsalzlösung befindet sich hierbei auf einem Objektträger unter einem Deckglas, das unedlere Metallblech (bzw. -folie) wird seitlich an die Salzlösung herangeschoben. Da die Reaktion schlecht zu kontrollieren

war, wechselten wir zu einem Ansatz, in dem die zur Oxidation benötigten Elektronen nicht mehr vom unedleren Metall, sondern von einer Spannungsquelle abgegeben werden. Graphitminen dienen hierbei als Kathode und Anode, da von ihnen keine Redoxreaktion mit dem Metallsalz zu erwarten ist.

den Elektrolyt wird ein Deckglas gelegt, um ihn gleichmäßig zwischen den beiden Elektroden zu verteilen. Bei 10 µl und einem 18 mm * 18 mm großen Deckglas bedeutet das eine Schichtdicke (Deckglas – Objektträger) von 30 µm. Die präparierte Messzelle wird auf ein Mikroskop gelegt. Anfangs versuchten wir mit einer Schwanenhalskamera (640 * 480 Pixel) durch das Okular eines Mikroskops zu filmen. Später benutzten wir ein Videomikroskop. Es handelt sich dabei um das Forschungsmikroskop Olympus BH2 (wir benutzten dabei Vergrößerungen bis 400x) mit einer Nikon DS-L1-5M Kamera (2560 * 1920 Pixel).

Abbildung 2

Der Abstand zwischen Objektträger und Deckglas wird bestimmt durch die Dicke der eingesetzten Graphitminen aus Bleistiften. Diese ist jedoch zu groß, um geeignete zweidimensionale Bilder zu erhalten. In einem letzten Schritt wurde dieser Abstand weiter verringert. Der Objektträger wird angeraut (feines Schleifpulver) und die Graphit-Elektroden mit einem weichen Bleistift aufgemalt. Daran wurden mit Leitlack Drähte angeschlossen, die unter anderem als Stoßdämpfer zwischen dem Rest des Aufbaus und der Messzelle dienen (siehe Abb. 1). Die benötigte elektrische Schaltung für unsere Versuche ist recht einfach gehalten (siehe Abb. 2). Zwei Multimeter geben Auskunft über die anliegende Spannung und den fließenden Strom. Mit einem Spannungsteiler (Regelwiderstand) lässt sich der Regelbereich unserer Stromquelle von einem Regelbereich 0 bis 30 Volt auf – für unsere Versuche günstigere – 0 bis 3 Volt reduzieren. Zur Herstellung der benötigten Salzlösungen setzten wir Verdünnungsreihen von Kupfersulfat und Zinkchlorid in demineralisiertem Wasser mit den Stufen 1; 0,5; 0,2; 0,1; 0,05; 0,02 und 0,01 mol/l ein. In späteren Versuchen verwendeten wir auch Silber-Nitrat sowie Blei-Acetat zur Herstellung von Bäumen. Als Vorbereitung für die Baumbildung wird zwischen die Elektroden der Messzelle ein festes Volumen Salzlösung aufgebracht. Auf

54 Junge Wissenschaft // Ausgabe 78 // Mikrometallbäume

Schaltplan

2.2 Wachstum der Metallbäume Sobald man eine Spannung an die Messzelle anlegt, beginnt die Entstehung der Metallbäume. Eine generelle Mindestspannung, die für die Entstehung der Metallbäume nötig wäre, kann nicht angegeben werden. Zu viele Einflüsse, wie Positionierung des Deckglases und Widerstand der Graphitelektroden, haben Einfluss darauf. Nach kurzer Wartezeit sieht man die Bäume unter dem Mikroskop wie aus dem Nichts von der Kathode in Richtung Anode wachsen. Über das Amperemeter erhält man die Bestätigung über den fließenden Strom und sollte die Spannung nachregulieren, wenn diese zu hoch oder niedrig liegt. Auch um das


Jugend forscht

nicht realisierbar, da sich der Widerstand innerhalb der Messzellen während des Versuchs verändert.

Abbildung 3

Wir fanden bei unseren Versuchen heraus, dass die Bäume bei hohen Konzentrationen (1 mol/l und ähnliche, vgl. Abb. 3) dichter wachsen, die Äste also breiter sind. Bei niedrigeren Konzentrationen wird die Geschwindigkeit, mit der die Bäume in die Höhe bzw. auf dem Objektträger dementsprechend zur Anode wachsen, nicht oder nur gering beeinträchtigt, die Bäume bilden jedoch statt Ästen nur noch sehr dünne, teilweise kaum sichtbare Fäden aus (Abb. 4).

Bei hohen Konzentrationen (1 mol/l Kupfersulfatlösung) wachsen die Kupferbäume dichter, die Äste sind breiter.

Wachstum der Bäume konstant zu halten, muss die Spannung nachreguliert werden. Bei fortschreitendem Wachstum sollte man noch darauf achten, dass die Spannung keine

Wasserstoffbildung (Protolyse des Wassers) verursacht. Ein Versuch mit konstanten Bedingungen (wie Strom, Zeit, angelegte Spannung etc.) war mit unseren Geräten

Abbildung 4

Bei niedrigeren Konzentrationen (0,2 mol/l Kupfersulfatlösung) sind die Kupferbäume etwas feingliedriger.

3 Charakterisierung der Metallbäume 3.1 Gewinnung und Verarbeitung von Bildern Die mit dem Videomikroskop aufgenommenen digitalen Bilder wurden auf einer Compact Flash (CF I) Speicherkarte gespeichert und dann auf den PC übertragen. Die Bildverarbeitung erfolgte mit dem frei verfügbaren Grafikprogramm GIMP [2] in mehreren Schritten:

Die meisten Bilder hatten einen Orangestich (Abb. 5a). Der blaue und der grüne Farbkanal wurden herausgefiltert. Im roten Farbkanal waren die stärksten Kontraste und wenigsten Bildstörungen zu sehen. Damit erhielten wir praktisch ein Graustufenbild, das nur noch Informationen über Helligkeit, nicht mehr über Farben enthält (Abb. 5b).

Nun ermittelten wir mit einem der in GIMP implementierten Werkzeuge Farbschwellwerte. Bei diesem Filter kann man auf einer Grauskala (weiß – schwarz) zwei Schwellen festlegen. Alle Pixel mit Grauwerten zwischen den Schwellen werden daraufhin weiß, alle die außerhalb der Schwellen liegen, schwarz eingefärbt. Dadurch werden die Kanten der Bäume markiert, auch jene, welche aufgrund der Tiefenschärfe nur unscharf dargestellt sind. Die Schwellwerte haben wir jeweils so gewählt, dass der mittlere Bereich des Übergangs zwischen Baum und

Young Researcher

55


Jugend forscht

Abbildungen 5a, 5b,5c

Bearbeitung der aufgenommenen Bilder: 5a) Ausgangsbild, 5b) Bild mit Rotfilter, 5c) Bild der Schwellwertfunktion

Hintergrund als möglichst dünne, durchge- hende Linie dargestellt wird (Abb. 5c). Dann wurden die Bilder invertiert (schwar ze Umrisse auf weißem Grund) (Abb. 5d). Bei Bedarf konnte der Innenraum der Bäume eingefärbt werden. 3.2 Charakterisierung als Fraktale 3.2.1 Einfache geometrische Eigenschaften Die Größe der Metallbäume lässt sich mit einem durch das Videomikroskop mitfo-

tografierten Objektmikrometer einfach errechnen. Unsere Messungen zu den Größenverhältnissen ergaben eine Astdicke von 1-2 µm und je nach Dauer des Experiments einer Höhe von 1-5 mm des Gesamtbaums. Um Aussagen über die Anzahl der Äste pro Generation zu machen, fasst man die Metallbäume als Stammbäume auf. Dabei zählt man alle Verbindungen des Ursprungs bis zur ersten Verzweigung und notiert die Anzahl für die Äste erster Generation. Alle Äste, die nun von dieser ersten Generation abgehen, zählen zur zweiten, alle die von der zweiten Generation abgehen, zur dritten Generation, usw. Abb. 6 zeigt die Anzahl der Äste pro

Abbildung 5d

Generation für Kupfer- und Zinkbäume. Für die Charakterisierung von Metallbäumen erschienen uns Aussagen über die zwischen den einzelnen Ästen auftretenden Winkel sinnvoll. Also wird jeder Winkel vermessen, in einer Strichliste eingetragen und dann alle in einem Diagramm dargestellt. Da das Ausmessen der Winkel auf dem Papier mit einem Geodreieck zu aufwendig und vor allem zu ungenau gewesen wäre, bedienten wir uns eines PC Programms. Mit SCIONIMAGE [3] ist es möglich, auf digitalen Bildern Winkel zu messen. Beim Vergleich der Verteilung der Winkel vom Zinkbaum und vom Kupferbaum fällt auf, dass die Winkelstreuung ähnlich ist, beim Zink das Maximum aber in höheren Regionen liegt als beim Kupfer (siehe Abb. 7). 3.2.2 Fraktale Dimension Für Fraktale lässt sich eine fraktale Dimension angeben. Zur Bestimmung der fraktalen Dimension gibt es verschiedene Methoden. Wir bedienten uns der BoxCounting Methode und erhielten die BoxCounting Dimension. Diese gibt an, wie sich die Ausdehnung (Fläche, Volumen, etc.) eines Objekts vergrößert, wenn der Maßstab vergrößert und die Messung dadurch genauer wird. Klassisch wird hier das Beispiel der englischen Küstenlinie angeführt, welche mit großer Maßeinheit gemessen kürzer ist als bei einer Messung mit kleinerer Maßeinheit. Das kommt durch die vorher nicht berücksichtigten Buchten und Halbinseln zustande, die nun mitgemessen werden.

Bild mit invertierten Farben

56 Junge Wissenschaft // Ausgabe 78 // Mikrometallbäume


Jugend forscht

Abbildung 6

Anzahl der Äste pro Generation für Zink- und Kupferbäume

Das von uns entwickelte Programm BCProg bedient sich des "Box-Counting"-Verfahrens zur Bestimmung der fraktalen Dimension. Hierbei werden Boxen (mit jeweils festgelegter Kantenlänge) über das Bild gelegt. Gezählt werden alle Boxen, die über dem Objekt liegen (Abb. 8). Die verschiedenen möglichen Lagen des Boxen-Rasters werden gemittelt. In mehreren Durchläufen wird die Kantenlänge der Boxen schrittweise reduziert. Trägt man das Verhältnis der Start-

Kantenlänge zur momentanen Kantenlänge gegen die Anzahl der gezählten Boxen in einem Diagramm logarithmisch auf, ergibt sich aus der Steigung der Geraden die fraktale Dimension. Unser Programm (BCProg) ermittelte ebenfalls die fraktalen Dimensionen für andere Strukturen. So ergibt sich für einen Kreis im Diagramm bei großer Boxgröße eine Dimension von 1 und geht dann bei sinkender Boxgröße über zu einem Wert von 2. Dies ist

Abbildung 7

logisch, denn in genügend großem Maßstab (Boxgröße) betrachtet, sieht jedes n-dimensionale Objekt aus wie ein Punkt. Als weiteren Test zur Leistungsfähigkeit unseres Programms errechneten wir die fraktale Dimension von Linien und Flächen, obwohl diese eigentlich keine Fraktale sind. Wir bekamen Ergebnisse, die im Einklang mit der euklidschen Dimension der Objekte sind. (Jeweils für eine Boxgröße gegen 0, Linie:1, Fläche:2). Für eine sinnvolle Ausgabe ist die Wahl eines vernünftigen Boxgrößen-Bereichs also sehr wichtig. Die größtmögliche Boxgröße ist hier die Abmessung des Bildes selbst, die kleinstmögliche entsprechend der Bildpixel. Die Bilder sollten also so detailliert wie möglich sein, sonst macht eine Untersuchung im unteren Bereich (auf Pixelgröße) wenig Sinn, unnötiges skalieren der Bilder sollte vermieden werden. Das beste Ergebnis erzielt man, wenn obere und untere Grenze so gewählt werden, dass sie in den Zwischenräumen des Objekts bequem und in einem Teil der Rasterlagen Platz finden. Unser Programm BCProg errechnete für unsere Bäume BoxCounting Dimensionen von 1,59. Je nach in der Bildverarbeitung gewählten Schwellwerten variiert die Dimension wie erwartet um ca. 0,05. Durch hohe Schwellwerte wird die Dimension in höhere Bereiche verschoben, die Übergänge zwischen Ast und Hintergrund werden näher am Hintergrund abgeschnitten (BCProg arbeitet mit 1bit Bildern) und damit füllen die Äste mehr Fläche aus, die gemessene Dimension wird also größer. Eine weitere Möglichkeit zur Berechnung einer Dimension für unsere Fraktale wäre die so genannte "Massendimension". Hierbei wird von einem Punkt ausgehend in einem bestimmten Radius die Masse (Anzahl der dunklen Pixel innerhalb des Kreises) ausgerechnet. Betrachtet wird auf einem logarithmierten Graphen die Steigung der Geraden wenn dieser Radius gegen 0 geht. Da sich Kreise auf einem quadratischen Gitter für Radien, die gegen 0 streben aber schlecht darstellen und berechnen lassen, wählten wir die Box-Counting Dimension für unsere weiteren Untersuchungen.

Winkelverteilung bei Zink- und Kupferbäumen

Young Researcher

57


Jugend forscht

Baumstrukturen, die unseren Metallbäumen verblüffend ähnlich sind.

Abbildung 8

Veranschaulichung des Box-Counting-Verfahrens: links: Kantenlänge 420, mitte: bei einer Kantenlänge von 50 überdecken 93 von 121 Quadraten das Symbol, rechts: bei einer Kantenlänge von 25 überdecken 302 von 484 Quadraten das Symbol.

4 Verwendete Programme für die Simulation 4.1 FractInt Eine Vielzahl fraktaler Strukturen kann mit dem Programm FractInt [5] errechnet werden. Wir benötigten ein Programm mit einer möglichst großen Auswahl über schon vorhandene Fraktale, um für unsere Simulation chemischer Fraktale einen geeigneten Typ zu finden. Diese Auswahl bietet FractInt. Schnell fanden sich zwei viel versprechende Fraktaltypen, die unseren Bäumen annähernd ähnlich sahen: IFS (Iteriertes Funktionensystem) [6] Den IFS Fraktalen liegt ein einfaches Struk-

turmuster zu Grunde, dessen vielfache Wiederholung zu recht natürlich aussehenden fraktalen Strukturen führt. Die Parameter stehen in einer recht komplizierten Matrix, die später grob erläutert wird. Für einen speziellen Parametersatz ergaben sich dann IFS Fraktale, die Ähnlichkeit mit Zinkbäumen haben (Abb. 9). DLA (Diffusion Limited Aggregation) [7] In Anlehnung an die reale Diffusion, werden bei dieser Diffusions-Simulation Bildpixel zufällig in der Nähe eines Keims auf die Reise geschickt (Randomwalk): Die Pixel bewegen sich pro Schritt jeweils zufällig in eine beliebige Richtung um ein Kästchen weiter, bis sie auf den Keim treffen, wo sie dann haften bleiben. Wiederholt man diesen Schritt einige tausend Male entstehen fraktale

Abbildung 9

links: Reale Zinkbäume unter dem Mikroskop, rechts: Simulation mit einem IFS-Fraktal

58 Junge Wissenschaft // Ausgabe 78 // Mikrometallbäume

FractInt bietet nur wenige Parameter für die Diffusion, so lassen sich Form des Keims (ein Quadrat als äußere Begrenzung, ein einzelner Keimpixel in der Mitte des Bildes bzw. eine gerade Linie am unteren Rand des Bildschirms) und Konzentration (Entfernung des Startpunkts für den Randomwalk zur Baumspitze) als Parameter angeben. Allerdings bietet vor allem die räumliche Anordnung mit ihrer unpassenden Symmetrie wenig Vergleichbarkeit mit unseren Messzellen und den darin entstehenden Bäumen. 4.2 DiffSim DiffSim ist ein von uns entwickeltes Programm zur realistischen grafischen Darstellung der ablaufenden Prozesse in unseren Messzellen. Dazu haben wir das DLA Modell aufgegriffen, da es uns als Simulationsansatz vielversprechend und mit seinen wenigen Parametern vor allem ausbaufähig erschien. Wir gingen, der einfacheren Berechnung wegen, von einer beliebig breiten Fläche aus. Aus Gründen der Rechenpraxis allerdings rollten wir diese Fläche zu einem Zylinder. Auf halber Höhe wurden zufällig Start-Pixel platziert, die dann einen Randomwalk ausführen, bis sie an einen Keim stoßen (obere oder untere Grenzlinie). DiffSim kann den Randomwalk auf vier verschiedenen Gittern simulieren: Quadratisches Gitter (4 Nachbar-Pixel) Hexagonales Gitter (6 Nachbar-Pixel) Quadratisches Gitter (8 Nachbar-Pixel, Abb. 10 rechts) in drei Dimensionen auf einem kubischen Gitter (6 Nachbar-Pixel) Kunz deutet in seiner Dissertation [1] auf Noise-Reduction (Rauschunterdrückung) hin, womit er die Anwachswahrscheinlichkeit meint: Jedem Pixel wird ein Wert zugewiesen, die Rauschunterdrückung gibt den Maximalwert an. Erst wenn dieser erreicht ist, können Pixel anwachsen, vorher wird der Wert bei jedem Kontakt erhöht. DiffSim lässt beliebige Noise-Reduction Werte zu, kann


Jugend forscht

Am rauen Rand des Graphits, bzw. des Metallbaums, können die einzelnen Protonen nicht zueinander finden und bilden daher keinen elementaren Wasserstoff. Überwindet man diesen Bereich der Überspannung, bilden sich Wasserstoffblasen, die den Metallbaum zerstören.

Abbildung 10

Links: reale Kupferbäume unter dem Mikroskop, rechts: Simulation mit DiffSim

sie allerdings nur bis zu einem Wert von 254 unterscheidbar darstellen (Grau-Abstufungen). Ein Konzentrationsparameter wäre in folgender Form denkbar: Statt wie bisher nur ein Pixel, werden mehrere zeitgleich berechnet. Man müsste dann auch Abstoßungskräfte zwischen den Pixeln berücksichtigen, um zu verhindern, dass zwei Pixel das gleiche Feld belegen. Frame, Mandelbrot und Neger schlagen vor, die Pixel bereits zu verankern, sobald sie sich in der Nähe eines Astes befinden [7]. Dann wäre ein Parameter für die Pixelgeschwindigkeit einzuführen. 5 Diskussion Autoren 5.1 Wachstum Die Elektronen in unserem Aufbau fließen über mehrere Transportmöglichkeiten: im Metall der Drähte und dem Leitlack können sie sich direkt und ungehindert bewegen, im Graphit des Bleistifts nur erschwert, da hier ein großer Widerstand zu überwinden ist. Im Elektrolyt letztlich bewegen sich die Elektronen nur an die Ionen der Lösung gekoppelt an bzw. von welchen sie im Rahmen einer Kathoden- und Anodenreaktion gebunden bzw. getrennt werden. Für jedes Metall kann durch die NernstGleichung eine Mindestspannung, ab der

es zu einer Reaktion kommt, berechnet werden. Die Mindestspannung wird zusätzlich durch die Widerstände im Versuchsaufbau beeinflusst. Wie sich durch die Beobachtung zeigte, entstehen Wartezeiten bis sich Metallbäume bilden dadurch, dass auf dem Graphit zuerst Metall abgeschieden wird, da dort die Spannung höher ist (zunehmende Länge des zu überwindenden Graphits bedeutet größeren Widerstand). Die abnehmende Stromstärke während der Versuche ist über die Veränderung der leitenden Teile innerhalb der Messzelle zu erklären. So werden durch die Ausbildung der Metallbäume neue elektrische Leiter, also größere Oberfläche, ein verändertes elektrisches Feld, kürzere Strecken im Elektrolyt, etc. zur Verfügung gestellt. Im Gegensatz dazu verarmt die Lösung jedoch an Ionen und verliert an Leitfähigkeit. Die Wachstumsgeschwindigkeit steigt mit der Stromstärke: dies ist der Fall, da die Stromstärke nur eine Auskunft darüber ist, wie viele Ladungen pro Sekunde fließen und demnach auch an den Elektroden reagieren müssen. Bei zu hoher Spannung bilden sich Gasblasen, von der Spannungsreihe her wäre zu erwarten, dass sich in den Versuchen mit den Zinkbäumen Wasserstoff anstelle von Zink elektrochemisch bildet. Hier kommt das Phänomen der Überspannung zum Tragen.

Nach einiger Überlegung zur nicht sichtbaren Anodenreaktion kamen wir zu dem Ergebnis, dass die Reaktion an der Anode eine Wasserspaltung sein musste – es fließt schließlich Strom. Dieser an der Anode entstehende Sauerstoff entsteht, wie auf der Skizze (Abb. 11) angedeutet, bei höchstmöglicher Spannung (siehe Wartezeit: längere Wege bedeuten höheren Widerstand) und können daher problemlos entweichen, ohne Gasblasen unter dem Deckglas zu erzeugen. 5.2 Struktur Aus der Diffusions-Überlegung heraus ergibt sich die Vorstellung der Keimbildung. Lagert sich ein Ion an den Elektroden ab, bildet es einen Vorsprung an der Elektrode. Für neu antreffende Teilchen ist es wahrscheinlicher, dass sie zufällig an diesem entstanden Keim angelagert werden, als dass sie einen eigenen neuen Keim bilden (eigene Keime würden eine gleichmäßige Verteilung bzw. Beschichtung der Elektrode bedeuten). Da diese Keime wachsen, wird es immer wahrscheinlicher, dass sich dort weitere Ionen ablagern. So entstehen Äste, die bevorzugt wachsen (Selbstverstärkung der einzelnen Äste). Wird ein Ion an den Elektroden reduziert, scheidet es als geladenes Teilchen aus der Lösung aus. Hinterlässt folglich also eine Lücke, die Lösung verarmt an den Stellen, wo sich Ionen anlagern können. Zwar sorgt die Diffusion der Ionen dafür, dass sich diese Lücken in der Lösung später wieder füllen, doch wird mit zunehmender Kanallänge (beispielsweise zwei lange nebeneinander liegende Äste eines Metallbaums) unwahrscheinlicher, dass eines der Teilchen das Ende des Kanals erreicht (Diffusion bedeutet hauptsächlich zufällige Bewegung). Es lässt sich also festhalten, dass im Bereich zwischen den Ästen die Konzentration der Metallionen geringer (wenn nicht gar nahe null) ist als im Rest der Lösung.

Young Researcher

59


Jugend forscht

Abbildung 11

Sauerstoff der Anodenreaktion entweicht, ohne dabei unter dem Mikroskop sichtbare Blasen zu hinterlassen.

Jeder Kristall besteht aus einzelnen Atomen bzw. Molekülen, die in einem kristallspezifischen Gitter organisiert sind. Der Anbau eines Ions an dieses Gitter erfolgt in zwei Schritten. Zuerst wird ein Ion durch die Aufnahme von Elektronen reduziert und seine Diffusion ist innerhalb der Lösung damit beendet. Allerdings diffundieren auch Feststoffe, und so bewegt sich das Metallatom auf der Kristalloberfläche weiter, solange bis es seinen Platz im Metallgitter gefunden hat (vgl. Kunz [1]). Je nach Art des Metallgitters (für Kupfer ein kubisch flächenzentriertes) besteht es aus mehreren Atomlagen, die sich regelmäßig wiederholen (im Falle Kupfer ..A-B-C-A-BC-A.. etc.). Nun kann es allerdings passieren, dass sich dieses umkehrt. Atomlage A passt auf B und C. Es bildet sich also statt ..B-C-A-B-C.. folgende Stapelfolge ..B-C-A-C-B.. (..A-B-C.. zu ..C-B-A..). Es entsteht ein verändertes Kristallgitter (Zwillingsbildung). Nun gibt es, abhängig davon wie man das Kristallgitter schneidet, charakteristische Oberflächen auf den Kristallen. Bei einer solchen Umkehrung der Stapelfolge entstehen zwischen diesen gleichartigen Schnittflächen spezifische Winkel, die Ausgangspunkt für eine Verzweigung sein können. Das hexagonale Zinkgitter besteht aus eben solchen Atomlagen in der Folge (A-B-A-B) und ist senkrecht zu den Atomlagen etwas gestreckt. Durch die geringere Symmetrie bieten sich hier weniger Möglichkeiten solche Zwillinge zu bilden und damit auch weniger Möglichkeiten zum Verzweigen. Anders formuliert: Das Kupferkristallgitter scheint gegenüber von äußeren Einflüssen, die eine Verzweigung bedeuten, toleranter zu sein als das

Zinkgitter. Problematisch bei der Betrachtung der verschiedenen Metallgitter ist allerdings die Tatsache, dass Blei, das ebenfalls wie das Kupfer ein kubisch-flächenzentriertes Gitter besitzt, entgegen der Erwartung nur Winkel in jeweils genau 90° ausbildet. Aus diesen Überlegungen ergibt sich, dass Kupferbäume nicht so starr in ihren Bildungsvorschriften eingeschränkt sind und sich daher besser am elektrischen Feld, bzw. der natürlichen Diffusion (vgl. mathematisches Diffusionsmodell) orientieren können (flachere Winkel). Zink hingegen folgt stur seinem Kristallgitter und bildet spezifische eigene (größere) Winkel aus (siehe auch Abb. 7). 5.3 Simulation Vergleicht man IFS-Fraktale mit den Zinkbäumen (Abb. 9) wird schnell klar, dass hier einzig das winkelbetonte Wachstum der Zinkbäume wiedergegeben wird. Interessant ist allerdings, dass ein komplett anderer Ansatz zu ähnlichen Bäumen führt. Bei IFS-Fraktalen wird zuerst die Spitze berechnet und dann zur Wurzel hin aufgefüllt, während Zinkbäume ja genau anders herum vom Keim zu den Spitzen wachsen. Besser lassen sich Diffusions-Fraktale mit den Kupferbäumen vergleichen (Abb. 10): Beim Kupfer passt sich das Wachstum der natürlichen Diffusion an. Die Diffusions-Simulation macht klar, warum Bäume überhaupt entstehen: Diffundierende Teilchen können keine glatte Oberfläche bilden, solange die neue Oberfläche weitere Teilchen anlagern kann.

60 Junge Wissenschaft // Ausgabe 78 // Mikrometallbäume

Wie auch schon Einstein in seinen "Untersuchungen über die Theorie der Brownschen Bewegung" [8] gehen wir bei der Berechnung der Geschwindigkeiten einzelner Atome und Ionen in unserer Lösung von der des idealen Gases aus. Die Geschwindigkeiten der Ionen in den Lösungen werden zwar geringer ausfallen als diejenigen eines Gases, doch würde der Einstieg in die thermodynamischen Prozesse innerhalb der sehr viel dichteren Flüssigkeit den Rahmen dieser Arbeit bei Weitem überschreiten. Dem gegenüber stellen wir die maximal zu erwartende Geschwindigkeit, die durch die Energie des angelegten elektrischen Felds zu erwarten ist.

E=

3 1 RT = Mvth2 2 2

Aufgelöst nach vth

vth =

3RT m = 339 M s

Die mittlere Geschwindigkeit der gerichteten elektrischen Bewegung der Ionen kann aus Stromstärke, Konzentration und Abmessungen der Messzelle bestimmt werden:

I = bhvel cF Aufgelöst nach vel

vel =

I m = 0, 00001 bhcF s

Gerechnet wurde dabei mit den folgenden Werten: Gaskonstante

R = 8,314 J/(mol*K)

Molare Masse (Kupfer)

M = 0,0635 kg/mol

Temperatur

T = 293 K

Elektrische Stromstärke

I = 0,0005 A

Breite der Messzelle

b = 0,018 m

Höhe der Messzelle h = 0,00003 m Stoffmengenkonzentration

c = 1000 mol/m³

Faradaykonstante F = 96485 C/mol


Jugend forscht

Trotz aller Schwächen dieser ersten Näherung kann aus diesen Ergebnissen abgelesen werden, dass die gerichtete Wanderung der Ionen im atomaren Maßstab erheblich langsamer verläuft als ihre zufällige, thermische Bewegung. Mit den Gleichungen oben lässt sich nachvollziehen, dass die Bewegung der Ionen aus der Diffusion heraus viel höher ist, als die durch das elektrische Feld bedingte. Die Spannung kann als Ionen bewegende Kraft also vernachlässigt werden. Ausschlaggebend für die Bewegung der Ionen innerhalb der Lösung ist einzig die Diffusion der Teilchen. Man geht davon aus, dass ein Ion durch zufällige Bewegung jeden Punkt der Lösung erreichen kann. Die Vorstellung, die Ionen würden von den Elektroden angezogen, ist also fehlerhaft (eher ein Zusammenspiel von Diffusion, Lösungsverarmung und Herausfiltern von Ionen an den Elektroden ist ausschlaggebend). Tatsächlich lagern sich die Ionen nur ab, wenn sie über die Diffusion zufällig die Elektroden berühren und dann aufgrund der anliegenden Spannung ihre Ladungen abgeben. Unser Diffusionsmodell zur Generierung von metallbaumartigen Strukturen geht also von einem mikroskopischen Ansatz bei unendlicher Verdünnung aus, der aber auch makroskopisch zu ähnlichen Strukturen führt wie sie die Metallbäume bilden.

6 Zusammenfassung und Fazit Unsere Arbeit spannt den Bogen vom atomaren Modell der Metallbäume über die experimentelle Herstellung derer bis hin zur makroskopischen Simulation am PC. Dabei umfasst sie die Bereiche Chemie, Informatik, Mathematik und Physik und liefert außerdem vielfach praktische Anwendungsmöglichkeiten für das gebildete fein verteilte Metall, wie z.B.: Herstellung von Leitlacken (Silber, Kupfer, etc.) Batterietechnik heterogene Katalyse (Katalysatoren mit großen Oberflächen) Ermittlung fraktaler Dimension (Box-Counting-Anwendung) Möglichkeit zur mathematischen Unter- scheidung der Bäume Unseren Kupferleitlack konnten wir über einen Zeitraum von ca. 5 Stunden verwenden, bevor die Oxidation an der sehr großen Oberfläche des Kupferpulvers zum Tragen kam und der Leitlack seine Leitfähigkeit verlor. Auch lässt sich die spontan gefundene Mischung für unser Lösungsmittel aus Kollodium, Aceton und Ammoniak sicher noch weiter verbessern.

Dank Wir danken dem Naturwissenschaftlichen Technikum in Landau für die Bereitstellung des Videomikroskops.

Literaturverzeichnis [1] [2] [3] [4] [5] [6] [7] [8]

Kunz, Holger; Prinzipien der Selbstorganisation: Untersuchungen zu Strukturbildenden Prozessen und Entwicklung einer experimentellen Konzeption zur Einbindung dieser Thematik in einen zeitgemäßen Chemieunterricht, Dissertation Universität Oldenburg, 2001 GIMP - GNU Image Manipulation Program, Infos und Download unter http://www.gimp.org/, zuletzt abgerufen 27.02.2007, Autoren: The Gimp Team (Niklas Mattisson und 36 weitere Namen, s. http://www.gimp.org/team.html) SCIONIMAGE Beta 4.03 for Windows 95 to XP, kostenloser Download nach Anmeldung unter http://www.scioncorp.com/frames/fr_download_now.htm zuletzt abgerufen am 27.02.2007, Firmenseite der Scion Corporation, Frederick, Maryland (USA), ohne Autorenangabe Fraktale Dimension - Wikipedia http://de.wikipedia.org/wiki/fraktale_Dimension, zuletzt abgerufen am 31.03.2007 FRACTINT, Webpräsenz und freier Download unter http://www.fractint.org/, zuletzt abgerufen am 27.02.2007, Webmaster: Tim Wegner Iteriertes Funktionensystem - Wikipedia http://de.wikipedia.org/wiki/Iteriertes_Funktionensystem zuletzt abgerufen am 31.03.2007 Frame, Michael, Mandelbrot, Benoit und Neger Nial, Fractal Geometry - University of Yale http://classes.yale.edu/Fractals/, speziell Abschnitt 5E (Diffusion-Limited Aggregation), zuletzt abgerufen am 31.03.2007 Einstein, Albert; Untersuchungen über die Theorie der Brownschen Bewegung (1905) von Albert Einstein. Mit Anm. von R. Fürth und einem Vorw. von W. Trageser. - 3. Aufl. - [Reprint der Ausg.] Leipzig, Akad. Verl.-Ges., [1922]. - Thun; Frankfurt am Main: Deutsch, 1997 ISBN-3-8171-3207-7

Young Researcher

61


Magazin

Mathematik Bitte

berühren! Mathematik zum Anfassen

In Gießen gibt es das Mathematikum – das erste mathematische Mitmachmuseum der Welt. Dieses kommt völlig ohne Formeln aus und begeistert seit 2002 Kinder, Schüler und Erwachsene.

laden, interaktive mathematische Experimente durchzuführen und dabei selbst Erklärungen für die Phänomene zu finden. Sollte es doch einmal zu knifflig sein, oder möchte man tiefer in die Materie eindringen, sind

Man kann Seifenblasen machen, Kugeln laufen lassen oder Brücken bauen – Ziel des Gießener Museums ist es, einen spielerischen Zugang zur Mathematik zu schaffen. Dabei versteht sich das Mathematikum nicht als Nachhilfeinstitut. Anliegen ist es vielmehr, die Mathematik zu popularisieren, um eine der ältesten Wissenschaften möglichst vielen Menschen zugänglich zu machen. Dabei soll die Mathematik immer leicht und anschaulich sein, und die vielfältigen und repräsentativen Exponate und Experimente stiften stets Bezüge zum Alltag.

Prof. Dr. Albrecht Beutelspacher – Gründer und Direktor des Mathematikums (Bild: Mathematikum Gießen) “Look! You have to put the triangle in this corner. Try it!”, ruft der junge Mann ganz aufgeregt und gestikuliert dabei wild mit den Händen. “Ei jo, das könnt tatsächlisch klappe”, erwidert die Frau gegenüber, deren rötliche Wangen von Anstrengung zeugen. Hastig greift sie nach dem blauen Dreieck und justiert es neu. Und plötzlich, sie können es kaum glauben: ein Achteck! Erleichterung macht sich breit. Stolz darauf, das Rätsel endlich gelöst zu haben, reichen sich beide lächelnd die Hände und gratulieren einander zu ihrem gemeinsamen Erfolg. Sie müssen schon eine ganze Weile dagesessen und herumprobiert haben, so glücklich schauen sie, die zwei Menschen, die sich vorher nicht kannten. Diese Situation ist im Gießener Mathematikum keine Seltenheit. Tagtäglich treffen sich hier die unterschiedlichsten Menschen und lassen sich von den Exponaten in ihren Bann ziehen. Einzeln oder in Gruppen sind die Besucher auf 1000 m2 dazu einge-

engagierte Betreuerinnen und Betreuer zur Stelle, die gerne Hilfestellungen geben und zu gedanklichen Verknüpfungen anregen. Ob es an der verständlichen Kommunikation, den farbenfrohen Exponaten oder den hellen Räumlichkeiten liegen mag, fest steht – das Mathematikum ist seit seiner Eröffnung im Jahr 2002 zu einem echten Besuchermagnet geworden, der jährlich über 150000 Besucher anzieht.

Mit der ungewöhnlichen Aufforderung „Hands on!“ unterscheidet sich das Mathematikum von den meisten Museen. Ganz in der Tradition der Science Center stehend gilt hier „Anfassen erwünscht“ statt „Berühren verboten“. Die interaktiv gestalteten Exponate fördern das „Learning by doing“. Durch eigenständiges, spielerisches Experimentieren werden den Besuchern mathematische Zusammenhänge nahegebracht, wobei eine pädagogisch-didaktische Basis, hauptsächlich aber Freude am Experimentieren im Vordergrund stehen soll. Und tatsächlich muss man nur

Ganz anders als der Mathe-Unterricht Als erstes mathematisches Mitmachmuseum der Welt möchte das Mathematikum mit über 120 Exponaten eine neue Tür zur Mathematik öffnen. „Wir haben versucht, keine schlechten Erinnerungen an den Mathe-Unterricht in der Schule aufkommen zu lassen. Es gibt in der ganzen Ausstellung keine Formel. Die Hürde vor der Mathematik ist auf Null heruntergesetzt“, erklärt Museumsdirektor und Mathematikprofessor Albrecht Beutelspacher.

62 Junge Wissenschaft // Ausgabe 78 // Das Mathematikum in Gießen

Junge Mathematikum-Besucher beim Ausprobieren (Bild: Mathematikum Gießen)


Magazin

einige Minuten in der Ausstellung verbracht haben, um das ein oder andere „Aha-Erlebnis“ der Besucher wahrnehmen zu können, wenn Applaus oder „Mama, schau, ich hab‘s geschafft“-Rufe durch die Räume hallen. „Mathematik ist die Kunst, durch eigenes Denken etwas herauszufinden“, sagt Professor Beutelspacher. Und wenn dies gelingt, ist die Freude groß – nicht nur bei den Kleinen. Da wundert es nicht, wenn selbst die größten Mathematikmuffel plötzlich Gefallen an dieser Wissenschaft zu finden scheinen und der oft gehörte Satz: „In Mathe war ich immer schlecht.“ revidiert werden muss. Entstanden aus einem Seminar für Lehrer Für die mittelhessische Stadt Gießen ist das Mathematikum aus kulturpolitischer und touristischer Sicht ein großer Gewinn. Dabei hatte noch vor zehn Jahren niemand an einen solchen Erfolg gedacht. Entstanden ist die Idee des Ganzen im Jahre 1993 in einem Proseminar Professor Beutelspachers für Lehramtsstudierende mit dem Titel: „Geometrische Modelle“. Die Aufgabe für die Studierenden war, ein geometrisches Modell selbst herzustellen und etwas von der darin steckenden Mathematik zu erklären. Dies wurde so schön, dass er vorschlug, daraus eine Ausstellung zu machen. Nach einigem Zureden fanden sich acht Studentinnen bereit, diese Ausstellung vorzubereiten. Und nach der ersten Wiederholung wurde dies zu einer Wanderausstellung. Schon bald war klar: Das beigeistert Jung und Alt, Könner und Anfänger, Jungs und Mädchen, und so lag der Gedanke nahe: Das könnte auch als Dauereinrichtung funktionieren! Der erste Spatenstich erfolgte darauf im Februar 2002. Nach nur 9 Monaten Bauzeit wurde im November 2002 das Mathematikum im alten Zollamt in Bahnhofsnähe durch den Bundespräsidenten Johannes Rau mit den Worten: „Mathematik kann Spaß machen. Das habe ich hier erfahren.“ eröffnet. Seitdem hat das Mitmachmuseum zahlreiche Auszeichnungen erhalten, einer davon der „Zukunftspreis Jugendkultur“ für das Gesamtkonzept. Inzwischen gibt es viele Science Center, die mit interaktiven Exponaten meist Physik oder Technik präsentieren. Das Mathematikum in Gießen ist jedoch das erste und immer noch

Spielerischer Umgang mit Mathematik – Besucher im Mathematikum (Bild: Mathematikum Gießen)

einzige mathematische Mitmachmuseum der Welt. Veranstaltungen und Sonderaustellungen zeigen immer wieder Neues Ein Erfolgsrezept scheinen die zahlreichen Veranstaltungen des Mathematikums zu sein. Denn das Museumsangebot wird durch regelmäßige Führungen, Veranstaltungen und Workshops ergänzt. Hier können dann z. B. Sterne, Würfel und sogar Tulpen aus Origami gefaltet oder geometrische Körper aus Glasröhren gebaut werden.

Die regelmäßigen Programmpunkte sind dabei mittlerweile zu einer festen Institution geworden. So kommt in jedem Monat ein neues Exponat hinzu und wird in einer Exponatpremiere feierlich eingeweiht. Zusätzlich entwickelt das Team in jedem Jahr eine komplett neue Sonderausstellung, die in den Wintermonaten gezeigt wird, wie das „Winter-Highlight“ des letzten Jahres, eine Ausstellung namens „BlickPunkte“, die in ihren rund 25 neuen Exponaten zu den Themenfeldern optische Täuschungen, Perspektive und Wahrnehmung zahlreiche Besucher ins Staunen versetzte.

Young Researcher

63


Magazin

Die Wanderausstellung „Mathematik zum Anfassen“ tourt in mindestens zwei Kopien durch Deutschland und das benachbarte Ausland. Für Kinder gibt es jeden Monat eine Kindervorlesung; außerdem kann man auch Kindergeburtstage im Mathematikum feiern.

Werke, in denen Mathematik und Kunst eine außerordentlich enge Verbindung eingehen. So hat es auch den renommierten amerikanischen Popart-Künstler James Rizzi oder den Tigerenten-Erfinder Janosch nach Gießen verschlagen.

Vor allem das Talkshow-Konzept von „Beutelspachers Sofa“ ist immer wieder einen Besuch wert. An je einem Dienstagabend im Monat lädt Professor Beutelspacher einen Wissenschaftler oder eine Wissenschaftlerin für eine Stunde auf sein Sofa ein und befragt sie über ihr Leben. In den lebendigen Gesprächen wird klar, dass Wissenschaft von Wissenschaftlerinnen und Wissenschaftlern gemacht wird und dass Wissenschaftler ganz normale Menschen zu sein scheinen, „nur eben ein bisschen anders“.

Als im September 2006 hundert Skizzen, Drucke und Fotografien der Verhüllungskünstler Christo and Jeanne-Claude ausgestellt wurden, bezeichneten das die Zeitungen als „größtes Kunstereignis Mittelhessens“. Immer wieder gerne lädt dann der Museumsdirektor zu spannenden Dialogen ein, die sich zwischen den Kunstobjekten und den Exponaten entspinnen. Dabei bedarf es eigentlich keiner speziellen Einladung mehr, die Dialoge entstehen hier quasi von selbst, wenn es zu Gedankenaustauschen und Unterhaltungen zwischen den Besuchern kommt, die, gleich welchen Alters und oder Vorbildung, eifrig experimentieren, Puzzles legen, sich den Kopf bei Knobelspielen zerbrechen oder den goldenen Schnitt an sich selbst erkennen.

Mathematik und Kunst Regelmäßig öffnet das Mitmachmuseum seine Räume für Ausstellungen und präsentiert

2008: Das Jahr der Mathematik Auf ein „deutschlandweites Mathematikum“ freut sich Prof. Beutelspacher im nächsten Jahr. Das von der Bundesbildungsministerin Annette Schavan ausgerufene „Jahr der Mathematik“ stellt für das Mathematikum selbstverständlich eine ganz besondere Herausforderung dar. Der Gründer des Gießener Mitmachmuseums und Mitglied des Koordinierungsausschusses hat sich etwas ganz Besonderes einfallen lassen: mit zahlreichen Aktionen möchte er sich an dem vom Forschungsministerium, von der Initiative Wissenschaft im Dialog, der Deutschen Mathematiker-Vereinigung und der Deutschen Telekom Stiftung ausgerichteten Wissenschaftsjahr beteiligen. So befindet sich gerade ein „Minimathematikum“ in der Entwicklung, eine Ausstellung mit 20 Exponaten speziell für Kinder von vier bis acht Jahren. Zum fünfjährigen Bestehen des Mathematikums am 16. November 2007 soll die Schau dann eröffnet werden. In den letzten fünf Jahren haben sich hier viele Menschen auf eine andere Mathematik jenseits von „richtig“ und „falsch“ eingelassen und dabei erstaunliche Erfahrungen gemacht. So gehört das Mathematikum mittlerweile zu den besucherstärksten deutschen Museen. Das Publikum ist international – mit Gästen aus über 50 Nationen. Dieser Erfolg macht es möglich, dass der Betrieb ohne staatliche Förderung läuft.

Autorin: Lisa Grieb

Mathematikum Gießen Liebigstraße 8 35390 Gießen Telefon: 0641/ 9697970 Öffnungszeiten: Montag bis Freitag 9.00 bis 18.00 Uhr Donnerstag 9.00 bis 20.00 Uhr Wochenende und Feiertage 10.00 bis 19.00 Uhr

Faszinierende Dastellungen (Bild: Mathematikum Gießen)

64 Junge Wissenschaft // Ausgabe 78 // Das Mathematikum in Gießen

www.mathematikum.de


Magazin

Portrait Technische

Universität Hamburg – Schüler sind herzlich willkommen! Mit ihren rund 4000 Studierenden und nach knapp 30 Jahren ihres Bestehens ist die Technische Universität Hamburg-Harburg (TUHH) im Kreise der großen Technischen Universitäten ein Geheimtipp. Überschaubar, mit ambitionierten Studienprogrammen und Professorinnen und Professoren, die ihren Studierenden zu Seite stehen - ihnen, deren Qualität den Ruf einer Universität am Ende bestimmt. Wichtig sind gute Studierende, und solche bekommt eine kleine Universität nur dann, wenn sie sich um gute Schüler/innen bemüht. Deshalb wendet man sich an sie mit dem TUHH-Schülerprogramm (URL 1). Der TUHH geht es um die frühe Förderung des Interesses an mathematisch-naturwissenschaftlichen und technischen Themen durch eigene Wettbewerbe (URL 2, 3),

Wichtige Internetadressen (URLs zum Artikel) 1: http://schule.tu-harburg.de 2: www.wer-wird-ingenieur.de 3: www.jugend-baut.de 4: www.daniel-duesentrieb-preis.de 5: www.technikforum-nortec.de 6: http://schule.tu-harburg.de/ netzwerk/ 7: www.dlr-schoollab-hamburg.de 8: www.infotronik-programm.de 9: http://schule.tu-harburg.de/ begabte 10: www.tuhh.de/nextlevel 11: www.schoollab.dlr.de 12: www.infotronik-programm.de 13: www.daniel-duesentrieb-preis.de 14: www.tuhh.de/nextlevel 15: www.tuhh.de/studium 16: www.hslog.de 17: www.nithh.de

Überschaubar, aber nicht zu übersehen: die TUHH genießt einen guten Ruf in der Hochschullandschaft. (Bild: TUHH) durch Wettbewerbe zusammen mit anderen (URL 4), durch Feriencomputertage, durch die Organisation von Messe-Schülerprogrammen (URL 5) und den Aufbau eines Netzes von Kooperationsschulen (URL 6). Vor allem aber werden mathematisch, naturwissenschaftlich oder technisch besonders begabte junge Leute gefördert: Im gemeinsam mit dem DLR und der Hamburger Schulbehörde betriebenen DLR_School_Lab Hamburg (URL 7) an der TUHH wird Luftfahrt und Flugzeugtechnik für Schüler/innen an Versuchsständen erfahrbar. Eigene Experimente rund um das faszinierende Thema Fliegen runden den Besuch ab. Auf Infotronik und Mechatronik sind die Robotikkurse des Infotronik-Programms (URL 8) ausgerichtet. Die Robotik-Kurse sind Teil des TUHH-Begabten-Programms (URL 9), das seit zwei Jahren für in der Schule unausgelastete Schülerinnen und Schüler ein Schülerstudium neben der Schule (URL 10) anbietet. Große Unternehmen unterstützen dieses Programm.

Das School_Lab Hamburg ist der drittgrößte Standort der zivilen Luftfahrtindustrie weltweit. Die TUHH ist auf dem Forschungs- und Entwicklungssektor eng mit diesem Wirtschaftsbereich verbunden. Zurzeit arbeiten in der Metropolregion Hamburg rund 30.000 Menschen im

Luftfahrtbereich. Qualifizierter Nachwuchs ist bei Airbus, Lufthansa Technik und den mehr als 300 Zulieferern heiß begehrt. Und das bedeutet: Die Chancen für junge Leute, die sich für einen Beruf in der Luftfahrt oder in angrenzenden Bereichen interessieren, stehen außerordentlich gut. Gerade der Bereich Flugzeugbau bietet viele interessante Berufe, die Jugendlichen nicht immer geläufig sind. So lag es für die Gründer des DLR_School_Lab Hamburg im Jahre 2004 nahe, den thematischen Schwerpunkt auf den Bereich Luftfahrt zu legen. In praktischen Experimenten können Schülerinnen und Schüler hier erkunden, welch vielfältige mathematischen und technischen Zusammenhänge bei Entwicklung und Konstruktion von Flugzeugen eine Rolle spielen. Das DLR School Lab Hamburg gliedert sich in eine Reihe von sechs DLR_School_Labs ein (URL 11) und ist an der TU Hamburg-Harburg (TUHH) angesiedelt. Dank der Unterstützung mit Fördermitteln (u.a. der Hamburger Behörden für Wirtschaft und Arbeit (BWA) sowie Bildung und Sport (BBS), des DLR und der TUHH) wurden schließlich die ersten Versuchsstände gebaut. Bei der Eröffnung im Mai 2004 standen den Besuchern z.B. ein Prandl-Wasserkanal, ein Rundlauf (zur Beobachtung des Flugverhaltens von Flugzeug- und Vogelmodellen), eine Flugzeugkabinenwand (zur Untersuchung der Schalldämmung von Passagiermaschinen) und zwei Windkanäle (zur Bestimmung des Strömungswiderstandes bzw. zur Untersuchung des Flatterverhaltens von Flugzeugflügeln) zur Verfügung. Sie regten seitdem über zweieinhalbtausend junge Besucher an, sich mit Umströmungen, Auftrieb, Luftwiderstand und Vibroakustik zu beschäftigen. Außerdem wird das Labor von einem erfahrenen Beirat mit Vertretern aus namhaften Unternehmen der Luftfahrt, wie Airbus, Lufthansa Technik, der Luftfahrtinitiative Hamburg

Young Researcher

65


Magazin

und der TUHH selbst, unterstützt. Wertvolles Know-how aus dem Bereich Luftfahrtzulieferung bringen Unternehmen wie der NORDMETALL Verband der Metall- und Elektroindustrie ins Labor. Durch Unterstützung von

Robotikkurse an inzwischen über 18 Standorten im Metropolbereich Hamburg bieten Schülerinnen und Schülern eine Ausbildung in der Konstruktion und Programmierung von Robotern. Gestartet wird mit „LEGO

ein vollwertiges ingenieurwissenschaftliches Hochschulstudium mit betriebsnahen Praktika kombiniert und durch Projektmanagementkurse ergänzt.

Robotik-Kurs an der TUHH - Stolze Entwickler eigener Ideen (Bild: TUHH)

NORDMETALL verfügt das School_Lab über eine eigene kleine CNC-Fräse, mit der Fertigungstechniken demonstriert werden können. Am weiteren Ausbau des Labors wird gearbeitet. Als Nächstes stehen Überflugslärmmessungen und Flattermessungen an echten Flugzeugen auf der Liste der Projekte von Professor Weltin, der besonders interessierte Besucher schon einmal durch einen Mitflug in seinem Forschungsflugzeug belohnt.

Infotronik-Programm Hochqualifizierte Fachkräfte in der Informationstechnik sind schwer zu finden. Vor drei Jahren haben die TUHH und der Arbeitgeberverband NORDMETALL deshalb ein Konzept zur Ausbildung ingenieurwissenschaftlichen Nachwuchses gestartet. Das Infotronik-Programm (URL 12) unterstützt Begabte und Interessierte von der Schule bis zum Hochschulabschluss.

Mindstorms“-Systemen. Diese Systeme bieten genug Komplexität, um sie auch in Universitätskursen einzusetzen. Die Verarbeitung von durch Sensoren (wie Lichtschranken, Temperaturfühler, Taster oder auch Kameras) aufgenommenen Signalen und die Steuerung der Motoren, mit denen das Verhalten der Roboter kontrolliert wird, ist für die Teilnehmer aus den Klassenstufen 10 bis 13 durchaus eine Herausforderung. Fortgeschrittenen wird im Rahmen dieses Kurses neben der Konstruktion und Programmierung von "Fischer-Technik"-Systemen auch die Programmierung von Fußball spielenden Robotern angeboten. In Schulwettbewerben, wie etwa dem Wettbewerb um den Daniel-Düsentrieb-Preis (URL 13), können die Teilnehmer anschließend ihre Kenntnisse testen. Die zweite Stufe des Programms führt dann auch schon in das Studium hinein. Hier wird

66 Junge Wissenschaft // Ausgabe 78 // Porträt der TU Hamburg-Harburg

An dem Programm beteiligte Unternehmen fördern die Teilnehmer dabei mit Stipendien. Die erfolgreiche Teilnahme an den Schülerprogrammen hat sich inzwischen als Sprungbrett in das Studium erwiesen. Die stärkere Belastung der Studierenden hat sich erwartungsgemäß nicht in schlechteren Abschlussnoten niedergeschlagen. Vielmehr gehörten die Absolventen der ersten Kurse zu den Jahrgangsbesten. Es wird erwartet, dass die durch das Programm Geförderten auch in ihrer späteren Laufbahn besonders erfolgreich sein werden.

NextLevel Seit fünf Jahren bietet die TUHH ein Studium vor dem Abitur für besonders begabte und engagierte Schülerinnen und Schüler an (URL 14). Während in den vergangenen Jahren fast alle Mathematik studierten, werden im Wintersemester 2007/2008 erstmalig


Magazin

Schülerstudierende in den Vorlesungen über Mechanik und Elektrotechnik erwartet. Da die Mechanik-Vorlesung in den Abendstunden stattfindet, haben die Schülerstudierenden kein Problem, neben der Schule daran teilzunehmen. Das gute Gefühl, seine eigenen Fähigkeiten in der Schule nicht brach liegen zu lassen, wird bei den Schülern durch den Reiz ergänzt, bei erfolgreicher Teilnahme an den zu den Vorlesungen gehörigen Vordiplomsklausuren ein ganzes Jahr Studiengebühren an der TUHH erlassen zu bekommen. Aber auch Schüler, welche am Ende nicht an der TUHH Ingenieurwissenschaften, sondern an einer anderen Universität Mathematik studieren wollen, haben den Mathematik-Kurs an der TUHH geschätzt. Vermittelt er doch neben der wie in einem Mathematikstudium üblichen exakten Darstellung des Stoffes zugleich auch immer seine praktische Bedeutung. „Früher fand ich Mathematik nur schön“, sagt eine mit vielen Mathematik-Schülerwettbewerben vertraute NextLevel-Teilnehmerin. „Hier habe ich gelernt, dass sie auch noch extrem nützlich ist, weil die gesamte Ingenieurwissenschaft und damit jede Technik auf ihrer Anwendung beruhen.“

Was studieren an der TUHH? Studieren kann man an der TUHH alle klassischen Ingenieurfächer (URL 15).

Daniel-Düsentrieb-Wettbewerb: Selbst gebaute Flugzeuge werden direkt bei Airbus in Hamburg getestet (Bild: TUHH)

Besonders interessant sind natürlich die Studiengänge, die mit Hamburgs spezieller Lage und seiner Funktion als Logistik-Angelpunkt im Warenverkehr verbunden sind: Schiffbau ist an der TUHH seit jeher zu Hause, Energie- und Umwelttechnik ist wegen des Winds an der Küste aber auch für den Betrieb eines großen Metropolbereichs von Bedeutung und Flugzeugsystemtechnik kümmert sich u.a. um die Ausstattung von Flugzeugen. Den weltwirtschaftlichen Aspekten der Ingenieurwissenschaften widmet man sich an den der TUHH angegliederten Instituten Hamburg School of Logistics (URL 16) und dem

Northern Institut of Technology (URL 17), wo Logistik und Global Management auf dem Programm stehen. Und weil Hamburg weiterhin das Tor zur Welt ist, ist die TUHH natürlich auch der Studiengestaltung jenseits der deutschen Grenzen zugewandt. Ein in das Studium eingeplantes Auslandssemester gehört hier inzwischen fast zum guten Ton.

Autoren: Rüdiger Bendlin, Wolfgang Mackens

Technische Universität Hamburg-Harburg Zentrale Studienberatung Schwarzenbergstraße 95 21073 Hamburg Tel.: (040) 42878 -2776 Fax: (040) 42878 -2546

Experimente am Strömungskanal (Prandl-Kanal) (Bild: TUHH)

E-Mail: studienberatung@tuhh.de Web: http://www.tuhh.de

Young Researcher

67


Magazin

Wettbewerb In

Hamburg radelt, fliegt und schwimmt Daniel Düsentrieb Seit 2000 gibt es in Hamburg den Daniel Düsentrieb-Wettbewerb. Dieser naturwissenschaftlich-technisch orientierte Wettbewerb fördert die fächerübergreifende Zusammenarbeit in der Schule. 2006/07 nahmen daran insgesamt 48 Schulen teil. Ein Gespräch mit Prof. Wolfgang Mackens, einem der Organisatoren. Der Daniel Düsentrieb-Wettbewerb wurde in Hamburg vom VDI, dem Amt für Schule, der Innovationsstiftung und den Hamburger Hochschulen aus der Taufe gehoben. Was war und ist das Ziel? Viele Studenten und Studentinnen haben bei Studienbeginn viel zu geringe Kenntnisse in Mathematik und Physik. Und das ist auch nicht verwunderlich: Denn in einigen Bundesländern wählen nur noch rund ein Fünftel aller Schülerinnen und Schüler einen Leistungskurs Mathematik und im Bundesdurchschnitt weniger als ein Zehntel einen Leistungskurs Physik. Und dieses Nichtwissen bereitet dann

Schülerinnen und Schüler experimentieren „rund um‘s Fahrrad“.

gehörige Schwierigkeiten und zwar nicht nur in den mathematisch-naturwissenschaftlichen oder technischen Studiengängen. Auch in vielen anderen Fächern sind Kenntnisse der Physik von Nutzen. Und Mathematik betreibt man eigentlich stets, wenn man klar strukturiert denkt, und das macht man ja in allen wissenschaftlichen Studien. Es geht bei dem Wettbewerb also darum, die praktische Relevanz der beiden Fächer deutlicher zu machen und ihre allgemeine Akzeptanz zu verbessern. Das erste Thema lautete „Rund um’s Fahrrad“. Wie war die Resonanz? Am Ende fanden sich drei gute Beiträge, die das erklärte Hauptziel des Wettbewerbs, möglichst viele Gruppen einer Schule in die Untersuchungen einzubinden, erreichten und dabei respektable Untersuchungen vorlegten. Doch der Zuspruch war weniger stark als erhofft.

Prof. Dr. Wolfgang Mackens

Sie gaben aber nicht auf, sondern suchten Verbesserungsmöglichkeiten … Eine erste Analyse des Wettbewerbsverlaufes

68 Junge Wissenschaft // Ausgabe 78 // Daniel-Düsentrieb-Wettbewerb

machte klar, dass es für einen technischen Wettbewerb nicht reicht, Preise zur Verfügung zu stellen. Da Gymnasien wenige Erfahrungen mit Technik haben, muss man ihnen auch Wege aufzeigen, wie man in den Wettbewerb einsteigen kann. Man muss den potentiellen Organisations-Lehrern in den Schulen Argumente an die Hand geben, mit denen weitere Mitstreiter gewonnen werden können. Als Anreiz für die Schüler wurde von der zweiten Runde an ein praktischer Wettbewerbsteil beigefügt. Dieser praktische Teil spricht Schülerinnen und Schüler auch deshalb besonders an, weil er meist in einer öffentlichen spannenden Wettfahrt gipfelt. Und das bewährte sich? Ja, beim zweiten Wettbewerb waren z. B. mit vorgegebenen Akkus und Elektromotoren Elektromobile zu bauen, die einerseits möglichst schnell fahren und andererseits eine möglichst starke Steigung bewältigen konnten. Die Zahl der teilnehmenden Schulen nahm stark zu, vermutlich auch dank der in 2001 in Berlin stattgefundenen 18. Internationalen Elektromobilausstellung „EVS18“. Mit einem vom VDI gecharterten Bus fuhren 50


Magazin

Lehrer und Schüler zum Berliner Messegelände und kamen spät am Abend mit dem Kopf voller Konstruktionspläne für unschlagbare Elektromobile zurück. Wie ist der Wettbewerb heute organisiert? Mit der Größe des Wettbewerbs nahmen auch sein Organisationsaufwand und seine Kosten zu. Die Hauptorganisationsarbeit trug vom zweiten Wettbewerb an die TU HamburgHarburg. Bei fast jedem der Wettbewerbe übernahmen TUHH-Institute die teilweise erheblichen technischen Vorbereitungen der praktischen Wettbewerbe, wie z. B. den Bau einer schwenkbaren Fahrbahn für die Elektromobile. Auch das Robotik-Thema forderte viel Engagement während der Entwicklungsphase und schließlich wird ein Internetauftritt kontinuierlich gepflegt.

Das Elektromobil des Gymnasiums Grootmoor (Wettbewerbsrunde 2001/02)

Von wem erhalten Sie noch Unterstützung? Von Mal zu Mal stieg die Zahl der Unterstützer aus dem Großraum Hamburg. Neben fast allen Hamburger Hochschulen standen allein in den ersten sieben Wettbewerben fünfundvierzig Unternehmen und Organisationen des Metropolbereichs Hamburg den Organisatoren mit Rat, Tat und Geld zur Seite. Durch ein einschlägiges Thema einmal zum Wettbewerb gezogen, blieben ihm viele anschließend als Unterstützer treu. Beispielhaft ist hier der 3. Wettbewerb: Für die Auftaktveranstaltung mit 300 Teilnehmern im AIRBUS-Vortragszentrum und dem praktischen Wettbewerb auf der Rollbahn seines Auslieferungszentrums schuf AIRBUS ein ideales und die Teilnehmer beeindruckendes Umfeld. Wie sehen Sie den Wettbewerb heute? Wir sind sehr zufrieden. Seit vier Jahren werden auch Schulen außerhalb des direkten Hamburger Umfeldes als Teilnehmer zugelassen, und seitdem dehnt sich das Einzugsgebiet des Wettbewerbs immer weiter aus. Aus Syke bei Bremen, Bad Schwartau, Soltau, Celle, Travemünde, Geesthacht, Lauenburg und Brandenburg, ja, selbst aus England kamen die Schulen, die sich bislang an den Themen versuchten. Für den nächsten Wettbewerb haben sich die Hamburger Schulen

geschworen, den ersten Preis wieder nach Hamburg holen, der bei den drei letzten Wettbewerben immer wieder an die ImmanuelKant-Schule aus Neumünster ging. Was ist das Thema der nächsten Runde? Es geht um Logistik. Im praktischen Teil des nächsten Wettbewerbes sollen Teilnehmer der Unter- und Mittelstufen einen Container mit vorgegebenen Waren in vorgegebener Zeit optimal füllen. Die teilnehmenden Oberstufen müssen in einem internetbasierten Planspiel in einem simulierten Markt bestmöglich bestehen. Sie werden sich hierfür ein halbes Jahr vorbereiten können, in dem sie sich am besten mit Methoden des Supply Chain Managements auseinandersetzen. Eines ist sicher, es wird wieder spannend. Prof. Mackens, Sie stecken persönlich viel Arbeit in diesen Wettbewerb. Haben Sie den Eindruck, dass dies Früchte trägt? Dies ist natürlich schlecht zählbar. Aber dazu möchte ich gern etwas von meinen Erfahrungen aus Mathematikvorlesungen für Ingenieure erzählen: Manchmal beschleicht mich das ungute Gefühl, dass viele im Auditorium glauben, sie müssten dort nur sitzen, damit ich an der

Tafel meinen Spaß mit der Kreide haben kann. Zwar habe ich den jungen Ingenieurstudentinnen und -studenten von der ersten Vorlesungsstunde an gesagt, dass Mathematik die Grundlage ihres Studiums und ihres Berufs sein wird, und natürlich verweise ich immer wieder auf Anwendungen. Dennoch haben aber selbst diese technikbegeisterten potentiellen Ingenieurinnen und Ingenieure oft noch die Vorstellung, die an der Schule fast alle von der Mathematik hatten: Da muss man nun mal durch, aber von praktischer persönlicher Relevanz ist der Unterricht allenfalls für die paar, die selbst Mathematiklehrer werden wollen. Im letzten Herbst strahlte mich dann jedoch ein junger Student in der ersten Vorlesung der Studienanfänger an und sagte nur „Da bin ich!“. Glücklicherweise habe ich ihn erkannt: Es war einer der Mit-Gewinner im Flugzeugwettbewerb des Jahres 2002/2003, der nun an der TUHH Flugzeugsystemtechnik studieren will. Bei ihm bin ich sicher, er weiß, wozu Mathematik und Physik gut sind.

Informationen zur Anmeldung und zum laufenden Wettbewerb finden sich unter www.daniel-duesentrieb-preis.de

Young Researcher

69


Magazin

Ihr Partner im Hochschulmarketing Seit 1996 betreuen wir Universitäten und (Fach)Hochschulen bei der Vermarktung von Werbemöglichkeiten und -rechten. Wir verstehen uns als Full-Service-Dienstleister Wir beraten und unterstützen Sie bei: der Ausarbeitung von ganzheitlichen Vermarktungslösungen für Ihre Hochschule der Ausrichtung und Vermarktung werblicher Teilbereiche und Einzelprojekte, wie z.B.: - Erstsemesterbegrüßungen - Hochschulzeitungen - Hochschulmessen - Kinder-Uni-Tage - Jobbörsen - u. a. der Entwicklung von Fundraising-Konzepten der Suche nach Sponsoring-Partnern der Etablierung von Merchandising an Ihrer Hochschule

Vertrauen Sie unserer langjährigen Erfahrung und der Zufriedenheit unserer Vertragspartner. Mit zahlreichen renommierten Universitäten und (Fach)Hochschulen arbeiten wir seit vielen Jahren erfolgreich zusammen.

Für weitere Informationen wenden Sie sich bitte an: Herrn Matthias Kühn Leiter Hochschulmanagement Tel. (02 71) 23 82 85 -13 E-Mail m.kuehn@hochschulwerbung.de

www.hochschulwerbung.de


n: (02 11) 38 t axbestellung a

F

54 89-29

senschaf erlag Junge Wis 3, 40221 Düsseldorf V : an st Po r oder pe ollhof ssidis, Neuer Z Athanasios Rou

Abo macht schlau! Nichts versäumen – Junge Wissenschaft abonnieren.

JA, ich möchte die Junge Wissenschaft abonnieren. Ich erhalte als persönlicher Abonnent die Zeitschrift zunächst für ein Jahr (vier Ausgaben) zum Preis von 30,00 EUR zzgl. 6,50 EUR Versandkosten. Das Abonnement verlängert sich automatisch um ein weiteres Jahr, wenn es nicht bis acht Wochen vor Ende des jeweiligen Bezugsjahres schriftlich bei dem Verlag Junge Wissenschaft gekündigt wird. Vergünstigtes Abonnement für Schüler, Studenten und Referendare Ich bin Schüler, Student oder Referendar und erhalte gegen Vorlage einer aktuellen Bescheinigung den Vorzugspreis für ein Jahresabonnement in Höhe von 20,00 EUR zzgl. 6,50 EUR Versandkosten. Widerrufsrecht: Diese Vereinbarung kann innerhalb von zwei Wochen ab Erhalt des Magazins ohne Angabe von Gründen widerrufen werden. Zur Fristwahrung reicht die rechtzeitige Absendung des Widerrufs. Der Widerruf ist in Textform (zum Beispiel Brief, Telefax, E-Mail) gegenüber dem Verlag Junge Wissenschaft, Neuer Zollhof 3, 40221 Düsseldorf, zu erklären. Stand 2007

Datum

Unterschrift

Persönliche Angaben und Lieferadresse (bitte leserlich ausfüllen)

Name, Vorname Straße PLZ

Hausnr. Ort

E-Mail

Geburtsdatum

Schule/Hochschule Leistungskurse/Studiengang

Schulstufe/Fachsemester

Zahlungshinweise (bitte leserlich ausfüllen)

Ich zahle gegen Rechung Anschrift siehe oben Abweichende Rechnungsadresse

Straße/Hausnr. PLZ/Ort

Ich zahle bequem per Bankeinzug. Ich ermächtige Sie hiermit bis auf Widerruf die Rechnungsbeträge von meinem Konto abzubuchen. Kreditinstitut Kontonr.

BLZ Datum/Unterschrift


Magazin

Literaturtipp Herausragende

deutsche Ingenieure des 20. Jahrhunderts Dieses Buch enthält ohne Frage interessante Fakten und Lebensläufe, aber dies entdeckt der Leser erst, wenn er sich ernsthaft mit dem Buch beschäftigt. Das erste Fragezeichen ruft der Titel hervor: „Naturforscher“ und „Gestalter der Technik“ mit dem Untertitel „Die Träger des Werner-von-Siemens-Ringes“. Dies assoziiert Loblieder auf Menschen, die mit wenig gebräuchlichen Begriffen beschrieben werden. Blättert man das Buch durch, so findet man ausschließlich schwarz-weiß Bilder, häufig von älteren Herren, gelegentlich Abbildungen von technischen Geräten, die nur einen ersten Eindruck vermitteln, und einen Textaufbau, der stark wissenschaftlich orientiert ist. All dies lädt noch nicht zum Lesen ein. Ein Blick auf das Inhaltsverzeichnis dagegen weckt Neugierde: Dieses nennt die Träger der Auszeichnung, sortiert nach dem jeweiligen technischen Fachgebiet, auf dem sie tätig waren und sind: Es finden sich einige bekannte Namen wie Carl von Linde, Wernher von Braun, Walter Schottky, Artur Fischer und jede Menge unbekannte Namen. Die Bandbreite der Gebiete ist groß und reicht

von Eisenhüttenwesen und chemischer Technologie über elektrische Übertragungstechnik und Mikroelektronik bis hin zur Informationstechnik und Informatik. Und wer sich dadurch angezogen fühlt und den entsprechenden Lebenslauf nachliest, erfährt viel über Naturwissenschaftler und Ingenieure, die die technische Entwicklung in Deutschland im 20. Jahrhundert wesentlich mitgetragen und gestaltet haben. Die Texte enthalten neben biographischen Informationen vor allem eine Beschreibung der beruflichen Stationen jeweils mit Fokus darauf, welche technische Fragestellung und Lösung erarbeitet wurde. Dabei gelingt es in nüchtern sachlichem Stil, die Bedeutung der Leistung für das jeweilige Fachgebiet einzuordnen. So wird an vielen Stellen deutlich, welche ingenieurwissenschaftlichen Leistungen hinter technischen Produkten stehen, die wir heute völlig selbstverständlich benutzen. Dies hat für mich letztendlich den Reiz ausgemacht, alle Lebensläufe zu lesen.

Autorin: Sabine Walter

Dieter Kind, Walter Mühe „Naturforscher und Gestalter der Technik – Die Träger des Werner-von-SiemensRinges“ VDE Verlag, Berlin, 2005 ISBN 978-3-8007-2967-8

Biophysik

liefert neue Impulse für die Lebenswissenschaften Wissenschaftlich prägte der Fortschritt in der chemischen Forschung das 19. Jahrhundert, im 20. veränderte die Physik unsere Sicht auf die Welt. Angesichts von Genomprojekt und immer neuen „Revolutionen bei den Einsichten auf das Leben“, wundert es da kaum, dass die Biowissenschaften scheinbar dem 21. Jahrhundert ihren Stempel aufdrücken werden.

Frage. Das kann in Konsequenz nur durch eine hervorragende Ausbildung junger Studierender gewährleistet werden. Wie aber lassen sich so verschiedene wissenschaftliche Erkenntnisse wie das Auslesen der DNS, die Fortbewegung von Zellen oder die evolutionäre Dynamik von Leben systematisieren und vermitteln?

Dass innerhalb großer Versprechen und Risiken verantwortungsvolle und gut ausgebildete ForscherInnen gefragt sind, steht außer

Mit seinem bahnbrechenden Lehrbuch hat der amerikanische Professor Philip Nelson einen Kanon aufgestellt, der die Grundlage für viele

72 Junge Wissenschaft // Ausgabe 78 // Buchtipps

einführende Vorlesungen in die spannende Materie der Biophysik stellt. Dabei geht er davon aus, dass detaillierte quantitative Beschreibungen biologischer Vorgänge mit Hilfe physikalischer Methoden möglich sind und tiefere Einblicke verschaffen. Ausgehend von den physikalischen Grundbegriffen wie Energie und Diffusion werden in Biological Physics in zwölf Kapiteln systematisch Wirkungsweisen biologischer Systeme vermittelt, Größenskalen eingeführt und diskutiert sowie aktuelle Veröffentlichungen dar-


Magazin

gestellt und in einen breiten Kontext gestellt. Ergänzt werden die Kapitel durch weiterführende und präzise gestellte Fragen, die vorlesungsbegleitende Übungen leicht zu wertvollen Diskussionsgruppen machen können. Innerhalb der „Forschungscommunity“ genießt das Buch eine große Reichweite. Das rührt unter anderem von den kommentierten Literaturangaben her, die den Einstieg in neue Themengebiete extrem erleichtern. Speziell lässt sich hier noch das Kapitel 9 hervorheben, welches die elastischen Eigenschaften von Biopolymeren sehr deutlich vermittelt und damit eine nicht zu überschätzende Blaupause für wiederkehrende Problemstellungen behandelt, wie beispielsweise Kooperativität und Phasenübergänge. Anfang 2008 erscheint Biological Physics in einer aktualisierten Ausgabe, in der neue Veröffentlichungen der letzten fünf Jahre eingearbeitet sein werden. Angesichts der großen Popularität, die biophysikalische Forschungsansätze im Moment zu Recht genießen, ist

dieser Schritt sehr zu begrüßen und ermöglicht auch fachfremden ForscherInnen eine Einführung auf der Höhe der Zeit. Den Ausnahmestatus als vorbildliches Lehrbuch, das sowohl vorlesungsbegleitend, zum Selbststudium als auch für vermeintliche „alte Hasen“ geeignet ist, wird durch die neue Ausgabe untermauert werden. Philip Nelson beginnt das erste Kapitel von Biological Physics wie auch seine Vorlesungen zur Biophysik mit dem Ausspruch „The modest goal of this book is to take you from the mid-nineteenth century [...] to the science headlines you read this morning.“ Nach intensivem Lernen entlang der Linie des Buches und unzähligem Nachschlagen darin, hat man den Eindruck, dass das mehr als gelungen ist und begeisterte Forscher und Forscherinnen hinterlässt.

Philip Nelson „Biological Physics – Energy, Information, Life“ 1. erweiterte Auflage, W. H. Freeman, New York: 2008.

Autor: Fabian Czerwinski

ISBN 0716798972

Ihr Urteil ist gefragt! Rezensieren Sie ein Buch Ihrer Wahl und behalten Sie es. Liebe Leser, wir laden Sie ein: Werden Sie Rezensent und teilen Sie uns Ihre Eindrücke zu Inhalt, Lesbarkeit und Relevanz zu einem Buch aus unserer Besprechungsliste mit. Wir freuen uns, wenn wir Buchrezensionen von Lesern für Leser veröffentlichen können und drucken Ihren Artikel in einer unserer nächsten Ausgaben. Interesse? Schicken Sie eine E-Mail an die Chefredaktion der Jungen Wissenschaft (s.walter@verlagjungewissenschaft.de) mit der Angabe des Buches, das Sie gern lesen und kommentieren möchten. Als Dank für Ihre Mühe dürfen Sie das Buch selbstverständlich behalten.

1. Gewöhnliche Differentialgleichungen – eine Einführung

(244 Seiten)

2. Computergrafik und Bildverarbeitung

(874 Seiten)

3. Strategische Spieler für Einsteiger

(251 Seiten)

4. Kryptologie

(156 Seiten)

5. Die Welt der Elemente- die Elemente der Welt

(116 Seiten)

6. The demon and the quantum – from Pythagorean mystics to Maxwell’s demon and quantum mystery

(240 Seiten)

7. Diskrete Mathematik für Einsteiger

(254 Seiten)

8. Kombinatorische Optimierung erleben

(311 Seiten)

9. Liebe, Licht und Lippenstift

(232 Seiten)

10. Brillante Denker, kühne Pioniere

(230 Seiten)

11. Der Urknall und andere Katastrophen

(290 Seiten)

Young Researcher

73


Magazin

Besondere BĂźcher mit eigenen Bildern und Texten selber gestalten!

, 5 1

EUR

m e s e i d -LFFLO D J t G i L m 00GI-O A t A t A F a b EIN-EB E a K : R e eincod h c s t u G ember

Einzu

is Dez lĂśsen b

1

2

3

2007

Laden Sie die Softwareversion mit Aktivierungscode von www. schobuk.com. Aktivieren Sie mit dem Code: AG00IOA01869F1

www.schobuk.com


Junge Wissenschaft

Verlag Junge Wissenschaft Athanasios Roussidis Neuer Zollhof 3 40221 Düsseldorf

Jugend forscht in Natur und Technik Engagieren Sie sich für den ingenieur- und naturwissenschaftlichen Nachwuchs und übernehmen Sie ein Patenschaftsabonnement der „Jungen Wissenschaft“ Die „Junge Wissenschaft“ bringt – vor allem für junge Leser – das Neueste aus Wissenschaft, Forschung und Wirtschaft auf den Punkt. Wissen fördern, Zukunft gestalten

Auch Sie können hochbegabte Schüler und Studenten fördern – indem Sie Patenschaftsabonnements für die „Junge Wissenschaft“ übernehmen. Ein Engagement das sich auszahlt, denn an naturwissenschaftlichem Nachwuchs besteht in der Wirtschaft und an Hochschulen hoher Bedarf. Umso wichtiger ist es, Jugendliche schon heute für Wissenschaft und Forschung zu begeistern.

Werden Sie Pate

Ob eine Schule oder ein bestimmter Leistungskurs, ein Fachbereich oder ein Lehrstuhl, eine bestimmte Bibliothek oder gar eine Einzelperson Ihrer Wahl, deren Unterstützung Ihnen besonders am Herzen liegt – den Abonnentenkreis bestimmen Sie selbst. Aber natürlich können Sie auch gerne ein allgemeines Abonnement übernehmen, - das Ihnen Jung-Forscher und solche, die es werden wollen, mit Sicherheit danken werden.

Auf dem Titel: Ihr Logo

Unterstreichen Sie Ihr Engagement mit Ihrem Logo auf der Titelseite: gegen einen geringen Aufpreis präsentieren Sie so Ihr Unternehmen oder Ihre Einrichtung deutlich sichtbar auf optimale Weise.

Ihr Ansprechpartner:

Herr Dirk Sandvohs Tel: 02 11 - 38 54 89-12 E-Mail: d.sandvohs@verlagjungewissenschaft.de

Antwort-Fax an (02 11) 38 54 89 Ja, ich engagiere mich als Pate und fördere den wissenschaftlichen Nachwuchs mit ____ (Anzahl) Patenschaftsabonnement(s) zum Preis pro Abonnement von 30,00 EUR (zzgl. gesetzl. USt. und 6,50 EUR Versandkosten) für vier Ausgaben pro Bezugsjahr und Adressat. Ja, ich möchte zusätzlich zu dem einzelnen Patenschaftsabonnements als Sponsor auf dem Titel, zu einem geringen Mehraufwand von 2,50 EUR pro Titellogo, vertreten sein. (zzgl. gesetzl. USt.) Ja, ich stelle Ihnen die Adressaten per gesonderte Auflistung schriftlich zu diesem Auftrag zu. Hiermit bestelle ich verbindlich Unternehmen/Hochschule Ansprechpartner

Position

Straße, Hausnr.

PLZ/Ort

Telefon

E-Mail

Die Mindest-Abonnementsdauer beträgt 1 Jahr. Sollte das Patenschaftsabonnement nicht 6 Wochen vor Ablauf der Mindest-Abonnementsdauer schriftlich (per Einschreiben/Rückschein) gekündigt werden, verlängert sich die Abonnementdauer erneut um 1 Jahr. Die Abonnementpreise sind nach Erhalt der Rechnung fällig und sofort zahlbar. Belegexemplar wird nach Erscheinen der jeweiligen Ausgabe automatisch zugestellt. Individuell gewünschte Schulansprachen sowie damit zusammenhängende Beratungsleistungen des Verlags Junge Wissenschaft Athanasios Roussidis werden nur gegen Aufpreis vorgenommen. Gerichtsstand ist Düsseldorf. Es ist ausschließlich deutsches Recht anwendbar.

Ort Datum

Stempel/Unterschrift


Lieber Herr Professor Dobrinski, Gratulation und höchste Anerkennung für über 20 Jahre „Junge Wissenschaft“ und zum verliehenen Kulturpreis 2007 der Eduard-Rhein-Stiftung! Weiterhin Kraft und Gesundheit für eine zukünftige gute und erfolgreiche Zusammenarbeit, wünscht Ihnen herzlichst, Athanasios Roussidis und das Team der Jungen Wissenschaft

… auf eine wissbegierige Zukunft!


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.