Drum prüfe, was sich ewig bindet

Diese Weisheit über die Eheschließung scheint aus einer anderen Zeit zu sein. Sie hat den Beigeschmack eines Handelsgeschäfts, bei dem Umtausch ausgeschlossen ist und das deshalb gründlicher Prüfung bedarf. Heute lässt man, zumindest in unserer Gesellschaft, nur die Liebe als Grund für eine Heirat gelten. Sie ist die natürliche Art der Gattenfindung, was nicht zwangsläufig besagt, dass sie auch die vernünftigste ist. Nüchtern betrachtet, sprechen wir von Liebe, wenn bei zwei Menschen gleichzeitig die Hormone verrückt spielen und die Beteiligten zur Vereinigung drängen. Das bleibt häufig nicht ohne Folgen, so dass die Verpflichtung entsteht, für die sich einstellenden Nachkommen zu sorgen. Irgendwann ist dieser in der Natur der Sache liegende Zweck erfüllt. Die Partner können nun, aus Gewohnheit oder weil sie sich gut verstehen, zusammenbleiben, sie können aber auch ein neues Abenteuer beginnen, einer neuen Liebe eine Chance geben.

Mit den chemischen Elementen ist das nicht viel anders. Die 94 natürlichen Elemente gehen die unterschiedlichsten mehr oder weniger zeitweiligen Verbindungen ein. Schuld daran sind vor allem die Elektronen, die das jeweilige Atom umtriebig machen. Allerdings sind auch in diesem Punkt nicht alle Atome gleich. Es gibt Phlegmatiker, wie die Edelgase, und wilde Teufel, wie Magnesium und Kalzium, die sich sehr schnell in die Arme anderer Elemente werfen. Aber der Reihe nach. Die erste Frage ist, wie aus der relativ kleinen Zahl von natürlichen Atomvarianten die riesige Vielfalt von Stoffen, von denen immerhin etwa 20 Millionen bekannt sind, entstehen konnte. Die Antwort muss in der Struktur der Atome zu suchen sein. Auf der einen Seite ist diese durch ein Gleichgewicht der Kräfte, der Kräfte der Anziehung und des Auseinandertreibens, gekennzeichnet. Diese Kräfte verleihen dem Atom sowohl Stabilität als auch Dynamik. Die Stabilität des Atoms ist jedoch relativ, da seine jeweils äußeren Elektronen gefährdet sind. Das gilt insbesondere dann, wenn deren Bewegungsraum nicht die optimale Anzahl von Elektronen versammelt. Trifft ein Atom, das aus diesem Grunde dazu neigt, ein äußeres Elektron abzugeben, auf ein Atom, das dringend ein weiteres Elektron für seine Stabilität sucht, dann kann es gut sein, dass diese Atome eine Partnerschaft eingehen. Diese Partnerschaften können unterschiedlich gestaltet sein. Sie lassen sie jedoch in drei vorherrschende Formen zusammenfassen:

  1. die Atombindung, bei der einzelne Elektronen von mehreren Atomen gemeinsam genutzt werden,
  2. die Ionenbindung, bei der ein Atom ein oder mehrere Elektronen komplett an ein anderes Atom abgibt und
  3. die Metallbindung, bei der sich viele gleichartige Atome mit einer gemeinsamen Wolke aus Elektronen umgeben.

Zum wohl einfachsten Fall einer atomaren Bindung kommt es, wenn sich zwei Wasserstoffatome paaren. Sie nähern sich einander an, bis sie einen Punkt erreichen, da Anziehungs- und Abstoßungskräfte im Gleichgewicht sind. An diesem Punkt bilden die beiden Elektronen eine gemeinsame Hülle um den Doppelkern, der damit einen stabilen Zustand erreicht. Partnerschaften von Atomen, die gemeinsame Elektronen nutzen, nennt man Moleküle. Moleküle werden nicht nur von gleichartigen Atomen gebildet, die große Mehrheit von ihnen geht aus der Verkupplung unterschiedlicher Partner hervor, so dass eine große Vielfalt chemischer Verbindungen ensteht.

Eine andere Form der Partnerschaft, vielleicht sollte man an dieser Stelle besser sagen „einer Schicksalsgemeinschaft“,  ist die Ionenbindung. Auf der einen Seite nimmt das eine Atom, zum Beispiel ein Chloratom, einem anderen Atom, zum Beispiel einem Natrium-Atom, ein Elektron ab. Beiden geht es besser, da sie eine höhere Stabilität erreichen. Dafür zahlen sie auf der anderen Seite einen hohen Preis, denn sie müssen nun beieinander bleiben. Allein sind sie nicht mehr komplett. Sie organisieren sich deshalb in einer größeren Struktur, in unserem Fall in einem Salzkristall. Solche auf Ionenbindung basierenden Kristallstrukturen sind weit verbreitet. Der größte Teil der Gesteine weist eine Kristallstruktur auf.

Die dritte Form der Bindung ist die Metallbindung. Metalle sind meist hart und dennoch biegsam. Darüber hinaus sind sie gute Leiter von Energie. Diese Eigenschaften resultieren nicht zuletzt daraus, dass Metallatome bereit sind, ihre Elektronen ziehen zu lassen. Wenn diese Atome mit Artgenossen zusammenkommen, dann entsteht eine Wolke sich relativ frei zwischen den Atomkernen bewegender Elektronen. Die Kerne und die Elektronenwolke bilden auf diese Weise ein Ganzes, das jedoch nicht starr und spröde wie ein Kristallgitter ist, sondern verschiebbar, flexibel und damit formbar. Die relativ freie Beweglichkeit der Elektronen begünstigt auch die Aufnahme und Weiterleitung von Energie.

Kommen wir noch einmal auf den Anfang zurück. Es sind zwei Gleichgewichte, die das Atom und seine Bindungen bestimmen. Zum einen muss ein Gleichgewicht von Struktur und Bewegung, von Masse und Energie erreicht werden. Deshalb muss die Anzahl der Protonen und der Elektronen in der jeweiligen Struktur übereinstimmen. Das Wechselspiel von Kräften der Anziehung und der Abstoßung bewirkt zum anderen, dass in jedem Bewegungsraum nur eine begrenzte Anzahl von Elektronen Platz findet. Ist diese Grenze erreicht, hat dieser Bewegungsraum gleichzeitig seine größte energetische Stabilität erhalten. Weitere Elektronen müssten einen anderen, weiter außen liegenden Bewegungsraum nutzen. In diesem weiter außen liegenden Bewegungsraum sind jedoch die vom Kern ausgehenden Anziehungskräfte geringer. Deshalb sind es diese Elektronen, die am ehesten auf Einflüsse von Dritten reagieren. Für diesen äußeren Bewegungsraum gilt allerdings ebenso, dass er eine optimale Besetzung mit Elektronen anstrebt, um die Stabilität der Struktur zu vergrößern. Wird zum Beispiel im Rahmen einer Ionenbindung ein Elektron abgezogen, um dem Atom eine höhere Stabilität zu verschaffen, dann entstehen bei den beteligten Atomen gleichzeitig Ungleichgewichte im Verhältnis von Protonen und Elektronen. Diese Defizite respektive Überschüsse können innerhalb eines Kristalls, das heißt innerhalb der übergeordneten Struktur, ausgeglichen werden. Ähnliches gilt für die andere, durch Atombindung oder Metallbindung entstandene atomare Partnerschaften. Wie in einer guten Ehe halt.

Partnerschaften sind ansich schon kompliziert genug, trotzdem tauchen immer noch Dritte auf, die sich einmischen und mit ihrer Energie alles durcheinanderbringen. Das ist bei den Elementen nicht anders als im wirklichen Leben. Den Energiehalt der Stoffe geben wir häufig als Temperatur an. Die Temperatur eines Stoffes zeigt an, mit welcher Intensität sich die Atome und Moleküle in ihm bewegen. In einem Kristallgitter sind die Räume eng bemessen. Jedes Teilchen hat seinen festen Platz, an dem es ein wenig zittern oder ähnliches vollführen kann. Viel Spielraum haben sie nicht, weshalb diese Stoffe, Eis zum Beispiel, eine feste Konsistenz und eine niedrig Temperatur aufweisen. Die Energie der Teilchen reicht einfach nicht aus, um die Anziehungskräfte, die das Gitter formiert haben, zu überwinden. Was passiert, wenn man der Struktur von außen Energie zuführt? Die Bewegung der Teilchen wird heftiger, bis sie irgendwann das Gitter sprengen. Die feste Form ist dahin, die Temperatur des Stoffes steigt. Unser Eis wird zu Wasser. Das Wasser ist aber noch immer ein Verbund. Die Moleküle sind zwar beweglicher, aber sie bleiben zusammen. Wird immer weiter Energie zugegeben, dann werden die Anziehungskräfte vollends überwunden und die ehemaligen Partner verflüchtigen sich. Aus dem Wasser wird Dampf, der schnell das Weite sucht. Wieviel Energie erforderlich ist, um eine Partnerschaft zu sprengen, ist von Stoff zu Stoff unterschiedlich.

Natürlich kann auch der umgekehrte Fall eintreten. Wenn unser Wasserdampf eine kalte Glasscheibe berührt wird ihm augenblicklich Energie entzogen und er setzt sich als Wassertröpfchen auf der Scheibe ab. Ist es richtig kalt, entsteht sogar eine mehr oder weniger dünne Eisschicht. Die Wassermoleküle haben sich wieder in die relativ starre Kristallstruktur begeben, nicht freiwillig, wie man nun weiß.

Neben der Temperatur, die uns einen Hinweis auf den Energiegehalt der Stoffe liefert, existiert noch ein weiterer Aspekt, der den Punkt, an dem die Stoffe erstarren oder zu sieden beginnen, beeinflusst – der von außen wirkende Druck. Die meisten wissen vielleicht, dass auf dem Mount Everest Wasser bereits bei weniger als 100° Celsius siedet, da der Luftdruck geringer ist als auf Höhe des Meeresspiegels. Das heißt, die Wassermoleküle brauchen eine geringere Energiezufuhr, um die Kraft, die sie zusammenhält, zu überwinden. Diese Kraft setzt sich demnach aus der inneren Anziehungskraft, die auf dem Mount Everest keine andere ist als an der Nordseeküste, und den äußeren Kräften, die auf den Erhalt der Bindung hinwirken, hier dem Luftdruck, zusammen. Nimmt dieser äußere Druck ab, wird die Summe der Kräfte, die den Verbund zusammenhält, geringer, so dass weniger Energie für die Sprengung der Struktur erforderlich ist.

vgl. auch: GEO kompakt Nr. 31

Bild: visiantis.com

zuletzt geändert: 31.05.2019

Strukturen und Bewegungen

Alles, was wir mit unseren Sinnen wahrnehmen, kann man mit den Begriffen Strukturen, Bewegungen und Kräfte zusammenfassen. Strukturen sind die Grundlage für Masse, Bewegung ist die Erscheinungsform von Energie. Masse und Energie beziehen sich im weitesten Sinn auf Stoffe, also Dingen, die man wahrnehmen kann. Im Gegensatz dazu erkennt man Kräfte nur an ihren Wirkungen. Ferdinand meinte, dass wir uns als nächstes mit den Strukturen und ihren Bewegungen beschäftigen sollten, bevor wir das Unsichtbare zu deuten versuchen.

Purzelbaum, Ordnung!

In einem alten Märchenfilm über Schneewittchen und die 7 Zwerge sind die Zwerge wie Geschwister charakterisiert, mit der üblichen Gruppenstruktur. Der Älteste gibt den Ton an. Er ist der gesetzte, seriöse, der sagt, was zu tun ist. Der Jüngste mit Namen Purzelbaum ist der Spaßmacher, der immer Schabernack im Sinn hat und der deshalb öfter ermahnt werden muss. Er ist der chaotische Faktor, der die Handlung vorantreibt. Damit das Ganze nicht aus dem Ruder läuft, ertönt des öfteren der Ruf des Ältesten: Purzelbaum, Ordnung! Warum ich das erzähle? Nun, es kam mir in den Sinn, als ich über das Bestreben der Menschen nachdachte, in der scheinbar so chaotischen Natur eine innere Ordnung zu finden.

Vieles, was unser Denken heute ausmacht, hat seine Wurzeln bei den alten Griechen.Sie stellten unter anderem vielfältige Überlegungen zu den Grundbausteinen der Welt, zu dessen innerer Ordnung an. So entstand die weit verbreitete Vorstellung, dass die grundlegenden Elemente Feuer, Wasser, Luft und Erde seien. Aus den verschiedenen Kombinationen dieser Elemente und deren Wechselwirkungen sei die Vielfalt der Welt entstanden. Ein Konzept der natürlichen Bedingtheit der Welt war aber nicht allen geheuer, denn wo war dann der Platz der Götter. Für sie stand fest, dass die Götter die Natur erschaffen hatten. Damit war aber die Frage nach dem Aufbau der Welt noch nicht geklärt. Manche Philosophen vertraten die Ansicht, dass alles und jedes aus kleinen Bauteilen zusammengesetzt sei, die ein Abbild des Ganzen, dem sie zugehörten, seien, nur eben kleiner. Demnach würden Steine aus kleineren Steinen bestehen und Pferde halt aus pferdchenartigen Bauteilen. Demokrit ging einen anderen Weg. Sein Atomkonzept brach mit den bisherigen Überlegungen, die ausschließlich auf dem basierten, was sich wahrnehmen ließ und die die Bausteine deshalb nur als Miniaturen des Ganzen begreifen konnten. Er ging davon aus, dass die Welt aus Atomen besteht, die außer Größe, Gewicht und Form keine Eigenschaften besaßen. Die Vielfalt der Welt entstand demnach aus unterschiedlichen Kombinationen dieser einheitlich verfassten Bausteine.

Diese Theorie sollte sich als hellsichtige Spekulation erweisen. Sie ist zudem zutiefst dialektisch, denn die ganze Vielgestaltigkeit der Welt wird auf Grundbausteine zurückgeführt, die sich nur in wenigem unterscheiden. Daraus erwuchs aber die Frage, wie diese Vielgestaltigkeit aus den einfachen Bausteinen entstehen konnte und ob es eine irgendwie geartete Ordnung in dieser Vielfalt gab.

Antoine de Lavoisier verröffentlichte 1789 eine Liste von 33 einfachen Stoffen, die sich nicht durch chemische Experimente in weitere Substanzen aufspalten ließen. Sie konnten also keine Gemische von irgendetwas darstellen. Es mussten die natürlichen Grundbausteine, die tatsächlichen Elemente dieser Welt sein. Darunter waren Wasserstoff und Sauerstoff, genauso wie Schwefel, Zink, Gold oder Platin. Allerdings fehlte noch immer ein Ordnungsprinzip für diese Elemente. Demokrit hatte die These formuliert, dass sich die Atome in ihrem Gewicht unterscheiden, was ein möglicher Ansatz für ein Ordnungsprinzip sein konnte. Es war John Dalton, ein Engländer, der 1803 als erster Ergebnisse einer experimentellen Ermittlung von Atomgewichten veröffentlichte. Wenn seine Verfahren auch nicht frei von Fehlern waren, so ergaben seine Messungen und Berechnungen doch vergleichbare Größen für Atomgewichte und damit einen Anhaltspunkt, um Ordnung in die Vielfalt der Elemente zu bringen.

Die entstandene Reihung der Elemente nach dem Gewicht ließ aber noch keine Rückschlüsse hinsichtlich ihrer chemischen Eigenschaften zu. Der Russe Dimitrij Mendelejew erschuf ein System, in dem alle bekannten Elemente nach ihren Eigenschaften in Reihen und Spalten geordnet waren. Mit seinem System, das die Elemente einerseits nach ihrem Atomgewicht ordnete und andererseits nach ihren Eigenschaften, stellte er eine wiederkehrende Periodizität von Eigenschaften fest. Auf dieser Basis konnte er erklären, dass an einigen Stellen seines Systems noch freie Plätze bleiben mussten, Plätze für Elemente, deren Gewicht und Eigenschaften er vorhersagen konnte, die aber schlicht noch nicht entdeckt waren. Und, diese Elemente wurden entdeckt.

Allerdings war damit noch immer nicht der Zusammenhang zwischen dem Atomgewicht und den Eigenschaften der Atome geklärt. Dazu waren eine Reihe weiterer Schritte erforderlich. Sie führten zu einer Vorstellung vom Atom, die über das Gewicht hinausging. Statt Größe und Form, wie Demokrit dachte, lag der Schlüssel zum Verständnis des Atoms in seinem Aufbau. Die Physiker waren gefragt. Mit der Entwicklung eines modernen Atommodells, das maßgeblich vom dänischen Physiker Nils Bohr geprägt wurde, gelang es, solche Erklärungen zu liefern. Nils Bohr ging davon aus, dass Elektronen auf mehreren Ebenen um den Atomkern kreisen. Elemente, auf deren äußerer Hülle sich jeweils nur ein Elektron bewegt, werden sich wegen dieser gemeinsamen Besonderheit auch ähnlich verhalten. Elemente mit zwei Elektronen auf der äußeren Hülle würden gleichfalls ähnliche Eigenschaften ausweisen und so weiter. Das Periodensystem der Elemente spiegelt also letztlich Ähnlichkeiten im Atomaufbau wider. Es sind demnach zwei Faktoren, die die Eigenschaften der Elemente und damit die Vielfalt der Welt bestimmen – die Größe des Atomkerns, mithin seine Masse sowie die energetische Verfasstheit des Atoms, die sich in der Bewegung der Elektronen widerspiegelt. Wenn man so will, Struktur und Bewegung auf atomarer Ebene.

Quelle: GEO kompakt Nr. 31, Martin Paetsch, Der Herr der Elemente, S.67-78

Bild: maerchen-filme.de

zuletzt geändert: 01.02.2019

Unscharfe Messungen

Mit dem Messen ist das manchmal eigenartig. Eine der berühmtesten Messungen in der Geschichte der Physik war „unscharf“. Heisenberg stellte fest, dass man die Position und die Geschwindigkeit eines Teilchens, eines Elektrons nämlich, nicht gleichzeitig genau bestimmen kann. Für seine Messungen hatte sich angeboten, die Teilchen mit Licht zu bestrahlen. Einige der Lichtstrahlen würden durch die Teilchen gestreut, so dass man ihre Position erkennen konnte. Doch Licht bewegt sich zyklisch, so dass die Genauigkeit, mit der sich die Position eines Teilchens bestimmen lässt, durch die Frequenz des jeweiligen Lichts begrenzt ist. Um die Messgenauigkeit zu erhöhen, muss man Licht mit hoher Frequenz einsetzen. Je höher die Frequenz der Strahlung ist, desto höher ist jedoch auch ihr Energiegehalt. Die Energie, mit der das Licht auf das Teilchen trifft, beeinflusst wiederum die Energie, das heißt die Bewegung des Teilchens selbst. Sie wird verändert. Wollte man also die Geschwindigkeit des Teilchens genau messen, dann brauchte man dazu eine möglichst energiearme Strahlung, das heißt Licht mit niedriger Frequenz.

Da haben wir es – ein klassisches Dilemma: Für die genaue Messung der Position braucht man energiereiche Strahlung und für die Messung der Geschwindigkeit energiearme. Wenn man beides gleichzeitig messen will, steht man vor einem unlösbaren Problem. Kann man den Feind nicht besiegen, muss man ihn zum Verbündeten machen. Heisenberg verpackte sein Dilemma in mathematische Konstrukte, um mit ihnen das Verhältnis beider Unschärfen zu bestimmen. Mit seiner Unschärferelation ging er in die Geschichte der Physik ein. Es blieb jedoch die Frage, ob es sich bei der Unschärfe um die Begrenztheit der Messmöglichkeiten handelt oder ob die Natur selbst „unscharf“ sei. Die Tatsache, dass sich die Position und die Geschwindigkeit eines Teilchens relativ genau bestimmen lassen, nur eben nicht gleichzeitig für das selbe Teilchen, legt die Vermutung nahe, dass das Dilemma der Unschärfe aus der Begrenztheit der Messmöglichkeiten resultiert. Jedenfalls war Einstein dieser Meinung, hier allerdings im Gegensatz zu vielen seiner Kollegen.

Tatsächlich haben wir es mit einem grundsätzlichen Problem aller Messungen in Grenzbereichen zu tun. Für eine Messung brauchen wir neben dem Maßstab immer auch ein Messverfahren beziehungsweise ein Messinstrument. Dieses Instrument muss in seinen Eigenschaften etwas weiter gehen, eine größere Bandbreite abdecken, als das zu Messende selbst. Zum Beispiel muss ein Thermometer, um Temperaturen von minus 40 Grad Celsius messen zu können, selbst in der Lage sein, in diesem Temperaturbereich vorherbestimmbar zu reagieren. Schlicht gesagt, muss seine Skala mindestens minus 41 Grad zulassen. Würde es bei minus 40 Grad Celsius enden, wüssten wir nicht, ob beim Erreichen des Endpunktes der Skala dieser Wert das Messergebnis ist oder ob nicht ein anderes Ergebnis angezeigt würde, wenn es denn möglich wäre. An dieser Stelle drängt sich die Frage auf, wie man eigentlich Temperaturen nahe dem absoluten Nullpunkt misst. Eine direkte Messung ist nicht möglich, da das Messinstrument in der Lage sein müsste, den absoluten Nullpunkt anzuzeigen, um ein zweifelsfreies Ergebnis zu erzielen. Da es keinem Stoff der Natur möglich ist, eine Temperatur von 0 Grad Kelvin anzunehmen, kann es kein Messinstrument geben, das diese Forderung erfüllt. Für Messungen im Bereich des absoluten Nullpunkts muss man daher physikalische Analogien heranziehen und Berechnungen durchführen. Dabei muss man eventuelle zusätzliche Fehlerquellen in Kauf nehmen.

Wie misst man eigentlich die Lichtgeschwindigkeit? Für eine direkte Messung würde man wiederum ein Messinstrument benötigen, dass das Licht überholen kann. Es würde mit dem Licht starten und vor dem Licht an einem Messpunkt eintreffen. Dabei legte es exakt die gleiche Strecke wie das Licht bei durchgängig identischen äußeren Bedingungen zurück. Da die Geschwindigkeit des Messinstruments dokumentierbar ist, könnte die Geschwindigkeit des Lichts im Vergleich zum Messinstrument mit hoher Genauigkeit ermittelt werden. Ein solches Instrument steht jedoch nicht zur Verfügung, da die Lichtgeschwindigkeit nicht übertroffen werden kann. Zur Bestimmung der Lichtgeschwindigkeit bleiben auch hier nur Analogien und Berechnungen mit den ihnen immanenten möglichen Fehlern. Das Heisenbergsche Problem ist, so gesehen, nicht grundlegend von den Problemen des Messens im Bereich des absoluten Nullpunkts oder der Bestimmung der Lichtgeschwindigkeit verschieden. Eine direkte Messung ist in Grenzbereichen nicht möglich und jede indirekte Messung ist mit Ungenauigkeiten, mit einer „Unschärfe“ behaftet. Das Verdienst Heisenbergs besteht vor allem darin, diese Unschärfe für sein Gebiet quantifiziert zu haben.

Wenn ich mir das so richtig überlege, dann sind nicht nur die Messungen in Grenzbereichen mit Fehlern behaftet, sondern alle Messungen. Fehler können aus der Ungenauigkeit des Messverfahrens oder aus Abweichungen im verwendeten Maßstab resultieren. Zudem sind die Umstände der Messungen nie absolut identisch, was die Vergleichbarkeit der Ergebnisse beeinträchtigt. Außerdem kann man nicht verhindern, dass sich diese Umstände auch während des Messvorganges verändern. Selbst wenn die Abweichungen minnimal sein sollten, so sind sie doch Fehlerquellen. Man muss sich also bei jeder Messung darüber im Klaren sein, dass sie Ungenauigkeiten beinhaltet. Im Alltag ist das meist nicht von Belang. Wenn ich einen Zollstock zur Hand nehme, werde ich kein Messergebnis mit einer Genauigkeit von 0,01 Millimeter erwarten. Deshalb ist es in diesem Fall auch unwichtig, dass bei Zimmertemperatur, also nicht bei 0°C, wie für den Urmeter vorgesehen, gemessen wurde. Womöglich war der Zollstock nicht einmal völlig gerade aufgeklappt. Trotz dieser und anderer Fehler genügt die erreichte Genauigkeit, um den Tisch zu vermessen, damit eine passende Decke ausgewählt werden kann.

Bei anderen Messungen, die eine deutlich höhere Genauigkeit verlangen, ist es erforderlich, möglichst viele Fehlerquellen auszuschließen oder deren Einfluss zu minimieren. Gleichzeitig sollten alle erkannten Fehlerquellen dokumentiert werden. Wenn man die mögliche Größe der Fehler quantifizieren kann, dann ist es durchaus sinnvoll, den Messergebnissen eine Wahrscheinlichkeit in Bezug auf ihre Genauigkeit zuzuordnen. Diese Wahrscheinlichkeit, das heißt den Grad der Genauigkeit, kann man unter Umständen steigern und schrittweise einer absoluten Genauigkeit annähern, ohne dass diese jemals erreicht würde. Die Dezimalzahlen spiegeln diesen Zusammenhang eindrucksvoll wider. Man kann ihnen unendlich viele Stellen nach dem Komma anfügen und damit jede gewünschte Genauigkeit ausdrücken. Mit der Unendlichkeit der anfügbaren Stellen machen sie gleichzeitig deutlich, dass eine absolute Genauigkeit nicht erreichbar ist.

Nehmen wir ein anderes Beispiel. Die Zahl Pi hat man auf unvorstellbar viele Stellen nach dem Komma berechnet, ohne dass die Rechenoperation zu einem Ende gekommen wäre. Das heißt, die Genauigkeit der Berechnung von Pi ließe sich weiter steigern, ohne die Zahl abschließend bestimmen zu können. Mit anderen Worten, niemand kennt die genaue Größe von Pi. Trotzdem ist unstrittig, dass diese Zahl einen tatsächlichen Zusammenhang widerspiegelt, denn dieser ist durch unzählige praktische Anwendungen belegt. Mathematiker haben ohnehin kein Problem damit. Für sie ist das Umgehen mit absoluten und relativen Bestimmtheiten nichts Besonderes. Sie haben zum Beispiel Methoden entwickelt, mit denen sich Grenzwerte in der Unendlichkeit, also in einer nicht bezifferbaren Dimension, ermitteln lassen. Trotzdem wird die praktische Relevanz dieser Berechnungen von niemanden in Frage gestellt. Der Fakt, dass man mit den zur Verfügung stehenden Methoden eine Größe nicht mit letzter Genauigkeit bestimmen kann, ist also kein hinreichender Grund dafür, deren Existenz zu verneinen.

Im Zusammenhang mit der Unschärferelation ist noch ein weiterer Aspekt von Bedeutung. Heisenberg hatte mit Elektronen gearbeitet, die als Teilchen galten. Man ordnete ihnen eine Masse zu. Max Planck hatte wiederum dargelegt, dass Licht und andere energetische Strahlung nicht in beliebig kleinen Portionen abgegeben wird. Es gibt einen Grenzwert, ein jeweils kleinstes Quantum, mit der sich Energie ausbreitet. Die Größe dieses kleinsten Quantums ist proportional zur Frequenz der jeweiligen Strahlung. Außerdem stellte man fest, dass die Quanten ganz verblüffende Eigenschaften haben mussten. Sie schienen Wanderer zwischen einer Welt der Teilchen und einer Welt der elektromagnetischen Wellen zu sein, waren sie doch zu jedem beliebigen Moment scheinbar in beiden Welten zu Hause. Das galt auch für die Elektronen. Schon deshalb mussten sie sich, so die These, einer genauen Bestimmung entziehen. Auf der einen Seite war da also ein Messproblem. Was man auch anstellte, man konnte ein Elektron nicht gleichzeitig genau in Ort und Zeit bestimmen. Auf der anderen Seite gab es diesen nicht recht erklärlichen Dualismus, der bewirkte, dass das Elektron scheinbar gleichzeitig als Welle und als Teilchen agierte. Die Schnittmenge beider Probleme führte zur Schlussfolgerung, dass das Elektron nicht bestimmbar sei, weil es selbst in Ort und Zeit unbestimmt ist. Dieses unbestimmte Teilchen würde erst durch die Messung einzelner seiner Aspekte eine Bestimmung, eine bestimmte Existenz erhalten.

Das ursprüngliche Messproblem wird auf diese Weise zum Naturphänomen. Mehr noch, der Messende avanciert zum Schöpfer, denn nur durch seine Messung erhält das Teilchen seine Bestimmtheit. Mit diesem Ansatz werden allerdings weder die Grenzen der Messgenauigkeit noch das Wesen der energetischen Strahlung wirklich erklärt. Die offenen Fragen werden lediglich ins Reich des Unbestimmbaren verschoben, was Einstein zu der Bemerkung provozierte: „Gott würfelt nicht“, mithin die Welt muss eindeutig sein.

Bild: fotocommunity.de

zuletzt geändert: 30.05.2019

Massen

Wie ist das nun mit der Masse? Die kann man doch sicher eindeutig messen, oder? Wieder scheint es recht einfach zu sein.Es gibt einen gültigen Maßstab, das Urkilogramm. Als Messinstrument nutzt man eine Waage. Waagen gibt es in verschiedenen Ausführungen. Eine sehr einfache Variante ist die Balkenwaage. Das zu wiegende Objekt wird in der einen Schale platziert, in die andere Schale legt man Wägestücke, solange bis die Waage ausbalanciert. Die Gewichte der Wägestücke waren vorher mit Bezug auf das Urkilogramm bestimmt worden. Nun kann man die Gewichte der Wägestücke addieren und erhält das Gewicht des zu bestimmenden Objekts. Hierbei wird eindrucksvoll klar, dass das Wiegen respektive Messen im Kern ein Vergleichen ist, im konkreten Fall das Vergleichen des zu wiegenden Objekts mit dem Gewicht der Wägestücke.

Wer in Physik aufgepasst hat, wird vielleicht einwenden, dass Masse und Gewicht nicht dasselbe sind. Für die alltäglichen Messungen auf Erden kann der Unterschied zwischen Masse und Gewicht meist vernachlässigt werden, ansonsten hat diese Unterscheidung aber einen ernstzunehmenden Hintergrund. Das Gewicht wird der Masse durch die Schwerkraft verliehen. Die Schwerkraft ist jedoch nicht überall gleich. Wir bräuchten nur mal kurz auf den Mond zu fliegen, um festzustellen, dass unser Kilogramm nun kein Kilogramm mehr wiegt. Allerdings wird uns für eine solche Feststellung die Balkenwaage nicht weiterhelfen, da die Wägestücke auch an Gewicht verloren haben. Was für ein Dilemma! Im neuen Bezugssystem auf dem Mond entspricht unser Kilogramm wieder einem Kilogramm an Wägestücken! Kann das richtig sein?

Wie kann man überhaupt feststellen, ob unser Kilogramm auf dem Mond leichter ist als auf der Erde? Genau genommen gar nicht. Das neue Bezugssystem der Messung ist jetzt der Mond mit der auf ihm wirkenden Schwerkraft. Da messen vergleichen bedeutet und wir nur Objekte vergleichen können, die zum selben Bezugssystem gehören, könnten wir Unterschiede zu anderen Bezugssystemen zwar ermitteln, es wären aber nicht im eigentlich Sinne Messungen. Wir lassen trotzdem nicht locker. Wir wollen unbedingt das Kilogramm auf der Erde mit dem Kilogramm auf dem Mond vergleichen. Da man keine Waage bauen kann, deren eine Schale auf dem Mond platziert ist und die andere auf der Erde, muss ein anderer Weg gefunden werden. Man könnte eine andere Waage, eine Federwaage zum Beispiel, zur Hand nehmen. Benutzt man den gleichen Versuchsaufbau auf der Erde und auf dem Mond, dann wird die Federwaage auf dem Mond für das zu messende Objekt einen geringeren Wert anzeigen als auf der Erde. Na also, geht doch! Nur, was haben wir eigentlich verglichen? Wir haben die Schwerkraft auf der Erde mit der Schwerkraft auf dem Mond verglichen und nicht die Gewichte zweier Objekte im gleichen Bezugssystem, wie es für eine Messung verlangt wird.

Bisher haben wir die Massen anhand ihrer Gewichte unterschieden. Was machen wir aber, wenn Massen dort verglichen werden sollen, wo keine Gravitationskräfte wirken? Die Balkenwaage wird uns nicht weiterhelfen, die Wägestücke flögen einfach davon. Eine Federwaage wäre ohne Gravitationskraft, mithin ohne Gewicht der Massestücke, ebenfalls nicht von Nutzen. Eine Größe hätten wir noch, die auf Massen auch ohne Gravitationskraft Einfluss nehmen kann – Energie. Wirkt Energie auf eine Masse, dann wird sie in Bewegung gesetzt, zumindest wenn die Energiemenge ausreichend groß ist, um die Trägheit der Masse zu überwinden. Bei gleicher eingesetzter Energiemenge werden unterschiedlich große Massen unterschiedlich beschleunigt. Damit ergibt sich eine Möglichkeit, unterschiedlich große Massen zueinander ins Verhältnis zu setzen, das heißt, sie zu messen.

Experimente haben bestätigt, dass die „schwere“ Masse und die „träge“ Masse gleich groß sind. Das heißt, die auf die eine oder die andere Weise ermittelten Relationen der Massen zueinander sind identisch. Es wäre auch verwunderlich, wenn sie je nach Art der Messung unterschiedlich ausfallen würden. Die Unterschiede zwischen träger und schwerer Masse liegen in den Messbedingungen beziehungsweise im Messverfahren begründet und nicht in der Natur der Sache selbst. Die Messung einer schweren Masse verlangt ein Bezugssystem, in dem Gravitationskräfte wirken. Die Gravitationskräfte müssen auf alle zu messenden Massen in gleicher Stärke wirken, ihnen in gleicher Weise „Schwere“ verleihen, damit ein genaues Ergebnis erzielt werden kann. Die Messung einer trägen Masse setzt wiederum die Einwirkung gleicher Energiemengen auf die zu vergleichenden Massen voraus, da diese dann unterschiedlich in Bewegung gesetzt werden. Ganz egal, wie wir das Messen der Massen anstellen, ob unter Mitwirkung der Schwerkraft oder mittels Energieübertragung, es muss gesichert sein, dass das Messen, das heißt das Vergleichen in einem gleichbleibenden Bezugssystem vorgenommen wird. Die erhaltenen Ergebnisse sind selbstverständlich relative Größen, das heißt auf einen Maßstab bezogen. Diesen Maßstab könnte man ändern, das hätte jedoch keinen Einfluss auf die ermittelten Relationen zwischen den verglichenen Massen. Es würde sich nur deren Bezeichnungen ändern.

Nun wissen wir zwar, wie man Massen bestimmen kann, aber, was Masse eigentlich ist, bleibt ziemlich unklar. Tragen wir das Wenige, das wir bisher dazu wissen, zusammen. Masse ist ein „Etwas“, das unter Einwirkung von Schwerkraft „Schwere“, das heißt Gewicht erhält. Das Gewicht selbst ist jedoch keine Eigenschaft der Masse, es wird ihr durch die Schwerkraft verliehen. Außerdem ist Masse „träge“. Sie ändert ihre Bewegung nur dann, wenn ausreichend große Kräfte oder ein entsprechender Energieimpuls auf sie wirken. Außerdem hatten wir bei den Wahrnehmungen herausgearbeitet, dass man das, was außerhalb unseres Kopfes existiert, mit den Begriffen Strukturen, Bewegungen und Kräfte zusammenfassen kann. Massen sind weder Kräfte noch Bewegungen. Massen können folglich nur Strukturen sein, auf die wiederum Kräfte und Bewegungen, respektive Energie, einwirken. Man könnte also sagen, Masse besteht aus Strukturen und Strukturen haben die Eigenschaft, Masse zu sein.

Der Dialektik von Struktur und Bewegung beziehungsweise Masse und Energie widmet sich auch ein Abschnitt des zweiten Teils, auf den hier verwiesen werden soll.

Bild: kamelopedia.mormo.org

zuletzt geändert: 30.05.2019

Was ist da draußen?

Heute scheint die Sonne. Es ist hell, das Licht lässt die Farben erstrahlen und es wärmt meine Haut. Vögel singen. In der Luft ist ein Hauch von Lindenblüten. Man meint, Honig zu schmecken. Dazu tönt aus dem Radio leise Musik. Kann ein Morgen schöner sein? Nun noch einen Kaffee und ein frisches Brötchen und der Morgen wäre perfekt. Aber was von alldem ist real? Das Brötchen und der Kaffee, die Vögel und das Radio auch. Natürlich auch die Sonne, die Lindenblüten und die Luft. Hingegen, dass dieser Morgen hell ist, die Farben erstrahlen und die Haut von der Sonne gewärmt wird, das ist Fiktion. Es ist die Übersetzung unseres Gehirns für die Tatsache, dass uns gerade energiereiche Sonnenstrahlung erreicht. Die Strahlung selbst ist weder hell noch dunkel oder gar farbig und warm. Auch Schwingungen der Luft sind noch lange keine Töne. Sie sind lediglich Ausdruck für die Ausbreitung von Energie. Damit aus den Luftwellen, die unser kleiner Vogel erzeugt, Töne werden, braucht es ein Sinnesorgan, das die Luftschwingungen registriert, elektrische Impulse erzeugt und an das Gehirn weiterleitet. Das Gehirn, der große Kapellmeister, lässt daraus Musik oder eben Vogelgezwitscher entstehen. Ähnliches gilt für den Geruch der Lindenpollen. Dass sie scheinbar riechen oder gar schmecken, ist eine Hilfe, eine Krücke, die uns das Gehirn an die Hand gibt, damit wir uns in unserer Umwelt zurechtfinden und nicht elend verhungern.

Alles, was schön ist, aber auch alles, was uns ärgert oder gar wehtut, hat seinen Ursprung im Gehirn, diesem kleinen Tyrannen. Es dient dazu, dass dieser große Körper Mensch, den das Gehirn nunmal zum eigenen Überleben braucht, auch das tut, was ihm, dem Gehirn, am besten bekommt. Gott-sei-Dank, ist dieses Beste für das Gehirn auch meist das Beste für den Körper. Dies gilt allerdings nicht zwangsläufig, wie man aus der Kulturgeschichte des Alkohols oder anderer Drogen ablesen kann. Das Gehirn mag den Rausch, auch wenn die Leber Schaden nimmt.

Wenn also alles, was das Leben schön und aufregend, ja lohnend macht, über das Gehirn vermittelt wird, was ist dann da draußen, außerhalb unseres Kopfes? Was ist wirklich in unserer Welt? Dazu sollten wir uns noch einmal anschauen, was die Sinnesorgane registrieren, bevor die Informationen in Wahrnehmungen umgewandelt werden. Das Sehen von Licht und Farben, wie auch die wohltuende Wärme der Sonne basiert auf der Registrierung ihrer energetischen Strahlung, die wiederum durch die Bewegung der Photonen bestimmt ist. Die Reaktion der Haut auf die Temperatur der Luft basiert im Kern auf der Abgabe beziehungswise Aufnahme von Energie. Das Hören beruht auf der Wahrnehmung von Schwingungen der Luft, die ihrerseits Ausdruck von deren Energiegehalt sind. Im Gegensatz dazu basieren das Schmecken und das Riechen auf dem Erkennen von materiellen Strukturen, denn die Moleküle, die sich an diese Sinneszellen anlagern, haben einen für den jeweiligen Stoff charakteristischen Aufbau. Man kann die Sinneszellen der Nase und des Mundes vielleicht mit Schlössern vergleichen, in die jeweils nur ein bestimmter Schlüssel oder eine Gruppe von Schlüsseln respektive Molekülstrukturen passt. Wenn ein bestimmtes Schloss einen Eindringling meldet, dann ist klar, welcher Stoff der Übeltäter oder auch Wohltäter gewesen sein muss.

Kehren wir noch einmal kurz zum Sehen zurück. Man sieht nicht nur hell und dunkel sowie Farben, sondern auch Linien, Formen und räumliche Strukturen, ebenso wie Bewegungen in ihnen. Die sind tatsächlich vorhanden. Mag sein, dass auch beim Erkennen von Linien, Formen und Strukturen das Gehirn hilfreich zur Seite steht, zum Beispiel, indem Konturen verstärkt oder Formen durch den Abgleich mit Erfahrungen identifiziert werden. Trotzdem bleibt, dass Linien, Formen und Strukturen sowie Bewegungen darin tatsächlich in der Umwelt vorhanden sind, sonst würden wir uns auch nicht in ihr zurechtfinden. Dann kennen wir noch das Druckempfinden der Haut, das eine Reaktion auf Kräfte darstellt, die auf diese wirken. Der Gleichgewichtssinn und das Registrieren von oben und unter, hängen wiederum mit der Schwerkraft der Erde zusammen.

Wenn wir das, was unsere Sinnesorgane, registrieren, zusammenfassen, dann sind das

  • die Strahlung der Sonne, deren Wirkung aus der Bewegung der Photonen resultiert
  • der Energiegehalt der Luft, der sich in der Bewegungsintensität ihrer Bestandteile ausdrückt
  • mikroskopisch kleine Strukturen in Form von Atomen und Molekülen
  • Räume, die durch Linien, Formen, Abstände und andere Strukturelemente bestimmt werden
  • Bewegungen in diesen Räumen sowie
  • Kräfte, die auf uns und alles, was uns umgibt, wirken.

Das „da draußen“ besteht also summa summarum aus

Strukturen, Bewegungen und Kräften.

Es sei wieder auf den zweiten Teil verwiesen, wo das Verhältnis von objektiver Realität und subjektiver Wahrnehmung noch einmal näher beleuchtet wird.

Bild: Der Denker aus geo.de

 zuletzt geändert: 25.05.2019