Grundlagenkrise der Analysis

Newton und Leibniz erfanden etwa zeitgleich die Infinitesimalrechnung, die später auch Analysis genannt wurde. Newton verstand die Differentiation dynamisch, d.h. als Ortsveränderung in der Zeit, und nannte sie „Fluxionsrechnung“.

Um seine Überlegungen klar zu machen, stellen wir uns die Bewegung eines Teilchens in der Ebene vor, sagen wir entlang einer Parabel:

Newton geht von einer vollkommen stetig „fließenden“ Ortsveränderung aus. Ferner nahm er an, dass es eine unendlich kleine Zeiteinheit gibt, die er „o“ (wie den Buchstaben) nennt. An einem bestimmten Punkt A hat das Teilchen eine Bewegungskomponente entlang der x-Achse, die Newton mit  notiert, und eine Bewegungskomponente entlang der y-Achse, die er mit  notiert. Dabei soll es sich um die Bewegungsmomente handeln, die das Teilchen im Punkt A in der unendlich kleinen Zeiteinheit o gerade hat. Newton nennt sie auch „Fluxionen“ oder „Fluenten“.

Newton verstand alle Grundbegriffe seiner Fluxionsrechnung physikalisch, d.h. so, dass sie Bestandteile der realen, materiellen Welt sind. Es soll sich also nicht um eine abstrakte, mathematische Theorie handeln, sondern um eine Art mathematische Realwissenschaft. Meiner Auffassung nach ist das ein weiterer Beleg für Newtons mathematisierte Auffassung der Natur.

Leibniz interpretierte seine Differentialrechnung geometrisch. Bei ihm ging es um die Figur einer gekrümmten Linie in der Ebene, für die man an einem bestimmten Punkt die Tangente bestimmen will. Aber auch dies sollte eine Realwissenschaft sein, wie man besonders gut an Eulers Darstellung an seiner Grundlegung der Differentialrechnung von 1755 (E212) erkennen kann. Dort schreibt er im dritten Kapitel über das Unendliche und das unendlich Kleine. Zunächst argumentiert er rein mathematisch, dass „jede Größe ins Unendliche vermehrt werden kann“. Man würde das heute so ausdrücken: Zu jeder reellen Zahl x findet man eine weitere reelle Zahl y mit x<y. Danach behauptet Euler, dass das Unendliche auch in der realen Welt vorkommt. Und zwar indem „die Materie ins Unendliche teilbar ist“ (§ 75), was er über einige Paragraphen hinweg ausführlich diskutiert. Aus moderner Sicht erscheint es befremdlich, dass sich Euler in einem rein mathematischen Buch über Differentialrechnung so intensiv mit der Frage nach der atomaren Struktur der realen Wirklichkeit beschäftigt. Es zeigt aber, dass Euler die Mathematik noch nicht so abstrakt auffasste, wie wir es heute tun, sondern dass er offenbar die Mathematik für ein Mittel hielt, um die innerste Struktur der Wirklichkeit a priori zu erkennen. Die Mathematik hatte bei ihm einen unmittelbaren Realitätsbezug.

Ich zeige nun, wie Newton seine Fluxionsrechnung praktisch verwendet hat. Bekanntlich ist für die Funktion f(x) = x² die erste Ableitung f'(x) = 2x. Wie ist Newton zu diesem Ergebnis gekommen? Zunächst muss man sehen, dass Newton noch nicht den Begriff einer mathematischen Funktion kannte. Stattdessen drückte er den zugehörigen Graphen durch folgende Gleichung aus:

\( x^2 – y = 0  \)  (*)

Nun ist o die unendlich kleine Zeiteinheit, so dass auch  eine unendlich kleine Wegstrecke ist, die das oben genannte Teilchen entlang der x-Achse zurücklegt. Entsprechendes gilt für . Was aber unendlich klein ist, kann man wie die Null selbst behandeln. Somit ist

\( x=x+0 = x + o \dot{x} \)  und \( y=y+0 = y + o \dot{y} \)

Setzt man dies in die Gleichung (*) ein, dann ergibt sich:

\( (x + o \dot{x})^2 – (y + o \dot{y})= 0 \)

Folglich:

\( x^2 + 2xo \dot{x} + (o \dot{x})^2 – y – o \dot{y}= 0 \)

\( (x^2 – y) + (2xo \dot{x} + (o \dot{x})^2 – o \dot{y})= 0 \)

Und wegen (*) kann man diese Gleichung abkürzen auf:

\( 2xo \dot{x} + (o \dot{x})^2 – o \dot{y}= 0 \)

Nun weiß man, dass \( (o \dot{x}) \) eine unendlich kleine Wegstrecke ist, also im Prinzip gleich Null, somit kann man diesen Term in der Gleichung auch weglassen, so dass gilt:

\( 2xo \dot{x}  – o \dot{y}= 0 \)

Nun meint Newton, dass es erlaubt ist, diese Gleichung durch 0 zu dividieren, obwohl dies ja eigentlich in der Mathematik strengstens verboten ist. Newton macht es aber dennoch und erhält:

\( 2x \dot{x}  – \dot{y}= 0 \)

Durch leichte Umformungen erhält man nun:

\( 2x =  \frac{\dot{y}}{\dot{x}}  = \frac{dy}{dx} = f'(x) \)

Newton kommt auf diese Weise tatsächlich zum richtigen Ergebnis. Dennoch hat diese Rechnung etwas von einem Zaubertrick. Man versteht nicht ganz, was hier geschieht. Er hantiert mit unendlich kleinen Größen, die irgendwie verschieden voneinander sind, irgendwie aber auch alle gleich Null sind und dividiert unbedenklich durch Null. Recht besehen ist dies alles mehr als fraglich.

Trotzdem war der Erfolg dieser Methode beachtlich. In der Physik und bei technischen Problemen war sie sehr hilfreich. Sie führte auch schnell zu weiteren mathematische Disziplinen, wie den Differentialgleichungen, der sog. Variationsrechnung, den sog. Taylor-Reihen und den sog. Fourier-Reihen. Schade war nur, dass sich das Mysterium um das „unendlich Kleine“, mit dem man jetzt rechnete, nicht verschwinden wollte. Das Rechnen mit ihm funktionierte zwar fast immer, aber es blieb dennoch rätselhaft und führte hin und wieder zu paradoxen Unsauberkeiten.

Die Situation war gewissermaßen umgekehrt zu der mit den komplexen Zahlen. Für das „unendlich Kleine“ hatte man eine intuitive, geometrische bzw. physikalische Vorstellung, aber keine saubere logisch-begriffliche Definition. Für die imaginäre Zahl i hatte man eine präzise Definition durch die Gleichung i²=-1, aber bis 1811 keine geometrisch-anschauliche Vorstellung. Kaum jemand hätte damals wohl gedacht, dass die Zukunft der Mathematik in logisch korrekten, aber unanschaulichen Definitionen liegen würde.

In jedem Fall empfanden es die Mathematiker als untragbar, dass die Grundbegriffe der Analysis bislang so wenig verstanden wurden. Deswegen schrieben 1782 die Göttinger Akademie und 1784 die Berliner Akademie Preisgelder dafür aus, die Mängel bei den infinitesimalen Methoden zu beseitigen und der Differenzialrechnung eine korrekte theoretische Grundlage zu geben, um wieder eine strenge Beweisführung zu ermöglichen. Im Begleittext zum Berliner Preisausschreiben beispielsweise heißt es[1]:

„Die höhere Geometrie benutzt häufig unendlich große und unendlich kleine Größen; jedoch haben die alten Gelehrten das Unendliche sorgfältig vermieden, und einige berühmte Analysten unserer Zeit bekennen, dass die Wörter unendliche Größe widerspruchsvoll sind. Die Akademie verlangt also, dass man erkläre, wie aus einer widersprechenden Annahme so viele richtige Sätze entstanden sind, und dass man einen sicheren und klaren Grundbegriff angebe, welcher das Unendliche ersetzen dürfe […].“

Übrigens war nicht nur das „unendlich Kleine“ schwer korrekt zu bestimmen. Man tat sich auch schwer, den mathematischen Begriff der „Funktion“ als auch den der „Stetigkeit“ oder der „Differenzierbarkeit“ zu klären.

An dieser Stelle möchte ich kurz den Lösungsansatz von Lagrange schildern. Er legte in seiner Theorie der analytischen Funktionen (1797) fest, dass jede Funktion die folgende Form haben soll:

\( f(x) = a_0 + a_1 x+a_2x^2+ a_3x^3+ \ldots \)

All diese Funktionen sind stetig. Und für die Differenziation braucht man nun kein unendlich kleines „dx“ mehr, sondern definiert als sogenannte erste Ableitung einfach:

\( f'(x) =  a_1 +2a_2x+ 3a_3x^2+ \ldots \)

Auf diese Weise wurde Lagrange das „unendlich Kleine“ los, dafür blieb ihm aber das Unendliche in Form unendlicher Reihen. Unbefriedigend war sein Vorschlag aber vor allem deswegen, weil er eine große Anzahl denkbarer Funktionen ausschloss, eben solche Funktionen, die sich nicht als derartige unendliche Reihe darstellen lassen[2].

Zu Beginn des 19. Jahrhunderts wurden die Fragen rund um die Analysis immer drängender. Man hatte intuitive Vorstellungen davon, was es heißen soll, dass eine Funktion stetig oder differenzierbar ist oder was das „unendlich Kleine“ sein soll. Aber immer noch fehlten logisch zufriedenstellende, klare Definitionen. Der Mathematiker Abel drückte sich 1826 so aus[3]:

„Alle meine Kräfte möchte ich darauf verwenden, etwas mehr Licht in das ungeheure Dunkel zu bringen, das sich unbezweifelbar jetzt in der Analysis findet. […] Es gibt äußerst wenige Sätze in der höheren Analysis, die mit überzeugender Strenge bewiesen sind.“

Und 1816 kritisiert Bernhard Bolzano, dass der bislang geläufige Beweis des sog. Zwischenwertsatzes vor allem auf geometrischer Anschauung beruhen würde und gibt zu bedenken[4]:

„[…] dass die Beweise in der Wissenschaft keineswegs bloße Gewissmachungen, sondern vielmehr Begründungen, d.h. Darstellungen jenes objektiven Grundes, den die zu beweisende Wahrheit hat, sein soll.“

Licht ins infinitesimale Dunkel brachte schließlich Augustin-Louis Cauchy (1789-1857). Cauchy zeigte schon als Kind eine hohe mathematische Begabung. Er studierte Ingenieurskunst an der École polytechnique, die bekannt für ihren hohen mathematischen Standard ist. Als Ingenieur arbeitete er beim Bau des Hafens Port Napoléon in Cherbourg. Schließlich wurde er Professor an der École polytechnique. Er war wohl ein schwieriger Mensch und verstritt sich mit fast all seinen Kollegen. In ganz besonderem Maß engagierte er sich für die Lehre. Er war bekannt dafür, es sehr genau zu nehmen. Und vor allem in diesem Zusammenhang störte es ihn, dass die Analysis so schlecht begründet ist. Auf der Grundlage seiner Vorlesungen verfasste er sein Lehrbuch Cours d’analyse, das 1821 veröffentlicht wurde, mit dem erklärten Ziel logische Strenge in die Beweisführungen der Analysis zu bringen.

Im Cours d’analyse definiert Cauchy erstmals die Begriffe „Grenzwert“, „Konvergenz“, „Stetigkeit“ und „Differenzierbarkeit“ so, wie man es auch heute in der Mathematik üblich ist. Hier seine Definition des „unendlich Kleinen“[5]:

„Wenn die aufeinanderfolgenden numerischen Werte derselben Veränderlichen unbegrenzt abnehmen, so dass sie unter jede gegebene Zahl fallen, dann wird die Variable zu einer Infinitesimalen oder eine infinitesimale Größe. Eine Variable dieser Art hat den Grenzwert Null.“

Setzt man anstelle „jede gegebene Zahl“ den Ausdruck „jedes e>0“, dann hat man das aus der Schulzeit bekannte Epsilon-Kriterium. Auf der Basis seiner Grenzwerttheorie konnte Cauchy nun die Ableitung bzw. der Differentialquotient einer Funktion f an der Stelle x wie folgt definiert:

\( f'(x) = \frac{d}{dx} f(x) = \lim_{h\rightarrow 0}{\frac{f(x+h) – f(x)}{h}}  \)

Cauchys Definition eines Grenzwertes oder der Differenzierbarkeit sind Musterbeispiele für die sich herausbildende neue Mathematik. Diese Definitionen sind formal so präzise, dass sie für eine logisch-stringenten Beweisführung geeignet sind. Um das klar zu machen, stellen wir uns eine Funktion f vor, für die wir zeigen wollen, dass ihre die Ableitung f’ an der Stelle a gleich dem Wert b ist. Dazu nimmt man ein beliebig kleines \(\epsilon>0\) an und versucht ein h zu finden, so dass

\( \frac{f(a+h)- f(a)}{h} -b < \epsilon  \)

Wenn uns das gelingt, können wir nach Cauchys Definitionen sagen, dass der Grenzwert

\( \lim_{h\rightarrow 0}{\frac{f(a+h) – f(a)}{h}} = b \)

ist, und somit f'(a)=b.

Wie man sieht, spielt dabei eine physikalische oder geometrische Interpretation überhaupt keine Rolle. Stattdessen zeigt man f'(a)=b mit rein logisch-begrifflichen Mitteln, – ohne irgendeine Art von Anschauung zu benötigen. Und vielleicht noch wichtiger: ohne Bezug zur Realität. Cauchy bemüht nicht die Vorstellung von unendlich kleinen physikalische Bewegungsmomenten, wie es Newton tat, noch die Vorstellung von geometrischen Tangenten, wie es Leibniz tat, noch die Vorstellung unendlich teilbarer Materie, wie es Euler tat. Seine abstrakten Definitionen kann man selbstverständlich so interpretieren, aber sie sind zugleich so allgemein, dass man sie auf ganz andere Sachverhalte anwenden kann. Genau das machen die Mathematiker später z.B. in der sog. Funktionalanalysis, in der die Konvergenz für abstrakte Funktionsräume definiert wird.

Das heißt, Cauchys Definitionen sind Handlungsanweisungen für die Beweisführung. Sie sind das formale Grundgerüst, an dem sich jeder Beweis orientieren muss. Vergleichen wir diese Art des Definierens zum Beispiel mit Euklids Definition des Punktes:

„Ein Punkt ist etwas, das keine Teile hat.“

Das mag stimmen und kann uns eine Idee davon geben, was ein Punkt ist. Aber faktisch verwendet Euklid diese Definition in keinem einzigen seiner Beweise.

Die Definitionen Cauchys und überhaupt der neuen Mathematik, die ab dem 19. Jahrhundert entsteht, sind derart, dass sie eine strenge, formale Beweisführung unabhängig von Intuition, Anschauung oder Bezug zu einer angenommenen realen Struktur der Welt überhaupt erst ermöglichen. Der Anspruch an eine stringente Beweisführung ist nun so, dass jeder einzelne Schritt formal gerechtfertigt sein muss, entweder durch die Logik, durch einen bereits bewiesenen Satz oder durch eine formale Definition. Als schwerwiegender Verstoß gilt es hingegen, wenn man sich bei einem Beweisschritt auf die intuitive Anschauung beruft. Eine derartige unanschauliche, realitätsferne, dafür aber logisch Schritt für Schritt stringente Mathematik ist letztlich ein Operieren mit formalen Symbolen. Das kannte die klassische Geometrie nicht, wird aber geradezu zu einem Merkmal der neuen Mathematik.

In der Arithmetik und er Algebra arbeiteten die Mathematiker schon länger mit formalen Kalkülen. Formale Beweise bedeuten mehr logische Sicherheit und eine bessere Überprüfbarkeit, weil jeder kleinste Schritt regelbasiert und objektiv nachvollziehbar ist. Eine geometrische Einsicht hingegen ist ein subjektiver Geisesakt, den man selbst haben kann, aber bei anderen nicht erzwingen kann. Durch die genannte Entwicklung im 19. Jahrhundert wurde der mathematische Formalismus immer wichtiger. Nur mithilfe ausgefeilter formaler Sprachen gelingt es, in immer komplexere mathematische Sachgebiete und ungeahnte Geisteswelten vorzustoßen, die man mit den Mitteln der herkömmlichen Umgangssprache unmöglich ausdrücken kann. So wurde die Mathematik insgesamt formaler. Die Kehrseite ist freilich, dass sie für Laien immer mehr zu einem Buch mit sieben Siegeln wurde.

Es ist paradox. Kant hatte erst versucht, die Mathematik zu begründen, indem er der räumlichen Anschauung die Möglichkeit von synthetischen Erkenntnissen a priori zusprach. Auf der anderen Seite merkten die Mathematiker, dass die räumliche Anschauung ihnen zu ungenau ist und sie nicht selten in die Irre führt. Deswegen wendeten sie sich davon ab und strebten präzisere Formen der Beweisführung an. Letztlich tat der Mathematik dieser Wandel sehr gut, da dies erstens die Beweisführung stringenter machte und zweitens zu einer wahren Explosion mathematischen Wissens führte. Eine Folge war aber auch, dass der Bezug der Mathematik zur materiellen Realität nicht mehr selbstverständlich war, wie man beispielsweise an Dedekinds Konstruktion der reellen Zahlen sieht.

Aber was ist ein Cauchy’scher Grenzwert? Man könnte hier geneigt sein zu sagen: die Tangente an einer Kurve. Ja, das ist ein anschauliches Beispiel dafür. Tatsächlich ist Cauchys Grenzwertbegriff jedoch viel allgemeiner und abstrakter gefasst. Bezogen auf Cauchys Definitionen schreibt Stuloff, dass sich die Mathematik wesentlich geändert habe und setzt fort (S. 78):

„Es trat nämlich hier bei Cauchy u.a. der für die Mathematik des 19. Jahrhunderts so ungeheuer wichtige mathematische Existenzbegriff hervor. Gewiss gab es früher in der Antike – z.B. bei Euklid – Existenzaussagen und Beweise; auch in späterer Zeit, in der Renaissance und im Barock, waren diese meist implizit in der einen oder anderen Gesamtdarstellung enthalten. Den Existenzbeweis als ausdrückliches Instrument der mathematischen Forschung in expliziter Form sehen wir in der Neuzeit erst seit Beginn des 19. Jahrhunderts, mit Gauss und Cauchy, hervortreten.“

Man sieht, wie die neuere Mathematik zwar logisch-begrifflich klar wird, damit von dem bisher als selbstverständlich angenommenen Bezug zur empirischen Realität abgezogen wird und man so unversehens mit dem ontologischen Problem konfrontiert ist, inwiefern mathematische Gegenstände überhaupt existieren. Das sieht man auch sehr gut an der neuen Definition von Zahlen.

[1] Zitiert nach Wußing II, S. 233.

[2] Z.B. sogenannte Sägeblattkurven.

[3] Zitiert nach Wußing II, S. 236.

[4] Zitiert nach Wußing II, S. 254.

[5] Zitiert nach Sonar, S. 506.

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert