Striche auf dem Bierdeckel sind tatsächlich ein eigenes Zahlensystem, aber interessanter sind natürlich die fortgeschritteneren Systeme – vor allem, wenn die 0 ins Spiel kommt.
Auch wenn viele Menschen gerne mit ihrer Unfähigkeit in Mathematik kokettieren, so können wir uns doch eine Welt ohne Zahlen nur schwer vorstellen. Wir zählen die Minuten, bis der Bus morgens kommt, beim Einkauf erst die Anzahl der Bierflaschen, die wir für eine Party brauchen, und dann unser Geld (ob es dafür reicht), wir zählen die Güterwaggons bei langen Zügen und die Tore im Fußball, und die Sitzplätze im Taxi, wenn wir gemeinsam nach Hause fahren wollen.
Die simpelste Methode des Zählens, die Bierdeckelstriche, eignen sich für alle diese Tätigkeiten nur sehr begrenzt. Hinzufügen geht einfach, abziehen hingegen nicht wirklich, und größere Zahlen werden schnell unübersichtlich. Da waren die römischen Zahlen, die uns ebenfalls noch gelegentlich im Alltag begegnen, schon eine Verbesserung. Die Doppelrolle bestimmter Ziffern als Zahlen und Buchstaben bietet bis heute reichlich Stoff für Verschwörungstheorien, Numerologische Spinnereien und andere Spielereien, wobei dem Durchschnittsbürger vermutlich vor allem die Zahlen von eins bis zehn von der Armbanduhr geläufig sind, während man bei Tafeln mit römischen Jahreszahlen immer erst mal rätseln muß und die Cs und Ms zusammenzählen.
Viele andere Systeme sind uns eher fremd, oder zumindest im Alltag wenig gebräuchlich, hybride Zahlensysteme zum Beispiel, oder Stellenwertsysteme, die uns oft relativ komplex und umständlich vorkommen. Dabei war die Idee, den ersten neun Zahlen jeweils eine eigene Ziffer zuzuweisen zur Zeit ihrer Entstehung wirklich revolutionär – und natürlich nicht von uns. Auch nicht von den Arabern, sondern eigentlich von den Indern. Andererseits sieht man durchaus noch die punktuelle Ähnlichkeit mit den heutigen arabischen Zahlenzeichen:
Ohne die Null jedoch wäre das tollste Zahlensystem nicht viel wert: ihre Doppelfunktion als “nichts” für sich allein, Verkleinerung mit Kommata in Dezimalzahlen und Verzehnfachung, falls nachfolgend zu anderen Ziffern – darauf mußte man erst mal kommen. Vorstufen gab es bereits in Babylonien und Ägypten, aber die damaligen Zahlensysteme waren so grundlegend anders, daß die Null keine große Relevanz hatte. Erst mit den neun Ziffern wurde sie unentbehrlich, wobei die frühesten (schriftlichen) Belege aus der Zeit um 600 nach Christus aus Asien (Kambodscha, und Sumatra) stammen.
Von dort faßten sie auch Fuß im türkisch-persisch-arabischen Raum, wo Mathematik und Astronomie mit großem Enthusiasmus betrieben wurden (der Begriff “Algebra” kommt von arabisch “al-gabr”, übersetzt in etwa “das Ergänzen” oder “Einrichten”), während das heutige “alte Europa” zu dieser Zeit nicht gerade ein großer Kulturträger war.
Erst mit dem reisenden Mathematiker Fibonacci fand die Null um 1200 ihren Weg zu uns, allerdings vorerst als Zeichen von minderer Bedeutung gegenüber den anderen, vollwertigen Zahlen. Überhaupt blieb die Null bis ins 16. Jahrhundert hinein vielen entbehrlich, aber je komplizierter die mathematischen Gedankengebäude wurden (zum Beispiel durch die Erfindung von Logarithmen durch Napier und Bürgi um 1600), desto weniger ging es ohne “nichts”. Dabei ist die Null immer noch eine besondere Zahl – mit das erste, was man bezüglich der Grundrechenarten lernt, ist, daß man nicht durch Null dividieren darf. Einmal verinnerlicht, hinterfragt man solche Regeln oft nicht mehr, aber es gibt auch einen guten Grund dafür: das sogenannte Permanenzprinzip.
Intuitiv sinnvoll wird die Regel, wenn man sich die Division als wiederholte Subtraktion vorstellt: Zieht man (beispielsweise) von 15 fünf ab, und noch einmal und noch einmal, bleibt nach drei Subtraktionen 0 übrig. Zieht man hingegen von einer Zahl nichts ab, kommt man zu keinem Ergebnis.
Alternativ kann man auch über die Multiplikation zur selben Schlußfolgerng gelangen: Wenn man a durch b teilen möchte (a:b=x), zum Beispiel 15:3=5, sucht man eine Lösung für die Gleichung b * x=a, also in konkreten Zahlen 3*5=15. Auf die Null übertragen, würde man jedoch eine Lösung für die Gleichung 0*x=a suchen – und das ist nicht lösbar. Für a=0 kann man jede beliebige Zahl einsetzen, für a ungleich null hingegen gibt es gar keine Lösung (denn 0*x muß immer gleich null sein).
Historisch hingegen gab es dazu andere Ansichten: Euler befand noch um 1700, daß 1:0 eine unendlich große Zahl ergebe, und 2:0 eine entsprechend doppelt so große, unendlich Zahl, wobei er sich in guter Gesellschaft mit einigen seiner Vorgänger in dieser Frage befand. Das Permanenzprinzip hingegen gebietet – sinngemäß, etwas verkürzt -, immer die einfachste mögliche Lösung zu wählen, und das ist eben, die Division durch Null zu verbieten.
Fibonacci entdeckte aber nicht nur die Null, sondern auch die sogenannten “Fibonacci-Zahlen”, die über Dan Brown sogar in die Unterhaltungsliteratur ihren Eingang gefunden haben. Dabei ist jede Zahl die Summe ihrer beide Vorgängerinnen in einer Folge (z.B. 3,5,8,13…). So eine Zahlenfolge könnte man für konstruiert halten, bzw. wenig erstaunlich – die Zahlen sind aber doch etwas besonderes. Ihr Quotient nähert sich dem goldenen Schnitt an, und viele Phänomene in der Natur setzen sich aus Fibonacci-Zaheln zusammen, wie zum Beispiel die Anordnung von Blütenblättern oder das Wachstum von Kaninchenpopulationen (angeblich – mir kommt die Annahmen über das Fortpflanzungsverhalten sonderbar vor, aber vielleicht ist das auch nur ein theoretisches Erklärungsmodell).
Im Vergleich zu der Komplexität von Fibonacci-Zahlen und gemessen an den Möglichkeiten der modernen Zahlensysteme und Algebra erscheint das Binäre Zahlensystem fast wie ein Rückschritt: alles in 0 und 1 auszudrücken, und damit zu rechnen ist einfach wenig alltagstauglich. Seine heutige Bedeutung hat das Dualsystem nur Dank unserer Technikversessenheit – erfunden haben es die Computernerds aber nicht. Bereits sehr früh gab es erste Ansätze und auch Leibniz hat sich intensiv damit beschäftigt.
Heute weiß fast jeder, daß Computer nur in 0en und 1en denken, daß jedes Kommando und jedes Wort sich aus Zahlenkolonnen zusammensetzen – aber das ist der Intuition ungefähr so fern, wie es vermutlich der Umstieg auf das Dezimalsystem für unsere Vorfahren vor über 1000 Jahren war. Eine Binärzahl auch nur umzurechnen in eine Dezimalzahl könnte ich – ich gestehe es – nicht freihändig. Dafür müsste ich schon im Internet nachschauen, und mit diesem Defizit bin ich vermutlich nicht alleine. Schon erstaunlich, daß wir uns in unzähligen Angelegenheiten auf Maschinen verlassen, deren simpleste Logikstufe die meisten Menschen schon nicht mehr verstehen.