Auf vieles war die Besatzung der „USS Yorktown“ vorbereitet, nur nicht auf diesen Gegner. Die „Yorktown“, ein Lenkwaffenkreuzer der US-Marine, hatte schon libysche Kampfschiffe versenkt, mit sowjetischen Fregatten im Schwarzen Meer gerangelt und in der Karibik Drogenhändler aufgespürt. Aber am 21. September 1997 half alle Erfahrung nichts, nicht der schwere Panzerstahl, nicht die 400 Mann starke Besatzung, nicht die baumstammdicken Torpedos. Dabei war der Feind ziemlich winzig, genau genommen war er unendlich klein. Der Angriff kam von einer Null.
Im Quellcode einer neuen Software befand sich die Zahl Null an einer Stelle, wo sie nicht hingehörte. Es dauerte nicht lange, und einer der Bordcomputer versuchte, durch diese Null zu dividieren. Das aber ist nicht möglich. Der Computer bekam einen digitalen Schluckauf – und legte das ganze Schiff lahm. Knapp drei Stunden lang dümpelte die „USS Yorktown“ manövrierunfähig im Wasser, bis sie mit Notstrom in den Hafen einfuhr. Zwei Tage dauerte es, die Null aus dem Computer zu entfernen.
Die Null ist vermutlich die einzige Zahl, die es schafft, ein 170-Meter-Kampfschiff außer Gefecht zu setzen. Sie ist nicht nur die verheerendste aller Zahlen, die wir kennen, sie ist auch die wichtigste. Und sie ist die jüngste. Mit den Fingern zählten die Menschen ja schon in der Steinzeit. Die Null aber musste erst erfunden werden.
Die Maya kannten das Konzept der Null in ihrem Zahlenkalender. Eine Null als Ziffer, als eine Art Platzhalter, verwendeten auch die Babylonier. Doch es war wohl ein Mensch im alten Ägypten, dem zum ersten Mal aufging, wie sinnvoll es doch wäre, dem Nichts einen Namen zu geben – es berechenbar zu machen und damit auch zu bändigen. Auf einer Hieroglyphen-Inschrift wird die Null erstmals als Zahl mit eigenem Wert verwendet. Aber wie es so ist in der menschlichen Geschichte: Das Weltwissen wird nicht immer größer, zuweilen geht auch etwas verloren.
Das Reich am Nil brach in sich zusammen, das Reich am Tiber stieg auf. Die Römer konnten zwar Straßen bauen, Wein keltern und fast einen ganzen Kontinent erobern. Aber Mathe war nicht ihre Stärke. Jahrhundertelang rechnete man in Europa mit römischen Ziffern, mehr schlecht als recht. Denn die Römer kannten keine Null – weil sie sie nicht brauchten. Sie führten einfach keine komplexen Rechenoperationen aus. Entsprechend kompliziert sah ihr Zahlensystem aus: Um 78 mit 24 zu multiplizieren, schrieben die Römer: LXXVIII mal XXIV. Jeden einzelnen Zahlwert mussten sie addieren – und mit sieben Zeichen mehr herumhantieren als wir heute. Wer mal versucht hat, mit römischen Zahlen zu multiplizieren, der bekommt eine Ahnung davon, warum das Großreich untergegangen sein könnte.
Die Null hätte ihnen das sogenannte Stellenwertsystem ermöglicht. Je nachdem, wo sich die Ziffer in einer Zahl befindet, ändert sich ihr Wert. 302 ist etwas anderes als 320. In einem Fall steht die 2 für 2, im anderen Fall für 20. Nur mit einem solchen System inklusive der Null lässt sich platzsparend rechnen.
Wo heute die Null steht, war in ihrem Kopf: nichts
Ohne Null waren in der Antike auch andere Probleme nicht zu lösen. Der Philosoph Zenon von Elea ersann im 5. Jahrhundert vor Christus ein Paradox: Er ließ eine Schildkröte gegen Achilles um die Wette rennen, den schnellsten aller Läufer. Die Schildkröte erhielt ein wenig Vorsprung. Zenon behauptete nun, rechnerisch gesehen könne Achilles die Schildkröte nie erreichen. Denn Achilles läuft zwar schnell wie ein Pfeil, aber in der Zeit, die Achilles für die Strecke bis zur Schildkröte braucht, kann sie ein winziges Stück weiterlaufen. Auch diese Strecke holt Achilles wieder ein, aber so schnell er sie auch aufholt, die Schildkröte rückt währenddessen wieder ein Stück nach vorne. Der Abstand wird zwar immer kleiner, aber erreichen kann Achilles sie nie. Oder doch?
Intuitiv war Zenon und seinen Mitgriechen schon klar, wer den Lauf gewinnt. Doch mathematisch konnten die Griechen das Rätsel nicht lösen. Ihnen fehlte das Verständnis dafür, dass sich der Abstand zwischen den beiden dem Wert null nicht nur nähert, sondern ihn auch erreicht – er wird unendlich klein und damit: null. Wo heute bei uns die Null steht, war in ihrem Kopf: nichts. Erst 2.000 Jahre später ließ sich dieses Paradoxon auflösen.
Null und unendlich sind wie zwei Pole desselben Gedankens. Aber Unendlichkeit und das Nichts waren Begriffe, die man im späteren christlichen Abendland argwöhnisch betrachtete. Nach Auffassung der Kirche herrschte über die Welt der Eine, nämlich Gott. Jenseits dessen gab es nichts. Den Begriff der Unendlichkeit, wie ihn die Null auch verkörpert, empfand man als gotteslästerlich, Gleiches galt für das Nichts. Denn wo das Nichts ist, da ist auch Gott nicht.
Und so muss man, will man die Ursprünge der modernen Null finden, weiter nach Osten blicken, genauer: nach Indien. Für Hindus war die Leere nichts Bedrohliches, im Gegenteil. Die Welt, so glauben sie, ist aus dem Nichts entstanden. Der Gott Shiva gilt sogar als Gott des Nichts. Mathematisch gesprochen glaubt man in Indien eher an die Null als an die Eins.
Islamische Gelehrte importierten dann im 9. Jahrhundert die Null in den arabischen Raum. Das indische Wort „sunya“ für „nichts“ übersetzten sie mit dem arabischen Begriff „sifr“. Daraus entstand wiederum das deutsche „Ziffer“.
Der italienische Mathematiker Leonardo da Pisa, genannt Fibonacci, führte die Null erst im Jahr 1202 in Italien ein. Von hier aus revolutionierte die Null nicht nur die Mathematik. In vielen modernen Wissenschaften markieren Begriffe mit „Null-“ eine Grenze. Der „absolute Nullpunkt“ bei –273,15 Kelvin etwa ist eine Temperatur, die nirgendwo im Universum unterschritten wird. Der Nullmeridian bestimmt das Datum und die Uhrzeit. In der digitalen Welt schließlich, in der Binärsprache, steht 0 für „Stromkreis unterbrochen“. Für die „USS Yorktown“ galt das ziemlich wörtlich.
Wann immer es in seinem Mathe-Leistungskurs Noten gab, stand bei unserem Autor Jan Ludwig die Null oft an der falschen Stelle, nämlich vorne. Leider war die andere Ziffer meist kaum größer.