Null (Zahl)
Anschaulich betrachtet stellt die Null das Nichtvorhandensein von Elementen oder Gegenständen dar. In vielen Kulturen des Altertums wurde mit der Null nicht gerechnet, da sie keine greifbare Größe darstellt. Im Lateinischen wurde anstatt einer Zahl Null das Wort "nihil" (= nichts) verwendet. Rechnen konnte man mit der Null seinerzeit nicht.Im arabischen Zahlensystem wird die Zahl Null durch die Ziffer 0 dargestellt.
Table of contents |
1.1 Addition
2 Literatur1.2 Multiplikation 1.3 Potenzrechnung 1.4 Division durch Null 1.5 Hilfsdefinitionen für die Division durch Null |
Die Null symbolisiert im mathematischen Sinne das neutrale Element der Addition in einem Monoid.
Es gilt für die Addition:
In Restklassenringen (aber nicht nur dort) existieren so genannte Nullteiler, zum Beispiel gilt im Restklassenring modulo 6 die Gleichung 2 · 3 = 0. Daraus folgt jedoch nicht, dass 0 / 2 = 3 ist, denn auch 2 · 0 = 0, man kann also diesen Quotienten nicht eindeutig (und damit sinnvoll) definieren. Man kann also nicht nur nicht durch Null teilen, sondern auch nicht durch einen Nullteiler dividieren.
Durch Einführung der Rechenoperation der Multiplikation, mathematisch formal in der Definition eines Ringes, erhält man folgende Regel:
Die Erweiterung der Rechenoperationen zur Potenzierung, formal in einem Körper definiert, erfordert, dass
Der unanschauliche Spezialfall
Ebenso lässt sich jedoch definieren, damit der Grenzübergang von für x gegen Null stetig ist.
Der Grenzwert von strebt für x gegen Null ebenfalls gegen 1.
Dadurch, dass die Null keine greifbare Größe darstellt, gibt es auch noch andere Probleme; teilt man eine beliebige Zahl durch Null, so ist das Ergebnis nicht eindeutig definierbar.
Allgemein kann die Division natürlicher Zahlen als wiederholte Subtraktion angesehen werden:
Da die Division durch Null nicht definiert ist, stellt sie in Berechnungen auf dem Computer einen Laufzeitfehler dar. Dieser führt zu Ausnahmebehandlungen oder sogar zu Programmabbrüchen, falls der Fehler nicht behandelt wird.
Eine Division durch Null ist oft der Fehler, der in Scheinbeweisen steckt, zum Beispiel beim Fehlschluss, dass 2=1 ist.
Es ist möglich, die reellen Zahlen um zwei Symbole ∞ und -∞ zu erweitern, so dass einige Rechenregeln auch für die beiden Unendlich-Symbole gelten, z.B. ist dann a / 0 = ∞ für positive a, b / 0 = -∞ für negative b, jedoch ist 0*∞ nicht a, sondern undefiniert, genauso wie auch 0 / 0 undefiniert bleibt.
Diese Herangehensweise entspricht der Verwendung bei der Berechnung von Grenzwerten in der reellen Analysis.
Demzufolge ist also die generelle Aussage "die Division durch 0 ist verboten" mathematisch nicht korrekt, sondern entsprechend dem besonderen Zusammenhang zu relativieren.
Siehe auch: Null (Ziffer), Null (EDV), Die Regel von de L'HospitalMathematische Betrachtung
Addition
Die Null im mathematischen Sinne (als neutrales Element eines Monoids) ist stets eindeutig.
In Restklassenkörpern und Restklassenringen gibt es zwar nur eine Null, die aber von unendlich vielen ganzen Zahlen repräsentiert wird.Multiplikation
Man sagt auch, die Null ist ein absorbierendes Element der Multiplikation.Potenzrechnung
immer gilt.
wird in der Regel per Definition festgelegt.
Man erreicht ihn z.B. aufgrund der Forderung, dass der Wert der Funktion an der Stelle stetig sein soll.Division durch Null
Bei 12:0 lautet die Frage: Wie oft muss ich 0 von 12 abziehen um 0 zu erhalten?
Antwort: Keine Anzahl von Operationen bringt das gewünschte Ergebnis.
Nota bene: In der Didaktik der Mathematik werden Verbote ("durch null darf man nicht dividieren") als schädlich angesehen, da der Gedankengang leicht herzuleiten ist, und den Schülern nicht ein Eindruck von Willkürlichkeit im Fach Mathematik vermittelt werden soll.
Besser ist es also, die Aussage "durch null kann man nicht dividieren" zu begründen.
In der reellen Analysis ist es nicht möglich, durch Null zu dividieren, da diese Operation kein eindeutiges Ergebnis hätte (entweder gar keins [z.B. für 1/0] oder mehrere [nur für 0/0]).
Dies gilt allgemein für jeden Ring.historische Irrtümer
Leonhard Euler argumentiert ohne die richtige Kenntnis der negativen Zahlen (historisch falsch) folgend:
Im gewissen Sinne hat Euler damit jedoch die Zweierkomplementdarstellung von ganzen Zahlen im Computer vorweggenommen, denn in dieser Darstellung sind die negativen Zahlen - aufgefasst als vorzeichenlose Binärzahl - tatsächlich größer als die positiven.Hilfsdefinitionen für die Division durch Null