Bit
Dieser Artikel beschäftigt sich mit dem Bit als Informationseinheit. Für weitere Bedeutungen des Wortes Bit siehe Bit (Begriffsklärung)Das Bit ist die gebräuchliche Einheit der Information. Es ist ein Kurzwort aus binary digit, englisch für Binärziffer. Der Begriff wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943 vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt. Die Einheiten Nit oder Hartley als Maß für die Information finden dagegen selten Verwendung. Digit stammt aus dem lateinischen Digitus, was soviel wie Finger oder abzählbar heißt.
Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht einer einfachen Ja-Nein-Entscheidung, die man sich unter anderem auch durch
- die Stellung eines Schalters mit zwei Zuständen, zum Beispiel eines Lichtschalters mit den Stellungen EIN oder AUS
- den Schaltzustand eines Transistors, leitend oder nichtleitend
- das Vorhandensein einer Spannung, die größer oder kleiner als ein vorgegebener Grenzwert ist
- die Ziffern 0 und 1
- die logischen Wahrheitswerte Wahr oder Falsch, high oder low, H oder L
Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet, da ein Bit in der Anwendung von einem physikalischen Element, zum Beispiel dem erwähnten Transistor, dargestellt wird, welches einen bestimmten Zustand besitzt. Werden mehrere Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit vom Zustand jedes einzelnen Elements ab und es ergeben sich wiederum mehrere verschieden Zustände dieser Einheit.
Mit n Bits lassen sich 2n verschiedene Zustände darstellen, so ergeben beispielsweise 2 Bits 4 verschieden Zustände: 00, 01, 10 und 11
Weiter ergeben 4 Bits 16 mögliche Zustände, 8 Bits 256, und so weiter.
Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände. Repräsentieren diese Zustände ganze Zahlen, so ist ein Bit umso gewichtiger (fachsprachlich: höherwertiger), je weiter links es in der niedergeschriebenen Bitfolge steht (siehe auch Stellenwert).
Allgemein gilt in der digitalen Welt, dass es keine "unwichtigen" Bits gibt. Beispiele:
- zwei 64 Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt z. B. zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden, und das Programm nicht so geschrieben ist, dass es mit kleinen Unterschieden "intelligenter" umgehen kann.
- eine ausführbare Datei wird meist unbrauchbar, wenn auch nur ein Bit "kippt", wenn also aus einer 0 fälschlich eine 1 wird oder umgekehrt.
- Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
- Bitfehler auf Audio-CDs können toleriert werden und führen maximal zu Geräuschfehlern; auf Daten-CDs sind sie fatal, weshalb diese zusätzliche Fehler-Korrektur-Codes enthalten.
Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, wird damit begegnet, dass auf einigen Datenträgern und bei der Datenübertragung Informationen redundant gespeichert werden, so dass einzelne Fehler korrigiert werden können -- so ist z. B. auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code, einer Art Quer- oder auch Prüfsumme, abgespeichert, so dass beliebige 1 mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist.
Ein Nachteil dieser Speichermethode ist allerdings, dass etwas Speicherplatz verschwendet wird -- der Speicherplatz von CDs wäre ohne solche Maßnamen ca. 17% größer, Netzwerke 40% schneller, Mobiltelefone 200% leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ. Später kann der Empfänger anhand dieser gespeicherten und ebenfalls mitgeteilten Prüfsumme durch erneute Berechnung verifizieren, dass die Datei oder Nachricht nicht manipuliert oder durch einen Übertragungsfehler beschädigt wurde und gegebenenfalls die Originalinformation rekonstruieren oder eine teilweise Neuübermittlung anfordern.
Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits, so dass andere Einheiten üblich sind. Die nächst größere gebräuchliche Einheit ist das Byte von 8 Bit, gelegentlich auch als Oktett bezeichnet. Allgemein gebräuchlich sind das Byte und die Verwendung der SI - Vorsilben Kilo, Mega, Giga, Tera usw. um entsprechend große Informationsmengen und Adressräume zu bezeichnen. Teilweise wird hier nicht jeweils in Potenzen von 1000 (kilo), sondern in Potenzen von 210, also von 1024 (Kilo-binary, Vorzeichen Ki) gerechnet -- manchmal wird dieser geringe Unterschied aber nicht so genau genommen.
Ein Beispiel aus der Praxis:
Die Kapazität einer CD-ROM wird z. B. mit 640 MiB (Mega-Binary-Byte) angegeben. Das wären 640 × 1024 × 1024 × 8 = 5.368.709.120 Bit.
Tatsächlich wird auf der CD jedes einzelne Bit durch eine kleine, eingeprägte, oder mit einem Laser-Strahl eingebrannte, Vertiefung dargestellt. Das Nicht-Vorhandensein ("Land") oder Vorhandensein ("Pit") solcher Vertiefungen an bestimmten Stellen entspricht hier aber nicht den Bit-Informationen 0 und 1, sondern der Übergang von Pit zu Land kennzeichnet eine 1. Damit längere Folgen von Nullen hierbei keine Probleme machen, werden für ein Byte (8 Bits) auf einer CD 14 Bits tatsächlich aufgezeichnet.
Das Bit muss unterschieden werden vom Qubit, das in der Quanteninformationstheorie verwendet wird.