Wir rechnen im Alltag mit dem Dezimalsystem (lat. decimus, der Zehnte) und verwenden dabei die zehn Ziffern 0, 1, ... 9. Der Wert einer Ziffer in einer Zahl hängt von ihrer Stelle ab, die erste 3 in 373 hat z.B. einen anderen Wert als die zweite 3, nämlich dreihundert und nicht drei. Im Dezimalsystem entspricht jeder Stelle eine Potenz der Basis 10: 100=1, 101=10, 102=100 usw.
Nach dieser Art kann man auch Zahlensysteme erzeugen, die eine andere Basis besitzen als 10. Jede Stelle steht für ein Vielfaches der entsprechenden Potenz der Basis, und der Ziffernvorrat ist stets 0 bis Basis-1. Das System zur Basis 2 hat damit nur die beiden Ziffern 0 und 1. Da "0 und 1" auch für "ja oder nein" oder "an oder aus" oder "Strom oder nicht-Strom" stehen kann, ist dies das Zahlensystem, in denen eigentlich Computer "rechnen" und Daten speichern: Die kleinste Informationseinheit, das Bit, ist gerade die Information über die beiden Möglichkeiten 1 oder 0.
Ebenfalls in der Computertechnik gebräuchlich ist das Hexadezimalsystem, das
Zahlensystem mit der Basis 16. Da nur 10 Zahlenzeichen zur Verfügung stehen, verwendet
man die ersten sechs Buchstaben des Alphabets für die Zahlen 10 bis 15.
Die
Standardeinheit der Informationsgröße ist ein Byte, das sind
(In dezimaler Darstellung: 0, 1, 2, ... bis 255, im Binärsystem: 00000000, 00000001, 00000010, ... bis 11111111.)
Diese Einheit läßt sich mit dem 16er-System viel besser handhaben als mit dem Dezimalsystem,
denn 256 ist gerade 162. Somit entsprechen in einer Hexadezimalzahl immer
genau zwei Ziffern einem Byte.