Bit

Aus besserwiki.de

Das Bit ist die grundlegendste Informationseinheit in der Datenverarbeitung und der digitalen Kommunikation. Der Name ist ein Portmanteau von Binärziffer. Das Bit repräsentiert einen logischen Zustand mit einem von zwei möglichen Werten. Am häufigsten werden diese Werte als "1" oder "0" dargestellt, aber auch andere Darstellungen wie wahr/falsch, ja/nein, ein/aus oder +/- werden häufig verwendet.

Die Beziehung zwischen diesen Werten und den physikalischen Zuständen des zugrundeliegenden Speichers oder Geräts ist eine Frage der Konvention, und selbst innerhalb desselben Geräts oder Programms können unterschiedliche Zuordnungen verwendet werden. Physikalisch kann es mit einem Gerät mit zwei Zuständen implementiert werden.

Das Symbol für die Binärziffer ist entweder "bit", wie in der Norm IEC 80000-13:2008 empfohlen, oder das Kleinbuchstabenzeichen "b", wie in der Norm IEEE 1541-2002 empfohlen.

Eine zusammenhängende Gruppe von Binärziffern wird gemeinhin als Bitkette, Bitvektor oder ein eindimensionales (oder mehrdimensionales) Bitfeld bezeichnet. Eine Gruppe von acht Bits wird als ein Byte bezeichnet, wobei die Größe des Bytes historisch gesehen nicht genau definiert ist. Häufig bestehen halbe, ganze, doppelte und vierfache Wörter aus einer Anzahl von Bytes, die eine niedrige Potenz von zwei ist. Eine Folge von vier Bits ist ein Nibble.

In der Informationstheorie ist ein Bit die Informationsentropie einer binären Zufallsvariablen, die mit gleicher Wahrscheinlichkeit 0 oder 1 ist, oder die Information, die gewonnen wird, wenn der Wert einer solchen Variablen bekannt wird. Als Informationseinheit wird das Bit auch als Shannon bezeichnet, benannt nach Claude E. Shannon.

Der Begriff Bit (Kofferwort aus englisch binary digit) wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet:

  • als Maßeinheit für den Informationsgehalt (siehe auch Shannon, Nit, Ban). Dabei ist 1 Bit der Informationsgehalt, der in einer Auswahl aus zwei gleich wahrscheinlichen Möglichkeiten enthalten ist. Der Informationsgehalt kann ein beliebiger reeller, nicht negativer Wert sein.
  • als Maßeinheit für die Datenmenge digital repräsentierter (gespeicherter, übertragener) Daten. Die Datenmenge ist der maximale Informationsgehalt von Daten mit gleich großer Repräsentation. Das Maximum stellt sich ein, falls alle möglichen Zustände gleich wahrscheinlich sind. Das Maximum ist ein ganzzahliges Vielfaches von 1 Bit. Es ist die Anzahl der für die Darstellung verwendeten binären Elementarzustände.
  • als Bezeichnung für eine Stelle einer Binärzahl (üblicherweise mit den Ziffern „0“ und „1“) oder allgemeiner für eine bestimmte Stelle aus einer Gruppe binärer Stellen.

Geschichte

Die Codierung von Daten durch diskrete Bits wurde in den von Basile Bouchon und Jean-Baptiste Falcon (1732) erfundenen Lochkarten verwendet, von Joseph Marie Jacquard (1804) weiterentwickelt und später von Semyon Korsakov, Charles Babbage, Hermann Hollerith und frühen Computerherstellern wie IBM übernommen. Eine Variante dieser Idee war das perforierte Papierband. Bei all diesen Systemen trug das Medium (Karte oder Band) konzeptionell eine Reihe von Lochpositionen; jede Position konnte entweder durchgestanzt werden oder nicht und trug somit ein Bit an Information. Die Codierung von Text durch Bits wurde auch im Morsecode (1844) und in frühen digitalen Kommunikationsgeräten wie Fernschreibern und Börsentickern (1870) verwendet.

Ralph Hartley schlug 1928 die Verwendung eines logarithmischen Maßes für die Information vor. Claude E. Shannon verwendete das Wort "Bit" erstmals 1948 in seinem bahnbrechenden Werk "A Mathematical Theory of Communication". Er schrieb den Ursprung des Wortes John W. Tukey zu, der am 9. Januar 1947 ein Memo für die Bell Labs verfasst hatte, in dem er "binary information digit" einfach zu "bit" verkürzte. Vannevar Bush hatte 1936 von "Informationsbits" geschrieben, die auf den Lochkarten gespeichert werden konnten, die in den mechanischen Computern jener Zeit verwendet wurden. Der erste programmierbare Computer, der von Konrad Zuse gebaut wurde, verwendete die binäre Schreibweise für Zahlen.

Physikalische Darstellung

Anzahl
der Bits der Zustände
0 1
1 2
2 4
3 8
4 16
8 256
10 1024
12 4096
16 65.536
32 4.294.967.296
64 1,844674407×10¹⁹

Die kleinstmögliche Unterscheidung, die ein digitaltechnisches System treffen kann, ist die zwischen zwei Möglichkeiten, in der Informatik auch als Zustände bezeichnet. Ein Paar definierter Zustände, zum Beispiel

  • Ein oder Aus bei der Stellung eines Lichtschalters,
  • geringer Widerstand oder hoher Widerstand beim Schaltzustand eines Transistors,

repräsentiert ein Bit.

In der digitalen Schaltungstechnik werden Spannungspegel zur Darstellung verwendet, die innerhalb einer Bauart (Logikfamilie) in definierten Bereichen liegen, siehe Logikpegel. Liegt die Spannung im hohen Bereich, so liegt der Zustand H vor, im unteren Bereich L (von engl. high, low).

Symbolisch, unabhängig von der physischen Repräsentation, werden die zwei Zustände eines Bits notiert als

  • wahr bzw. falsch (bei einer booleschen Variablen) oder
  • 1 bzw. 0 (bei einer Binärstelle einer numerischen Variablen)

Die Zuordnung H1, L0 heißt positive Logik, die umgekehrte Zuordnung negative Logik.

Während bei der Verarbeitung von Daten die physische Repräsentation mit zwei Zuständen vorherrscht, verwenden manche Speichertechnologien mehrere Zustände pro Zelle. So kann eine Speicherzelle 3 Bit speichern, wenn 8 verschiedene Ladungszustände sicher unterschieden werden können, siehe Tabelle. Ähnlich werden bei vielen Funkstandards mehrere Bit je Symbol übertragen, siehe z. B. Quadraturamplitudenmodulation.

Umgekehrt können mit n Bits, unabhängig von ihrer physischen Repräsentation, 2n verschiedene logische Zustände kodiert werden, siehe Exponentialfunktion. Mit beispielsweise zwei Bits können 2² = 4 verschiedene Zustände repräsentiert werden, z. B. die Zahlen Null bis Drei als 00, 01, 10 und 11, siehe Binärzahl.

Ein Bit kann von einem digitalen Gerät oder einem anderen physikalischen System gespeichert werden, das in einem von zwei möglichen Zuständen existiert. Dabei kann es sich um die beiden stabilen Zustände eines Flipflops, zwei Positionen eines elektrischen Schalters, zwei unterschiedliche Spannungs- oder Strompegel in einem Schaltkreis, zwei unterschiedliche Lichtintensitäten, zwei Magnetisierungs- oder Polarisationsrichtungen, die Ausrichtung von reversibler doppelsträngiger DNA usw. handeln.

Bits können in verschiedenen Formen implementiert werden. In den meisten modernen Computergeräten wird ein Bit in der Regel durch einen elektrischen Spannungs- oder Stromimpuls oder durch den elektrischen Zustand einer Flip-Flop-Schaltung dargestellt.

Bei Geräten, die mit positiver Logik arbeiten, wird ein Zahlenwert von 1 (oder ein logischer Wert von wahr) durch eine positivere Spannung im Vergleich zur Darstellung von 0 dargestellt. Die spezifischen Spannungen sind für verschiedene Logikfamilien unterschiedlich und Abweichungen sind zulässig, um die Alterung der Komponenten und die Störfestigkeit zu berücksichtigen. In der Transistor-Transistor-Logik (TTL) und kompatiblen Schaltungen werden beispielsweise die Ziffernwerte 0 und 1 am Ausgang eines Geräts durch nicht mehr als 0,4 Volt bzw. nicht weniger als 2,6 Volt dargestellt, während TTL-Eingänge so spezifiziert sind, dass 0,8 Volt oder weniger als 0 und 2,2 Volt oder mehr als 1 erkannt werden.

Das Quantenbit (kurz Qubit genannt) bildet in der Quanteninformationstheorie die Grundlage für Quantencomputer und die Quantenkryptografie. Das Qubit spielt dabei analog die Rolle zum klassischen Bit bei herkömmlichen Computern: Es dient als kleinstmögliche Speichereinheit und definiert gleichzeitig als Zweizustands-Quantensystem ein Maß für die Quanteninformation. Hierbei bezieht sich „Zweizustand“ nicht auf die Zahl der Zustände, sondern auf genau zwei verschiedene Zustände, die bei einer Messung sicher unterschieden werden können.

Übertragung und Verarbeitung

Wenn sich einzelne Bits aufgrund einer Störung bei der Übertragung oder in einem Speicher ändern, spricht man von einem Bitfehler. Ein Maß dafür, wie häufig bzw. wahrscheinlich Bitfehler auftreten ist die Bitfehlerhäufigkeit.

Es gibt Verfahren, die bei der Übertragung und Speicherung von Daten derartige Fehler erkennen und in gewissen Grenzen selbst korrigieren können, siehe Kanalkodierung. Im Allgemeinen erzeugen sie dazu gerade so viel Redundanz in der Information, wie für den Sicherheitsgewinn nötig ist.

Speicherung

In den ersten nicht-elektronischen Geräten zur Informationsverarbeitung, wie Jacquards Webstuhl oder Babbages Analytical Engine, wurde ein Bit oft als Position eines mechanischen Hebels oder Zahnrads oder als das Vorhandensein oder Fehlen eines Lochs an einer bestimmten Stelle einer Papierkarte oder eines Bandes gespeichert. Die ersten elektrischen Geräte für diskrete Logik (wie Aufzugs- und Ampelsteuerungen, Telefonschalter und Konrad Zuses Computer) stellten Bits als Zustände von elektrischen Relais dar, die entweder "offen" oder "geschlossen" sein konnten. Als die Relais ab den 1940er Jahren durch Vakuumröhren ersetzt wurden, experimentierten die Computerbauer mit verschiedenen Speichermethoden, z. B. mit Druckimpulsen, die über eine Quecksilberverzögerungsleitung übertragen wurden, mit Ladungen, die auf der Innenseite einer Kathodenstrahlröhre gespeichert wurden, oder mit undurchsichtigen Flecken, die mit photolithografischen Techniken auf Glasscheiben gedruckt wurden.

In den 1950er und 1960er Jahren wurden diese Methoden weitgehend durch Magnetspeicher wie Magnetkernspeicher, Magnetbänder, -trommeln und -platten verdrängt, bei denen ein Bit durch die Polarität der Magnetisierung eines bestimmten Bereichs eines ferromagnetischen Films oder durch eine Änderung der Polarität von einer Richtung zur anderen dargestellt wurde. Dasselbe Prinzip wurde später im Magnetblasenspeicher verwendet, der in den 1980er Jahren entwickelt wurde, und findet sich noch immer in verschiedenen Magnetstreifen wie U-Bahn-Tickets und einigen Kreditkarten.

In modernen Halbleiterspeichern, wie z. B. dynamischen Direktzugriffsspeichern, können die beiden Werte eines Bits durch zwei Ebenen elektrischer Ladung dargestellt werden, die in einem Kondensator gespeichert sind. In bestimmten Arten von programmierbaren Logik-Arrays und Festwertspeichern kann ein Bit durch das Vorhandensein oder Nichtvorhandensein einer Leiterbahn an einem bestimmten Punkt einer Schaltung dargestellt werden. Bei optischen Datenträgern wird ein Bit durch das Vorhandensein oder Fehlen einer mikroskopischen Vertiefung auf einer reflektierenden Oberfläche kodiert. Bei eindimensionalen Strichcodes werden die Bits als Dicke abwechselnd schwarzer und weißer Linien kodiert.

Einheit und Symbol

Das Bit ist im Internationalen Einheitensystem (SI) nicht definiert. Die Internationale Elektrotechnische Kommission hat jedoch die Norm IEC 60027 herausgegeben, in der festgelegt ist, dass das Symbol für die Binärziffer "Bit" lautet und in allen Vielfachen verwendet werden sollte, z. B. "kbit" für Kilobit. Der Kleinbuchstabe "b" ist jedoch ebenfalls weit verbreitet und wurde in der Norm IEEE 1541 (2002) empfohlen. Im Gegensatz dazu ist der Großbuchstabe 'B' das Standard- und übliche Symbol für Byte.

Dezimal
1000 kbit Kilobit
10002 Mbit Megabit
10003 Gbit Gigabit
10004 Tbit Terabit
10005 Pbit Petabit
10006 Ebit Exabit
10007 Zbit zettabit
10008 Ybit yottabit
Binär
1024 Kibit kibibit Kbit Kb Kilobit
10242 Mibit mebibit Mbit Mb Megabit
10243 Gibit gibibit Gbit Gb Gigabit
10244 Tibit tebibit Tbit Tb Terabit
10245 Pibit pebibit
10246 Eibit exbibit
10247 Zibit zebibit
10248 Yibit yobibit
Größenordnungen von Daten

Mehrere Bits

Mehrere Bits können auf verschiedene Weise ausgedrückt und dargestellt werden. Um in der Informationstechnologie häufig vorkommende Gruppen von Bits einfach darstellen zu können, wurden traditionell mehrere Informationseinheiten verwendet. Die gebräuchlichste ist die von Werner Buchholz im Juni 1956 geprägte Einheit Byte, die in der Vergangenheit verwendet wurde, um die Gruppe von Bits darzustellen, die zur Kodierung eines einzelnen Textzeichens in einem Computer verwendet wurde (bis sich die UTF-8-Multibyte-Kodierung durchsetzte), und aus diesem Grund wurde sie als grundlegendes adressierbares Element in vielen Computerarchitekturen verwendet. Der Trend bei der Entwicklung von Hardware ging zur gebräuchlichsten Implementierung mit acht Bits pro Byte, wie sie auch heute noch weit verbreitet ist. Da es jedoch nicht möglich war, sich auf das zugrunde liegende Hardware-Design zu verlassen, wurde die Einheit Oktett definiert, um ausdrücklich eine Folge von acht Bits zu bezeichnen.

Computer verarbeiten Bits in der Regel in Gruppen fester Größe, die üblicherweise als "Wörter" bezeichnet werden. Wie das Byte variiert auch die Anzahl der Bits in einem Wort je nach Hardwaredesign und liegt in der Regel zwischen 8 und 80 Bits, bei einigen Spezialcomputern sogar darüber. Im 21. Jahrhundert haben Personal- oder Servercomputer im Einzelhandel eine Wortgröße von 32 oder 64 Bit.

Das Internationale Einheitensystem definiert eine Reihe von Dezimalpräfixen für Vielfache von standardisierten Einheiten, die üblicherweise auch für Bit und Byte verwendet werden. Die Präfixe Kilo (103) bis Yotta (1024) erhöhen sich um Vielfache von Tausend, und die entsprechenden Einheiten sind das Kilobit (kbit) bis das Yottabit (Ybit).

Informationskapazität und Informationskompression

Wird die Informationskapazität eines Speichersystems oder eines Kommunikationskanals in Bits oder Bits pro Sekunde angegeben, so bezieht sich dies häufig auf binäre Ziffern, d. h. auf die Fähigkeit der Computerhardware, binäre Daten zu speichern (0 oder 1, hoch oder runter, aktuell oder nicht usw.). Die Informationskapazität eines Speichersystems ist nur eine Obergrenze für die Menge der darin gespeicherten Informationen. Wenn die beiden möglichen Werte eines Bits des Speichers nicht gleich wahrscheinlich sind, enthält dieses Bit des Speichers weniger als ein Bit an Informationen. Wenn der Wert vollständig vorhersehbar ist, liefert das Ablesen dieses Wertes überhaupt keine Information (null entropische Bits, da keine Auflösung der Ungewissheit stattfindet und daher keine Information verfügbar ist). Wenn eine Computerdatei, die n Bits Speicherplatz benötigt, nur m < n Bits an Information enthält, dann kann diese Information im Prinzip in etwa m Bits kodiert werden, zumindest im Durchschnitt. Dieses Prinzip ist die Grundlage der Datenkompressionstechnologie. In Analogie dazu beziehen sich die binären Ziffern der Hardware auf die Menge des verfügbaren Speicherplatzes (wie die Anzahl der Eimer, die zum Speichern von Dingen zur Verfügung stehen) und den Informationsgehalt der Füllung, den es in verschiedenen Granularitätsstufen gibt (fein oder grob, d. h. komprimierte oder unkomprimierte Informationen). Wenn die Granularität feiner ist, d. h. wenn die Informationen stärker komprimiert sind, kann ein und derselbe Bucket mehr aufnehmen.

So wird beispielsweise geschätzt, dass die kombinierte technologische Kapazität der Welt zur Speicherung von Informationen 1.300 Exabyte an Hardware-Ziffern bietet. Wenn dieser Speicherplatz gefüllt ist und der entsprechende Inhalt optimal komprimiert wird, entspricht dies jedoch nur 295 Exabyte an Informationen. Bei optimaler Komprimierung nähert sich die resultierende Tragfähigkeit der Shannon-Information oder Informationsentropie.

Bit-basiertes Rechnen

Bestimmte bitweise Computerprozessoranweisungen (wie z. B. Bit-Set) arbeiten auf der Ebene der Manipulation von Bits und nicht von Daten, die als ein Aggregat von Bits interpretiert werden.

In den 1980er Jahren, als Bitmap-Computerbildschirme populär wurden, verfügten einige Computer über spezielle Bitblock-Transferbefehle zum Setzen oder Kopieren der Bits, die einem bestimmten rechteckigen Bereich auf dem Bildschirm entsprachen.

Wenn in den meisten Computern und Programmiersprachen auf ein Bit innerhalb einer Gruppe von Bits, z. B. ein Byte oder ein Wort, Bezug genommen wird, wird es in der Regel durch eine Zahl von 0 aufwärts angegeben, die seiner Position innerhalb des Bytes oder Wortes entspricht. Die 0 kann sich jedoch je nach Kontext entweder auf das höchst- oder das niedrigstwertige Bit beziehen.

Andere Informationseinheiten

Ähnlich wie Drehmoment und Energie in der Physik haben informationstheoretische Information und Datenspeichergröße die gleiche Dimensionalität von Maßeinheiten, aber es hat im Allgemeinen keinen Sinn, die Einheiten zu addieren, zu subtrahieren oder anderweitig mathematisch zu kombinieren, obwohl die eine als Grenze für die andere fungieren kann.

Zu den in der Informationstheorie verwendeten Informationseinheiten gehören der Shannon (Sh), die natürliche Informationseinheit (nat) und der Hartley (Hart). Ein Shannon ist der maximale Erwartungswert für die Information, die benötigt wird, um den Zustand eines Bits im Speicher zu spezifizieren. Diese sind durch 1 Sh ≈ 0,693 nat ≈ 0,301 Hart miteinander verbunden.

Einige Autoren definieren ein binit auch als eine beliebige Informationseinheit, die einer festen, aber nicht spezifizierten Anzahl von Bits entspricht.

Trivia

Im Januar 2012 gelang es, 1 Bit (2 Zustände) in nur 12 Eisenatomen zu speichern, die bisher geringste Atomanzahl für magnetisches Speichern. Dabei konnte eine stabile Anordnung/Ausrichtung der Atome für mindestens 17 Stunden nahe dem absoluten Nullpunkt der Temperatur nachgewiesen werden.

Zum Vergleich:

  • Aktuelle NAND-Flash-Zellen benötigen etwa eine Million Elektronen zur Speicherung eines Bits über 10 Jahre bei Raumtemperatur.
  • DNA hat einen Informationsgehalt von 2 Bit je Basenpaar und hat je Bit eine Molekülmasse von etwa 315 Dalton statt 672 bei obigen 12 Eisenatomen.