Bisschen

Das bisschen ist das grundlegendste Informationseinheit in Computer und digital Kommunikation. Der Name ist a Handkoffer von Binärzahl.[1] Das Bit repräsentiert a logischer Zustand mit einem von zwei möglich Werte. Diese Werte werden am häufigsten als beide dargestellt " 1" oder " 0", aber andere Darstellungen wie z. Stimmt/FALSCH, Jawohl/nein, an/aus, oder +/ werden auch häufig verwendet.

Die Beziehung zwischen diesen Werten und den physikalischen Zuständen der zugrunde liegenden Lagerung oder Gerät ist eine Frage der Konvention, und unterschiedliche Aufgaben können auch innerhalb desselben Geräts verwendet werden oder Programm. Es kann physisch mit einem Zwei-Staaten-Gerät implementiert werden.

Das Symbol für die binäre Ziffer ist entweder "Bit" pro Empfehlung von der IEC 80000-13: 2008 Standard oder das Kleinbuchstaben -Charakter 'B', wie von der empfohlen IEEE 1541-2002 Standard.

Eine zusammenhängende Gruppe binärer Ziffern wird allgemein als a bezeichnet Bit String, ein Bitvektor oder ein einzelndimensionaler (oder mehrdimensional) Bit -Array. Eine Gruppe von acht Bits heißt eineByte, aber historisch gesehen ist die Größe des Byte nicht streng definiert.[2] Häufig bestehen die halben, vollen, doppelten und vierfachen Wörter aus einer Reihe von Bytes, was eine niedrige Leistung von zwei ist. Eine Reihe von vier Bits ist a knabbern.

Im Informationstheorieein bisschen ist das Informationsentropie von einem zufälligen binär Variable, die 0 oder 1 mit gleicher Wahrscheinlichkeit ist,[3] oder die Informationen, die gewonnen werden, wenn der Wert einer solchen Variablen bekannt wird.[4][5] Als ein InformationseinheitDas Bit ist auch als als bekannt Shannon,[6] benannt nach Claude E. Shannon.

Geschichte

Die Codierung von Daten durch diskrete Bits wurde in der verwendet geschlagene Karten erfunden von Basile Bouchon und Jean-Baptiste Falcon (1732), entwickelt von Joseph Marie Jacquard (1804) und später übernommen von Semyon Korsakov, Charles Babbage, Hermann Hollerithund frühe Computerhersteller mögen IBM. Eine Variante dieser Idee war die Perforation Papier Klebeband. In all diesen Systemen trug die mittlere (Karte oder Klebeband) konzeptionell eine Reihe von Lochpositionen; Jede Position kann entweder durchgeschlagen werden oder nicht, wodurch ein Stück Informationen enthält. Die Codierung von Text durch Bits wurde auch in verwendet Morse-Code (1844) und frühe digitale Kommunikationsmaschinen wie z. Teletypen und Aktienmaschinen (1870).

Ralph Hartley schlug die Verwendung eines logarithmischen Informationsmaßes von 1928 vor.[7] Claude E. Shannon verwendete zum ersten Mal das Wort "Bit" in seinem wegweisenden Papier von 1948 ".Eine mathematische Kommunikationstheorie".[8][9][10] Er schrieb seinen Ursprung auf John W. Tukey, der am 9. Januar 1947 ein Bell Labs -Memo geschrieben hatte, in dem er "Binärinformationsdigit" zu einfach "Bit" beauftragte.[8] Vannevar Bush hatte 1936 von "Informationsbits" geschrieben, die auf dem gespeichert werden konnten geschlagene Karten verwendet in den mechanischen Computern dieser Zeit.[11] Der erste programmierbare Computer, erstellt von Konrad Zuse, gebrauchte binäre Notation für Zahlen.

Physische Darstellung

Ein bisschen kann von einem digitalen Gerät oder einem anderen physikalischen System gespeichert werden, das in einem von zwei möglichen Unterschieden vorliegt Zustände. Dies können die beiden stabilen Zustände eines Flip-Flops sein, zwei Positionen von einem Stromschalter, zwei unterschiedliche Stromspannung oder aktuell Level durch a erlaubt Schaltkreis, zwei unterschiedliche Ebenen von Lichtintensität, zwei Richtungen von Magnetisierung oder Polarisationdie Ausrichtung reversibler doppelt gestrandeter DNA, etc.

Bits können in mehreren Formen implementiert werden. In den meisten modernen Computergeräten wird ein bisschen normalerweise durch eine dargestellt elektrisch Stromspannung oder aktuell Impuls oder durch den elektrischen Zustand einer Flip-Flop-Schaltung.

Für Geräte verwenden Positive Logik, ein Zifferwert von 1 (oder ein logischer Wert von True) wird durch eine positivere Spannung im Vergleich zur Darstellung von dargestellt 0. Die spezifischen Spannungen unterscheiden sich für unterschiedliche Logikfamilien und Variationen dürfen die Alterung der Komponenten und die Rauschenimmunität ermöglichen. Zum Beispiel in Transistor -Transistor -Logik (TTL) und kompatible Schaltungen, Ziffernwerte 0 und 1 am Ausgang eines Geräts werden durch nicht höher als 0,4 Volt bzw. weniger als 2,6 Volt dargestellt; Während TTL 0 und 2,2 Volt oder höher als 1.

Übertragung und Verarbeitung

Bits werden einzeln übertragen Serienübertragungund durch eine Vielzahl von Bits in Parallelübertragung. EIN Bitgewise Operation Verarbeitet optional Bits einzeln. Die Datenübertragungsraten werden normalerweise in Decimal Si -Vielfachen der Einheit gemessen Bit pro Sekunde (Bit/s), wie kbit/s.

Lagerung

In den frühesten nicht-elektronischen Informationsverarbeitungsgeräten wie Jacquards Webstuhl oder Babbage's Analytischer MotorEin bisschen wurde oft als Position eines mechanischen Hebels oder Zahnrads oder als Vorhandensein oder Abwesenheit eines Lochs an einem bestimmten Punkt von a gespeichert Papierkarte oder Band. Die ersten elektrischen Geräte für diskrete Logik (wie z. Aufzug und Ampel Kontrolle Schaltungen, Telefonschalterund der Computer von Konrad Zuus) repräsentierten Bits als die Zustände von elektrische Relais das könnte entweder "offen" oder "geschlossen" sein. Wenn Relais durch ersetzt wurden durch VakuumröhrenAb den 1940er Jahren experimentierten Computerbauer mit einer Vielzahl von Speichermethoden, wie z. B. Druckimpulse, die nach unten reisten Quecksilberverzögerungslinie, Ladungen auf der Innenfläche von a Kathodenstrahlröhreoder undurchsichtige Stellen auf Glasscheiben durch photolithografisch Techniken.

In den 1950er und 1960er Jahren wurden diese Methoden größtenteils durch magnetischer Speicher Geräte wie Magnetkerngedächtnis, Magnetbänder, Schlagzeug, und Scheiben, wo ein bisschen durch die Polarität von dargestellt wurde Magnetisierung eines bestimmten Bereichs von a ferromagnetisch Film oder durch eine Änderung der Polarität von einer Richtung zur anderen. Das gleiche Prinzip wurde später in der verwendet Magnetische Blasengedächtnis entwickelt in den 1980er Jahren und ist immer noch in verschiedenen gefunden Magnetstreifen Artikel wie Metro Tickets und einige Kreditkarten.

In modern Halbleitergedächtnis, wie zum Beispiel Dynamischer DirektzugriffsspeicherDie beiden Werte eines Bits können durch zwei Ebenen von dargestellt werden elektrische Ladung gespeichert in a Kondensator. In bestimmten Arten von Programmierbare Logikarrays und Nur-Lese-SpeicherEin bisschen kann durch das Vorhandensein oder Fehlen eines leitenden Pfades an einem bestimmten Punkt eines Schaltkreises dargestellt werden. Im optische Scheiben, ein bisschen wird als Vorhandensein oder Abwesenheit von a codiert mikroskopisch Grube auf einer reflektierenden Oberfläche. In eindimensional Barcodes, Bits werden als Dicke abwechselnder schwarz -weißer Linien codiert.

Einheit und Symbol

Das Bit ist nicht in der definiert Internationales System der Einheiten (Si). Allerdings die Internationale Elektrotechnische Kommission Standard IEC 60027, was angibt, dass das Symbol für die binäre Ziffer "bit" sein sollte, und dies sollte in allen Multiplikaten wie "KBIT" für Kilobit verwendet werden.[12] Der Unterfallbuchstaben 'B' wird jedoch ebenfalls weit verbreitet und wurde von der empfohlen IEEE 1541 Standard (2002). Im Gegensatz dazu ist der obere Fallbuchstaben 'B' das Standard- und übliche Symbol für Byte.

Dezimal
Wert  Metrisch 
1000 Kbit Kilobit
10002 Mbit Megabit
10003 Gbit Gigabit
10004 Tbit Terabit
10005 Pbit Petabit
10006 EBIT Exabit
10007 Zbit Zettabit
10008 Ybit Yottabit
Binär
Wert  IEC  Erbe 
1024 Kibit Kibibit Kbit KB Kilobit
10242 Mibit Mebibit Mbit Mb Megabit
10243 Gibit Gibibit Gbit Gb Gigabit
10244 Tibit Tebibit Tbit TB Terabit
10245 Pibit Pebibit -
10246 Eibit Exbibit -
10247 Zibit Zebibit -
10248 Yibit Yobibit -
Ordnungsordnungen der Daten

Mehrere Bits

Mehrere Bits können auf verschiedene Weise ausgedrückt und dargestellt werden. Um die allgemein wiederkehrenden Gruppen von Bits in der Informationstechnologie zu vertreten, sind mehrere Informationseinheiten wurden traditionell verwendet. Am häufigsten ist die Einheit Byte, geprägt von Werner Buchholz Im Juni 1956 wurde historisch gesehen verwendet, um die Gruppe von Bits zu repräsentieren, die verwendet wurden, um eine einzelne zu codieren Charakter von Text (bis UTF-8 Multibyte -Codierung übernahm die Over) in einem Computer[2][13][14][15][16] Und aus diesem Grund wurde es als Basis verwendet adressierbar Element in vielen Computerarchitekturen. Der Trend zum Hardwaredesign konvergierte die häufigste Implementierung der Verwendung von acht Bits pro Byte, da er heute weit verbreitet ist. Aufgrund der Unklarheit, sich auf das zugrunde liegende Hardwaredesign zu verlassen, ist das Gerät jedoch Oktett wurde definiert, um explizit eine Sequenz von acht Bit zu bezeichnen.

Computer manipulieren normalerweise Bits in Gruppen einer festen Größe, die herkömmlicherweise benannt ist. "Wörter". Wie das Byte variiert auch die Anzahl der Bits in einem Wort mit dem Hardwaredesign und liegt in der Regel zwischen 8 und 80 Bits oder sogar in einigen speziellen Computern. Im 21. Jahrhundert haben Personal- oder Server -Computer im 21. Jahrhundert ein Wort Größe von 32 oder 64 Bit.

Das Internationales System der Einheiten Definiert eine Reihe von Dezimalpräfixen für Vielfache standardisierter Einheiten, die üblicherweise auch mit dem Bit und dem Byte verwendet werden. Die Präfixe Kilo (103) durch Yotta (1024) Inkrementieren durch Vielfache von tausend, und die entsprechenden Einheiten sind die Kilobit (kbit) durch die Yottabit (Ybit).

Informationskapazität und Informationskomprimierung

Wenn die Informationskapazität eines Speichersystems oder eines Kommunikationskanals in angezeigt wird Bits oder Bits pro SekundeDies bezieht sich oft auf binäre Ziffern, nämlich a Computerhardware Kapazität, um binäre Daten zu speichern (0 oder 1, nach oben oder unten, aktuell oder nicht usw.).[17] Die Informationskapazität eines Speichersystems ist nur eine Obergrenze an die Menge der darin gespeicherten Informationen. Wenn die beiden möglichen Werte eines Bits Speicher nicht gleich wahrscheinlich sind, enthält dieses Bit des Speichers weniger als ein Bit Informationen. Wenn der Wert vollständig vorhersehbar ist, liefert das Lesen dieses Wertes überhaupt keine Informationen (null entropische Bits, da keine Auflösung der Unsicherheit auftritt und daher keine Informationen verfügbar sind). Wenn eine Computerdatei, die verwendet nSpeicherbits enthält nur m<nInformationsbits, dann können diese Informationen grundsätzlich codiert werden mBits, zumindest im Durchschnitt. Dieses Prinzip ist die Grundlage von Datenkompression Technologie. Mithilfe einer Analogie beziehen sich die Binärziffern der Hardware auf die Menge des verfügbaren Speicherplatzes (wie die Anzahl der zur Speichern von Dingen verfügbaren Eimer) und den Informationsgehalt der Füllung, das in unterschiedlichen Granularitätsebenen geliefert wird (fein oder grob, dh. komprimierte oder unkomprimierte Informationen). Wenn die Granularität feiner ist - wenn die Informationen komprimierter sind -, kann der gleiche Eimer mehr halten.

Zum Beispiel wird geschätzt, dass die kombinierte technologische Kapazität der Welt zum Speichern von Informationen 1.300 liefert Exabyte von Hardware -Ziffern. Wenn dieser Speicherplatz jedoch gefüllt ist und der entsprechende Inhalt optimal komprimiert ist, entspricht dies nur 295 Informationen.[18] Wenn sie optimal komprimiert sind, nähert sich die resultierende Tragfähigkeitskapazität Shannon -Informationen oder Informationsentropie.[17]

Bit-basiertes Computer

Sicher bitweise Computer Prozessor Anweisungen (wie z. Bit eingestellt) Arbeiten auf der Ebene der Manipulation von Bits, anstatt Daten zu manipulieren, die als Aggregat von Bits interpretiert werden.

In den 1980er Jahren, wann bitmapped Computer -Displays wurden populär, einige Computer sorgten für spezialisierte Computer Bit -Block -Übertragung Anweisungen zum Festlegen oder Kopieren der Bits, die einem bestimmten rechteckigen Bereich auf dem Bildschirm entsprachen.

In den meisten Computern und Programmiersprachen wird in einer Gruppe von Bits, wie z. B. ein Byte oder ein Wort, auf eine Zahl von 0 nach oben angegeben, die seiner Position innerhalb des Byte oder des Wortes entspricht. 0 kann sich jedoch auf beide beziehen die meisten oder niedrigstwertige Bit Abhängig vom Kontext.

Andere Informationseinheiten

Ähnlich zu Drehmoment und Energie in der Physik; Informationstheoretische Informationen und Datenspeichergröße haben die gleiche Dimensionalität von MaßeinheitenEs gibt jedoch im Allgemeinen keine Bedeutung, um die Einheiten mathematisch hinzuzufügen, zu subtrahieren oder anderweitig zu kombinieren, obwohl man auf dem anderen als gebunden wirkt.

Einheiten von Informationen, die in der Informationstheorie verwendet werden, umfassen die Shannon (Sh) die natürliche Informationseinheit (nat) und die Hartley (Hart). Ein Shannon ist das Maximum erwarteter Wert Informationen zur Angabe des Zustands eines Stücks Speicher. Diese beziehen sich auf 1 sh ≈ 0,693 nat ≈ 0,301 Hart.

Einige Autoren definieren auch a Binit als willkürliche Informationseinheit entspricht einer festen, aber nicht spezifizierten Anzahl von Bits.[19]

Siehe auch

Verweise

  1. ^ Mackenzie, Charles E. (1980). Codierte Zeichensätze, Geschichte und Entwicklung. Die Systems -Programmierreihen (1 ed.). Addison-Wesley Publishing Company, Inc. p. x. ISBN 978-0-201-14460-4. Lccn 77-90165. Archiviert vom Original am 2016-11-18. Abgerufen 2016-05-22. [1]
  2. ^ a b Bemer, Robert William (2000-08-08). "Warum ist ein Byte 8 Bit? Oder ist es?". Computergeschichte Vignetten. Archiviert von das Original Am 2017-04-03. Abgerufen 2017-04-03. […] Mit IBM's STRECKEN Computer als Hintergrund, Umgang mit 64-Charakter-Wörtern in Gruppen von 8 (ich habe den dafür festgelegten Charakter unter der Leitung von Dr. entworfen Werner Buchholz, der Mann, der den Begriff machte "Byte"Für eine 8-Bit-Gruppierung). […] die IBM 360 Gebrauchte 8-Bit-Zeichen, obwohl nicht direkt ASCII. So fing Buchholz '"Byte" überall an. Ich selbst mochte den Namen aus vielen Gründen nicht. […]
  3. ^ Anderson, John B.; Johnnesson, Rolf (2006), Informationsübertragung verstehen
  4. ^ Haykin, Simon (2006), Digitale Kommunikation
  5. ^ IEEE STD 260.1-2004
  6. ^ "Einheiten: B". Archiviert vom Original am 2016-05-04.
  7. ^ Abramson, Norman (1963). Informationstheorie und Codierung. McGraw-Hill.
  8. ^ a b Shannon, Claude Elwood (Juli 1948). "Eine mathematische Kommunikationstheorie" (PDF). Glockensystem Technisches Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. HDL:11858/00-001M-0000-002C-4314-2. Archiviert von das Original (PDF) Am 1998-07-15. Die Wahl einer logarithmischen Basis entspricht der Auswahl einer Einheit für die Messung von Informationen. Wenn die Basis 2 verwendet wird, können die resultierenden Einheiten binäre Ziffern oder kurzer als Binärstellungen bezeichnet werden Bitsein Wort von vorgeschlagen von J. W. Tukey.
  9. ^ Shannon, Claude Elwood (Oktober 1948). "Eine mathematische Kommunikationstheorie". Glockensystem Technisches Journal. 27 (4): 623–666. doi:10.1002/j.1538-7305.1948.tb00917.x. HDL:11858/00-001M-0000-002C-4314-2.
  10. ^ Shannon, Claude Elwood; Weaver, Warren (1949). Eine mathematische Kommunikationstheorie (PDF). Presse der Universität von Illinois. ISBN 0-252-72548-4. Archiviert von das Original (PDF) Am 1998-07-15.
  11. ^ Bush, Vannevar (1936). "Instrumentelle Analyse". Bulletin der American Mathematical Society. 42 (10): 649–669. doi:10.1090/S0002-9904-1936-06390-1. Archiviert vom Original am 2014-10-06.
  12. ^ Nationales Institut für Standards und Technologie (2008), Leitfaden für die Verwendung des internationalen Einheitensystems. Online Version. Archiviert 3. Juni 2016 bei der Wayback -Maschine
  13. ^ Buchholz, Werner (1956-06-11). "7. Die Schaltmatrix" (PDF). Das Linksystem. IBM. S. 5–6. Strecken Memo Nr. 39g. Archiviert (PDF) vom Original am 2017-04-04. Abgerufen 2016-04-04. […] Am wichtigsten ist, dass es aus der Sicht der Bearbeitung die Fähigkeit sein wird, alle Zeichen oder Ziffern zu handhaben, von 1 bis 6 Bit lang Wort, aus dem Gedächtnis parallel, in Figuren, oder "Bytes"Wie wir sie angerufen haben, um an die gesendet zu werden Addierer Seriell. Die 60 Bit werden in eingeladen Magnetkerne auf sechs verschiedenen Ebenen. Wenn ein 1 aus Position 9 kommt, erscheint es in allen sechs darunter liegenden Kernen. […] Der Addierer kann alle oder nur einige der Bits akzeptieren. […] Angenommen, es ist erwünscht, mit 4 Bit zu arbeiten Dezimalziffern, angefangen rechts. Das 0-Diagonale wird zuerst gepulst und sendet die sechs Bits 0 bis 5 aus, von denen der Addierer nur die ersten vier (0-3) akzeptiert. Die Teile 4 und 5 werden ignoriert. Als nächstes wird die 4 -Diagonale gepulst. Dies sendet die Bits 4 bis 9 aus, von denen die letzten beiden wieder ignoriert werden und so weiter. […] Es ist genauso einfach, alle sechs Teile zu verwenden alphanumerisch Arbeiten oder Bytes von nur einem Bit für die logische Analyse oder um die Bytes um eine beliebige Anzahl von Bits auszugleichen. […]
  14. ^ Buchholz, Werner (Februar 1977). "Das Wort" Byte "wird erwachsen ..." Byte Magazine. 2 (2): 144. […] Die erste Referenz in den Dateien wurde in einem internen Memo enthalten, das im Juni 1956 in den frühen Tagen der Entwicklung geschrieben wurde Strecken. EIN Byte wurde als bestehend aus einer beliebigen Anzahl von parallelen Bits von eins bis sechs bestehen. Somit wurde angenommen, dass ein Byte eine für diesen Anlass geeignete Länge hat. Die erste Verwendung lag im Kontext der Eingangsausstattung der 1950er Jahre, die jeweils sechs Bits abwickelte. Die Möglichkeit, zu 8 -Bit -Bytes zu gehen, wurde im August 1956 in Betracht gezogen und kurz danach in die Entwurf von Stretch aufgenommen. Der erste veröffentlichte Verweis auf den Begriff ereignete sich 1959 in einem Papier "Verarbeitungsdaten in Bits und Stücken" von G A Blaauw, F P Brooks Jr. und W Buchholz in dem IRE -Transaktionen auf elektronischen Computern, Juni 1959, Seite 121. Die Begriffe dieses Papiers wurden in Kapitel 4 von ausgearbeitet Planung eines Computersystems (Projektstrecke), herausgegeben von W Buchholz, McGraw-Hill Book Company (1962). Die Begründung für das Koinieren des Begriffs wurde dort auf Seite 40 wie folgt erläutert:
    Byte Zeigt eine Gruppe von Bits an, die zur Codierung eines Zeichens oder der Anzahl der parallel zu und von Eingabe-Output-Einheiten übertragenen Bits verwendet werden. Ein anderer Begriff als Charakter wird hier verwendet, da ein bestimmtes Zeichen in verschiedenen Anwendungen durch mehr als einen Code dargestellt werden kann, und verschiedene Codes können unterschiedliche Anzahl von Bits (dh unterschiedliche Bytegrößen) verwenden. Bei der Übertragung von Eingaben-Output kann die Gruppierung von Bits vollständig willkürlich sein und keinen Zusammenhang zu tatsächlichen Zeichen haben. (Der Begriff wird von geprägt von beissen, aber wieder aufgenommen, um versehentliche Mutation zu vermeiden bisschen.))
    System/360 Übernahm viele der Stretch -Konzepte, einschließlich der grundlegenden Byte- und Wortgrößen, die 2 Jahre lang sind. Für die Wirtschaft wurde jedoch die Bytegröße auf 8 -Bit -Maximum festgelegt und die Adressierung auf Bitebene durch Byte -Adressierung ersetzt. […]
  15. ^ Blaauw, Gerrit Anne; Brooks, Jr., Frederick Phillips; Buchholz, Werner (1962), "Kapitel 4: Natürliche Dateneinheiten" (PDF), in Buchholz, Werner (ed.), Planung eines Computersystems - Projektstrecke, McGraw-Hill Book Company, Inc. / The Maple Press Company, York, Pa., S. 39–40, Lccn 61-10466, archiviert von das Original (PDF) Am 2017-04-03, abgerufen 2017-04-03
  16. ^ Bemer, Robert William (1959). "Ein Vorschlag für einen verallgemeinerten Kartencode von 256 Zeichen". Kommunikation der ACM. 2 (9): 19–23. doi:10.1145/368424.368435. S2CID 36115735.
  17. ^ a b Informationen in kleinen Teilen Informationen in Small Bits sind ein Buch, das als Teil eines gemeinnützigen Outreach-Projekts der IEEE Information Theory Society erstellt wurde. Das Buch bringt Claude Shannon und grundlegende Konzepte der Informationstheorie unter 8 und älter mit zuordenbaren Cartoon-Geschichten und Problemlösungsaktivitäten vor.
  18. ^ "Die technologische Fähigkeit der Welt, Informationen zu speichern, zu kommunizieren und zu berechnen" Archiviert 2013-07-27 bei der Wayback -Maschine, besonders Unterstützung von Online -Material Archiviert 2011-05-31 im Wayback -Maschine, Martin Hilbert und Priscila López (2011), Wissenschaft332 (6025), 60-65; Kostenloser Zugang zum Artikel hier durch: martinhilbert.net/worldinfocapacity.html
  19. ^ Bhattacharya, Amitabha (2005). Digitale Kommunikation. Tata McGraw-Hill Education. ISBN 978-0-07059117-2. Archiviert vom Original am 2017-03-27.

Externe Links

  • Bitrechner - Ein Werkzeug, das Konvertierungen zwischen Bit, Byte, Kilobit, Kilobyte, Megabit, Megabyte, Gigabit, Gigabyte liefert
  • BitxByteConverter - Ein Tool zum Berechnen von Dateigrößen, Speicherkapazität und digitalen Informationen in verschiedenen Einheiten