Kanalkapazität
Kanalkapazität, in Elektrotechnik, Informatik, und Informationstheorie, ist der enge Obergrenze auf der Rate, zu der Information kann zuverlässig über a übertragen werden Kommunikationskanal.
Folgt den Bedingungen der Lauter Kanal-Codierungssatz, die Kanalkapazität eines gegebenen Kanal ist die höchste Informationsrate (in Einheiten von Information pro Zeiteinheit), die mit willkürlich kleiner Fehlerwahrscheinlichkeit erreicht werden können. [1][2]
Informationstheorie, entwickelt von Claude E. Shannon Definiert 1948 den Begriff der Kanalkapazität und liefert ein mathematisches Modell, mit dem es berechnet werden kann. Das Schlüsselergebnis besagt, dass die Kapazität des Kanals, wie oben definiert, durch das Maximum der angegeben wird gegenseitige Information zwischen Eingang und Ausgabe des Kanals, wobei die Maximierung in Bezug auf die Eingangsverteilung liegt. [3]
Der Begriff der Kanalkapazität war von zentraler Bedeutung für die Entwicklung moderner Wirine- und drahtloser Kommunikationssysteme mit dem Aufkommen des Romans Fehlerkorrekturcodierung Mechanismen, die dazu geführt haben, dass die Leistung sehr nahe an den durch Kanalkapazität versprochenen Grenzen erzielt wurde.
Formale Definition
Das grundlegende mathematische Modell für ein Kommunikationssystem ist das folgende:
wo:
- ist die zu übertragende Nachricht;
- ist das Kanaleingangssymbol ( ist eine Sequenz von Symbole) in einem aufgenommen Alphabet ;
- ist das Kanalausgangssymbol ( ist eine Sequenz von Symbole) in ein Alphabet aufgenommen ;
- ist die Schätzung der übertragenen Nachricht;
- ist die Codierungsfunktion für einen Längeblock ;
- ist der laute Kanal, der von a modelliert wird Bedingte Wahrscheinlichkeitsverteilung; und,
- ist die Dekodierungsfunktion für einen Längeblock .
Lassen und als Zufallsvariablen modelliert werden. Außerdem lassen Sie sei der Bedingte Wahrscheinlichkeitsverteilung Die Funktion von gegeben , was eine inhärente feste Eigenschaft des Kommunikationskanals ist. Dann die Wahl des Randverteilung Bestimmt die Gelenkverteilung aufgrund der Identität
was wiederum a induziert a gegenseitige Information . Das Kanalkapazität ist definiert als
bei dem die Supremum wird alle möglichen Entscheidungen von übernommen .
Additivität der Kanalkapazität
Die Kanalkapazität ist additiv über unabhängige Kanäle.[4] Dies bedeutet, dass die Verwendung von zwei unabhängigen Kanälen kombiniert die gleiche theoretische Kapazität bietet wie unabhängig voneinander. Formaler, lassen Sie es und zwei unabhängige Kanäle sein, die wie oben modelliert sind; Ein Eingangsalphabet haben und ein Ausgangsalphabet . Idem für . Wir definieren den Produktkanal wie
In diesem Satz heißt es:
Wir zeigen das zuerst .
Lassen und zwei unabhängige Zufallsvariablen sein. Lassen eine zufällige Variable sein, die dem Ausgang von entspricht durch den Kanal , und zum durch .
Per Definition .
Seit und sind ebenso unabhängig wie und , ist unabhängig von . Wir können die folgende Eigenschaft von anwenden gegenseitige Information:
Im Moment müssen wir nur eine Verteilung finden so dass . In der Tat, und , zwei Wahrscheinlichkeitsverteilungen für und Erreichen und , reicht:
dh.
Lassen Sie uns das nun zeigen .
Lassen eine Verteilung für den Kanal sein Definition und die entsprechende Ausgabe . Lassen das Alphabet von sein , zum und analog und .
Per Definition von gegenseitigen Informationen haben wir
Schreiben wir die letzte Amtszeit von neu Entropie.
Per Definition des Produktkanals, . Für ein bestimmtes Paar Wir können neu schreiben wie:
Indem Sie diese Gleichheit über alle summieren , wir erhalten.
Wir können jetzt eine Obergrenze über gegenseitige Informationen geben:
Diese Beziehung ist im Supremum erhalten. Deswegen
Wenn wir die beiden von uns bewiesenen Ungleichheiten kombinieren, erhalten wir das Ergebnis des Satzes:
Shannon -Kapazität einer Grafik
Wenn G ist ein ungerichtete GrafikEs kann verwendet werden, um einen Kommunikationskanal zu definieren, in dem die Symbole die Grafikscheitelpunkte sind, und zwei Codewörter können miteinander verwechselt werden, wenn ihre Symbole in jeder Position gleich oder benachbart sind. Die rechnerische Komplexität, die Shannon -Kapazität eines solchen Kanals zu finden Lovász Nummer.[5]
Lauter Kanal-Codierungssatz
Das Lauter Kanal-Codierungssatz Gibt an, dass für jede Fehlerwahrscheinlichkeit ε> 0 und für jede Übertragung Bewertung R weniger als die Kanalkapazität CEs gibt ein Codierungs- und Dekodierungsschema, das Daten mit Geschwindigkeit überträgt R deren Fehlerwahrscheinlichkeit ist weniger als ε für eine ausreichend große Blocklänge. Außerdem geht die Fehlerwahrscheinlichkeit am Empfänger auf 0,5, wenn die Blocklänge auf unendlich geht.
Beispielanwendung
Eine Anwendung des Kanalkapazitätskonzepts auf ein Additive weiße Gaußsche Geräusch (AWGN) Kanal mit B Hz Bandbreite und Signal-Rausch-Verhältnis S/n ist der Shannon -Hartley -Theorem:
C wird in gemessen Bits pro Sekunde Wenn die Logarithmus wird in Basis 2 genommen, oder Nats pro Sekunde wenn die Natürlicher Logarithmus wird verwendet, vorausgesetzt B ist in Hertz; Das Signal und Rauschleistungen S und N werden in einem linearen ausgedrückt Triebwerk (wie Watts oder Volt2). Seit S/n Zahlen werden oft in zitiert dbEs kann eine Konvertierung erforderlich sein. Zum Beispiel entspricht ein Signal-Rausch-Verhältnis von 30 dB einem linearen Leistungsverhältnis von .
Kanalkapazität in der drahtlosen Kommunikation
Diese Abteilung[6] Konzentriert sich auf das Single-Antenna-Punkt-zu-Punkt-Szenario. Für die Kanalkapazität in Systemen mit mehreren Antennen finden Sie im Artikel zu Mimo.
BandLimited AWGN Channel

Wenn der durchschnittliche Empfangs Strom ist [W] ist die Gesamtbandbreite in Hertz und das Geräusch spektrale Leistungsdichte ist [W/Hz] ist die AWGN -Kanalkapazität
- [Bits/s],
wo ist das empfangene Signal-Rausch-Verhältnis (SNR). Dieses Ergebnis ist als das bekannt Shannon -Hartley -Theorem.[7]
Wenn der SNR groß ist (SNR ≫ 0 dB), die Kapazität ist logarithmisch in Kraft und ungefähr linear in der Bandbreite. Dies nennt man die Bandbreite begrenztes Regime.
Wenn der SNR klein ist (SNR ≪ 0 dB), die Kapazität ist linear an der Macht, aber unempfindlich gegenüber Bandbreite. Dies nennt man die Machtbegrenzter Regime.
Das bandbreitenbegrenzte Regime und das Kraft-begrenzte Regime sind in der Abbildung dargestellt.
Frequenz-selektiver AWGN-Kanal
Die Kapazität der frequenzselektiv Kanal wird durch sogenannte gegeben Wasser füllen Leistungszuweisung,
wo und ist der Gewinn von Subchannel , mit ausgewählt, um die Leistungsbeschränkung zu erfüllen.
Langsamer Kanal
In einem Langsamer KanalWenn die Kohärenzzeit größer ist als die Latenzbedarf, gibt es keine eindeutige Kapazität, da die maximale Rate der vom Kanal unterstützten zuverlässigen Kommunikation unterstützt wird. hängt vom zufälligen Kanalgewinn ab , was dem Sender unbekannt ist. Wenn der Sender Daten mit Rate codiert [Bits/S/Hz] besteht eine Wahrscheinlichkeit von ungleich Null, dass die Dekodierungsfehlerwahrscheinlichkeit nicht willkürlich klein gemacht werden kann.
- ,
In diesem Fall soll das System in Ausfall sein. Mit einer Wahrscheinlichkeit von ungleich Null, dass sich der Kanal in tiefem Verblassen befindet, ist die Kapazität des langsam verfüllten Kanals in striktem Sinne Null. Es ist jedoch möglich, den größten Wert von zu bestimmen so dass die Ausfallwahrscheinlichkeit ist weniger als . Dieser Wert ist als der bekannt -Outagekapazität.
Schneller Kanal
In einem schneller Kanal, wo die Latenzbedarf größer ist als die Kohärenzzeit und die Codewortlänge umfasst viele Kohärenzperioden, kann man über viele unabhängige Kanalverläufe durchschnittlich durch eine große Anzahl von Kohärenzzeitintervallen kodieren. Somit ist es möglich, eine zuverlässige Kommunikationsrate von zu erreichen [Bits/S/Hz] und es ist von diesem Wert als Kapazität des schnell verfüllten Kanals von diesem Wert zu sprechen.
Siehe auch
- Bandbreite (Computer)
- Bandbreite (Signalverarbeitung)
- Bitrate
- Coderate
- Fehlerponent
- Nyquist Rate
- Negentropie
- Redundanz
- Absender, Datenkompression, Empfänger
- Shannon -Hartley -Theorem
- Spektrale Effizienz
- Durchsatz
Erweiterte Kommunikationsthemen
Externe Links
- "Übertragungsrate eines Kanals", Enzyklopädie der Mathematik, EMS Press, 2001 [1994]
- AWGN -Kanalkapazität mit verschiedenen Einschränkungen für die Kanaleingabe (interaktive Demonstration)
Verweise
- ^ Saleem Bhatti. "Kanalkapazität". Vorlesungsnotizen für M.Sc.Datenkommunikationsnetzwerke und verteilte Systeme D51 - Grundlegende Kommunikation und Netzwerke. Archiviert von das Original am 2007-08-21.
- ^ Jim Lesurf. "Signale sehen aus wie Geräusch!". Informationen und Messung, 2. Aufl..
- ^ Thomas M. Cover, Joy A. Thomas (2006). Elemente der Informationstheorie.John Wiley & Sons, New York. ISBN 9781118585771.
- ^ Cover, Thomas M.;Thomas, Joy A. (2006)."Kapitel 7: Kanalkapazität". Elemente der Informationstheorie (Zweite Ausgabe).Wiley-Interscience.S. 206–207. ISBN 978-0-471-24195-9.
- ^ Lovász, László (1979), "über die Shannon -Kapazität einer Grafik", IEEE -Transaktionen zur Informationstheorie, It-25 (1): 1–7, doi:10.1109/tit.1979.1055985.
- ^ David Tse, Pramod Viswanath (2005), Grundlagen der drahtlosen Kommunikation, Cambridge University Press, Großbritannien, ISBN 9780521845274
- ^ Das Handbuch der Elektrotechnik.Forschungs- und Bildungsverein.1996. p.D-149. ISBN 9780878919819.