Buch
Einführung in die Informationstheorie
-Studienbuch für Mathematiker, Informatiker, Naturwissenschaftler und Ingenieure ab 3. Semester-Ernst Henze
54,99
EUR
Lieferzeit 5-6 Tage
Produkt im Warenkorb
Übersicht
Verlag | : | Vieweg & Teubner |
Buchreihe | : | uni-texte |
Sprache | : | Deutsch |
Erschienen | : | 01. 01. 1974 |
Seiten | : | 82 |
Einband | : | Kartoniert |
Gewicht | : | 178 g |
ISBN | : | 9783528130060 |
Inhaltsverzeichnis
1. Einleitung.- 1.1. Ziele der Informationstheorie, Überblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel für einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.