Download Informations- und Kodierungstheorie by Dagmar Schönfeld, Herbert Klimant, Rudi Piotraschke PDF

By Dagmar Schönfeld, Herbert Klimant, Rudi Piotraschke

Was ist info? Wie kann guy sie darstellen, sicher übertragen oder speichern?

Viele Fragen, auf die das Buch Antworten gibt. Die Informationstheorie liefert die Grundlage für die Berechnung des Informationsgehalts von diskreten und kontinuierlichen Quellen und deren Darstellung in kodierter shape. So können erforderliche Speicher- und Kanalkapazitäten bei der Informationsverarbeitung und -übertragung in IT-Systemen bestimmt werden. Das Kapitel Kanalkodierung zeigt Lösungen für eine sichere Informationsübertragung über gestörte Kanäle. Ausführlich werden Block- und blockfreie Kodes, serielle und parallele Kodeverkettungen mit hard-decision und (iterativer) soft-decision Dekodierung beschrieben, die der Fehlererkennung und Fehlerkorrektur dienen.

Show description

Read or Download Informations- und Kodierungstheorie PDF

Similar german_6 books

Beschreibende Statistik: Praxisorientierte Einführung

Dieses einf? hrende Lehrbuch zeigt den gesamten Ablauf einer statistischen Untersuchung, ausgehend von der Datenerhebung ? ber die Aufbereitung und examine der Daten bis hin zur Interpretation der Ergebnisse, fundiert auf. Im Vordergrund stehen die Anwendung und praktische Umsetzung statistischer Methoden.

Angewandte Psychologie für das Projektmanagement: Ein Praxisbuch für die erfolgreiche Projektleitung

Professionelles Projektmanagement - zahlreiche Fortbildungen und Bücher vermitteln, wie guy Projekte initialisiert, organisiert, plant und den Projekterfolg kontrolliert. Viele Projektleiter beherrschen diese Fertigkeiten - und scheitern dennoch. Denn oft ist ihnen nicht bewusst, dass erfolgreiches Projektmanagement viel mehr ist als Planung und business enterprise: Personen führen, mit Konflikten und Krisen umgehen, kommunizieren, Informationsflüsse lenken, Meinungsbildung und das Projektumfeld steuern, die Identifikation der Mitarbeiter fördern, Wissen und Kreativität managen sowie internationale und virtuelle groups leiten - das ist angewandte Psychologie!

Devisenoptionen

Durch weitreichende Verbesserungen im Nachrichten-und Transportwesen ist unsere Er de kleiner geworden, nicht nur in soziologischer Hinsicht, sondern auch in Bezug auf Handel, Finanzen und Markte. Dennoch conflict in manchen Fallen dies die Ursache fur wichtige Unwagbarkeiten, die auf der Wechselwirkung von Zinssatzen und verschiede nen Devisenkursen beruhten.

Extra resources for Informations- und Kodierungstheorie

Sample text

1. 1 ist ein Optimalkode nach dem HUFFMAN-Verfahren zu entwerfen und mit dem entsprechenden SHANNON-FANO-Kode zu vergleichen. Lösung: Gemäß dem Algorithmus ergibt sich folgendes Lösungsschema: 1. (pi ) = (0, 40 0, 18 0, 14 0, 10 0, 08 0, 05 0, 05) Die Schritte 2. bis 4. (Reduktionsschema) und 5. 1 dargestellt. 1 HUFFMAN-Verfahren Anhand des Kodebaumes können wir die mittlere Kodewortlänge bestimmen: lm = 0, 40 · 1 + 0, 18 · 3 + 0, 14 · 3 + 0, 10 · 3 + 0, 08 · 4 + 2 · 0, 05 · 5 = 2, 48 Bit/QZ . Damit beträgt die Koderedundanz bei diesem Optimalkode nur noch RK = 2, 48 Bit/QZ · 1 bit/Bit − 2, 43 bit/QZ = 0, 05 bit/QZ .

Analog zu Gl. 6) gilt dann (s. a. 2. Aufgabe zum Abschn. 3) m H m ≤ m lm < m H m + 1 und nach der Division durch m 1 H m ≤ lm < H m + . 7) Aus Gl. 7) folgt, dass die mittlere Kodewortlänge durch Vergrößerung von m beliebig an den unteren Grenzwert Hm angenähert werden kann und damit die Koderedundanz beliebig klein wird. Eine praktische Realisierung nach diesem Prinzip bedeutet jedoch, dass die Forderung nach unverzögerter Kodierung und Dekodierung der einzelnen Quellenzeichen nicht erfüllt werden kann.

Gegeben seien zwei Signalquellen A und B mit jeweils drei Farbsignalen (rot, gelb, grün) und folgenden Verbundwahrscheinlichkeiten: A B b1 (rot) b2 (gelb) b3 (grün) a1 a2 a3 (rot) 2 9 1 18 1 9 (gelb) 1 18 1 9 1 18 (grün) 1 9 1 9 1 6 Berechnen Sie a) Einzelentropien H(A), H(B), b) bedingte Entropien H(A|B), H(B|A), c) Verbundentropie H(A, B). 2. Von zwei diskreten Quellen X und Y sei folgende Matrix der Verbundwahrscheinlichkeiten gegeben: ⎛ ⎞ 0, 12 0, 10 0, 08 0, 05 0, 03 (p(xi , yj )) = ⎝ 0, 02 0, 04 0, 12 0, 04 0, 02 ⎠ .

Download PDF sample

Rated 4.74 of 5 – based on 48 votes