Meer dan een miljoen boeken binnen handbereik!
Bookbot

Rudolf Mathar

    Stochastik für Informatiker
    Informationstheorie
    Multidimensionale Skalierung
    • KlappentextMultidimensionale Skalierung hat zum Ziel, aus paarweisen Unähnlichkeiten zwischen Objekten, Punkte im euklidischem Raum so zu konstruieren, daß die zugehörigen Distanzen die gegebenen Unähnlichkeiten möglichst gut approximieren. Die so gefundene Konfiguration kann dann graphisch dargestellt und bezüglich ihrer inneren Struktur, zum Beispiel auf Cluster, Ausreißer und besondere funktionale Zusammenhänge untersucht werden. Fragestellungen dieses Typs tauchen häufig bei Anwendungen im Marketing, in der Biometrie, Psychologie und im Operations Research auf. Um zu expliziten oder algorithmischen Lösungen zu kommen, werden teilweise tiefliegende mathematische Hilfsmittel eingesetzt und entwickelt. Das vorliegende Buch benutzt unter anderem Projektionssätze in Hilberträumen, Grundlagen der konvexen Analysis und fortgeschrittenes Matrizenkalkül. Beispiele und Anwendungen kommen jedoch nicht zu kurz; in einem einführenden Kapitel werden Einsatzmöglichkeiten der MDS in verschiedenen Gebieten demonstriert. „... In spite of its small size the book seems to contain all the important mathematical results on MDS which are known at present. Explicit proofs are given for most of the theorems. Thus, the book can be recommended to those who plan to teach or do research in this field.“ J. Krauth. Mathematical Reviews, Ann Arbor

      Multidimensionale Skalierung
    • KlappentextWenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt.

      Informationstheorie