Meer dan een miljoen boeken binnen handbereik!
Bookbot

Claus Weihs

    Auswirkungen von Fehlern in den Daten auf Parameterschätzungen und Prognosen
    Statistische Methoden zur Qualitätssicherung und -optimierung in der Industrie
    Classification - the ubiquitous challenge
    • The contributions in this volume represent the latest research results in the field of Classification, Clustering, and Data Analysis. Besides the theoretical analysis, papers focus on various application fields as Archaeology, Astronomy, Bio-Sciences, Business, Electronic Data and Web, Finance and Insurance, Library Science and Linguistics, Marketing, Music Science, and Quality Assurance.

      Classification - the ubiquitous challenge
    • Qualitätsüberwachung und -optimierung werden in der chemischen Industrie im Hinblick auf Kostenreduktion, Zertifizierung und Kundenanforderungen immer wichtiger. Dabei sind statistische Verfahren ein wesentliches Hilfsmittel.Die Auswahl, Darstellung oder Anwendung solcher Verfahren muß keineswegs kompliziert Dieses Buch ermöglicht dem Anwender ohne statistisches Hintergrundwissen die Auswahl des adäquaten Verfahrens.Es ordnet dem Anwenderproblem ein statistisches Verfahren zu und beschreibt die Voraussetzungen für dessen Anwendung. Es präsentiert den Ablaufplan und die Rechenvorschrift für die Durchführung des Verfahrens und verweist außerdem auf die Gefahren bei einer automatisierten Anwendung. Für interessierte Leser sind zusätzlich weitergehende Methoden und mathematische Hintergründe dargestellt.Die klare Strukturierung und die anschaulichen Beispiele machen dieses Buch für den Einsteiger in Chemie, Chemietechnik, Verfahrenstechnik und Statistik besonders geeignet.

      Statistische Methoden zur Qualitätssicherung und -optimierung in der Industrie
    • Größe und Komplexität empirischer ökonometrischer Modelle haben in den letzten Jahrzehnten immer mehr zugenommen. Die Zuverlässigkeit des zugrundeliegenden Datenmaterials hat sich dagegen kaum verbessert, und eine Fehlspezifizierung von Meßfehlermodellen zur Schließung der Lücke zwischen theoretischen ökonomischen Variablen und den verfügbaren Daten erscheint schon wegen der unglücklichen Trennung zwischen Datenproduzenten und Datennutzern kaum vermeidbar. In dieser Arbeit werden die Auswirkungen solcher Fehlspezifizierungen auf Parameterschätzungen und Prognosen in Modellen wachsender Komplexität bis hin zu nichtlinearen interdependenten dynamischen Modellen analysiert mit Hilfe von asymptotischen Aussagen und Monte-Carlo-Simulationen. Für ein makroökonomisches Modell für die BRD werden außerdem Methoden diskutiert zur Beschaffung von Informationen über Art und Größe von Meßfehlern. Die Simulationsrechnungen basieren auf der Zuverlässigkeit und Schnelligkeit des zugrundeliegenden numerischen Algorithmus zur Full-Information-Maximum-Likelihood-Schätzung in nichtlinearen interdependenten Modellen. Darstellung und Diskussion eines für diesen Zweck entwickelten Algorithmus (trust-region-Verfahren mit automatischer Skalierung) bilden den zweiten Schwerpunkt der Arbeit.

      Auswirkungen von Fehlern in den Daten auf Parameterschätzungen und Prognosen