A general class of powerful and flexible modeling techniques, spline smoothing has attracted a great deal of research attention in recent years and has been widely used in many application areas, from medicine to economics. Smoothing Splines: Methods and Applications covers basic smoothing spline models, including polynomial, periodic, spherical, thin-plate, L-, and partial splines, as well as more advanced models, such as smoothing spline ANOVA, extended and generalized smoothing spline ANOVA, vector spline, nonparametric nonlinear regression, semiparametric regression, and semiparametric mixed-effects models. It also presents methods for model selection and inference. The book provides unified frameworks for estimation, inference, and software implementation by using the general forms of nonparametric/semiparametric, linear/nonlinear, and fixed/mixed smoothing spline models. The theory of reproducing kernel Hilbert space (RKHS) is used to present various smoothing spline models in a unified fashion. Although this approach can be technical and difficult, the author makes the advanced smoothing spline methodology based on RKHS accessible to practitioners and students. He offers a gentle introduction to RKHS, keeps theory at a minimum level, and explains how RKHS can be used to construct spline models. Smoothing Splines offers a balanced mix of methodology, computation, implementation, software, and applications. It uses R to perform all data analyses and includes a host of real data examples from astronomy, economics, medicine, and meteorology. The codes for all examples, along with related developments, can be found on the book’s web page.
Diese für Studierende ebenso wie für Wissenschaftler, Ingenieure und Praktiker geeignete Einführung in mathematische Modellbildung und Simulation setzt nur einfache Grundkenntnisse in Analysis und linearer Algebra voraus - alle weiteren Konzepte werden im Buch entwickelt. Die Leserinnen und Leser lernen anhand detailliert besprochener Beispiele aus unterschiedlichsten Bereichen (Biologie, Ökologie, Ökonomie, Medizin, Landwirtschaft, Chemie, Maschinenbau, Elektrotechnik, Prozesstechnik usw.), sich kritisch mit mathematischen Modellen auseinanderzusetzen und anspruchsvolle mathematische Modelle selbst zu formulieren und zu implementieren. Das Themenspektrum reicht von statistischen Modellen bis zur Mehrphasen-Strömungsdynamik in 3D. Für alle im Buch besprochenen Modellklassen wird kostenlose Open-Source-Software zur Verfügung gestellt. Grundlage ist das eigens für dieses Buch entwickelte Betriebssystem Gm.Linux ("Geisenheim-Linux"), das ohne Installationsaufwand z.B. auch auf Windows-Rechnern läuft. Ein Referenzkartensystem zu Gm.Linux mit einfachen Schritt-für-Schritt-Anleitungen ermöglicht es, auch komplexe statistische Berechnungen oder 3D-Strömungssimulationen in kurzer Zeit zu realisieren. Alle im Buch beschriebenen Verfahren beziehen sich auf Gm.Linux 2.0 (und die darin fixierten Versionen aller Anwendungsprogramme) und sind daher unabhängig von Softwareaktualisierungen langfristig verwendbar.
This book presents recent science and engineering research in the field of conventional and renewable energy, energy efficiency and optimization, discussing problems such as availability, peak load and reliability of sustainable supply for power to consumers. Such research is imperative since efficient and environmentally friendly solutions are critical in modern electricity production and transmission.
In recent years, there has been a great deal of interest and activity in the general area of nonparametric smoothing in statistics. This monograph concentrates on the roughness penalty method and shows how this technique provides a unifying approach to a wide range of smoothing problems. The method allows parametric assumptions to be realized in regression problems, in those approached by generalized linear modelling, and in many other contexts. The emphasis throughout is methodological rather than theoretical, and it concentrates on statistical and computation issues. Real data examples are used to illustrate the various methods and to compare them with standard parametric approaches. Some publicly available software is also discussed. The mathematical treatment is self-contained and depends mainly on simple linear algebra and calculus. This monograph will be useful both as a reference work for research and applied statisticians and as a text for graduate students and other encountering the material for the first time.
Data-analytic approaches to regression problems, arising from many scientific disciplines are described in this book. The aim of these nonparametric methods is to relax assumptions on the form of a regression function and to let data search for a suitable function that describes the data well. The use of these nonparametric functions with parametric techniques can yield very powerful data analysis tools. Local polynomial modeling and its applications provides an up-to-date picture on state-of-the-art nonparametric regression techniques. The emphasis of the book is on methodologies rather than on theory, with a particular focus on applications of nonparametric techniques to various statistical problems. High-dimensional data-analytic tools are presented, and the book includes a variety of examples. This will be a valuable reference for research and applied statisticians, and will serve as a textbook for graduate students and others interested in nonparametric regression.
Handbook of Spatial Epidemiology explains how to model epidemiological problems and improve inference about disease etiology from a geographical perspective. Top epidemiologists, geographers, and statisticians share interdisciplinary viewpoints on analyzing spatial data and space–time variations in disease incidences. These analyses can provide important information that leads to better decision making in public health. The first part of the book addresses general issues related to epidemiology, GIS, environmental studies, clustering, and ecological analysis. The second part presents basic statistical methods used in spatial epidemiology, including fundamental likelihood principles, Bayesian methods, and testing and nonparametric approaches. With a focus on special methods, the third part describes geostatistical models, splines, quantile regression, focused clustering, mixtures, multivariate methods, and much more. The final part examines special problems and application areas, such as residential history analysis, segregation, health services research, health surveys, infectious disease, veterinary topics, and health surveillance and clustering. Spatial epidemiology, also known as disease mapping, studies the geographical or spatial distribution of health outcomes. This handbook offers a wide-ranging overview of state-of-the-art approaches to determine the relationships between health and various risk factors, empowering researchers and policy makers to tackle public health problems.
Computational statistics and statistical computing are two areas that employ computational, graphical, and numerical approaches to solve statistical problems, making the versatile R language an ideal computing environment for these fields. One of the first books on these topics to feature R, Statistical Computing with R covers the traditional core material of computational statistics, with an emphasis on using the R language via an examples-based approach. Suitable for an introductory course in computational statistics or for self-study, it includes R code for all examples and R notes to help explain the R programming concepts. After an overview of computational statistics and an introduction to the R computing environment, the book reviews some basic concepts in probability and classical statistical inference. Each subsequent chapter explores a specific topic in computational statistics. These chapters cover the simulation of random variables from probability distributions, the visualization of multivariate data, Monte Carlo integration and variance reduction methods, Monte Carlo methods in inference, bootstrap and jackknife, permutation tests, Markov chain Monte Carlo (MCMC) methods, and density estimation. The final chapter presents a selection of examples that illustrate the application of numerical methods using R functions. Focusing on implementation rather than theory, this text serves as a balanced, accessible introduction to computational statistics and statistical computing.
Data mining is an interdisciplinary field dealing with the discovery of hidden data and unexpected patterns and rules in large databases. In this book, containing the proceedings of the second International Conference on Data Mining, researchers and applications developers from academia and industry present research and practical experiences in the diverse areas which make up data mining. They include computer experts, statisticians, knowledge acquisition specialists, data analysts, IT consultants, data visualization experts as well as users and developers.
Since their introduction in 1972, generalized linear models (GLMs) have proven useful in the generalization of classical normal models. Presenting methods for fitting GLMs with random effects to data, Generalized Linear Models with Random Effects: Unified Analysis via H-likelihood explores a wide range of applications, including combining information over trials (meta-analysis), analysis of frailty models for survival data, genetic epidemiology, and analysis of spatial and temporal models with correlated errors. Written by pioneering authorities in the field, this reference provides an introduction to various theories and examines likelihood inference and GLMs. The authors show how to extend the class of GLMs while retaining as much simplicity as possible. By maximizing and deriving other quantities from h-likelihood, they also demonstrate how to use a single algorithm for all members of the class, resulting in a faster algorithm as compared to existing alternatives. Complementing theory with examples, many of which can be run by using the code supplied on the accompanying CD, this book is beneficial to statisticians and researchers involved in the above applications as well as quality-improvement experiments and missing-data analysis.
Zuverlässige Vorhersagen sind doch möglich! Nate Silver ist der heimliche Gewinner der amerikanischen Präsidentschaftswahlen 2012: ein begnadeter Statistiker, als »Prognose-Popstar« und »Wundernerd« weltberühmt geworden. Er hat die Wahlergebnisse aller 50 amerikanischen Bundesstaaten absolut exakt vorausgesagt – doch damit nicht genug: Jetzt zeigt Nate Silver, wie seine Prognosen in Zukunft Terroranschläge, Umweltkatastrophen und Finanzkrisen verhindern sollen. Gelingt ihm die Abschaffung des Zufalls? Warum werden Wettervorhersagen immer besser, während die Terrorattacken vom 11.09.2001 niemand kommen sah? Warum erkennen Ökonomen eine globale Finanzkrise nicht einmal dann, wenn diese bereits begonnen hat? Das Problem ist nicht der Mangel an Informationen, sondern dass wir die verfügbaren Daten nicht richtig deuten. Zuverlässige Prognosen aber würden uns helfen, Zufälle und Ungewissheiten abzuwehren und unser Schicksal selbst zu bestimmen. Nate Silver zeigt, dass und wie das geht. Erstmals wendet er seine Wahrscheinlichkeitsrechnung nicht nur auf Wahlprognosen an, sondern auf die großen Probleme unserer Zeit: die Finanzmärkte, Ratingagenturen, Epidemien, Erdbeben, den Klimawandel, den Terrorismus. In all diesen Fällen gibt es zahlreiche Prognosen von Experten, die er überprüft – und erklärt, warum sie meist falsch sind. Gleichzeitig schildert er, wie es gelingen kann, im Rauschen der Daten die wesentlichen Informationen herauszufiltern. Ein unterhaltsamer und spannender Augenöffner!
In diesem kompetent geschriebenen Lehrbuch wird, ausgehend von der Beschreibung unserer Milchstraße, die Astronomie der Galaxien und ihrer großräumigen Verteilung eingehend dargestellt und schließlich im kosmologischen Kontext diskutiert. Aufbauend auf eine Einführung in die moderne beobachtende und theoretische Kosmologie wird die Entstehung von Strukturen und astronomischen Objekten im frühen Universum besprochen.
In dem Band beschreiben die Autoren erstmals klassische Regressionsansätze und moderne nicht- und semiparametrische Methoden in einer integrierten und anwendungsorientierten Form. Um Lesern die Analyse eigener Fragestellungen zu ermöglichen, demonstrieren sie die praktische Anwendung der Konzepte und Methoden anhand ausführlicher Fallstudien. Geeignet für Studierende der Statistik sowie für Wissenschaftler und Praktiker, zum Beispiel in den Wirtschafts- und Sozialwissenschaften, der Bioinformatik und -statistik, Ökonometrie und Epidemiologie.
In der 2. Auflage wird u.a. der Vorteil der Wavelet-Transformation gegenüber der gef. Fourier-Transformation deutlich herausgearbeitet. Die Konstruktionsprinzipien orthogonaler und biorthogonaler Wavelets werden durch Beispiele weitergehend erläutert. Zahlreiche Aufgaben erleichtern das Verständnis des Stoffes.
R ist eine objekt-orientierte und interpretierte Sprache und Programmierumgebung für Datenanalyse und Grafik - frei erhältlich unter der GPL. Ziel dieses Buches ist es, nicht nur ausführlich in die Grundlagen der Sprache R einzuführen, sondern auch ein Verständnis der Struktur der Sprache zu vermitteln. Leicht können so eigene Methoden umgesetzt, Objektklassen definiert und ganze Pakete aus Funktionen und zugehöriger Dokumentation zusammengestellt werden. Die enormen Grafikfähigkeiten von R werden detailliert beschrieben. Das Buch richtet sich an alle, die R als flexibles Werkzeug zur Datenenalyse und -visualisierung einsetzen möchten: Studierende, die Daten in Projekten oder für ihre Diplomarbeit analysieren möchten, Forschende, die neue Methoden ausprobieren möchten, und diejenigen, die in der Wirtschaft täglich Daten aufbereiten, analysieren und anderen in komprimierter Form präsentieren.
Lehrbuch über die statistischen Aspekte ökonomischer Modellbildung. Zudem ein international als hervorragend geschätztes Buch.

Best Books