A general class of powerful and flexible modeling techniques, spline smoothing has attracted a great deal of research attention in recent years and has been widely used in many application areas, from medicine to economics. Smoothing Splines: Methods and Applications covers basic smoothing spline models, including polynomial, periodic, spherical, thin-plate, L-, and partial splines, as well as more advanced models, such as smoothing spline ANOVA, extended and generalized smoothing spline ANOVA, vector spline, nonparametric nonlinear regression, semiparametric regression, and semiparametric mixed-effects models. It also presents methods for model selection and inference. The book provides unified frameworks for estimation, inference, and software implementation by using the general forms of nonparametric/semiparametric, linear/nonlinear, and fixed/mixed smoothing spline models. The theory of reproducing kernel Hilbert space (RKHS) is used to present various smoothing spline models in a unified fashion. Although this approach can be technical and difficult, the author makes the advanced smoothing spline methodology based on RKHS accessible to practitioners and students. He offers a gentle introduction to RKHS, keeps theory at a minimum level, and explains how RKHS can be used to construct spline models. Smoothing Splines offers a balanced mix of methodology, computation, implementation, software, and applications. It uses R to perform all data analyses and includes a host of real data examples from astronomy, economics, medicine, and meteorology. The codes for all examples, along with related developments, can be found on the book’s web page.
Diese f?r Studierende ebenso wie f?r Wissenschaftler, Ingenieure und Praktiker geeignete Einf?hrung in mathematische Modellbildung und Simulation setzt nur einfache Grundkenntnisse in Analysis und linearer Algebra voraus - alle weiteren Konzepte werden im Buch entwickelt. Die Leserinnen und Leser lernen anhand detailliert besprochener Beispiele aus unterschiedlichsten Bereichen (Biologie, ?kologie, ?konomie, Medizin, Landwirtschaft, Chemie, Maschinenbau, Elektrotechnik, Prozesstechnik usw.), sich kritisch mit mathematischen Modellen auseinanderzusetzen und anspruchsvolle mathematische Modelle selbst zu formulieren und zu implementieren. Das Themenspektrum reicht von statistischen Modellen bis zur Mehrphasen-Str?mungsdynamik in 3D. F?r alle im Buch besprochenen Modellklassen wird kostenlose Open-Source-Software zur Verf?gung gestellt. Grundlage ist das eigens f?r dieses Buch entwickelte Betriebssystem Gm.Linux ("Geisenheim-Linux"), das ohne Installationsaufwand z.B. auch auf Windows-Rechnern l?uft. Ein Referenzkartensystem zu Gm.Linux mit einfachen Schritt-f?r-Schritt-Anleitungen erm?glicht es, auch komplexe statistische Berechnungen oder 3D-Str?mungssimulationen in kurzer Zeit zu realisieren. Alle im Buch beschriebenen Verfahren beziehen sich auf Gm.Linux 2.0 (und die darin fixierten Versionen aller Anwendungsprogramme) und sind daher unabh?ngig von Softwareaktualisierungen langfristig verwendbar.
This book presents recent science and engineering research in the field of conventional and renewable energy, energy efficiency and optimization, discussing problems such as availability, peak load and reliability of sustainable supply for power to consumers. Such research is imperative since efficient and environmentally friendly solutions are critical in modern electricity production and transmission.
In recent years, there has been a great deal of interest and activity in the general area of nonparametric smoothing in statistics. This monograph concentrates on the roughness penalty method and shows how this technique provides a unifying approach to a wide range of smoothing problems. The method allows parametric assumptions to be realized in regression problems, in those approached by generalized linear modelling, and in many other contexts. The emphasis throughout is methodological rather than theoretical, and it concentrates on statistical and computation issues. Real data examples are used to illustrate the various methods and to compare them with standard parametric approaches. Some publicly available software is also discussed. The mathematical treatment is self-contained and depends mainly on simple linear algebra and calculus. This monograph will be useful both as a reference work for research and applied statisticians and as a text for graduate students and other encountering the material for the first time.
Data-analytic approaches to regression problems, arising from many scientific disciplines are described in this book. The aim of these nonparametric methods is to relax assumptions on the form of a regression function and to let data search for a suitable function that describes the data well. The use of these nonparametric functions with parametric techniques can yield very powerful data analysis tools. Local polynomial modeling and its applications provides an up-to-date picture on state-of-the-art nonparametric regression techniques. The emphasis of the book is on methodologies rather than on theory, with a particular focus on applications of nonparametric techniques to various statistical problems. High-dimensional data-analytic tools are presented, and the book includes a variety of examples. This will be a valuable reference for research and applied statisticians, and will serve as a textbook for graduate students and others interested in nonparametric regression.
Handbook of Spatial Epidemiology explains how to model epidemiological problems and improve inference about disease etiology from a geographical perspective. Top epidemiologists, geographers, and statisticians share interdisciplinary viewpoints on analyzing spatial data and space–time variations in disease incidences. These analyses can provide important information that leads to better decision making in public health. The first part of the book addresses general issues related to epidemiology, GIS, environmental studies, clustering, and ecological analysis. The second part presents basic statistical methods used in spatial epidemiology, including fundamental likelihood principles, Bayesian methods, and testing and nonparametric approaches. With a focus on special methods, the third part describes geostatistical models, splines, quantile regression, focused clustering, mixtures, multivariate methods, and much more. The final part examines special problems and application areas, such as residential history analysis, segregation, health services research, health surveys, infectious disease, veterinary topics, and health surveillance and clustering. Spatial epidemiology, also known as disease mapping, studies the geographical or spatial distribution of health outcomes. This handbook offers a wide-ranging overview of state-of-the-art approaches to determine the relationships between health and various risk factors, empowering researchers and policy makers to tackle public health problems.
Computational statistics and statistical computing are two areas that employ computational, graphical, and numerical approaches to solve statistical problems, making the versatile R language an ideal computing environment for these fields. One of the first books on these topics to feature R, Statistical Computing with R covers the traditional core material of computational statistics, with an emphasis on using the R language via an examples-based approach. Suitable for an introductory course in computational statistics or for self-study, it includes R code for all examples and R notes to help explain the R programming concepts. After an overview of computational statistics and an introduction to the R computing environment, the book reviews some basic concepts in probability and classical statistical inference. Each subsequent chapter explores a specific topic in computational statistics. These chapters cover the simulation of random variables from probability distributions, the visualization of multivariate data, Monte Carlo integration and variance reduction methods, Monte Carlo methods in inference, bootstrap and jackknife, permutation tests, Markov chain Monte Carlo (MCMC) methods, and density estimation. The final chapter presents a selection of examples that illustrate the application of numerical methods using R functions. Focusing on implementation rather than theory, this text serves as a balanced, accessible introduction to computational statistics and statistical computing.
Data mining is an interdisciplinary field dealing with the discovery of hidden data and unexpected patterns and rules in large databases. In this book, containing the proceedings of the second International Conference on Data Mining, researchers and applications developers from academia and industry present research and practical experiences in the diverse areas which make up data mining. They include computer experts, statisticians, knowledge acquisition specialists, data analysts, IT consultants, data visualization experts as well as users and developers.
Since their introduction in 1972, generalized linear models (GLMs) have proven useful in the generalization of classical normal models. Presenting methods for fitting GLMs with random effects to data, Generalized Linear Models with Random Effects: Unified Analysis via H-likelihood explores a wide range of applications, including combining information over trials (meta-analysis), analysis of frailty models for survival data, genetic epidemiology, and analysis of spatial and temporal models with correlated errors. Written by pioneering authorities in the field, this reference provides an introduction to various theories and examines likelihood inference and GLMs. The authors show how to extend the class of GLMs while retaining as much simplicity as possible. By maximizing and deriving other quantities from h-likelihood, they also demonstrate how to use a single algorithm for all members of the class, resulting in a faster algorithm as compared to existing alternatives. Complementing theory with examples, many of which can be run by using the code supplied on the accompanying CD, this book is beneficial to statisticians and researchers involved in the above applications as well as quality-improvement experiments and missing-data analysis.
Zuverlässige Vorhersagen sind doch möglich! Nate Silver ist der heimliche Gewinner der amerikanischen Präsidentschaftswahlen 2012: ein begnadeter Statistiker, als »Prognose-Popstar« und »Wundernerd« weltberühmt geworden. Er hat die Wahlergebnisse aller 50 amerikanischen Bundesstaaten absolut exakt vorausgesagt – doch damit nicht genug: Jetzt zeigt Nate Silver, wie seine Prognosen in Zukunft Terroranschläge, Umweltkatastrophen und Finanzkrisen verhindern sollen. Gelingt ihm die Abschaffung des Zufalls? Warum werden Wettervorhersagen immer besser, während die Terrorattacken vom 11.09.2001 niemand kommen sah? Warum erkennen Ökonomen eine globale Finanzkrise nicht einmal dann, wenn diese bereits begonnen hat? Das Problem ist nicht der Mangel an Informationen, sondern dass wir die verfügbaren Daten nicht richtig deuten. Zuverlässige Prognosen aber würden uns helfen, Zufälle und Ungewissheiten abzuwehren und unser Schicksal selbst zu bestimmen. Nate Silver zeigt, dass und wie das geht. Erstmals wendet er seine Wahrscheinlichkeitsrechnung nicht nur auf Wahlprognosen an, sondern auf die großen Probleme unserer Zeit: die Finanzmärkte, Ratingagenturen, Epidemien, Erdbeben, den Klimawandel, den Terrorismus. In all diesen Fällen gibt es zahlreiche Prognosen von Experten, die er überprüft – und erklärt, warum sie meist falsch sind. Gleichzeitig schildert er, wie es gelingen kann, im Rauschen der Daten die wesentlichen Informationen herauszufiltern. Ein unterhaltsamer und spannender Augenöffner!
In dem Band beschreiben die Autoren erstmals klassische Regressionsansätze und moderne nicht- und semiparametrische Methoden in einer integrierten und anwendungsorientierten Form. Um Lesern die Analyse eigener Fragestellungen zu ermöglichen, demonstrieren sie die praktische Anwendung der Konzepte und Methoden anhand ausführlicher Fallstudien. Geeignet für Studierende der Statistik sowie für Wissenschaftler und Praktiker, zum Beispiel in den Wirtschafts- und Sozialwissenschaften, der Bioinformatik und -statistik, Ökonometrie und Epidemiologie.
In der 2. Auflage wird u.a. der Vorteil der Wavelet-Transformation gegenüber der gef. Fourier-Transformation deutlich herausgearbeitet. Die Konstruktionsprinzipien orthogonaler und biorthogonaler Wavelets werden durch Beispiele weitergehend erläutert. Zahlreiche Aufgaben erleichtern das Verständnis des Stoffes.
Paulo Ribenboim behandelt Zahlen in dieser außergewöhnlichen Sammlung von Übersichtsartikeln wie seine persönlichen Freunde. In leichter und allgemein zugänglicher Sprache berichtet er über Primzahlen, Fibonacci-Zahlen (und das Nordpolarmeer!), die klassischen Arbeiten von Gauß über binäre quadratische Formen, Eulers berühmtes primzahlerzeugendes Polynom, irrationale und transzendente Zahlen. Nach dem großen Erfolg von „Die Welt der Primzahlen" ist dies das zweite Buch von Paulo Ribenboim, das in deutscher Sprache erscheint.
Studienarbeit aus dem Jahr 2008 im Fachbereich Statistik, Note: 1,3, Universität der Bundeswehr München, Neubiberg (Fakultät für Staats- und Sozialwissenschaften), Veranstaltung: Empirische Sozialforschung / Soziologie, Sprache: Deutsch, Abstract: Da der Begriff Elite vielseitig verwendet wird (z.B. Eliteeinheiten beim Militär) und in der Geschichte sowohl positiv als auch negativ gebraucht wurde, wird am Anfang dieser Arbeit der Begriff geklärt und besonders die Bedeutung des Begriffs Elite in Deutschland veranschaulicht, um darauf aufbauend den durch den Faschismus begründeten Sonderweg in der deutschen Eliterekrutierung zu verdeutlichen. Danach werden die zwei Hauptselektionskriterien in der Eliterekrutierung sozialer Habitus und Bildung behandelt, um klar zu machen inwieweit gerade der soziale Habitus auf die Chance als Elite in Deutschland rekrutiert zu werden wirkt. Dazu werden in dieser Arbeit die bereits vorliegenden Forschungsergebnisse von Michael Hartmann auf diese Fragestellung hin untersucht und mit denen von Schubert vertieft, welcher die Forschungsergebnisse Hartmanns mit denen von anderen Forschungsergebnissen vergleicht . Abschließend wird der deutsche Weg mit dem anderer großer Industriestaaten verglichen, um die Eliterekrutierung in Deutschland international einordnen zu können. Resümierend werden dann die Ergebnisse der Arbeit im Schluss einer Betrachtung unterzogen.
Lehrbuch über die statistischen Aspekte ökonomischer Modellbildung. Zudem ein international als hervorragend geschätztes Buch.
Dieser Buchtitel ist Teil des Digitalisierungsprojekts Springer Book Archives mit Publikationen, die seit den Anfängen des Verlags von 1842 erschienen sind. Der Verlag stellt mit diesem Archiv Quellen für die historische wie auch die disziplingeschichtliche Forschung zur Verfügung, die jeweils im historischen Kontext betrachtet werden müssen. Dieser Titel erschien in der Zeit vor 1945 und wird daher in seiner zeittypischen politisch-ideologischen Ausrichtung vom Verlag nicht beworben.

Best Books