Outline of a theory of statistical estimation based on the classical theory of probability. (Q2601119)
From MaRDI portal
scientific article
Language | Label | Description | Also known as |
---|---|---|---|
English | Outline of a theory of statistical estimation based on the classical theory of probability. |
scientific article |
Statements
Outline of a theory of statistical estimation based on the classical theory of probability. (English)
0 references
1937
0 references
Der erste Teil dieser Arbeit ist einer sehr klaren und interessanten Übersicht der vorliegenden Methoden zur Schätzung statistischer Parameter gewidmet: durch umgekehrte Wahrscheinlichkeit, durch kleinste Quadrate, durch ``maximum likelihood''. Verf. entwickelt dann seine eigne Theorie der ``confidence intervals''. Eine Menge von \(n\) beobachteten Werten der Größe \(x\) sei der Vektor \(X\). Die Wahrscheinlichkeitsfunktion sei \(\varPhi(x, \theta\)), wo \(\theta\) ein unbekannter Parameter ist, den man abzuschätzen wünscht. \(\alpha\) sei eine numerische Wahrscheinlichkeit, z. B. \(\dfrac{19}{20}\). Wenn es zwei Funktionen \(\theta_1(x)\), \(\theta_2(x)\) gibt, derart, daß die Wahrscheinlichkeit \[ P\{\theta_1(X)\leqq\theta\leqq\theta_2(X)\} = \alpha \] ist für jeden Wert von \(\theta\), dann heißen \(\theta_1(X)\), \(\theta_2(X)\) ``untere und obere Grenzen des Zutrauens'' (confidence limits) für \(\theta\). Verf. entwickelt eine Reihe interessanter Sätze mit Beispielen, die für einen kurzen Bericht zu umfangreich sind. Er hält es jedoch für nötig, durch zusätzliche Postulate wie ``engste'' (``narrowest'') Intervalle des Zutrauens, die nicht immer möglich sind, Einzigkeit zu sichern. Er betrachtet auch ``einseitige'' Intervalle und engste ``unbiassed'' Intervalle.
0 references