Extension of the Markoff theorem on least squares. (Q2599493)

From MaRDI portal
scientific article
Language Label Description Also known as
English
Extension of the Markoff theorem on least squares.
scientific article

    Statements

    Extension of the Markoff theorem on least squares. (English)
    0 references
    0 references
    0 references
    1938
    0 references
    Beim Nachweis der Anwendbarkeit der Methode der kleinsten Quadrate macht man im allgemeinen die Voraussetzung, daß die Variablen, deren Einzelwerte durch Beobachtungen gegeben sind, voneinander unabhängig und normal verteilt sind. Neuerdings ist von A. A. Markoff, W. F. Sheppard und A. C. Aitken gezeigt worden, daß diese beiden Annahmen vom Standpunkt der Theorie der Methode der kleinsten Quadrate nicht wesentlich sind. Verf. leiten unter Benutzung der Beweismethode von \textit{Markoff} (Wahrscheinlichkeitsrechnung, Teubner 1912; F. d. M. 43, 291 (JFM 43.0291.*)) im wesentlichen die von \textit{Aitken} (Proc, R. Soc. Edinburgh 55 (1935), 42-48; F. d. M. \(61_{\text{II}}\), 1300) erzielten Ergebnisse ab. In der Hauptsache beweisen sie den folgenden Satz: Wenn 1) \(x_1, x_2, \dots, x_n\) alle voneinander unabhängig sind, 2) von dem Erwartungswert eines jeden \(x_i\) \((i = 1, 2, \dots, n)\) bekannt ist, daß er eine lineare Funktion von \(s \leqq n\) unbekannten Parametern \(p_j\) \((j = 1, 2, \dots, s)\) mit bekannten Koeffizienten \(a_{ij}\) ist \[ \mathfrak E (x_i) = a_{i1}p_1 + a_{i2}p_2 + \cdots + a_{is} p_s, \] 3) es möglich ist, aus diesen \(n\) Gleichungen wenigstens ein System von \(s\) Gleichungen auszuwählen, die in bezug auf die \(p\) lösbar sind, d. h. wenn wenigstens eine der Determinanten \(s\)-ter Ordnung der Matrix M = \[ \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1s} \\ a_{21} & a_{22} & \cdots & a_{2s} \\ \hdotsfor 4 \\ a_{n1} & a_{n2} & \cdots & a_{ns} \end{pmatrix} \] von Null verschieden ist, 4) die Standardabweichung \(\sigma_i\) von \(x_i\) der Beziehung \[ \sigma_i^2 = \frac{\sigma^2}{P_i} \qquad (i = 1, 2, \dots n) \] genügt, wo \(\sigma\) unbekannt, die \(P_i\) aber bekannte positive Konstante sind, dann erhält man 1) die beste Abschätzung einer linearen Funktion der \(p\) \[ \theta = b_1 p_1 + b_2 p_2 + \cdots + b_s p_s, \] wo die \(b\) bekannt sind, wenn man in den Ausdruck für \(\theta\) anstatt der \(p_j\) die Werte \(q_j^0\) einsetzt, die man erhält, wenn man \[ S = \sum_{i=1}^n (x_i - a_{i1} q_1 - a_{i2} q_2 - \cdots a_{is} q_s)^2 P_i \] als Funktion der \(q\) zu einem Minimum macht. 2) Ferner wird die mittlere quadratische Abweichung von \[ F = b_1 q_1^0 + b_2 q_2^0 + \cdots + b_s q_s^0 \] durch \[ \mu_F^2 = \frac{S_0}{n-s} \sum_{i=1}^n \frac{\lambda_i^2}{P_i} \] gegeben, wo \(S_0\) das Minimum von \(S\) und die \(\lambda_i\) die Koeffizienten der \(x_i\) in \(F\) sind. \(F\) und \(\mu_F^2\) werden mittels Determinanten in einfacher Form dargestellt, und es wird im Fall linearer Korrelation die Anwendungsmöglichkeit der Formeln erläutert.
    0 references
    0 references