Nogle Bemærkninger om formel Regning. (Q1440654)

From MaRDI portal
scientific article
Language Label Description Also known as
English
Nogle Bemærkninger om formel Regning.
scientific article

    Statements

    Nogle Bemærkninger om formel Regning. (English)
    0 references
    0 references
    1928
    0 references
    Um die Funktion \(a(n)\), \(n =1,2,3,\dots\), zu untersuchen, betrachtet man unter der Voraussetzung der Konvergenz die Funktionen \[ \sum_n a(n)x^n \;\text{oder}\;\sum \frac{a(n)}{n^x}, \] aus deren Eigenschaften man Schlüsse auf die Eigenschaften der Funktion \(a(n)\) ziehen kann. Häufig läß\ t rein formale Rechnung mit diesen Reihen den eigentlichen Grund für gewisse Eigenschaften von \(a(n)\) erkennen. Verf. gibt dafür zwei Beispiele: I. Die \textit{Möbiussche Umkehrungsformel}: Aus \[ (1)\quad b(n)=\sum_{d/n} a(d) \] folgt \[ (2)\quad a(n)=\sum_{d/n} \mu(d) b \left( \frac nd \right); \] dabei ist die \textit{Möbius}sche Funktion \(\mu(n)\) durch die Gleichung \[ (3)\quad \prod \left(1-\frac{1}{p^x} \right)=\sum \frac{\mu(n)}{n^x} \] definiert, in der \(p\) die Folge der Primzahlen durchläuft. Zum Beweise ersetze man (1) durch \[ \sum \frac{a(n)}{n^x} \sum{1}{n^x}=\sum \frac{b(n)}{n^x}; \] da \[ (4)\quad \sum \frac{1}{n^x}=\prod_p \frac{1}{1-\frac{1}{p^x}} \] ist, erhält man \[ \sum \frac{a(n)}{n^x}=\sum \frac{b(n)}{n^x} \prod \left(1-\frac{1}{p^x} \right)= \sum \frac{b(n)}{n^x} \sum \frac{\mu(n)}{n^x}, \] und diese Gleichung ist die gesuchte. Die Beweiskraft liegt hier nicht in der Konvergenz der Reihen, denn \(a(n)\) ist beliebig, sondern in dem folgenden Umstand: Die Gleichung \[ (5)\quad \sum \frac{\alpha_n}{n^x} \sum \frac{\beta_n}{n^x} =\sum \frac{\gamma_n}{n^x},\;\text{also}\;\gamma_n=\sum_{d/n} \alpha_d \beta_{\frac nd}, \] enthält für irgendein festes \(n\) nur endlich viele Koeffizienten \(\alpha_n\) und \(\beta_n\), d. h. statt der unendlichen Reihe \(\sum \frac{a(n)}{n^x}\) wird nur die endliche Summe \(\sum_1^N \frac{a(n)}{n^x}\) gebraucht. II. Der Satz von \textit{A. F. Andersen} (Dissertation Kopenhagen, 1921; F. d. M. 48, 225-226): Für \[ (6)\quad |\varepsilon_\nu|<k;\;\nu=1,2,3,\dots;r>0,s>-1,r+s>0 \] gilt \[ (7)\quad \Delta^s(\Delta^r \varepsilon_\nu)=\Delta^t \varepsilon_\nu,\;t=r+s. \] Die Differenzen werden am einfachsten definiert durch die Formeln (\(r\) beliebig): \[ (8)\quad (1-x)^r \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\frac{\varepsilon_2}{x^2} +\cdots \right)=\cdots -\Delta^r \varepsilon_0+\frac{\Delta^r \varepsilon_1}{x} + \frac{\Delta^r \varepsilon_2}{x^2}+\cdots, \] \[ (1-x)^r=1+r_1x+r_2x^2+\cdots \;\text{(Binomialformel)}; \] es wird rein formal gerechnet. Zum Beweise werden, wie bei \textit{A. F. Andersen}, die bei \(n\) abbrechenden Differenzen \(r\)-ter Ordnung \(\Delta_n^r \varepsilon_\nu\) betrachtet: \[ (9)\quad (1-x)^r \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\cdots +\frac{\varepsilon_n}{x^n} \right)=\cdots \Delta_n^r \varepsilon_0+\frac{\Delta_n^r \varepsilon_1}{x}+\cdots; \] \(\Delta_n^r \varepsilon_0\) wird ebenso aus der Formel \[ (10)\quad (1+r_1x+\cdots+r_nx^n) \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\cdots \right)=\cdots \Delta_n^r \varepsilon_0 +\cdots \] gefunden. Um (7) für \(r=0\) zu beweisen, zeige man \[ (11)\quad \Delta_n^s(\Delta^r \varepsilon_0) \to \Delta^t \varepsilon_0,\;\text{wenn} \;t \to \infty \] und führe dazu folgende Bezeichnungen ein: \[ \begin{aligned} (12)\quad E(x)&=\varepsilon_0+\frac{\varepsilon_1}{x} +\cdots,\quad R(x)=(1x)^r=r_0+r_1x+\cdots,\\ S(x)&=(1-x)^s=s_0+s_1x+\cdots, \quad S_n(x)=s_0+s_1x+\cdots+s_n x^n,\\ T(x)&=(1-x)^t=t_0+t_1x+\cdots;\end{aligned} \] dabei haben \(r_\nu,s_\nu,t_\nu\) für \(\nu > c\) dasselbe Vorzeichen; \(R(x)\) und \(T(x)\) sind absolut konvergent, im Punkte mit der Summe Null; \(s_\nu \to 0\) für \(\nu \to \infty\). \(\Delta_n^s \Delta^r \varepsilon_0\) ist das konstante Glied des Ausdrucks \[ E(x) \{ R(x)S_n(x)-T(x) \}. \] Setzt man ferner \[ R(x)S_n(x)=\tau_0+\tau_1x+\cdots, \] so erhält man \[ R(x)S_n(x)=\sum_{n+1}^\infty (\tau_\nu-t_\nu)x^\nu,\;\text{wobei} \;\sum_{n+1}^\infty (\tau_\nu-t_\nu)=0; \;\text{d. h}: \] \[ (13)\quad \sum_{n+1}^\infty \tau_\nu \to 0. \] Da nun \[ \Delta_n^s \Delta^r \varepsilon_0=\sum_{\nu=n+1}^\infty \varepsilon_\nu(\tau_\nu-t_\nu)\;\text{mit}\;\sum_{n+1}^\infty \varepsilon_\nu t_\nu \to 0, \] so ist zu zeigen, daß \[ (14)\quad \sum_{n+1}^\infty \varepsilon_\nu \tau_\nu \to 0. \] Dies geschieht durch den Nachweis, daß \[ (15)\quad \sum_{n+1}^\infty |\tau_\nu| \to 0 \;\text{oder} \;\sum_{n+1}^\infty |\tau_\nu|-\sum_{n+1}^\infty \tau_\nu \to 0. \] Die letztere Differenz wird mit Hilfe des Ausdrucks \[ 2 \left\{ \sum_1^c | s_\beta| \cdot \sum_{n-c}^n | r_\alpha|+\sum_1^c | r_\alpha| \cdot \sum_{n-c}^n | s_\beta| \right\} \] abgeschätzt; die erste Summe in jedem der beiden Produkte ist von \(n\) unabhängig, und die zweite geht gegen Null. (III 6.)
    0 references
    0 references