Nogle Bemærkninger om formel Regning. (Q1440654)
From MaRDI portal
scientific article
Language | Label | Description | Also known as |
---|---|---|---|
English | Nogle Bemærkninger om formel Regning. |
scientific article |
Statements
Nogle Bemærkninger om formel Regning. (English)
0 references
1928
0 references
Um die Funktion \(a(n)\), \(n =1,2,3,\dots\), zu untersuchen, betrachtet man unter der Voraussetzung der Konvergenz die Funktionen \[ \sum_n a(n)x^n \;\text{oder}\;\sum \frac{a(n)}{n^x}, \] aus deren Eigenschaften man Schlüsse auf die Eigenschaften der Funktion \(a(n)\) ziehen kann. Häufig läß\ t rein formale Rechnung mit diesen Reihen den eigentlichen Grund für gewisse Eigenschaften von \(a(n)\) erkennen. Verf. gibt dafür zwei Beispiele: I. Die \textit{Möbiussche Umkehrungsformel}: Aus \[ (1)\quad b(n)=\sum_{d/n} a(d) \] folgt \[ (2)\quad a(n)=\sum_{d/n} \mu(d) b \left( \frac nd \right); \] dabei ist die \textit{Möbius}sche Funktion \(\mu(n)\) durch die Gleichung \[ (3)\quad \prod \left(1-\frac{1}{p^x} \right)=\sum \frac{\mu(n)}{n^x} \] definiert, in der \(p\) die Folge der Primzahlen durchläuft. Zum Beweise ersetze man (1) durch \[ \sum \frac{a(n)}{n^x} \sum{1}{n^x}=\sum \frac{b(n)}{n^x}; \] da \[ (4)\quad \sum \frac{1}{n^x}=\prod_p \frac{1}{1-\frac{1}{p^x}} \] ist, erhält man \[ \sum \frac{a(n)}{n^x}=\sum \frac{b(n)}{n^x} \prod \left(1-\frac{1}{p^x} \right)= \sum \frac{b(n)}{n^x} \sum \frac{\mu(n)}{n^x}, \] und diese Gleichung ist die gesuchte. Die Beweiskraft liegt hier nicht in der Konvergenz der Reihen, denn \(a(n)\) ist beliebig, sondern in dem folgenden Umstand: Die Gleichung \[ (5)\quad \sum \frac{\alpha_n}{n^x} \sum \frac{\beta_n}{n^x} =\sum \frac{\gamma_n}{n^x},\;\text{also}\;\gamma_n=\sum_{d/n} \alpha_d \beta_{\frac nd}, \] enthält für irgendein festes \(n\) nur endlich viele Koeffizienten \(\alpha_n\) und \(\beta_n\), d. h. statt der unendlichen Reihe \(\sum \frac{a(n)}{n^x}\) wird nur die endliche Summe \(\sum_1^N \frac{a(n)}{n^x}\) gebraucht. II. Der Satz von \textit{A. F. Andersen} (Dissertation Kopenhagen, 1921; F. d. M. 48, 225-226): Für \[ (6)\quad |\varepsilon_\nu|<k;\;\nu=1,2,3,\dots;r>0,s>-1,r+s>0 \] gilt \[ (7)\quad \Delta^s(\Delta^r \varepsilon_\nu)=\Delta^t \varepsilon_\nu,\;t=r+s. \] Die Differenzen werden am einfachsten definiert durch die Formeln (\(r\) beliebig): \[ (8)\quad (1-x)^r \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\frac{\varepsilon_2}{x^2} +\cdots \right)=\cdots -\Delta^r \varepsilon_0+\frac{\Delta^r \varepsilon_1}{x} + \frac{\Delta^r \varepsilon_2}{x^2}+\cdots, \] \[ (1-x)^r=1+r_1x+r_2x^2+\cdots \;\text{(Binomialformel)}; \] es wird rein formal gerechnet. Zum Beweise werden, wie bei \textit{A. F. Andersen}, die bei \(n\) abbrechenden Differenzen \(r\)-ter Ordnung \(\Delta_n^r \varepsilon_\nu\) betrachtet: \[ (9)\quad (1-x)^r \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\cdots +\frac{\varepsilon_n}{x^n} \right)=\cdots \Delta_n^r \varepsilon_0+\frac{\Delta_n^r \varepsilon_1}{x}+\cdots; \] \(\Delta_n^r \varepsilon_0\) wird ebenso aus der Formel \[ (10)\quad (1+r_1x+\cdots+r_nx^n) \left( \varepsilon_0+\frac{\varepsilon_1}{x}+\cdots \right)=\cdots \Delta_n^r \varepsilon_0 +\cdots \] gefunden. Um (7) für \(r=0\) zu beweisen, zeige man \[ (11)\quad \Delta_n^s(\Delta^r \varepsilon_0) \to \Delta^t \varepsilon_0,\;\text{wenn} \;t \to \infty \] und führe dazu folgende Bezeichnungen ein: \[ \begin{aligned} (12)\quad E(x)&=\varepsilon_0+\frac{\varepsilon_1}{x} +\cdots,\quad R(x)=(1x)^r=r_0+r_1x+\cdots,\\ S(x)&=(1-x)^s=s_0+s_1x+\cdots, \quad S_n(x)=s_0+s_1x+\cdots+s_n x^n,\\ T(x)&=(1-x)^t=t_0+t_1x+\cdots;\end{aligned} \] dabei haben \(r_\nu,s_\nu,t_\nu\) für \(\nu > c\) dasselbe Vorzeichen; \(R(x)\) und \(T(x)\) sind absolut konvergent, im Punkte mit der Summe Null; \(s_\nu \to 0\) für \(\nu \to \infty\). \(\Delta_n^s \Delta^r \varepsilon_0\) ist das konstante Glied des Ausdrucks \[ E(x) \{ R(x)S_n(x)-T(x) \}. \] Setzt man ferner \[ R(x)S_n(x)=\tau_0+\tau_1x+\cdots, \] so erhält man \[ R(x)S_n(x)=\sum_{n+1}^\infty (\tau_\nu-t_\nu)x^\nu,\;\text{wobei} \;\sum_{n+1}^\infty (\tau_\nu-t_\nu)=0; \;\text{d. h}: \] \[ (13)\quad \sum_{n+1}^\infty \tau_\nu \to 0. \] Da nun \[ \Delta_n^s \Delta^r \varepsilon_0=\sum_{\nu=n+1}^\infty \varepsilon_\nu(\tau_\nu-t_\nu)\;\text{mit}\;\sum_{n+1}^\infty \varepsilon_\nu t_\nu \to 0, \] so ist zu zeigen, daß \[ (14)\quad \sum_{n+1}^\infty \varepsilon_\nu \tau_\nu \to 0. \] Dies geschieht durch den Nachweis, daß \[ (15)\quad \sum_{n+1}^\infty |\tau_\nu| \to 0 \;\text{oder} \;\sum_{n+1}^\infty |\tau_\nu|-\sum_{n+1}^\infty \tau_\nu \to 0. \] Die letztere Differenz wird mit Hilfe des Ausdrucks \[ 2 \left\{ \sum_1^c | s_\beta| \cdot \sum_{n-c}^n | r_\alpha|+\sum_1^c | r_\alpha| \cdot \sum_{n-c}^n | s_\beta| \right\} \] abgeschätzt; die erste Summe in jedem der beiden Produkte ist von \(n\) unabhängig, und die zweite geht gegen Null. (III 6.)
0 references