Proof that the coefficients of the trigonometric series \[ \quad f(x) = \varSigma (a_{p} \cos px + b_{p} \sin . px) \] have the values \[ a_{0} = \frac{1}{2\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha), \quad a_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \cos . p\alpha, \] \[ b_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \sin . p \alpha, \] whenever these integrals are finite and definite. (Q5969778): Difference between revisions

From MaRDI portal
Import240304020342 (talk | contribs)
Set profile property.
Added link to MaRDI item.
 
links / mardi / namelinks / mardi / name
 

Latest revision as of 07:06, 7 March 2024

scientific article; zbMATH DE number 2713865
Language Label Description Also known as
English
Proof that the coefficients of the trigonometric series \[ \quad f(x) = \varSigma (a_{p} \cos px + b_{p} \sin . px) \] have the values \[ a_{0} = \frac{1}{2\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha), \quad a_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \cos . p\alpha, \] \[ b_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \sin . p \alpha, \] whenever these integrals are finite and definite.
scientific article; zbMATH DE number 2713865

    Statements

    Proof that the coefficients of the trigonometric series \[ \quad f(x) = \varSigma (a_{p} \cos px + b_{p} \sin . px) \] have the values \[ a_{0} = \frac{1}{2\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha), \quad a_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \cos . p\alpha, \] \[ b_{p} = \frac{1}{\pi} \int_{ \pi}^{+\pi} d\alpha f(\alpha) \sin . p \alpha, \] whenever these integrals are finite and definite. (English)
    0 references
    1876
    0 references
    In seinem ``Antrittsprogramme'' führte der Herr Verfasser die {\textit{Unbestimmtheitsgrenzen}} einer divergenten Reihe ein, einen Begriff, welcher für die Analysis von grösstem Nutzen ist, wie die vorliegende Abhandlung besonders schlagend darthut. Betrachtet man eine Veränderliche, z. B. die Summen \[ u_1 + u_2 + \cdots + u_n = U_{n} \quad (n = 1,2 \ldots \text{in inf.}), \] so existiren zwei Zahlen, zwischen denen \(U_{n}\) für \(\lim n = \infty\) schwankt. Die Zahlen \(U_{n+m} \;(m = 0,1, \ldots \text{in inf.})\) haben nämlich sowohl eine obere Grenze \(B_{n}\), als eine untere \(A_{n}\). Da bei wachsenden \(n B_{n}\) niemals zunimmt, so existirt \(\lim B_{n}\) für \(\lim n = + \infty\), und dieses ist die obere Grenze \(B\) der Unbestimmtheit der Grössen \(U_{n}\). In derselben Art giebt es auch eine untere Grenze \(A<B\). Ist die unendliche Reihe \(\varSigma u_{n}\) convergent, so ist \(B = A\), welche Bedingung offenbar nicht bloss als nothwendig, sondern auch als hinreichend erscheint. Der Beweis des im Titel erwähnten Satzes beruht auf dem Gedanken, die Summe der von Riemann angeführten Reihe \[ (2) \quad F(x) = \frac{a_{0}x^2}{2} - \sum_{p=1}^{\infty} \frac{a_{p} \cos px + b_{p} \sin . px}{p^2}, \] deren gleichmässige Convergenz für alle endlichen \(x\) feststeht, falls nur \[ \lim a_{p} = \lim b_{p} = 0 \quad (p=\infty), \] auszudrücken durch \(f(x)\). Dann wird man, da sich die letztere Reihe gliedweise integriren lässt, zum Ausdrucke der Coefficienten \(a_{p}, b_{p}\) durch \(f(x)\) gelangen. Nimmt man zunächst an, die Reihe (1) convergire für alle Werthe von \(x\): \[ - \pi < x < + \pi \] und ihre Summe \(f(x)\) sei für dieselben stetig, so folgt nach einem Satze von Riemann sofort, dass für die Function \[ \varPhi(x) = F(x) - F_{1} (x), \] wo \[ F_{1}(x) = \int_{-\pi}^{x} d \alpha \int_{- \pi}^{\alpha} d \beta f(\beta), \] der Grenzwerth des zweiten Differenzquotienten Null sei, so lange \[ - \pi < x < + \pi. \] Da ausserdem wegen der Existenz des Integrales \[ \int_{-\pi}^{+\pi} fx dx \] \(\varPhi (x)\) eine stetige Function idt für alle \(x\): \[ - \pi \leqq x \leqq + \pi, \] so kann man nach dem von Herrn Schwarz (Borchardt J. LXXII. p. 141) bewiesenen Satze schliessen, dass \(\varPhi (x)\) eine lineare Function von \(x\) sei, für alle endlichen Werthe von \(x\). Setzt man nun in den aus (2) folgenden Formeln \[ \int_{- \pi}^{+ \pi} F(\alpha) . \cos n \alpha d \alpha = (-1)^{n} \frac{2\pi}{n^2} a_{0} - \frac{a_{n}}{n^2} \pi \;\;\text{etc.} \] \[ F (x) = F_{1}(x) + c_{0} + c_{1} x, \] so gelangt man durch Benutzunge der partiellen Integration, welche aber genauer formulirt werden muss, als es früher üblich war (vgl. dieses Jahrbuch Bd. VII. p. 145, JFM 07.0145.02), und eines weiteren Satzes von Riemann (Darstellbarkeit cte. Art. 10) sofort zu den Fourier'schen Ausdrücken für die Coefficienten \(a_{n}, b_{n}\). Das so eben auseinandergesetzte Beweisverfahren beruht ausser auf der Existenz des Integrales \[ \int_{- \pi}^{+ \pi} f(x) dx \] und dem Verschwinden von \[ \lim a_{n} = \lim b_{n} = 0 \quad \text{für} \quad \lim n = \infty \] auf dem Satze, dass \(\varphi \;(x)\) eine lineare Function von \(x\) ist. Dieser Satz gilt auch noch, wenn über \(f(x)\) nichts weiter als die Endlichkeit und Integrabilität vorausgesetzt wird. Der Beweis begegnet aber grossen Schwierigkeiten. Da zur Integrirbarkeit von \(f(x)\) nicht erforderlich ist, dass es für alle Werthe von \(x\) im Intervalle von \(- \pi\) bis \(+ \pi\) definirt sei, d. i. dass die Reihe (1) für alle diese Werthe convergire, so setze man \[ (3) \quad f(x) = \frac{O(x) + U(x)}{2} + j \frac{O(x) - U(x)}{2} = \varphi \;(x) + j \psi \;(x), \] wo \(j\) eine willkürliche Zahl zwischen - 1 und + 1, \(O(x)\) und \(U(x)\) die Unbestimmtheitsgrenzen für die Reihe (1) bezeichnen. Diese Formel stimmt auch für den Fall der Convergenz dieser Reihe, da nun \[ O(x) = U(x) = f(x) \] ist. Als nothwendige und hinreichende Bedingung für die Integrirbarkeit der Function (3) findet man leicht, dass \[ (4) \quad \lim \varSigma_{n} \delta_{n} \varDelta_{n} \varphi \;(x) = 0 \quad \lim \varSigma_{n} \delta_{n} \psi \;(x_{n}) = 0 \] für \(\lim \delta_{n} = 0\) sein müsse, wo \(\varDelta_{n} \varphi \;(x)\) die grösste Schwankung von \(\varphi \;(x)\) im Intervalle \[ a + \delta_{1} + \cdots \delta_{n - 1} \leqq x \leqq a + \delta_{1} + \cdots + \delta_{n-1} + \delta_{n}, \] \(\psi \;(x_n)\) die obere Grenze von \(\psi \;(x)\) in eben demselben Intervalle bezeichnen. Nunmehr betrachte man den zweiten Differenzquotienten von \(\varPhi \;(x)\). \[ \frac{\varDelta^{2} \varPhi(x)}{\varepsilon^{2}} = \frac{\varDelta^{2} F(x)}{\varepsilon^{2}} - \frac{\varDelta^{2} F_{1}(x)}{\varepsilon^{2}}. \] Zunächst beweist Herr du Bois-Reymond den Satz, ``dass die \(\lim \;(\varepsilon = 0)\) von \[ \frac{F(x + \varepsilon) - 2F (x) + F(x - \varepsilon)}{\varepsilon^{2}} \] stets enthalten ist in der Form \[ \frac{O(x) + U(x)}{2} + j \left( \tfrac 32 + \frac{1}{\pi^{2}} + \frac{1}{\pi} \right) [ O(x) - U(x) ], \] falls \(j\) eine zwischen - 1 und + 1 gelegene Zahl vorstellt'', d. h. die Unbestimmtheitsgrenzen von \[ \varDelta^{2} F(x) : \varepsilon^{2} \;\; \text{für} \;\; \lim \varepsilon = 0 \] sind höchstens die Zahlen \[ \frac{O(x) + U(x)}{2} \pm \left( \tfrac 32 + \frac{1}{\pi^{2}} + \frac{1}{\pi} \right) \left[ O(x) - U(x)\right]. \] Unmittelbar ergiebt sich, dass in demselben Sinne \[ \lim_{\varepsilon=0} \frac{\varDelta^{2} F_{1} (x)}{\varepsilon^{2}} = \varphi^*(x) + j \psi^*(x), \] wo \(\varphi^* (x), \psi^* (x)\) bezüglich zwischen den Unbestimmtheitsgrenzen von \(\varphi(x)\) und \(\psi(x)\) im Intervalle \[ x - \varepsilon \quad \text{bis} \quad x + \varepsilon (\lim \varepsilon = 0) \] schwanken. Fasst man beide Formeln zusammen, so schliesst man leicht, dass \[ \lim_{\varepsilon = 0} \frac{\varDelta^{2} \varPhi}{\varepsilon^{2}} = \varDelta^* \varphi \;(x) + j \left( \tfrac 52 + \frac{1}{\pi^{2}} + \frac{1}{\pi} \right) (x). \] [Der numerische Coefficient wird wohl \[ 2 \left( 2 + \frac{1}{\pi^{2}} + \frac{1}{\pi} \right) \] sein müssen.] Hier bedeutet \(\varDelta^* \varphi \;(x)\) eine Zahl, die numerisch nicht grösser ist als die grösste Schwankung \(\varDelta \varphi(x)\) im Intervalle \[ x - \varepsilon \quad \text{bis} \quad x + \varepsilon \;(\lim \varepsilon = 0); \] \(\varPsi(x)\) die obere Grenze von \(\psi \;(x)\) bezüglich desselben Intervalles. \(j\) liegt wieder zwischen - 1 und + 1. Aus vorstehender Formel folgt mittelst der Bedingungen (4), dass der zweite Differenzquotient von \[ G(x) = \sum_{p=0}^{p=n} \delta \varPhi (x + p \delta) \] durch aufeinanderfolgende Verkleinerung von \(\delta\) und \(\varepsilon\) beliebig klein gemacht werden kann. Und nun wird nach einem Verfahren, welches dem oben erwähnten des Herrn Schwarz ähnlich ist, geschlossen, dass für alle endlichen \(x\) bei ganz beliebigem \(a\) \[ \int^{a} \varPhi(x + \alpha) d\alpha = c_{0} + c_{1} x, \] woraus endlich sich ergiebt \[ \varPhi(x) = c_{0} + c_{1} x. \] Dieser Satz bleibt ferner auch bestehen, wenn die Annahme der durchgängigen Endlichkeit von \(f(x)\) fallen gelassen, und nur die Existenz des Integrales \[ \int_{- \pi}^{+ \pi} f(\alpha) d \alpha \] vorausgesetzt wird. Der Beweis wird geführt mit Hülfe des zweiten Satzes in Riemann a. a. O. Art. 8. Schliesslich wird noch bemerkt, dass wenn für einen Werth \(x = a\) \(f(x)\) ohne unendlich viele Maxima so stark unendlich wird, dass \[ \int_{- \pi}^{+ \pi} f(\alpha) d \alpha \] divergirt, während jedoch \[ \lim (x - a) f(x) = 0 \quad \text{für} \quad \lim x = a, \] die Coefficienten \(a_n, b_n\) der trigonometrischen Reihe durch die Hauptwerthe der Fourier'schen Integrale dargestellt werden.
    0 references
    0 references
    Fourier series
    0 references
    Fourier coefficients
    0 references
    trigonometric series
    0 references