Sopra alcune operazioni algebriche sulle matrici. (Q1485894)

From MaRDI portal
scientific article
Language Label Description Also known as
English
Sopra alcune operazioni algebriche sulle matrici.
scientific article

    Statements

    Sopra alcune operazioni algebriche sulle matrici. (English)
    0 references
    1910
    0 references
    Diese Habilitationsschrift des Verf. entwickelt einen Abriß der Theorie der Matrizen (Bilinearformen), im wesentlichen auf der von \textit{Frobenius} (F. d. M. 9, 85, 1877, JFM 09.0085.02) geschaffenen Grundlage, jedoch mit manchen eigenartigen Wendungen. Zunächst, im ersten Kapitel, werden Systeme von linearen Matrixgleichungen behandelt, von denen die grundlegenden von der Form sind: \(AX =B\), \(XA=B\), \(AXB=C\). Das zweite Kapitel ist der wichtigen Gleichung \(AX= XB\) gewidmet. Hier ordnet sich die Theorie der mit einer gegebenen Matrix vertauschbaren Matrizen ein. Sodann werden unter den Lösungen der in Rede stehenden Gleichung die ``charakteristischen'' untersucht. Die Methode wird ausgedehnt auf die Gleichung \(AX=XB+C\), sowie auf das System \(AX=YA_1\), \(BX=YB_1\), auf deren Lösung das \textit{Weierstraß}sche Theorem aufgebaut wird. Im Mittelpunkte des dritten Kapitels steht die Gleichung \(X^m=A\), bei Zugrundelegung verschiedener Rationalitätsbereiche. Unter den Lösungen werden die charakteristischen und die singulären besonders berücksichtigt, sowie die Anzahl der wesentlichen willkürlichen Konstanten im Gesamtsystem der Lösungen bestimmt. Den Schluß bildet die Untersuchung der zyklischen Matrizen, sowie der Wurzeln aus Null. Über die Grundlagen mögen einige Angaben gemacht werden. Gehen die \(n\) Variabeln \(z_i\) in \(n\) andere Variabeln \(y_k\) über mittels einer linearen Substitution von der Matrix \(U=(u_{ik})\), und die \(y_k\) wiederum in Variabeln \(x_j\) vermöge einer Substitution von der Matrix \(V = (v_{kj})\), so besitzt die zusammengesetzte Substitution, die die \(z\) direkt in die \(x\) überführt, als Matrix das Produkt \(UV\). Nach demselben Gesetze wird das symbolische Produkt zweier Bilinearformen \(f,\varphi\) mit den Koeffizienten \(a_{ik}\), resp. \(b_{ik}\) gebildet. Man normiere die Multiplikation zweier Matrizen \(A, B\) dahin, daß die Reihen von \(A\) mit den Kolonnen von \(B\) kombiniert werden. Den drei andern Kombinationen entsprechen dann die Produkte \(AB',A'B,A'B'\), wo z. B. \(A'\) die (durch Vertauschung der Reihen mit den Kolonnen entstehende) zu \(A\) konjugierte oder transponierte Matrix bedeutet. Damit gehen Sätze aus der Theorie der Matrizen über in entsprechende für lineare Substitutionen, resp. bilineare Formen. Diese Betrachtungen lassen sich auf rechtwinklige Matrizen ausdehnen. Es sei \(A\) eine Matrix von \(m\) Reihen und \(n\) Kolonnen, \(B\) eine solche von \(n\) Reihen und \(p\) Kolonnen, so ist unter dem Produkte \(AB\) die Matrix \((\sum_{k=1}^n a_{ik}b_{kj})(i=1,\dots,m; j=1,\dots,p)\) von \(m\) Reihen und \(p\) Kolonnen zu verstehen. Es gilt das assoziative, aber im allgemeinen nicht das kommutative Gesetz; ist jedoch \(AB=BA\), so heißen beide Matrizen vertauschbar, was nur für \(m=n=p\) eintreten kann. Eine diagonale (quadratische) Matrix \((d)\) ist eine solche mit lauter gleichen Diagonalelementen \(d\), während die übrigen Elemente verschwinden; es ist \((d)A=A(d)\). Für \(d=1\) entsteht die Einheitsmatrix \(E\) (oder genauer \(E_n\)). Liegen zwei Matrizen \(R=(r_{ik})\), \(S=(s_{ik})\) mit \(i=1,\dots,m\); \(k=1, \dots,n\) vor, so ist deren Summe \(R+S\) die Matrix \((r_{ik}+s_{ik})\), und analog ist die Differenz zu bilden. Im besonderen ist also \(-S=(-s_{ik})\). Dann gilt das distributive Gesetz. Eine Matrix heißt Null und wird mit 0 bezeichnet, wenn alle ihre Elemente verschwinden. Aus den vorstehenden Elementarbegriffen erwächst der einer ganzen rationalen Funktion mehrerer Matrizen. Im besonderen ist eine lineare Funktion einer (variabeln) Matrix \(X\) eine Summe von Matrixprodukten, so daß in jedem Faktor \(X\) höchstens einmal vorkommt; jede solche lineare Funktion läßt sich auf die Gestalt bringen: \(A_1XB_1+\cdots +A_mXB_m+C\), und jede Matrix \(X\), für die dieser Ausdruck den Wert Null annimmt, heißt eine Lösung der bezüglichen linearen Gleichung. Sind \(A_{ik}(i=1,\dots,m; k=1,\dots,n)mn\) Matrizen, wo die Erzeugende \(A_{ik}\mu_i\) Reihen und \(\nu_k\) Kolonnen besitze, so ist unter \((A_{i1},A_{i2},\dots,A_{in})\) die Matrix von \(\mu_i\) Reihen und \(\nu_1+\nu_2+\cdots +\nu_n\) Kolonnen zu verstehen, wo die Kolonnen der Reihe nach die von \(A_{i1},A_{i2},\dots,A_{in}\) sind. Endlich stellt das Symbol \(\{ A_{ik}\}\) die Matrix mit \(\mu_1+\mu_2+\cdots +\mu_m\) Reihen und \(\nu_1+\nu_2+\cdots +\nu_n\) Kolonnen dar, wo die Reihen sukzessive die von \((A_{11},A_{12},\dots ,A_{1n}), (A_{21},A_{22},\dots,A_{2n}),\dots,(A_{m1},A_{m2},\dots,A_{mn})\) sind.
    0 references
    0 references
    0 references