Lineare Algebra

Lineare Algebra ist der Zweig von Mathematik betreffend lineare Gleichungen wie zum Beispiel:
lineare Karten wie zum Beispiel:
und ihre Darstellungen in Vektorräume Und durch Matrizen.[1][2][3]
Die lineare Algebra ist für fast alle Bereiche der Mathematik von zentraler Bedeutung. Zum Beispiel ist lineare Algebra in modernen Präsentationen von grundlegender Bedeutung Geometrie, einschließlich für die Definition grundlegender Objekte wie z. Linien, Flugzeuge und Rotationen. Ebenfalls, Funktionsanalyse, ein Zweig der mathematischen Analyse, kann als Anwendung der linearen Algebra angesehen werden Funktionsräume.
Lineare Algebra wird auch in den meisten Wissenschaften und Bereichen von verwendet Ingenieurwesen, weil es es erlaubt Modellieren Viele natürliche Phänomene und effizient mit solchen Modellen. Zum Nichtlineare Systeme, die nicht mit linearer Algebra modelliert werden können, wird häufig für den Umgang mit Annäherungen erster Ordnungmit der Tatsache, dass die Differential von a Multivariate Funktion An einem Punkt befindet sich die lineare Karte, die sich der Funktion in der Nähe dieses Punktes am besten annähert.
Geschichte
Das Verfahren (unter Verwendung von Zählstangen) zur Lösung gleichzeitiger linearer Gleichungen nun nun genannt Gaußsche Eliminierung erscheint im alten chinesischen mathematischen Text Kapitel acht: Rechteckige Arrays von Die neun Kapitel über die mathematische Kunst. Die Verwendung wird in achtzehn Problemen mit zwei bis fünf Gleichungen dargestellt.[4]
Systeme der linearen Gleichungen entstand in Europa mit der Einführung im Jahr 1637 von René Descartes von Koordinaten in Geometrie. In der Tat in dieser neuen Geometrie, die jetzt genannt wird Kartesische GeometrieLinien und Flugzeuge werden durch lineare Gleichungen dargestellt, und die Berechnung ihrer Schnittpunkte beträgt das Lösen von Systemen linearer Gleichungen.
Die ersten systematischen Methoden zur Lösung linearer Systeme verwendet Determinanten, zuerst berücksichtigt von Leibniz im Jahr 1693. 1750,, Gabriel Cramer benutzte sie, um explizite Lösungen linearer Systeme zu geben, die jetzt genannt werden Cramers Regel. Später, Gauß beschrieben weiter die Eliminierungsmethode, die ursprünglich als Fortschritt in aufgeführt wurde Geodäsie.[5]
1844 Hermann Grassmann veröffentlichte seine "Theorie der Erweiterung", die grundlegende neue Themen der heutigen linearen Algebra enthielt. 1848, James Joseph Sylvester stellte den Begriff ein Matrix, was lateinisch ist für Mutterleib.
Die lineare Algebra wuchs mit Ideen, die in der festgestellt wurden Komplexe Ebene. Zum Beispiel zwei Zahlen w und z in einen Unterschied haben w – zund die Liniensegmente Wz und 0 (w − z) sind von gleicher Länge und Richtung. Die Segmente sind ausrüstet. Das vierdimensionale System von Quaternionen wurde 1843 gestartet. Der Begriff Vektor wurde vorgestellt als v = xi + yj + zk einen Punkt im Raum darstellen. Der Quaternion Unterschied p – q erzeugt auch ein Segment -Equipollent zu pq. Sonstiges Hyperkomplexzahl Systeme nutzten auch die Idee eines linearen Raums mit a Basis.
Arthur Cayley eingeführt Matrix-Multiplikation und die inverse Matrix Im Jahr 1856 ermöglichen es das Allgemeine lineare Gruppe. Der Mechanismus von Gruppenrepräsentation wurde zur Beschreibung komplexer und hyperkomplexer Zahlen verfügbar. Entscheidend war, dass Cayley einen einzelnen Buchstaben verwendete, um eine Matrix zu bezeichnen, wodurch eine Matrix als Aggregatobjekt behandelt wurde. Er erkannte auch den Zusammenhang zwischen Matrizen und Determinanten und schrieb: "Über diese Theorie der Matrizen, die mir der Theorie der Determinanten vorausgehen, müssten viele Dinge zu sagen".[5]
Benjamin Peirce veröffentlichte seine Lineare assoziative Algebra (1872) und sein Sohn Charles Sanders Peirce erweiterte die Arbeit später.[6]
Das Telegraph erforderte ein erklärendes System und die Veröffentlichung von 1873 von 1873 Eine Abhandlung über Strom und Magnetismus eingerichtet a Feldtheorie von Kräften und erforderlich Differentialgeometrie für den Ausdruck. Lineare Algebra ist eine flache Differentialgeometrie und dient in Tangentenräumen zu Verteiler. Elektromagnetische Symmetrien der Raumzeit werden durch die ausgedrückt Lorentz -Transformationenund ein Großteil der Geschichte der linearen Algebra ist die Geschichte der Lorentz -Transformationen.
Die erste moderne und präzisere Definition eines Vektorraums wurde von eingeführt von Peano 1888;[5] Bis 1900 war eine Theorie linearer Transformationen endlich-dimensionaler Vektorräume entstanden. Lineare Algebra nahm ihre moderne Form in der ersten Hälfte des 20. Jahrhunderts an, als viele Ideen und Methoden früherer Jahrhunderte als verallgemeinert wurden Zusammenfassung Algebra. Die Entwicklung von Computern führte zu einer erhöhten Forschung in effizientem Forschung Algorithmen Für Gaußsche Eliminierung und Matrix -Zerlegungen und lineare Algebra wurden ein wesentliches Instrument für Modellierung und Simulationen.[5]
Vektorräume
Bis zum 19. Jahrhundert wurde lineare Algebra durchgesetzt Systeme der linearen Gleichungen und Matrizen. In der modernen Mathematik die Präsentation durch Vektorräume wird im Allgemeinen bevorzugt, da es mehr ist Synthetikallgemeiner (nicht beschränkt auf den endlich-dimensionalen Fall) und konzeptionell einfacher, obwohl abstrakter.
Ein Vektorraum über a aufstellen F (Oft das Feld der reale Nummern) ist ein einstellen V ausgestattet mit zwei Binäre Operationen Folgendes erfüllen Axiome. Elemente von V werden genannt Vektorenund Elemente von F werden genannt Skalare. Die erste Operation, Vektor Addition, nimmt zwei beliebige Vektoren v und w und gibt einen dritten Vektor aus v + w. Die zweite Operation, Skalarmultiplikation, nimmt jeden Skalar a und jeder Vektor v und gibt eine neue aus Vektor av. Die Axiome, die Addition und skalare Multiplikation erfüllen müssen, sind die folgenden. (In der folgenden Liste, u, v und w sind willkürliche Elemente von V, und a und b sind willkürliche Skalare im Feld F.))[7]
Axiom Bedeutung Assoziativität von Addition u + (v + w) = ((u + v) + w Amtativität von Addition u + v = v + u Identitätselement von Addition Es gibt ein Element 0 in V, genannt Null -Vektor (oder einfach Null), so dass v + 0 = v für alle v in V. Inverse Elemente von Addition Für jeden v in VEs gibt ein Element −v in V, genannt Additive Inverse von v, so dass v + ( -v) = 0 Verbreitung der skalaren Multiplikation in Bezug auf die Vektoraddition a(u + v) = au + av Verteilung der skalaren Multiplikation in Bezug auf die Feldzusatz (a + b)v = av + bv Kompatibilität der skalaren Multiplikation mit Feldmultiplikation a(bv) = ((ab)v [a] Identitätselement der Skalarmultiplikation 1v = v, wo 1 bezeichnet die multiplikative Identität von F.
Die ersten vier Axiome bedeuten das V ist ein Abelsche Gruppe unter Hinzufügen.
Ein Element eines bestimmten Vektorraums kann verschiedene Natur haben; Zum Beispiel könnte es ein sein Reihenfolge, a Funktion, a Polynom oder ein Matrix. Lineare Algebra befasst sich mit jenen Eigenschaften solcher Objekte, die allen Vektorräumen gemeinsam sind.
Lineare Karten
Lineare Karten sind Zuordnungen zwischen Vektorräumen, die die Vektorraumstruktur bewahren. Gegeben zwei Vektorräume V und W über ein Feld F, eine lineare Karte (auch in einigen Kontexten genannt, lineare Transformation oder lineare Mapping) ist a Karte
Das ist mit Addition und skalarer Multiplikation kompatibel, das heißt
für alle Vektoren u,v in V und Skalar a in F.
Dies impliziert das für alle Vektoren u, v in V und Skalare a, b in F, hat man
Wann V = W sind der gleiche Vektorraum, eine lineare Karte T: V → V ist auch als a bekannt linearer Bediener an V.
A Bijektiv Lineare Karte zwischen zwei Vektorräumen (dh jeder Vektor aus dem zweiten Raum ist genau eins in der ersten) zugeordnet) ist ein Isomorphismus. Da ein Isomorphismus eine lineare Struktur bewahrt, sind zwei isomorphe Vektorräume "im Wesentlichen gleich" aus der linearen Algebra -Sichtweise, in dem Sinne, dass sie nicht durch die Verwendung von Vektorraumeigenschaften unterschieden werden können. Eine wesentliche Frage in der linearen Algebra ist das Testen, ob eine lineare Karte ein Isomorphismus ist oder nicht, und wenn sie kein Isomorphismus ist, findet es ihre Finden Angebot (oder Bild) und der Satz von Elementen, die dem Nullvektor zugeordnet sind, genannt die Kernel der Karte. Alle diese Fragen können durch Verwendung gelöst werden Gaußsche Eliminierung oder eine Variante davon Algorithmus.
Unterräume, Spannweite und Basis
Die Untersuchung dieser Untergruppen von Vektorräumen, die sich in sich selbst Vektorräume im Rahmen der induzierten Operationen befinden, ist von grundlegender Bedeutung, ähnlich wie bei vielen mathematischen Strukturen. Diese Teilmengen werden genannt Lineare Unterteile. Genauer gesagt ein linearer Unterraum eines Vektorraums V über ein Feld F ist ein Teilmenge W von V so dass u + v und au sind in W, für jeden u, v in W, Und jeder a in F. (Diese Bedingungen sind ausreichend, um dies zu implizieren W ist ein Vektorraum.)
Zum Beispiel bei einer linearen Karte T: V → W, das Bild T(V) von V, und die umgekehrtes Bild T–1(0) von 0 (genannt Kernel oder Nullraum), lineare Unterbereiche von W und V, beziehungsweise.
Ein weiterer wichtiger Weg zur Bildung eines Unterraums ist zu berücksichtigen lineare Kombinationen eines Satzes S von Vektoren: die Menge aller Summen
wo v1, v2, ..., vk sind in S, und a1, a2, ..., ak sind in F bilden einen linearen Unterraum namens die Spanne von S. Die Spannweite von S ist auch der Schnittpunkt aller linearen Unterbereiche, die enthalten S. Mit anderen Worten, es ist der kleinste (für die Einschlussbeziehung) lineare Unterraum, der enthält S.
Eine Reihe von Vektoren ist linear unabhängig Wenn niemand in der Zeit der anderen liegt. Äquivalent ein Satz S von Vektoren ist linear unabhängig, wenn der einzige Weg, den Nullvektor als lineare Kombination von Elementen von auszudrücken S ist für jeden Koeffizienten Null zu nehmen ai.
Eine Reihe von Vektoren, die einen Vektorraum umfassen Spannungssatz oder Generierungssatz. Wenn ein Spannungssatz S ist linear abhängig (Das ist nicht linear unabhängig), dann ein Element w von S ist in der Zeitspanne der anderen Elemente von Sund die Spanne würde gleich bleiben, wenn man entfernen w aus S. Man kann weiterhin Elemente von entfernen S bis ein linear unabhängiger Spannungssatz. So ein linear unabhängiger Satz, der einen Vektorraum umfasst V wird als a genannt Basis von V. Die Bedeutung von Basen liegt in der Tatsache, dass sie gleichzeitig minimaler Generierungssätze und maximale unabhängige Sets sind. Genauer gesagt, wenn S ist ein linear unabhängiger Satz und T ist ein Spannungssatz, so dass S ⊆ Tdann gibt es eine Grundlage B so dass S ⊆ B ⊆ T.
Zwei beliebige Grundlagen eines Vektorraums V das selbe haben Kardinalität, was genannt wird Abmessungen von V; Dies ist das Dimensionstheorem für Vektorräume. Darüber hinaus zwei Vektorräume über demselben Feld F sind isomorph wenn und nur wenn sie die gleiche Dimension haben.[8]
Wenn eine Grundlage von V (und damit jede Basis) hat eine begrenzte Anzahl von Elementen, V ist ein Finite-dimensionaler Vektorraum. Wenn U ist ein Unterraum von V, dann schwach U ≤ dim V. Für den Fall wo V ist endlichdimensional, die Gleichheit der Dimensionen impliziert U = V.
Wenn U1 und U2 sind Unterbereiche von V, dann
wo U1 + U2 bezeichnet die Spannweite von U1 ∪ U2.[9]
Matrizen
Matrizen ermöglichen eine explizite Manipulation von endlich-dimensionalen Vektorräumen und lineare Karten. Ihre Theorie ist somit ein wesentlicher Bestandteil der linearen Algebra.
Lassen V ein endlich-dimensionaler Vektorraum über einem Feld sein F, und (v1, v2, ..., vm) eine Grundlage für haben V (daher m ist die Dimension von V). Per Definition einer Basis die Karte
ist ein Bijection aus Fm, der Satz der Sequenzen von m Elemente von F, auf zu V. Das ist ein Isomorphismus von Vektorräumen, wenn Fm ist von seiner Standardstruktur des Vektorraums ausgestattet, wo die Vektoraddition und die Skalarmultiplikation von Komponenten durchgeführt werden.
Dieser Isomorphismus ermöglicht die Darstellung eines Vektors durch seine umgekehrtes Bild unter diesem Isomorphismus, das ist durch die Koordinaten Vektor (a1, ..., am) oder von der Säulenmatrix
Wenn W ist ein weiterer endlicher dimensionaler Vektorraum (möglicherweise gleich) mit einer Basis (w1, ..., wn), eine lineare Karte f aus W zu V ist durch seine Werte auf den Basiselementen gut definiert, das heißt (f(w1), ..., f(wn)). Daher, f ist gut durch die Liste der entsprechenden Spaltenmatrizen dargestellt. Das heißt, wenn
zum j = 1, ..., n, dann f wird durch die Matrix dargestellt
mit m Reihen und n Säulen.
Matrix-Multiplikation wird so definiert, dass das Produkt von zwei Matrizen die Matrix der ist Komposition Von den entsprechenden linearen Karten und dem Produkt einer Matrix und einer Spaltenmatrix ist die Spaltenmatrix, die das Ergebnis der Anwendung der dargelegten linearen Karte auf den dargelegten Vektor darstellt. Daraus folgt, dass die Theorie der endlich-dimensionalen Vektorräume und die Theorie der Matrizen zwei verschiedene Sprachen sind, um genau die gleichen Konzepte auszudrücken.
Zwei Matrizen, die dieselbe lineare Transformation in verschiedenen Basen codieren, werden aufgerufen ähnlich. Es kann bewiesen werden, dass zwei Matrizen nur dann ähnlich sind, wenn einer von einem in das andere verwandeln kann Elementarreihen- und Spaltenoperationen. Für eine Matrix, die eine lineare Karte von darstellt W zu VDie Zeilenoperationen entsprechen einer Änderung der Basen in V und die Säulenoperationen entsprechen der Änderung der Basen in W. Jede Matrix ähnelt einem Identitätsmatrix Möglicherweise von Nullzeilen und Nullspalten begrenzt. In Bezug auf Vektorräume bedeutet dies, dass für jede lineare Karte von W zu V, Es gibt Basen so, dass ein Teil der Grundlage von W wird bijektiv auf einem Teil der Grundlage von zugeordnet Vund dass die verbleibenden Basiselemente von W, falls vorhanden, auf Null zugeordnet werden. Gaußsche Eliminierung ist der grundlegende Algorithmus für die Suche nach diesen elementaren Operationen und zum Nachweis dieser Ergebnisse.
Lineare Systeme
Ein endlicher Satz linearer Gleichungen in einem endlichen Satz von Variablen zum Beispiel, x1, x2, ..., xn, oder x, y, ..., z wird als a genannt System der linearen Gleichungen oder ein lineares System.[10][11][12][13][14]
Systeme der linearen Gleichungen bilden einen grundlegenden Teil der linearen Algebra. Historisch gesehen wurde die lineare Algebra- und Matrix -Theorie zur Lösung solcher Systeme entwickelt. Bei der modernen Darstellung der linearen Algebra durch Vektorräume und Matrizen können viele Probleme in Bezug auf lineare Systeme interpretiert werden.
Zum Beispiel lassen
-
(S)
ein lineares System sein.
Ein solches System kann seine Matrix assoziieren
und sein rechtes Mitgliedsvektor
Lassen T Seien Sie die lineare Transformation, die der Matrix zugeordnet ist M. Eine Lösung des Systems (S) ist ein Vektor
so dass
Das ist ein Element der Vorbereitung von v durch T.
Lassen (S') Sei der zugehörige Homogenes System, wo die rechten Seiten der Gleichungen auf Null gebracht werden:
-
(S')
Die Lösungen von (S') sind genau die Elemente der Kernel von T oder gleichwertig, M.
Das Gaußsche Eliminierung besteht aus der Ausführung Elementarreihenoperationen auf der erweiterte Matrix
zum Einfügen einzulegen Reduzierte REIL -ECHELON -Form. Diese Zeilenoperationen ändern nicht die Lösungen des Gleichungssystems. Im Beispiel ist die reduzierte Echelonform
zeigen, dass das System (S) hat die einzigartige Lösung
Aus dieser Matrixinterpretation linearer Systeme folgt, dass dieselben Methoden zur Lösung linearer Systeme und für viele Vorgänge zu Matrizen und linearen Transformationen angewendet werden können, die die Berechnung der Berechnung enthalten Ränge, Kerne, Matrix Inversen.
Endomorphismen und quadratische Matrizen
Ein linear Endomorphismus ist eine lineare Karte, die einen Vektorraum ordnet V zu sich selbst. Wenn V hat eine Grundlage von n Elemente, ein solcher Endomorphismus wird durch eine quadratische Matrix der Größe dargestellt n.
In Bezug auf allgemeine lineare Karten haben lineare Endomorphismen und Quadratmatrizen einige spezifische Eigenschaften, die ihre Studie zu einem wichtigen Bestandteil der linearen Algebra machen, die in vielen Teilen der Mathematik verwendet wird, einschließlich Geometrische Transformationen, Änderungen koordinieren, quadratische Formenund viele andere Teils der Mathematik.
Bestimmend
Das bestimmend einer quadratischen Matrix A ist definiert, um zu sein[15]
wo Sn ist der Gruppe aller Permutationen von n Elemente, σ ist eine Permutation und (–1)σ das Parität der Permutation. Eine Matrix ist invertierbar Wenn und nur wenn die Determinante invertierbar ist (d. H. Unzüro, wenn die Skalare zu einem Feld gehören).
Cramers Regel ist ein Expression geschlossene Form, in Bezug auf Determinanten, der Lösung von a System von n lineare Gleichungen in n Unbekannte. Cramers Regel ist nützlich, um über die Lösung zu argumentieren, aber außer auf n = 2 oder 3Es wird selten zum Berechnen einer Lösung verwendet, da Gaußsche Eliminierung ist ein schnellerer Algorithmus.
Das Determinante eines Endomorphismus ist die Determinante der Matrix, die den Endomorphismus in Bezug auf einige geordnete Basis darstellt. Diese Definition ist sinnvoll, da diese Determinante unabhängig von der Wahl der Grundlage ist.
Eigenwerte und Eigenvektoren
Wenn f ist ein linearer Endomorphismus eines Vektorraums V über ein Feld F, ein Eigenvektor von f ist ein Vektor ungleich Null v von V so dass f(v) = ein V für etwas Skalar a in F. Dieser Skalar a ist ein Eigenwert von f.
Wenn die Dimension von V ist endlich und eine Grundlage wurde ausgewählt, f und v kann jeweils durch eine quadratische Matrix dargestellt werden M und eine Spaltenmatrix z; Die Gleichung, die Eigenvektoren und Eigenwerte definieren, wird
Verwendung der Identitätsmatrix I, deren Einträge alle Null sind, außer denen der Hauptdiagonale, die gleich einem sind, kann dies neu geschrieben werden
Wie z soll ungleich Null sein, das bedeutet das M – ai ist ein Singuläre Matrixund so das seine Determinante det (M − ai) gleich Null. Die Eigenwerte sind also die Wurzeln des Polynom
Wenn V ist von Dimension n, das ist ein Monic Polynom Grad n, genannt charakteristisches Polynom der Matrix (oder des Endomorphismus), und es gibt höchstens, n Eigenwerte.
Wenn eine Basis existiert, die nur von Eigenvektoren besteht, die Matrix von f auf dieser Basis hat eine sehr einfache Struktur: es ist a diagonale Matrix so dass die Einträge auf der Hauptdiagonale sind Eigenwerte und die anderen Einträge sind Null. In diesem Fall sollen der Endomorphismus und die Matrix sein diagonalisierbar. Allgemeiner werden ein Endomorphismus und eine Matrix diagonalisierbar, wenn sie danach diagonalisierbar werden sich erweitern das Feld der Skalare. In diesem erweiterten Sinne, wenn das charakteristische Polynom ist quadratfreidann ist die Matrix diagonalisierbar.
A Symmetrische Matrix ist immer diagonalisierbar. Es gibt nicht-diagonalisierbare Matrizen, das einfachste Wesen
(Es kann nicht diagonalisierbar sein, da sein Quadrat das ist Null Matrixund das Quadrat einer diagonalen Matrix ungleich Null ist niemals Null).
Wenn ein Endomorphismus nicht diagonalisierbar ist, gibt es Basen, auf denen er eine einfache Form hat, wenn auch nicht so einfach wie die diagonale Form. Das FROBENIUS Normale Form Benötigt nicht das Gebiet der Skalare und macht das charakteristische Polynom sofort auf der Matrix lesbar. Das Jordanische Normalform Erfordert, das Feld des Skalars zu erweitern, um alle Eigenwerte einzudämmen, und unterscheidet sich von der diagonalen Form nur durch einige Einträge, die knapp über der Hauptdiagonale liegen und gleich 1 sind.
Dualität
A lineare Form ist eine lineare Karte aus einem Vektorraum V über ein Feld F auf das Feld der Skalare F, als Vektorraum über sich selbst betrachtet. Ausgestattet von punkthaft Addition und Multiplikation durch einen Skalar bilden die linearen Formen einen Vektorraum, der als der genannt wird Doppeler Raum von Vund normalerweise bezeichnet V*[16] oder V′.[17][18]
Wenn v1, ..., vn ist eine Grundlage von V (Dies impliziert das V ist endlichdimensional), dann kann man definieren, für i = 1, ..., n, eine lineare Karte vi* so dass vi*(vi) = 1 und vi*(vj) = 0 wenn j ≠ i. Diese linearen Karten bilden eine Grundlage von V*, genannt Doppelbasis von v1, ..., vn. (Wenn V ist nicht endlichdimensional, die vi* kann ähnlich definiert werden; Sie sind linear unabhängig, bilden aber keine Basis.)
Zum v in V, die Karte
ist eine lineare Form auf V*. Dies definiert die Kanonische lineare Karte aus V hinein (V*)*, das dual von V*, genannt bidual von V. Diese kanonische Karte ist eine Isomorphismus wenn V ist endlichdimensional und ermöglicht die Identifizierung V mit seinem bidualen. (Im unendlichen dimensionalen Fall ist die kanonische Karte injektiv, aber nicht surjektiv.)
Es gibt daher eine vollständige Symmetrie zwischen einem endlich-dimensionalen Vektorraum und seinem Dual. Dies motiviert die häufige Verwendung in diesem Zusammenhang der Bra -Ket -Notation
für Bezeichnung f(x).
Doppelkarte
Lassen
eine lineare Karte sein. Für jede lineare Form h an W, das zusammengesetzte Funktion h ∘ f ist eine lineare Form auf V. Dies definiert eine lineare Karte
zwischen den dualen Räumen, die als die genannt werden Dual oder der Transponieren von f.
Wenn V und W sind endlichdimensional und M ist die Matrix von f In Bezug auf einige geordnete Basen, dann die Matrix von f* über die dualen Basen sind die Transponieren MT von M, erhalten durch Austausch von Zeilen und Spalten.
Wenn Elemente von Vektorräumen und ihrer Duals durch Säulenvektoren dargestellt werden, kann diese Dualität in ausgedrückt werden Bra -Ket -Notation durch
Zum Hervorheben dieser Symmetrie werden die beiden Mitglieder dieser Gleichheit manchmal geschrieben
Innenprodukträume
Neben diesen grundlegenden Konzepten untersucht lineare Algebra auch Vektorräume mit zusätzlicher Struktur, wie z. Innenprodukt. Das innere Produkt ist ein Beispiel für a bilineare Formund es gibt dem Vektorraum eine geometrische Struktur, indem es die Definition von Länge und Winkeln zulässt. Formell an Innenprodukt ist eine Karte
Das erfüllt die folgenden drei Axiome Für alle Vektoren u, v, w in V und alle Skalare a in F:[19][20]
- Konjugieren Symmetrie:
- Im , es ist symmetrisch.
- Linearität Im ersten Argument:
- Positive Definition:
- mit Gleichheit nur für v = 0.
Wir können die Länge eines Vektors definieren v in V durch
und wir können das beweisen Cauchy -Schwarz -Ungleichheit:
Insbesondere die Menge
Und so können wir diese Menge als Cosinus des Winkels zwischen den beiden Vektoren bezeichnen.
Zwei Vektoren sind orthogonal, wenn ⟨u, v⟩ = 0. Eine orthonormale Basis ist eine Grundlage, bei der alle Basisvektoren Länge 1 haben und orthogonal zueinander sind. Angesichts eines endlich-dimensionalen Vektorraums kann eine orthonormale Basis von der gefunden werden Gram -Schmidt Verfahren. Orthonormale Basen sind besonders einfach umzugehen, da wenn wenn v = a1 v1 + ⋯ + an vn, dann
Das innere Produkt erleichtert die Konstruktion vieler nützlicher Konzepte. Zum Beispiel bei einer Transformation TWir können ihre definieren Hermitian -Konjugat T* als lineare Transformation befriedigend
Wenn T zufrieden Tt* = T*t, wir nennen T normal. Es stellt sich heraus, dass normale Matrizen genau die Matrizen sind, die ein orthonormales System von Eigenvektoren haben, die sich erstrecken V.
Beziehung zur Geometrie
Es gibt eine starke Beziehung zwischen linearer Algebra und Geometrie, was mit der Einführung durch begann René Descartesim Jahr 1637 von Kartesischen Koordinaten. In dieser neuen (zu dieser Zeit) Geometrie genannt Kartesische Geometrie, Punkte werden durch dargestellt Kartesischen Koordinaten, die Sequenzen von drei reellen Zahlen sind (im Fall der üblichen dreidimensionaler Raum). Die grundlegenden Objekte der Geometrie, die sind Linien und Flugzeuge werden durch lineare Gleichungen dargestellt. Die Berechnung von Linien und Flugzeugen beträgt daher die Lösung von Systemen linearer Gleichungen. Dies war eine der Hauptmotivationen für die Entwicklung linearer Algebra.
Die meisten Geometrische Transformation, wie zum Beispiel Übersetzungen, Rotationen, Reflexionen, strenge Bewegungen, Isometrien, und Projektionen Linien in Linien verwandeln. Daraus folgt, dass sie in Bezug auf lineare Karten definiert, spezifiziert und untersucht werden können. Dies ist auch der Fall von Homographien und Möbius -Transformationen, wenn als Transformationen von a betrachtet Projektivraum.
Bis zum Ende des 19. Jahrhunderts wurden geometrische Räume durch definiert durch Axiome in Bezug auf Punkte, Linien und Flugzeuge (synthetische Geometrie). Ungefähr zu diesem Zeitpunkt schien es, dass man auch geometrische Räume durch Konstruktionen mit Vektorräumen definieren kann (siehe zum Beispiel, Projektivraum und Offine Space). Es wurde gezeigt, dass die beiden Ansätze im Wesentlichen gleichwertig sind.[21] In der klassischen Geometrie sind die beteiligten Vektorräume Vektorräume über die Realität, aber die Konstruktionen können auf Vektorräume über jedem Feld ausgedehnt werden, wobei die Geometrie über willkürliche Felder einschließlich der Berücksichtigung der Geometrie ermöglicht werden kann, einschließlich endliche Felder.
Derzeit stellen die meisten Lehrbücher geometrische Räume aus linearer Algebra ein, und die Geometrie wird häufig auf elementarer Ebene als Unterfeld linearer Algebra dargestellt.
Verwendung und Anwendungen
Lineare Algebra wird in fast allen Bereichen der Mathematik verwendet, wodurch sie in fast allen wissenschaftlichen Bereichen relevant ist, die Mathematik verwenden. Diese Anwendungen können in mehrere breite Kategorien unterteilt werden.
Geometrie des Umgebungsraums
Das Modellieren von Umgebungsraum basiert auf Geometrie. Die mit diesem Raum betroffenen Wissenschaften verwenden die Geometrie weit verbreitet. Dies ist der Fall bei Mechanik und Robotikzum Beschreiben Starrkörperdynamik; Geodäsie zum Beschreiben Erdeform; Perspektivität, Computer Vision, und Computergrafikzur Beschreibung der Beziehung zwischen einer Szene und ihrer Ebenenrepräsentation; und viele andere wissenschaftliche Bereiche.
In all diesen Anwendungen, synthetische Geometrie wird oft für allgemeine Beschreibungen und einen qualitativen Ansatz verwendet, aber für das Studium explizite Situationen muss man mit berechnen Koordinaten. Dies erfordert die starke Verwendung der linearen Algebra.
Funktionsanalyse
Funktionsanalyse Studien Funktionsräume. Dies sind Vektorräume mit zusätzlicher Struktur, wie z. Hilbert Räume. Lineare Algebra ist somit ein grundlegender Bestandteil der Funktionsanalyse und ihrer Anwendungen, die insbesondere enthalten sind. Quantenmechanik (Wellenfunktionen).
Untersuchung komplexer Systeme
Die meisten physikalischen Phänomene werden von modelliert partielle Differentialgleichungen. Um sie zu lösen, zersetzt man normalerweise den Raum, in dem die Lösungen in kleine und gegenseitig interagierende Suchanlage durchsucht werden Zellen. Zum Lineare Systeme Diese Interaktion beinhaltet lineare Funktionen. Zum Nichtlineare SystemeDiese Wechselwirkung wird häufig durch lineare Funktionen angenähert.[b] In beiden Fällen sind im Allgemeinen sehr große Matrizen beteiligt. Wettervorhersage ist ein typisches Beispiel, wo die ganze Erde Atmosphäre ist in Zellen von beispielsweise 100 km Breite und 100 m Höhe geteilt.
Wissenschaftliche Berechnung
Fast alle Wissenschaftliche Berechnungen Lineare Algebra betreffen. Infolgedessen wurden lineare Algebra -Algorithmen stark optimiert. Blas und Lapack sind die bekanntesten Implementierungen. Zur Verbesserung der Effizienz konfigurieren einige von ihnen die Algorithmen zum Laufzeit automatisch, um sie an die Spezifitäten des Computers anzupassen (Zwischenspeicher Größe, Anzahl der verfügbaren Kerne, ...).
Etwas Prozessoren, normalerweise Grafikverarbeitungseinheiten (GPU) sind mit einer Matrixstruktur entwickelt, um die Operationen der linearen Algebra zu optimieren.
Erweiterungen und Verallgemeinerungen
In diesem Abschnitt werden mehrere verwandte Themen vorgestellt, die in Elementarlehrbüchern auf linearen Algebra nicht allgemein erscheinen, sondern in der fortgeschrittenen Mathematik als Teile der linearen Algebra im Allgemeinen berücksichtigt werden.
Modultheorie
Die Existenz von multiplikativen Inversen in Feldern ist nicht an den Axiomen beteiligt, die einen Vektorraum definieren. Man kann somit das Feld der Skalare durch a ersetzen Ring Rund dies gibt eine Struktur genannt Modul Über R, oder R-Modul.
Die Konzepte der linearen Unabhängigkeit, der Spannweite, der Basis und der linearen Karten (auch genannt Modul Homomorphismen) werden für Module genau wie für Vektorräume definiert, mit dem wesentlichen Unterschied, das, wenn R ist kein Feld, es gibt Module, die keine Grundlage haben. Die Module, die eine Grundlage haben, sind die Kostenlose Moduleund diejenigen, die von einem endlichen Set überspannt werden, sind die endlich erzeugte Module. Modul -Homomorphismen zwischen endlich erzeugten freien Modulen können durch Matrizen dargestellt werden. Die Theorie der Matrizen über einem Ring ähnelt der von Matrizen über einem Feld, außer dass das Determinanten existieren nur, wenn der Ring ist kommutativund dass eine quadratische Matrix über einem kommutativen Ring ist invertierbar Nur wenn seine Determinante a hat multiplikativer Inverse im Ring.
Vektorräume sind vollständig durch ihre Dimension gekennzeichnet (bis zu einem Isomorphismus). Im Allgemeinen gibt es keine so vollständige Klassifizierung für Module, auch wenn man sich auf endlich erzeugte Module beschränkt. Jedes Modul ist jedoch a Cokernel eines Homomorphismus freier Module.
Module über den Ganzzahlen können mit identifiziert werden Abelsche GruppenDa die Multiplikation durch eine Ganzzahl zu einer wiederholten Zugabe identifiziert werden kann. Der größte Teil der Theorie von Abelschen Gruppen kann auf Module über a ausgedehnt werden Hauptdomäne der Hauptdomäne. Insbesondere über eine wichtige ideale Domäne ist jedes Submodul eines freien Moduls frei und die grundlegender Theorem der endlich erzeugten abelschen Gruppen kann unkompliziert auf endlich erzeugte Module über einem Hauptring ausgedehnt werden.
Es gibt viele Ringe, für die es Algorithmen zur Lösung linearer Gleichungen und Systeme von linearen Gleichungen gibt. Diese Algorithmen haben jedoch im Allgemeinen a Rechenkomplexität Das ist viel höher als die ähnlichen Algorithmen über einem Feld. Weitere Informationen finden Sie unter Lineare Gleichung über einem Ring.
Multilineare Algebra und Tensoren
Im Multilineare AlgebraMan berücksichtigt multivariable lineare Transformationen, dh Zuordnungen, die in jeder Anzahl verschiedener Variablen linear sind. Diese Untersuchungslinie führt natürlich zur Idee der Doppeler Raum, der Vektorraum V* bestehend aus linearen Karten f: V → F wo F ist das Feld der Skalare. Multilineare Karten T: Vn → F kann über beschrieben werden Tensorprodukte von Elementen von V*.
Wenn zusätzlich zur Vektoraddition und der Skalarmultiplikation ein bilineare Vektorprodukt vorhanden ist V × V → VDer Vektorraum wird als eine genannt Algebra; Beispielsweise sind assoziative Algebren Algebren mit einem assoziierten Vektorprodukt (wie der Algebra von quadratischen Matrizen oder der Algebra von Polynomen).
Topologische Vektorräume
Vektorräume, die nicht endliche dimensional sind, müssen häufig zusätzliche Struktur erfordern, um nachvollziehbar zu sein. EIN Normed Vektorraum ist ein Vektorraum zusammen mit einer Funktion namens a Norm, was die "Größe" von Elementen misst. Die Norm induziert a metrisch, was den Abstand zwischen Elementen misst und a induziert Topologie, was eine Definition von kontinuierlichen Karten ermöglicht. Die Metrik ermöglicht auch eine Definition von Grenzen und Vollständigkeit - Ein metrischer Raum, der vollständig ist Banach -Raum. Ein vollständiger metrischer Raum zusammen mit der zusätzlichen Struktur von a Innenprodukt (ein konjugierter symmetrischer Sesquilineare Form) ist als a bekannt Hilbert Raum, was in gewissem Sinne ein besonders gut erzogener Banach-Raum ist. Funktionsanalyse wendet die Methoden der linearen Algebra neben denen von an Mathematische Analyse verschiedene Funktionsräume zu untersuchen; Die zentralen Studienobjekte in der Funktionsanalyse sind Lp Räume, die Banach -Räume und insbesondere die sind L2 Raum der quadratischen integrierbaren Funktionen, der einzige Hilbert -Raum unter ihnen. Die Funktionsanalyse ist für die Quantenmechanik, die Theorie der partiellen Differentialgleichungen, die digitale Signalverarbeitung und die Elektrotechnik von besonderer Bedeutung. Es liefert auch den Fundament und den theoretischen Rahmen, der der Fourier -Transformation und den verwandten Methoden zugrunde liegt.
Homologische Algebra
Siehe auch
- Grundmatrix (Computer Vision)
- Geometrische Algebra
- Lineares Programmieren
- Lineare Regression, eine statistische Schätzmethode
- Liste der linearen Algebra -Themen
- Multilineare Algebra
- Numerische lineare Algebra
- Transformationsmatrix
Anmerkungen
Verweise
- ^ Banerjee, Sudipto; Roy, Anindya (2014). Lineare Algebra- und Matrixanalyse für Statistiken. Texte in statistischer Wissenschaft (1. Aufl.). Chapman und Hall/CRC. ISBN 978-1420095388.
- ^ Strang, Gilbert (19. Juli 2005). Lineare Algebra und ihre Anwendungen (4. Aufl.). Brooks Cole. ISBN 978-0-03-010567-8.
- ^ Weisstein, Eric. "Lineare Algebra". Mathord. Wolfram. Abgerufen 16. April 2012.
- ^ Hart, Roger (2010). Die chinesischen Wurzeln der linearen Algebra. JHU Press. ISBN 9780801899584.
- ^ a b c d Vitulli, Marie. "Eine kurze Geschichte der linearen Algebra- und Matrix -Theorie". Abteilung für Mathematik. Universität von Oregon. Archiviert von das Original Am 2012-09-10. Abgerufen 2014-07-08.
- ^ Benjamin Peirce (1872) Lineare assoziative Algebra, Lithographie, neue Ausgabe mit Korrekturen, Notizen und einem zusätzlichen Artikel von 1875 von Peirce sowie Notizen seines Sohnes Charles Sanders Peirce, veröffentlicht in der American Journal of Mathematics v. 4, 1881, Johns Hopkins University, S. 221–226, Google Eprint und als Extrakt, D. van Nostrand, 1882,, Google Eprint.
- ^ Roman (2005, CH. 1, p. 27)
- ^ Axler (2015) p. 82, §3.59
- ^ Axler (2015) p. 23, §1.45
- ^ Anton (1987, p. 2)
- ^ Beauregard & Fraleigh (1973, p. 65)
- ^ Burden & Faires (1993, p. 324)
- ^ Golub & Van Loan (1996, p. 87)
- ^ Harper (1976, p. 57)
- ^ Katznelson & Katznelson (2008) S. 76–77, § 4.4.1–4.4.6
- ^ Katznelson & Katznelson (2008) p. 37 §2.1.3
- ^ Halmos (1974) p. 20, §13
- ^ Axler (2015) p. 101, §3.94
- ^ P.K. Jain, Khalil Ahmad (1995). "5.1 Definitionen und grundlegende Eigenschaften von inneren Produkträumen und Hilbert -Räumen". Funktionsanalyse (2. Aufl.). New Age International. p. 203. ISBN 81-224-0801-x.
- ^ Eduard Prugovec̆ki (1981). "Definition 2.1". Quantenmechanik im Hilbert -Raum (2. Aufl.). Akademische Presse. S. 18 ff. ISBN 0-12-566060-x.
- ^ Emil Artin (1957) Geometrische Algebra Interscience Publishers
Quellen
- Anton, Howard (1987), Elementare lineare Algebra (5. Aufl.), New York: Wiley, ISBN 0-471-84819-0
- Axler, Sheldon (18. Dezember 2014), Lineare Algebra richtig gemacht, Bachelortexte in Mathematik (3. Aufl.), Springer Publishing (veröffentlicht 2015),, ISBN 978-3-319-11079-0
- Beauregard, Raymond A.; Fraleigh, John B. (1973), Ein erster Kurs in linearer Algebra: mit optionaler Einführung in Gruppen, Ringe und Felder, Boston: Houghton Mifflin Company, ISBN 0-395-14017-x
- Burden, Richard L.; Faires, J. Douglas (1993), Numerische Analyse (5. Aufl.), Boston: Prindle, Weber und Schmidt, ISBN 0-534-93219-3
- Golub, Gene H.; Van Loan, Charles F. (1996), Matrixberechnungen, Johns Hopkins -Studien in mathematischen Wissenschaften (3. Aufl.), Baltimore: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
- Halmos, Paul Richard (1974), Finite-dimensionale Vektorräume, Bachelortexte in Mathematik (1958 2. Aufl.), Springer Publishing, ISBN 0-387-90093-4, OCLC 1251216
- Harper, Charlie (1976), Einführung in die mathematische Physik, New Jersey: Prentice-Hall, ISBN 0-13-487538-9
- Katznelson, Yitzhak; Katznelson, Yonatan R. (2008), Eine (knappe) Einführung in die lineare Algebra, American Mathematical Society, ISBN 978-0-8218-4419-9
- Roman, Steven (22. März 2005), Erweiterte lineare Algebra, Graduiertentexte in Mathematik (2. Aufl.), Springer, ISBN 978-0-387-24766-3
Weitere Lektüre
Geschichte
- Fearnley-Sander, Desmond, "Hermann Grassmann und die Schaffung linearer Algebra", Amerikanische mathematische monatliche monatlich 86 (1979), S. 809–817.
- Grassmann, Hermann (1844), Die lineale Ausdehnungslehre ein Neuer Zweig der Mathematik: Darignig und Durchwendungen auf Die Öbrigen Zweige der Mathematik, Wie auch auf die Statik, Mechanik, Die Lehre Vom Magnetismus und die Krystallonomie Erlätertert, Leipzig: O. Wigand
Einführungslehrbücher
- Anton, Howard (2005), Elementare lineare Algebra (Anwendungsversion) (9. Aufl.), Wiley International
- Banerjee, Sudipto; Roy, Anindya (2014), Lineare Algebra- und Matrixanalyse für Statistiken, Texte in statistischer Wissenschaft (1. Aufl.), Chapman und Hall/CRC, ISBN 978-1420095388
- Bretscher, Otto (2004), Lineare Algebra mit Anwendungen (3. Aufl.), Prentice Hall, ISBN 978-0-13-145334-0
- Farin, Gerald; Hansford, Dianne (2004), Praktische lineare Algebra: Eine Geometrie -Toolbox, AK Peters, ISBN 978-1-56881-234-2
- Hefferon, Jim (2020). Lineare Algebra (4. Aufl.). Ann Arbor, Michigan: Orthogonales Verlagswesen. ISBN 978-1-944325-11-4. OCLC 1178900366. Ol 30872051m.
- Kolman, Bernard; Hill, David R. (2007), Elementare lineare Algebra mit Anwendungen (9. Aufl.), Prentice Hall, ISBN 978-0-13-229654-0
- Lay, David C. (2005), Lineare Algebra und ihre Anwendungen (3. Aufl.), Addison Wesley, ISBN 978-0-321-28713-7
- Leon, Steven J. (2006), Lineare Algebra mit Anwendungen (7. Aufl.), Pearson Prentice Hall, ISBN 978-0-13-185785-8
- Murty, Katta G. (2014) Rechnerische und algorithmische lineare Algebra und n-dimensionale Geometrie, World Scientific Publishing, ISBN978-981-4366-62-5. Kapitel 1: Systeme gleichzeitig linearer Gleichungen
- Noble, B. & Daniel, J.W. (2. Aufl. 1977) [1], Pearson Hochschulbildung, ISBN978-0130413437.
- Poole, David (2010), Lineare Algebra: Eine moderne Einführung (3. Aufl.), Cengage - Brooks/Cole, ISBN 978-0-538-73545-2
- Ricardo, Henry (2010), Eine moderne Einführung in die lineare Algebra (1. Aufl.), CRC Press, ISBN 978-1-4398-0040-9
- Sadun, Lorenzo (2008), Lineare Algebra angewendet: das Entkopplungsprinzip (2. Aufl.), AMS, ISBN 978-0-8218-4441-0
- Strang, Gilbert (2016), Einführung in die lineare Algebra (5. Aufl.), Wellesley-Cambridge Press, ISBN 978-09802327-7-6
- Der Manga -Leitfaden zu linearer Algebra (2012), von Shin Takahashi, Iroha Inoue und Trend-Pro Co., Ltd., ISBN978-1-59327-413-9
Erweiterte Lehrbücher
- Bhatia, Rajendra (15. November 1996), Matrixanalyse, Graduiertentexte in Mathematik, Springer, ISBN 978-0-387-94846-1
- Demmel, James W. (1. August 1997), Angewandte numerische lineare Algebra, Siam, ISBN 978-0-89871-389-3
- Dym, Harry (2007), Lineare Algebra in Aktion, AMS, ISBN 978-0-8218-3813-6
- Gantmacher, Felix R. (2005), Anwendungen der Theorie der Matrizen, Dover Publications, ISBN 978-0-486-44554-0
- Gantmacher, Felix R. (1990), Matrix Theorie Vol. 1 (2. Aufl.), American Mathematical Society, ISBN 978-0-8218-1376-8
- Gantmacher, Felix R. (2000), Matrix Theorie Vol. 2 (2. Aufl.), American Mathematical Society, ISBN 978-0-8218-2664-5
- Gelfand, Israel M. (1989), Vorträge auf lineare Algebra, Dover Publications, ISBN 978-0-486-66082-0
- Glazman, I. M.; Ljubic, Ju. I. (2006), Finite-dimensionale lineare Analyse, Dover Publications, ISBN 978-0-486-45332-3
- Golan, Johnathan S. (Januar 2007), Die lineare Algebra, die ein beginnender Doktorand wissen sollte (2. Aufl.), Springer, ISBN 978-1-4020-5494-5
- Golan, Johnathan S. (August 1995), Grundlagen der linearen Algebra, Kluwer, ISBN 0-7923-3614-3
- Greub, Werner H. (16. Oktober 1981), Lineare Algebra, Graduiertentexte in Mathematik (4. Aufl.), Springer, ISBN 978-0-8018-5414-9
- Hoffman, Kenneth; Kunze, Ray (1971), Lineare Algebra (2. Aufl.), Englewood Cliffs, N.J.: Prentice-Hall, Inc., HERR 0276251
- Halmos, Paul R. (20. August 1993), Finite-dimensionale Vektorräume, Bachelortexte in Mathematik, Springer, ISBN 978-0-387-90093-3
- Friedberg, Stephen H.; Insel, Arnold J.; Spence, Lawrence E. (7. September 2018), Lineare Algebra (5. Aufl.), Pearson, ISBN 978-0-13-486024-4
- Horn, Roger A.; Johnson, Charles R. (23. Februar 1990), Matrixanalyse, Cambridge University Press, ISBN 978-0-521-38632-6
- Horn, Roger A.; Johnson, Charles R. (24. Juni 1994), Themen in der Matrixanalyse, Cambridge University Press, ISBN 978-0-521-46713-1
- Lang, Serge (9. März 2004), Lineare Algebra, Bachelor -Texte in Mathematik (3. Aufl.), Springer, ISBN 978-0-387-96412-6
- Marcus, Marvin; Minc, Henryk (2010), Eine Übersicht über die Matrixtheorie und Matrix -Ungleichheiten, Dover Publications, ISBN 978-0-486-67102-4
- Meyer, Carl D. (15. Februar 2001), Matrixanalyse und angewendete lineare Algebra, Gesellschaft für industrielle und angewandte Mathematik (Siam), ISBN 978-0-89871-454-8, archiviert von das Original am 31. Oktober 2009
- Mirsky, L. (1990), Eine Einführung in die lineare Algebra, Dover Publications, ISBN 978-0-486-66434-7
- Shafarevich, I. R.; Remizov, A. O. (2012), Lineare Algebra und Geometrie, Springer, ISBN 978-3-642-30993-9
- Shilov, Georgi E. (1. Juni 1977), Lineare Algebra, Dover Publications, ISBN 978-0-486-63518-7
- Shores, Thomas S. (6. Dezember 2006), Angewandte lineare Algebra- und Matrixanalyse, Bachelor -Texte in Mathematik, Springer, ISBN 978-0-387-33194-2
- Smith, Larry (28. Mai 1998), Lineare Algebra, Bachelor -Texte in Mathematik, Springer, ISBN 978-0-387-98455-1
- Trefethen, Lloyd N.; BAU, David (1997), Numerische lineare Algebra, Siam, ISBN 978-0-898-71361-9
Studienführer und Umrisse
- Leduc, Steven A. (1. Mai 1996), Lineare Algebra (Klippen Schnellbewertung), Cliffs Notes, ISBN 978-0-8220-5331-6
- Lipschutz, Seymour; Lipson, Marc (6. Dezember 2000), Schaums Umriss der linearen Algebra (3. Aufl.), McGraw-Hill, ISBN 978-0-07-136200-9
- Lipschutz, Seymour (1. Januar 1989), 3.000 gelöste Probleme in der linearen Algebra, McGraw -Hill, ISBN 978-0-07-038023-3
- McMahon, David (28. Oktober 2005), Lineare Algebra entmystifiziert, McGraw -Hill Professional, ISBN 978-0-07-146579-3
- Zhang, Fuzhen (7. April 2009), Lineare Algebra: Herausfordernde Probleme für Schüler, The Johns Hopkins University Press, ISBN 978-0-8018-9125-0
Externe Links
Internetquellen
- MIT lineare Algebra -Videovideovorlesungen, Eine Reihe von 34 aufgezeichneten Vorträgen des Professors Gilbert Strang (Frühjahr 2010)
- Internationale lineare Algebra -Gesellschaft
- "Lineare Algebra", Enzyklopädie der Mathematik, EMS Press, 2001 [1994]
- Lineare Algebra an Mathord
- Matrix- und lineare Algebra -Begriffe an Früheste bekannte Verwendungen einiger der Wörter der Mathematik
- Früheste Verwendung von Symbolen für Matrizen und Vektoren an Früheste Verwendung verschiedener mathematischer Symbole
- Essenz der linearen Algebra, eine Videopräsentation von 3Blue1Brown der Grundlagen der linearen Algebra mit Schwerpunkt auf der Beziehung zwischen geometrischer, Matrix und abstrakten Gesichtspunkten
Online -Bücher
- Margalit, Dan; Rabinoff, Joseph (2019). Interaktive lineare Algebra. Georgia Institute of Technology, Atlanta, Georgia: Selbst veröffentlicht.
- Beezer, Robert A. (2009) [2004]. Ein erster Kurs in linearer Algebra. Gainesville, Florida: Universitätspresse von Florida. ISBN 9781616100049.
- Connell, Edwin H. (2004) [1999]. Elemente der abstrakten und linearen Algebra. Universität von Miami, Coral Gables, Florida: Selbst veröffentlicht.
- Hefferon, Jim (2020). Lineare Algebra (4. Aufl.). Ann Arbor, Michigan: Orthogonales Verlagswesen. ISBN 978-1-944325-11-4. OCLC 1178900366. Ol 30872051m.
- Matthews, Keith R. (2013) [1991]. Elementare lineare Algebra. Universität von Queensland, Brisbane, Australien: Selbst veröffentlicht.
- Mikaelian, Vahagn H. (2020) [2017]. Lineare Algebra: Theorie und Algorithmen. Ervan, Armenien: Selbst veröffentlicht-über ResearchGate.
- Sharipov, Ruslan, Verlauf der linearen Algebra und mehrdimensionaler Geometrie
- Treil, Sergei, Lineare Algebra falsch gemacht