Eigenwerte und Eigenvektoren
Im Lineare Algebra, ein Eigenvektor (/ˈaɪɡənˌvɛktər/) oder charakteristischer Vektor von a lineare Transformation ist ein ungleich Null Vektor Das ändert sich höchstens durch a Skalar Faktor, wenn diese lineare Transformation darauf angewendet wird. Die entsprechende Eigenwert, oft bezeichnet durch , ist der Faktor, durch den der Eigenvektor skaliert ist.
Geometrischein Eigenvektor, der a entspricht a real Eigenwert ungleich Null zeigt in eine Richtung, in der es ist gestreckt Durch die Transformation und der Eigenwert ist der Faktor, mit dem es gedehnt wird. Wenn der Eigenwert negativ ist, wird die Richtung umgekehrt.[1] Locker gesagt in einem mehrdimensionalen VektorraumDer Eigenvektor ist nicht gedreht.
Formale Definition
Wenn T ist eine lineare Transformation aus einem Vektorraum V über ein aufstellen F in sich und v ist ein ungleich Null Vektor in V, dann v ist ein Eigenvektor von T wenn T(v) ist ein skalares Vielfaches von v. Dies kann geschrieben werden als
wo λ ist ein Skalar in F, bekannt als Eigenwert, charakteristischer Wert, oder charakteristische Wurzel verknüpft mit v.
Es gibt eine direkte Korrespondenz zwischen n-durch-n Quadratmatrizen und lineare Transformationen aus einem n-Dimensional Vektorraum in sich selbst, gegeben Basis des Vektorraums. Daher ist es in einem endlich-dimensionalen Vektorraum gleichbedeutend mit der Definition von Eigenwerten und Eigenvektoren, die die Sprache von der Sprache unterhalten Matrizen, oder die Sprache der linearen Transformationen.[2][3]
Wenn V ist endlichdimensional, die obige Gleichung entspricht zu[4]
wo A ist die Matrixdarstellung von T und u ist der Koordinatenvektor von v.
Überblick
Eigenwerte und Eigenvektoren sind prominent in der Analyse linearer Transformationen auftreten. Das Präfix Eigen- wird aus dem übernommen Deutsch Wort Eigen (verwandt mit dem Englisch Wort besitzen) für "richtig", "charakteristisch", "eigen".[5][6] Ursprünglich zum Studium verwendet Hauptachsen der Rotationsbewegung von Starre KörperEigenwerte und Eigenvektoren haben eine Vielzahl von Anwendungen, zum Beispiel in Stabilitätsanalyse, Vibrationsanalyse, atomare Orbitale, Gesichtserkennung, und Matrixdiagonalisierung.
Im Wesentlichen ein Eigenvektor v einer linearen Transformation T ist ein Vektor ungleich Null, der, wenn T wird darauf angewendet, ändert keine Richtung. Bewirbt sich T zum Eigenvektor skaliert nur den Eigenvektor nach dem Skalarwert λ, als Eigenwert bezeichnet. Diese Bedingung kann als Gleichung geschrieben werden
als die bezeichnet Eigenwertgleichung oder Eigenequation. Im Algemeinen, λ kann alle sein Skalar. Zum Beispiel, λ Kann negativ sein, in diesem Fall umkehrt der Eigenvektor die Richtung als Teil der Skalierung oder kann Null sein oder sein Komplex.


Das Mona Lisa Das hier abgebildete Beispiel bietet eine einfache Illustration. Jeder Punkt auf dem Gemälde kann als Vektor dargestellt werden, der von der Mitte des Gemäldes bis zu diesem Punkt zeigt. Die lineare Transformation in diesem Beispiel wird a genannt Scherzuordnung. Die Punkte in der oberen Hälfte werden nach rechts bewegt und Punkte in der unteren Hälfte werden nach links bewegt, proportional zu der Zeit, wie weit sie von der horizontalen Achse entfernt sind, die durch die Mitte des Gemäldes geht. Die Vektoren, die auf jeden Punkt im Originalbild zeigen, sind daher rechts oder links geneigt und durch die Transformation länger oder kürzer. Punkte eine lange Die horizontale Achse bewegen sich überhaupt nicht, wenn diese Transformation angewendet wird. Daher ist jeder Vektor, der direkt nach rechts oder links ohne vertikale Komponente zeigt, ein Eigenvektor dieser Transformation, da die Zuordnung seine Richtung nicht ändert. Darüber hinaus haben diese Eigenvektoren alle einen Eigenwert, der einem gleich ist, da die Zuordnung auch ihre Länge nicht ändert.
Lineare Transformationen können viele verschiedene Formen annehmen und Vektoren in einer Vielzahl von Vektorräumen kartieren, sodass die Eigenvektoren auch viele Formen annehmen können. Zum Beispiel könnte die lineare Transformation a sein Differentialoperator wie In diesem Fall werden die Eigenvektoren Funktionen genannt Eigenfunktionen das werden von diesem Differentialoperator skaliert, wie z.
Alternativ könnte die lineare Transformation die Form eines annehmen n durch n Matrix, in diesem Fall sind die Eigenvektoren n durch 1 Matrizen. Wenn die lineare Transformation in Form eines ausgedrückt wird n durch n Matrix Aund dann kann die Eigenwertgleichung für eine lineare Transformation oben als Matrixmultiplikation neu geschrieben werden
wo der Eigenvektor v ist ein n durch 1 Matrix. Für eine Matrix können Eigenwerte und Eigenvektoren verwendet werden Zersetzen Sie die Matrix- zum Beispiel von Diagonalisierung es.
Eigenwerte und Eigenvektoren führen zu vielen eng verwandten mathematischen Konzepten und dem Präfix Eigen- wird großzügig angewendet, wenn sie sie benennen:
- Der Satz aller Eigenvektoren einer linearen Transformation, die jeweils mit seinem entsprechenden Eigenwert gepaart ist, wird als die genannt Eigensystem dieser Transformation.[7][8]
- Die Menge aller Eigenvektoren von T entsprechend dem gleichen Eigenwert zusammen mit dem Nullvektor wird als eine bezeichnet Eigenspace, oder der charakteristischer Raum von T mit diesem Eigenwert verbunden.[9]
- Wenn eine Reihe von Eigenvektoren von T Formen a Basis der Domäne von Tund dann wird diese Grundlage als eine bezeichnet Eigenbasis.
Geschichte
Eigenwerte werden häufig im Kontext von eingeführt Lineare Algebra oder Matrix -Theorie. Historisch gesehen entstanden sie jedoch in der Studie von quadratische Formen und Differentialgleichung.
Im 18. Jahrhundert, Leonhard Euler studierte die Rotationsbewegung von a starrer Körperund entdeckte die Bedeutung der Hauptachsen.[a] Joseph-Louis Lagrange erkannte, dass die Hauptachsen die Eigenvektoren der Trägheitsmatrix sind.[10]
Im frühen 19. Jahrhundert, Augustin-Louis Cauchy sah, wie ihre Arbeit verwendet werden konnte, um die zu klassifizieren Quadrische Oberflächenund verallgemeinerte es auf willkürliche Dimensionen.[11] Cauchy prägte auch den Begriff Racine Caractéristique (charakteristische Wurzel) für das, was jetzt genannt wird Eigenwert; Seine Amtszeit überlebt in charakteristische Gleichung.[b]
Später, Joseph Fourier benutzte die Arbeit von Lagrange und Pierre-Simon Laplace um die zu lösen Wärmegleichung durch Trennung von Variablen In seinem berühmten Buch von 1822 von 1822 Théorie Analytique de la Chaleur.[12] Charles-François Sturm entwickelte Fouriers Ideen weiter und machte sie auf Cauchy aufmerksam, der sie mit seinen eigenen Ideen kombinierte und die Tatsache ankam, dass real Symmetrische Matrizen Haben Sie echte Eigenwerte.[11] Dies wurde von erweitert von Charles Hermite 1855 zu dem, was jetzt genannt wird Hermitian -Matrizen.[13]
Um die selbe Zeit, Francesco Brioschi bewiesen, dass die Eigenwerte von Orthogonale Matrizen lügen auf der Einheitskreis,[11] und Alfred Cleebsch fand das entsprechende Ergebnis für schief symmetrische Matrizen.[13] Endlich, Karl Weierstrass klärte einen wichtigen Aspekt in der Stabilitätstheorie Begonnen von Laplace, indem er das erkannte defekte Matrizen kann Instabilität verursachen.[11]
In der Zwischenzeit, Joseph Liouville studierte Eigenwertprobleme ähnlich denen von Sturm; Die Disziplin, die aus ihrer Arbeit herausgewachsen ist Sturm -Liouville -Theorie.[14] Schwarz studierte den ersten Eigenwert von Laplaces Gleichung auf allgemeine Bereiche gegen Ende des 19. Jahrhunderts, während Poincaré studiert Poissons Gleichung ein paar Jahre später.[15]
Zu Beginn des 20. Jahrhunderts, David Hilbert studierte die Eigenwerte von Integrale Operatoren Indem Sie die Operatoren als unendliche Matrizen betrachten.[16] Er war der erste, der das benutzte Deutsch Wort Eigen, was "eigen" bedeutet,[6] Eigenwerte und Eigenvektoren im Jahr 1904 zu bezeichnen,[c] obwohl er möglicherweise eine verwandte Verwendung von verfolgt hat Hermann von Helmholtz. Für einige Zeit war der Standardbegriff in Englisch "richtiger Wert", aber der markantere Begriff "Eigenwert" ist heute der Standard.[17]
Der erste numerische Algorithmus für die Berechnung von Eigenwerten und Eigenvektoren erschien 1929, wann Richard von Mises veröffentlichte die Leistungsmethode. Eine der beliebtesten Methoden heute, die QR -Algorithmus, wurde unabhängig von vorgeschlagen von John G. F. Francis[18] und Vera Kublanovskaya[19] 1961.[20][21]
Eigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren werden häufig den Schülern im Kontext linearer Algebra -Kurse eingeführt, die sich auf Matrizen konzentrieren.[22][23] Darüber hinaus können lineare Transformationen über einen endlich-dimensionalen Vektorraum unter Verwendung von Matrizen dargestellt werden.[2][3] Dies ist besonders häufig in numerischen und rechnerischen Anwendungen.[24]

In Betracht ziehen n-Dimensionale Vektoren, die als Liste von gebildet werden n Skalare wie die dreidimensionalen Vektoren
Diese Vektoren sollen sein Skalare Multiplikatoren voneinander oder parallel oder kollinear, wenn es einen Skalar gibt λ so dass
In diesem Fall .
Betrachten Sie nun die lineare Transformation von n-Dimensionale Vektoren definiert durch eine n durch n Matrix AAnwesend
oder
wo für jede Reihe,
Wenn es vorkommt v und w sind skalare Vielfachen, das ist, wenn
-
(1)
dann v ist ein Eigenvektor der linearen Transformation A und der Skalierungsfaktor λ ist der Eigenwert entsprechend diesem Eigenvektor. Gleichung (1) ist der Eigenwertgleichung für die Matrix A.
Gleichung (1) kann äquivalent wie als als
-
(2)
wo I ist der n durch n Identitätsmatrix und 0 ist der Nullvektor.
Eigenwerte und das charakteristische Polynom
Gleichung (2) hat eine Lösung ungleich Null v dann und nur dann, wenn das bestimmend der Matrix (A − λi) ist Null. Daher die Eigenwerte von A sind Werte von λ das befriedigt die Gleichung
-
(3)
Verwendung Leibniz 'Regel für die Determinante die linke Seite der Gleichung (3) ist ein Polynom Funktion der Variablen λ und die Grad von diesem Polynom ist n, die Reihenfolge der Matrix A. Es ist Koeffizienten hängen von den Einträgen von ab A, außer dass seine Gradbegriff n ist immer (–1)nλn. Dieses Polynom wird das genannt charakteristisches Polynom von A. Gleichung (3) wird das genannt charakteristische Gleichung oder der weltliche Gleichung von A.
Das Grundsatz der Algebra impliziert, dass das charakteristische Polynom von a n-durch-n Matrix Aein Polynom des Grades sein n, kann sein berücksichtigt in das Produkt von n lineare Begriffe,
-
(4)
wo jeweils λi Kann real sein, aber im Allgemeinen eine komplexe Zahl. Die Zahlen λ1, λ2, ..., λn, was möglicherweise nicht alle unterschiedliche Werte haben, sind Wurzeln des Polynoms und sind die Eigenwerte von A.
Betrachten Sie als kurzes Beispiel, das später im Abschnitt Beispiele ausführlicher beschrieben wird
Determinante von (A − λi)das charakteristische Polynom von A ist
Einstellen des charakteristischen Polynoms gleich Null, es hat Wurzeln bei λ = 1 und λ = 3, die die beiden Eigenwerte sind A. Die Eigenvektoren, die jedem Eigenwert entsprechen v in der Gleichung . In diesem Beispiel sind die Eigenvektoren ein skalarer Vielfaches von ungleich Null
Wenn die Einträge der Matrix A Alle realen Zahlen sind dann die Koeffizienten des charakteristischen Polynoms auch reelle Zahlen, aber die Eigenwerte haben möglicherweise immer noch imaginäre Teile ungleich Null. Die Einträge der entsprechenden Eigenvektoren können daher auch imaginäre Teile ungleich Null aufweisen. Ebenso können die Eigenwerte sein irrationale Zahlen Auch wenn alle Einträge von A sind Rationale Zahlen oder selbst wenn sie alle Ganzzahlen sind. Wenn jedoch die Einträge von A sind alle Algebraische ZahlenZu den Rationals gehören die Eigenwerte komplexe algebraische Zahlen.
Die nicht realen Wurzeln eines realen Polynoms mit realen Koeffizienten können in Paare von zusammengefasst werden Komplexe Konjugate, nämlich mit den beiden Mitgliedern jedes Paares mit imaginären Teilen, die sich nur im Zeichen unterscheiden, und dem gleichen realen Teil. Wenn der Abschluss ungerade ist, dann durch die Zwischenwert -Theorem Mindestens eines der Wurzeln ist real. Deshalb alle echte Matrix Mit ungerade Reihenfolge hat mindestens ein echtes Eigenwert, während eine echte Matrix mit gleicher Ordnung möglicherweise keine wirklichen Eigenwerte hat. Die mit diesen komplexen Eigenwerchen assoziierten Eigenvektoren sind ebenfalls komplex und erscheinen auch in komplexen konjugierten Paaren.
Algebraische Multiplizität
Lassen λi ein Eigenwert von einem sein n durch n Matrix A. Das Algebraische Multiplizität μA(λi) des Eigenwerts ist sein Multiplizität als Wurzel des charakteristischen Polynoms, dh der größten Ganzzahl k so dass (λ − λi)k gleichmäßig teilt dieses Polynom.[9][25][26]
Angenommen, eine Matrix A hat Dimension n und d ≤ n unterschiedliche Eigenwerte. Während Gleichung (4) Faktoren das charakteristische Polynom von A in das Produkt von n Lineare Begriffe mit einigen potenziell wiederholenden Begriffen, das charakteristische Polynom kann stattdessen als Produkt von geschrieben werden d Begriffe, die jeweils einem unterschiedlichen Eigenwert entsprechen und zur Macht der algebraischen Multiplizität erhoben werden,
Wenn d = n Dann ist die rechte Seite das Produkt von n lineare Begriffe und dies ist die gleiche wie Gleichung (4). Die Größe der algebraischen Multiplizität jedes Eigenwerts hängt mit der Dimension zusammen n wie
Wenn μA(λi) = 1 dann λi soll ein sein Einfacher Eigenwert.[26] Wenn μA(λi) entspricht der geometrischen Multiplizität von λi, γA(λi), dann im nächsten Abschnitt definiert, dann λi soll ein sein Halbscheibender Eigenwert.
Eigenschaften, geometrische Multiplizität und die Eigenbasis für Matrizen
Angesichts eines bestimmten Eigenwerts λ des n durch n Matrix A, definiere das einstellen E Alle Vektoren sein v das erfüllt die Gleichung (2),
Einerseits ist dieses Set genau das Kernel oder Nullspace der Matrix (A − λi). Andererseits ist jeder Vektor ungleich Null, der diese Bedingung erfüllt A verknüpft mit λ. Also das Set E ist der Union des Nullvektors mit dem Satz aller Eigenvektoren von A verknüpft mit λ, und E entspricht dem Nullraum von ((A − λi). E wird genannt Eigenspace oder charakteristischer Raum von A verknüpft mit λ.[27][9] Im Algemeinen λ ist eine komplexe Zahl und die Eigenvektoren sind komplex n durch 1 Matrizen. Eine Eigenschaft des Nullspace ist, dass es a ist linearer Unterraum, Also E ist ein linearer Unterraum von .
Weil der Eigenraum E ist ein linearer Unterraum, ist es abgeschlossen unter Hinzufügen. Das heißt, wenn zwei Vektoren u und v gehören zum Set E, geschrieben u, v ∈ E, dann (u + v) ∈ E oder gleichwertig A(u + v) = λ(u + v). Dies kann mit dem überprüft werden Verteilungseigenschaft der Matrixmultiplikation. Ähnlich, weil E ist ein linearer Unterraum, der unter skalarer Multiplikation geschlossen wird. Das heißt, wenn v ∈ E und α ist eine komplexe Zahl, (αv) ∈ E oder gleichwertig A(αv) = λ(αv). Dies kann überprüft werden, indem darauf hingewiesen wird, dass die Multiplikation komplexer Matrizen mit komplexen Zahlen ist kommutativ. So lange wie u + v und αv sind nicht Null, sie sind auch Eigenvektoren von A verknüpft mit λ.
Die Dimension des Eigenraums E verknüpft mit λoder entsprechend die maximale Anzahl linear unabhängiger Eigenvektoren, die mit verbunden sind λ, wird als Eigenwert bezeichnet Geometrische Multiplizität γA(λ). Da E ist auch der nullspace von (A − λi) die geometrische Multiplizität von λ ist die Dimension des Nullspace von (A − λi), auch die genannt Nichtigkeit von (A − λi), die sich auf die Dimension und den Rang von ((A − λi) wie
Aufgrund der Definition von Eigenwerten und Eigenvektoren muss die geometrische Multiplizität eines Eigenwerts mindestens eine sein, dh jeder Eigenwert hat mindestens einen assoziierten Eigenvektor. Darüber hinaus darf die geometrische Multiplizität eines Eigenwerts seine algebraische Multiplizität nicht überschreiten. Erinnern Sie sich außerdem daran, dass die algebraische Multiplizität eines Eigenwerts nicht übertreffen darf n.
Die Ungleichheit beweisen , Überlegen Sie, wie die Definition der geometrischen Multiplizität die Existenz von impliziert orthonormal Eigenvektoren , so dass . Wir können daher eine (einheitliche) Matrix finden dessen erste Säulen sind diese Eigenvektoren und deren verbleibende Säulen einen orthonormalen Satz von sein können Vektoren orthogonal zu diesen Eigenvektoren von . Dann hat den vollen Rang und ist daher invertierbar, und mit Eine Matrix, deren obere linke Block die diagonale Matrix ist . Dies impliziert das . Mit anderen Worten, ist ähnlich wie das impliziert das . Aber aus der Definition von Wir wissen das enthält einen Faktor was bedeutet, dass die algebraische Mehrfachverbindlichkeit von muss befriedigen .
Vermuten hat unterschiedliche Eigenwerte , wo die geometrische Multiplizität von ist . Die gesamte geometrische Multiplizität von Anwesend
ist die Dimension der Summe von allen Eigenschaften von 's Eigenwerte oder gleichzeitig die maximale Anzahl linear unabhängiger Eigenvektoren von . Wenn , dann
- Die direkte Summe der Eigenschaften aller Eigenwerte sind der gesamte Vektorraum .
- Eine Grundlage von kann aus gebildet werden aus linear unabhängige Eigenvektoren von ; Eine solche Grundlage wird als eine bezeichnet Eigenbasis
- Jeder Vektor in kann als lineare Kombination von Eigenvektoren von geschrieben werden .
Zusätzliche Eigenschaften von Eigenwerten
Lassen ein willkürlicher sein Matrix komplexer Zahlen mit Eigenwerten . Jeder Eigenwert erscheint Zeiten in dieser Liste, wo ist die algebraische Multiplizität des Eigenwerts. Im Folgenden sind Eigenschaften dieser Matrix und ihrer Eigenwerte aufgeführt:
- Das verfolgen von , definiert als die Summe seiner diagonalen Elemente, ist auch die Summe aller Eigenwerte,[28][29][30]
- Das bestimmend von ist das Produkt aller Eigenwerte,[28][31][32]
- Die Eigenwerte der th Kraft von ; d.h. die Eigenwerte von , für jede positive Ganzzahl , sind .
- Die Matrix ist invertierbar Wenn und nur wenn jeder Eigenwert ungleich Null ist.
- Wenn ist invertierbar, dann die Eigenwerte von sind und die geometrische Multiplizität jedes Eigenwerts fällt zusammen. Darüber hinaus ist das charakteristische Polynom des Invers das gegenseitiges Polynom Von dem Original teilen die Eigenwerte die gleiche algebraische Multiplizität.
- Wenn entspricht seinem gleich konjugierte Transponierung oder äquivalent, wenn ist HermitianerDann ist jeder Eigenwert real. Das gleiche gilt für jeden symmetrisch echte Matrix.
- Wenn ist nicht nur einsiedisch, sondern auch positiv-definit, positiv-semidfinit, negativ definit oder negativ semidfinit ist jeder Eigenwert positiv, nicht negativ, negativ oder nicht-positiv.
- Wenn ist EinheitlichJeder Eigenwert hat einen absoluten Wert .
- wenn ist ein Matrix und sind seine Eigenwerte, dann die Eigenwerte der Matrix (wo ist die Identitätsmatrix) sind . Außerdem, wenn die Eigenwerte von sind . Allgemeiner für ein Polynom Die Eigenwerte der Matrix sind .
Linke und rechte Eigenvektoren
Viele Disziplinen repräsentieren traditionell Vektoren als Matrizen mit einer einzelnen Spalte und nicht als Matrizen mit einer einzelnen Zeile. Aus diesem Grund bezieht sich das Wort "Eigenvektor" im Kontext von Matrizen fast immer auf a Rechts Eigenvektor, nämlich a Säule Vektor das Rechts multipliziert die Matrix in der definierenden Gleichung, Gleichung (1),
Das Eigenwert- und Eigenvektorproblem kann auch für definiert werden die Zeile Vektoren das links matrix multiplizieren . In dieser Formulierung ist die definierende Gleichung
wo ist ein Skalar und ist ein Matrix. Jeder Zeilenvektor Die Befriedigung dieser Gleichung wird als a genannt Links Eigenvektor von und ist sein assoziiertes Eigenwert. Die Transponierung dieser Gleichung nehmen,
Vergleich dieser Gleichung mit Gleichung (1), so folgt sofort, dass ein linker Eigenvektor von ist dasselbe wie die Transponierung eines rechten Eigenvektors von mit dem gleichen Eigenwert. Darüber hinaus seit dem charakteristischen Polynom von ist das gleiche wie das charakteristische Polynom von die Eigenwerte der linken Eigenvektoren von sind die gleichen wie die Eigenwerte der rechten Eigenvektoren von .
Diagonalisierung und Eigenschaft
Angenommen, die Eigenvektoren von A bilden eine Basis oder gleichwertig A hat n linear unabhängige Eigenvektoren v1, v2, ..., vn mit assoziierten Eigenwerten λ1, λ2, ..., λn. Die Eigenwerte müssen nicht unterschiedlich sein. Definieren a quadratische Matrix Q deren Säulen sind die n linear unabhängige Eigenvektoren von AAnwesend
Da jede Spalte von Q ist ein Eigenvektor von A, richtig multiplizieren A durch Q skalieren jede Spalte von Q durch sein assoziiertes Eigenwert,
Definieren Sie in diesem Sinne eine diagonale Matrix λ, wobei jedes diagonale Element λII ist der mit dem verbundene Eigenwert iTH -Säule von Q. Dann
Weil die Spalten von Q sind linear unabhängig, Q ist invertierbar. Rechte multiplizieren beide Seiten der Gleichung mit Q–1Anwesend
oder durch links links multiplizieren beide Seiten mit Q–1Anwesend
A kann daher in eine Matrix zerlegt werden, die aus ihren Eigenvektoren besteht, eine diagonale Matrix mit ihren Eigenwerten entlang der Diagonale und die Umkehrung der Matrix der Eigenvektoren. Dies nennt man die Eigenschaft Und es ist ein Ähnlichkeitsumwandlung. Eine solche Matrix A wird gesagt, dass ähnlich zur diagonalen Matrix λ oder diagonalisierbar. Die Matrix Q ist die Änderung der Basismatrix der Ähnlichkeitsumwandlung. Im Wesentlichen die Matrizen A und λ repräsentieren die gleiche lineare Transformation, die in zwei verschiedenen Basen ausgedrückt wird. Die Eigenvektoren werden als Grundlage verwendet, wenn die lineare Transformation als λ dargestellt wird.
Angenommen, eine Matrix A ist diagonalisierbar. Lassen P eine nicht singuläre Quadratmatrix so sein, dass P–1AP ist eine diagonale Matrix D. Links multiplizieren beide mit P, AP = PD. Jede Spalte von P muss daher ein Eigenvektor von sein A dessen Eigenwert das entsprechende diagonale Element von ist D. Da die Spalten von P muss linear unabhängig sein für P Um invertierbar zu sein, gibt es n linear unabhängige Eigenvektoren von A. Daraus folgt, dass die Eigenvektoren von A bilden eine Basis, wenn und nur wenn A ist diagonalisierbar.
Eine Matrix, die nicht diagonalisierbar ist defekt. Für defekte Matrizen verallgemeinert sich der Begriff der Eigenvektoren auf Verallgemeinerte Eigenvektoren und die diagonale Matrix der Eigenwerte verallgemeinert sich auf die Jordanische Normalform. Über einem algebraisch geschlossenen Feld jede Matrix A hat ein Jordanische Normalform und erlaubt daher eine Grundlage für verallgemeinerte Eigenvektoren und eine Zersetzung in Verallgemeinerte Eigenschaften.
Variationscharakterisierung
In dem Hermitianer Fall können Eigenwerte eine Variationscharakterisierung erhalten. Der größte Eigenwert von ist der Maximalwert der quadratische Form . Ein Wert von Das erkennt, dass dies maximal ein Eigenvektor ist.
Matrixbeispiele
Zweidimensionaler Matrixbeispiel

Betrachten Sie die Matrix
Die Abbildung rechts zeigt den Effekt dieser Transformation auf Punktkoordinaten in der Ebene. Die Eigenvektoren v dieser Transformation erfüllen die Gleichung (1) und die Werte von λ für die die Determinante der Matrix (A-λi) gleich Null sind die Eigenwerte.
Die Determinante einnehmen, um charakteristisches Polynom von zu finden AAnwesend
Einstellen des charakteristischen Polynoms gleich Null, es hat Wurzeln bei λ= 1 und λ= 3, die die beiden Eigenwerte sind A.
Zum λ= 1, Gleichung (2) wird,
Jeder Vektor ungleich Null mit v1 = -v2 Löst diese Gleichung. Deswegen,
Zum λ= 3, Gleichung (2) wird
Jeder Vektor ungleich Null mit v1 = v2 Löst diese Gleichung. Deswegen,
ist ein Eigenvektor von A korrespondierend zu λ = 3, ebenso wie jedes skalares Vielfaches dieses Vektors.
So die Vektoren vλ= 1 und vλ= 3 sind Eigenvektoren von A mit den Eigenwerten verbunden λ= 1 und λ= 3, beziehungsweise.
Dreidimensionales Matrixbeispiel
Betrachten Sie die Matrix
Das charakteristische Polynom von A ist
Die Wurzeln des charakteristischen Polynoms sind 2, 1 und 11, was die einzigen drei Eigenwerte von sind A. Diese Eigenwerte entsprechen den Eigenvektoren , , und , oder ein Multipler ungleich Null.
Dreidimensionales Matrixbeispiel mit komplexen Eigenwerten
Bedenke die zyklische Permutationsmatrix
Diese Matrix verschiebt die Koordinaten des Vektors um eine Position und bewegt die erste Koordinate nach unten. Sein charakteristisches Polynom ist 1 -λ3, deren Wurzeln sind
wo ist ein imaginäre Einheit mit .
Für den wirklichen Eigenwert λ1 = 1, jeder Vektor mit drei gleichen Einträgen ungleich Null ist ein Eigenvektor. Zum Beispiel,
Für das komplexe konjugierte Paar imaginärer Eigenwerte,,
Dann
und
Daher die beiden anderen Eigenvektoren von A sind komplex und sind und mit Eigenwerten λ2 und λ3, beziehungsweise. Die beiden komplexen Eigenvektoren erscheinen auch in einem komplexen Konjugatpaar,
Beispiel für diagonale Matrix
Matrizen mit Einträgen nur entlang der Hauptdiagonale werden genannt Diagonale Matrizen. Die Eigenwerte einer diagonalen Matrix sind die diagonalen Elemente selbst. Betrachten Sie die Matrix
Das charakteristische Polynom von A ist
Welches hat die Wurzeln λ1 = 1, λ2 = 2, und λ3 = 3. Diese Wurzeln sind die diagonalen Elemente sowie die Eigenwerte vonA.
Jedes diagonale Element entspricht einem Eigenvektor, dessen einzige Nicht -Null -Komponente in der gleichen Zeile wie das diagonale Element liegt. In dem Beispiel entsprechen die Eigenwerte den Eigenvektoren,
sowie skalare Multiples dieser Vektoren.
Dreiecksmatrix Beispiel
Eine Matrix, deren Elemente über der Hauptdiagonale alle null sind niedriger Dreiecksmatrix, während eine Matrix, deren Elemente unterhalb der Hauptdiagonale alle null sind obere dreieckige Matrix. Wie bei diagonalen Matrizen sind die Eigenwerte von dreieckigen Matrizen die Elemente der Hauptdiagonale.
Betrachten Sie die untere dreieckige Matrix,
Das charakteristische Polynom von A ist
Welches hat die Wurzeln λ1 = 1, λ2 = 2, und λ3 = 3. Diese Wurzeln sind die diagonalen Elemente sowie die Eigenwerte vonA.
Diese Eigenwerte entsprechen den Eigenvektoren,
sowie skalare Multiples dieser Vektoren.
Matrix mit wiederholten Eigenwerten Beispiel
Wie im vorherigen Beispiel die untere dreieckige Matrix
hat ein charakteristisches Polynom, das das Produkt seiner diagonalen Elemente ist,
Die Wurzeln dieses Polynoms und damit die Eigenwerte sind 2 und 3. die Algebraische Multiplizität von jedem Eigenwert ist 2; Mit anderen Worten, sie sind beide Doppelwurzeln. Die Summe der algebraischen Multiplikationen aller unterschiedlichen Eigenwerte ist μA = 4 = ndie Reihenfolge des charakteristischen Polynoms und die Dimension von A.
Andererseits die Geometrische Multiplizität des Eigenwerts 2 beträgt nur 1 und ist daher 1-dimensional. In ähnlicher Weise beträgt die geometrische Multiplizität des Eigenwerts 3 1, da sein Eigenraum von nur einem Vektor überspannt wird . Die gesamte geometrische Multiplizität γA IS 2, was der kleinste ist, das es für eine Matrix mit zwei unterschiedlichen Eigenwerten sein könnte. Geometrische Multiplikationen werden in einem späteren Abschnitt definiert.
Eigenvektor-Egenwert-Identität
Für ein Hermitische Matrix, die Norm quadriert von der jDie TH -Komponente eines normalisierten Eigenvektors kann nur unter Verwendung der Matrix -Eigenwerte und der Eigenwerte der entsprechenden Einsätze berechnet werden Kleinere MatrixAnwesend
Eigenwerte und Eigenfunktionen von Differentialoperatoren
Die Definitionen von Eigenwert und Eigenvektoren einer linearen Transformation T bleibt gültig, auch wenn der zugrunde liegende Vektorraum ein unendlich-dimensional ist Hilbert oder Banach -Raum. Eine weit verbreitete Klasse von linearen Transformationen, die auf unendlich-dimensionale Räume wirken, sind die Differentialoperatoren an Funktionsräume. Lassen D Seien Sie ein linearer Differentialoperator am Raum C∞ von unendlich differenzierbar Wirkliche Funktionen eines wirklichen Arguments t. Die Eigenwertgleichung für D ist der Differentialgleichung
Die Funktionen, die diese Gleichung erfüllen D und werden allgemein genannt Eigenfunktionen.
Beispiel für Derivatoperator
Betrachten Sie den Derivatoperator mit Eigenwertgleichung
Diese Differentialgleichung kann gelöst werden, indem beide Seiten miteinander vervielfacht werden dt/f(t) und integrieren. Seine Lösung, die Exponentialfunktion
ist die Eigenfunktion des Derivatoperators. In diesem Fall ist die Eigenfunktion selbst eine Funktion ihres damit verbundenen Eigenwerts. Insbesondere für λ = 0 Die Eigenfunktion f(t) ist eine Konstante.
Die Hauptstufe Eigenfunktion Artikel gibt andere Beispiele.
Allgemeine Definition
Das Konzept der Eigenwerte und Eigenvektoren erstreckt sich auf natürliche Weise auf willkürliche lineare Transformationen auf willkürlichen Vektorräumen. Lassen V Sei irgendein Vektorraum über einige aufstellen K von Skalare, und lass T Seien Sie eine lineare Transformationszuordnung V hinein VAnwesend
Wir sagen, dass ein Vektor ungleich Null v ∈ V ist ein Eigenvektor von T Wenn und nur wenn es einen Skalar gibt λ ∈ K so dass
-
(5)
Diese Gleichung wird als Eigenwertgleichung bezeichnet Tund der Skalar λ ist der Eigenwert von T entsprechend dem Eigenvektor v. T(v) ist das Ergebnis der Anwendung der Transformation T zum Vektor v, während λv ist das Produkt des Skalars λ mit v.[36][37]
Eigenschaften, geometrische Multiplizität und die Eigenbasis
Mit einem Eigenwert λBetrachten Sie den Satz
Welches ist die Vereinigung des Nullvektors mit dem Satz aller Eigenvektoren, die mit verbunden sindλ. E wird genannt Eigenspace oder charakteristischer Raum von T verknüpft mitλ.
Per Definition einer linearen Transformation,
zum xAnwesendy∈ V und α∈ K. Daher, wenn u und v sind Eigenvektoren von T mit Eigenwert verbunden λ, nämlich uAnwesendv∈ E, dann
Also beide u + v und αv sind entweder Null oder Eigenvektoren von T verknüpft mit λ, nämlich u + v, αv ∈ E, und E wird unter Hinzufügung und Skalarmultiplikation geschlossen. Der Eigenraum E verknüpft mit λ ist daher ein linearer Unterraum von V.[38] Wenn dieser Unterraum Dimension 1 hat, wird er manchmal als als bezeichnet Eigenlinie.[39]
Das Geometrische Multiplizität γT(λ) eines Eigenwerts λ ist die Dimension des Eigenraums verbunden mit λ, d.h. die maximale Anzahl linear unabhängiger Eigenvektoren, die mit diesem Eigenwert assoziiert sind.[9][26] Durch die Definition von Eigenwerten und Eigenvektoren,, γT(λ) ≥ 1, weil jeder Eigenwert mindestens einen Eigenvektor hat.
Die Eigenschaften von T immer form a direkte Summe. Infolgedessen Eigenvektoren von anders Eigenwerte sind immer linear unabhängig. Daher darf die Summe der Abmessungen der Eigenschaften die Dimension nicht überschreiten n des Vektorraums, auf dem T arbeitet und es kann nicht mehr als geben n unterschiedliche Eigenwerte.[d]
Jeder Unterraum, der von Eigenvektoren von überspannt ist T ist ein Invariante Unterraum von Tund die Einschränkung von T Zu einem solchen Unterraum ist diagonalisierbar. Darüber hinaus, wenn der gesamte Vektorraum V kann von den Eigenvektoren von überspannt werden Toder äquivalent, wenn die direkte Summe der Eigenschaften, die mit allen Eigenwerten verbunden sind T ist der gesamte Vektorraum Vdann eine Grundlage von V genannt Eigenbasis kann aus linear unabhängigen Eigenvektoren von gebildet werden T. Wann T gibt eine Eigenbasis zu, T ist diagonalisierbar.
Spektraltheorie
Wenn λ ist ein Eigenwert von Tdann der Bediener (T − λi) ist nicht eins zu eins und daher seine inverse (T − λi)–1 ist nicht vorhanden. Das Gegenteil gilt für endlich-dimensionale Vektorräume, jedoch nicht für unendlich dimensionale Vektorräume. Im Allgemeinen der Bediener (T − λi) kann nicht umgekehrt sein, selbst wenn λ ist kein Eigenwert.
Aus diesem Grund in Funktionsanalyse Eigenwerte können auf die verallgemeinert werden Spektrum eines linearen Operators T Als Set aller Skalare λ für die der Bediener (T − λi) hat kein begrenzt umgekehrt. Das Spektrum eines Operators enthält immer alle Eigenwerte, ist jedoch nicht auf sie beschränkt.
Assoziative Algebren und Repräsentationstheorie
Man kann das algebraische Objekt verallgemeinern, das auf den Vektorraum wirkt und einen einzelnen Bediener ersetzt Algebra -Darstellung - ein Assoziative Algebra auf A handeln Modul. Das Studium solcher Handlungen ist das Gebiet von Repräsentationstheorie.
Das Repräsentationstheoretisches Konzept des Gewichts ist ein Analogon der Eigenwerte während Gewichtsvektoren und Gewichtsräume sind die Analoga von Eigenvektoren bzw. Eigenschaften.
Dynamische Gleichungen
Das einfachste Differenzgleichungen habe die Form
Die Lösung dieser Gleichung für x bezüglich t wird unter Verwendung seiner charakteristischen Gleichung gefunden
Dies kann durch Stapeln in Matrix gefunden werden, die eine Reihe von Gleichungen bilden, die aus der obigen Differenzgleichung und der k- 1 Gleichungen geben a k-Dimensionales System erster Ordnung im gestapelten variablen Vektor in Bezug auf seinen einstzeiten Wert und die charakteristische Gleichung der Matrix dieses Systems. Diese Gleichung gibt k charakteristische Wurzeln Zur Verwendung in der Lösungsgleichung
Ein ähnliches Verfahren wird zur Lösung von a verwendet Differentialgleichung der Form
Berechnung
Die Berechnung von Eigenwerten und Eigenvektoren ist ein Thema, bei dem die Theorie, wie in elementaren linearen Algebra -Lehrbüchern dargestellt, oft sehr weit entfernt ist.
Klassische Methode
Die klassische Methode besteht darin, zuerst die Eigenwerte zu finden und dann die Eigenvektoren für jeden Eigenwert zu berechnen. Es ist in mehrfacher Hinsicht schlecht für nicht-passende Arithmetika geeignet, z. Schwimmpunkt.
Eigenwerte
Die Eigenwerte einer Matrix Kann bestimmt werden, indem die Wurzeln des charakteristischen Polynoms gefunden werden. Dies ist einfach für Matrizen, aber die Schwierigkeit nimmt mit der Größe der Matrix schnell zu.
Theoretisch können die Koeffizienten des charakteristischen Polynoms genau berechnet werden, da sie Summen von Produkten von Matrixelementen sind; und es gibt Algorithmen, die alle Wurzeln eines Polynoms von willkürlichem Grad bis hin zu allen erforderlichen finden können Richtigkeit.[40] Dieser Ansatz ist in der Praxis jedoch nicht praktikabel, da die Koeffizienten durch unvermeidlich kontaminiert würden Rückfehlerund die Wurzeln eines Polynoms können eine extrem empfindliche Funktion der Koeffizienten sein (wie beispielhaft veranschaulicht Wilkinsons Polynom).[40] Selbst für Matrizen, deren Elemente Ganzzahlen sind, wird die Berechnung nicht trivial, da die Summen sehr lang sind; Der konstante Begriff ist der bestimmendwas für eine ist eine Summe von Verschiedene Produkte.[e]
Explizit Algebraische Formeln Für die Wurzeln eines Polynoms existieren nur dann, wenn der Grad ist 4 oder weniger. Laut dem Abel -Ruffini -Theorem Es gibt keine allgemeine, explizite und genaue algebraische Formel für die Wurzeln eines Polynoms mit Abschluss 5 oder mehr. (Allgemeinheit ist wichtig, weil jedes Polynom mit Abschluss ist das charakteristische Polynom einiger Begleitmatrix von Ordnung .) Daher können für Matrizen der Ordnung 5 oder mehr die Eigenwerte und Eigenvektoren nicht durch eine explizite algebraische Formel erhalten werden und müssen daher durch ungefähre Berechnung berechnet werden Numerische Methoden. Sogar die genaue Formel Für die Wurzeln eines Grades 3 ist Polynom numerisch unpraktisch.
Eigenvektoren
Sobald der (exakte) Wert eines Eigenwerts bekannt ist System der linearen Gleichungen mit bekannten Koeffizienten. Sobald bekannt ist, dass 6 ein Eigenwert der Matrix ist
Wir können seine Eigenvektoren finden, indem wir die Gleichung lösen , das ist
Diese Matrixgleichung entspricht zwei lineare Gleichungen
Beide Gleichungen reduzieren sich auf die einzige lineare Gleichung . Daher jeder Vektor der Form , für jede reelle Zahl ungleich Null , ist ein Eigenvektor von mit Eigenwert .
Die Matrix Oben hat einen anderen Eigenwert . Eine ähnliche Berechnung zeigt, dass die entsprechenden Eigenvektoren die Lösungen ungleich Null sind , das heißt jeder Vektor der Form , für jede reelle Zahl ungleich Null .
Einfache iterative Methoden
Der umgekehrte Ansatz, zuerst die Eigenvektoren zu suchen und dann jeden Eigenwert aus seinem Eigenvektor zu bestimmen, ist für Computer weitaus erfolgreicher. Der einfachste Algorithmus besteht hier darin, einen willkürlichen Startvektor auszuwählen und ihn dann wiederholt mit der Matrix zu multiplizieren (optional normalisieren Sie den Vektor, um seine Elemente von angemessener Größe zu halten). Dies lässt den Vektor in Richtung eines Eigenvektors konvergieren. Eine Variation soll stattdessen den Vektor mit multiplizieren ; Dies führt dazu .
Wenn ist (eine gute Annäherung an) ein Eigenvektor von und dann kann der entsprechende Eigenwert berechnet werden als
wo bezeichnet die konjugierte Transponierung von .
Moderne Methoden
Effiziente, genaue Methoden zur Berechnung von Eigenwerten und Eigenvektoren willkürlicher Matrizen waren erst dann bekannt, bis die QR -Algorithmus wurde 1961 entworfen.[40] Kombinieren Haushalte Transformation Mit der LU -Zersetzung führt zu einem Algorithmus mit besserer Konvergenz als der QR -Algorithmus. Für große Hermitianer spärliche Matrizen, das Lanczos -Algorithmus ist ein Beispiel für eine effiziente iterative Methode Eigenwerte und Eigenvektoren zu berechnen, unter mehreren anderen Möglichkeiten.[40]
Die meisten numerischen Methoden, die die Eigenwerte einer Matrix berechnen, bestimmen auch einen Satz entsprechender Eigenvektoren als Nebenprodukt der Berechnung, obwohl Implementierer manchmal die Eigenvektorinformationen verwerfen, sobald sie nicht mehr benötigt werden.
Anwendungen
Eigenwerte geometrischer Transformationen
In der folgenden Tabelle werden einige Beispieltransformationen in der Ebene zusammen mit ihren 2 × 2 -Matrizen, Eigenwerten und Eigenvektoren vorgestellt.
Skalierung | Ungleiche Skalierung | Drehung | Horizontale Schere | Hyperbolische Rotation | |
---|---|---|---|---|---|
Illustration | ![]() | ![]() | ![]() | ![]() | ![]() |
Matrix | |||||
Charakteristisch Polynom | |||||
Eigenwerte, | |||||
Algebraisch mult., | |||||
Geometrisch mult., | |||||
Eigenvektoren | Alle Vektoren ungleich Null |
Die charakteristische Gleichung für eine Rotation ist a quadratische Gleichung mit Diskriminanz , was eine negative Zahl ist, wann immer θ ist kein ganzzahliges Mehrfach von 180 °. Daher sind die beiden Eigenwerte mit Ausnahme dieser Sonderfälle komplexe Zahlen. ; und alle Eigenvektoren haben nicht reale Einträge. In der Tat ändert eine Rotation mit Ausnahme dieser Sonderfälle die Richtung jedes Vektors ungleich Null in der Ebene.
Eine lineare Transformation, die ein Quadrat zu einem Rechteck aus demselben Bereich bringt (a Squeeze Mapping) hat gegenseitige Eigenwerte.
Schrödinger Gleichung

Ein Beispiel für eine Eigenwertgleichung, bei der die Transformation ist in Bezug auf einen Differentialoperator dargestellt, der zeitunabhängig ist Schrödinger Gleichung in Quantenmechanik:
wo , das Hamiltonianist eine zweite Ordnung Differentialoperator und , das Wellenfunktion, ist eine seiner Eigenfunktionen, die dem Eigenwert entsprechen , interpretiert als seine Energie.
In dem Fall, in dem man nur an der interessiert ist gebundener Zustand Lösungen der Schrödinger -Gleichung, nach der man sucht innerhalb des Raums von quadratisch integrierbar Funktionen. Da ist dieser Raum a Hilbert Raum mit einem gut definierten Skalarprodukt, man kann a einführen Basissatz in welchem und kann als eindimensionales Array (d. H. Ein Vektor) bzw. als Matrix dargestellt werden. Dies ermöglicht es, die Schrödinger -Gleichung in einer Matrixform darzustellen.
Das Bra -Ket -Notation wird in diesem Zusammenhang oft verwendet. Ein Vektor, der einen Zustand des Systems darstellt, wird im Hilbert -Raum der quadratischen integrierbaren Funktionen dargestellt . In dieser Notation lautet die Schrödinger -Gleichung:
wo ist ein Eigenstate von und repräsentiert den Eigenwert. ist ein beobachtbar Self-Jint-Operatordas unendlich-dimensionale Analogon der Hermitian-Matrizen. Wie im Matrixfall in der obigen Gleichung wird als der Vektor verstanden, der durch Anwendung der Transformation erhalten wird zu .
Wellentransport
Licht, Akustische Wellen, und Mikrowellen sind zufällig verstreut mehrfach beim Durchqueren eines statischen ungeordneten Systems. Obwohl mehrere Streuung die Wellen wiederholt randomisiert .[41][42] Die Eigenvektoren des Übertragungsoperators Bilden Sie eine Reihe von störungsspezifischen Eingangswellenfronten, die es Wellen ermöglichen, in die Eigenschaften des ungeordneten Systems zu koppeln: Die unabhängigen Wellen können durch das System wandern. Die Eigenwerte, , von entsprechen der Intensitätsübertragung, die mit jedem Eigenchannel verbunden ist. Eine der bemerkenswerten Eigenschaften des Transmissionsbetreibers von diffusiven Systemen ist ihre bimodale Eigenwertverteilung mit und .[42] Darüber hinaus ist eine der auffälligen Eigenschaften offener Eigenschaften, die über die perfekte Sendung hinausgehen, das statistisch robuste räumliche Profil der Eigenchannel.[43]
Molekulare Orbitale
Im Quantenmechanikund insbesondere in Atomic und Molekulare Physik, innerhalb der HARTREE -FOCK Theorie, die Atomic und Molekulare Orbitale kann durch die Eigenvektoren der definiert werden Fock -Operator. Die entsprechenden Eigenwerte werden als interpretiert als Ionisationspotentiale über Koopmans 'Theorem. In diesem Fall wird der Begriff Eigenvektor in einer etwas allgemeineren Bedeutung verwendet, da der Fock -Operator ausdrücklich von den Orbitalen und ihren Eigenwerten abhängig ist. Wenn man diesen Aspekt unterstreichen will, spricht man von nichtlinearen Eigenwertproblemen. Solche Gleichungen werden normalerweise von einem gelöst Wiederholung Verfahren, in diesem Fall genannt selbstkonsistentes Feld Methode. Im Quantenchemie, man repräsentiert oft die Hartree-Fock-Gleichung in einem Nichtssenkrecht Basissatz. Diese besondere Darstellung ist a Verallgemeinertes Eigenwertproblem genannt Roothaan -Gleichungen.
Geologie und Glaciology
Im Geologiebesonders im Studium von eisig bis, Eigenvektoren und Eigenwerte werden als Methode verwendet, mit der eine Masse von Informationen der Ausrichtung und des Dips eines Klassengewebes in einem 3-D-Raum um sechs Zahlen zusammengefasst werden kann. Vor Ort kann ein Geologe solche Daten für Hunderte oder Tausende von sammeln Klasten in einer Bodenprobe, die nur grafisch verglichen werden kann, wie in einem Tri-Plot- (Sneed- und Volks-) -diagramm,[44][45] oder als Stereonet auf einem Wulff -Netz.[46]
Der Ausgang für den Orientierungszensor liegt in den drei orthogonalen (senkrechten) Raumachsen. Die drei Eigenvektoren werden bestellt durch ihre Eigenwerte ;[47] Dann ist die primäre Orientierung/das Dip von Klasta, ist die sekundäre und ist das Tertiär in Bezug auf die Stärke. Die Klastendiehung ist definiert als die Richtung des Eigenvektors auf a Kompassrose von 360 °. Der Eintauch wird als Eigenwert gemessen, der Modul des Tensors: Dies wird von 0 ° (kein Eintauchen) bis 90 ° (vertikal) bewertet. Die relativen Werte von , , und werden durch die Natur des Sedimentstoffs diktiert. Wenn Der Stoff soll isotrop sein. Wenn Der Stoff soll planar sein. Wenn Der Stoff soll linear sein.[48]
Hauptkomponentenanalyse

Das Eigenschaft von a symmetrisch positiver semidefinit (PSD) Matrix ergibt ein orthogonale Basis von Eigenvektoren, von denen jeder einen nicht negativen Eigenwert hat. Die orthogonale Zersetzung einer PSD -Matrix wird in verwendet multivariate Analyse, bei dem die Probe Kovarianzmatrizen sind psd. Diese orthogonale Zersetzung wird genannt Hauptkomponentenanalyse (PCA) in Statistiken. PCA -Studien lineare Beziehungen unter Variablen. PCA wird auf der durchgeführt Kovarianzmatrix oder der Korrelationsmatrix (in dem jede Variable skaliert ist, um ihre zu haben Stichprobenvarianz gleich eins). Für die Kovarianz- oder Korrelationsmatrix entsprechen die Eigenvektoren der Hauptkomponenten und die Eigenwerte zum Varianz erklärt durch die Hauptkomponenten. Hauptkomponentenanalyse der Korrelationsmatrix liefert eine orthogonale Basis Für den Raum der beobachteten Daten: In dieser Basis entsprechen die größten Eigenwerte den Hauptkomponenten, die mit dem größten Teil der Kovarabilität zwischen einer Reihe beobachteter Daten verbunden sind.
Die Hauptkomponentenanalyse wird als Mittel von verwendet Dimensionsreduzierung im Studium von groß Datensätze, wie diejenigen, die in begegnet sind Bioinformatik. Im Q -Methodik, die Eigenwerte der Korrelationsmatrix bestimmen das Urteil des Q-Methodologen über praktisch Bedeutung (was sich von der unterscheidet statistische Signifikanz von Hypothesentest; vgl. Kriterien zur Bestimmung der Anzahl der Faktoren). Allgemeiner kann die Hauptkomponentenanalyse als Methode von verwendet werden Faktorenanalyse in Modellierung von Strukturgleichungen.
Vibrationsanalyse

Eigenwertprobleme treten natürlich bei der Schwingungsanalyse von mechanischen Strukturen mit vielen auf Freiheitsgrade. Die Eigenwerte sind die Eigenfrequenzen (oder Eigenfrequenzen) der Vibration, und die Eigenvektoren sind die Formen dieser Schwingungsmodi. Insbesondere untersetzt die unversehrte Schwingung von
oder
Das heißt, die Beschleunigung ist proportional zur Position (d. H. Wir erwarten wir mit der Zeit sinusförmig sein).
Im Maße, wird zu einer Massenmatrix und a Steifigkeitsmatrix. Zulässige Lösungen sind dann eine lineare Kombination von Lösungen für die Verallgemeinertes Eigenwertproblem
wo ist der Eigenwert und ist das (imaginäre) Winkelfrequenz. Die Hauptvibrationsmodi unterscheiden sich von den Hauptkonformitätsmodi, die die Eigenvektoren von sind allein. Außerdem, gedämpfte Schwingung, regiert durch
führt zu einem sogenannten Quadratisches Eigenwert ProblemAnwesend
Dies kann auf ein verallgemeinertes Eigenwertproblem reduziert werden Algebraische Manipulation auf Kosten der Lösung eines größeren Systems.
Die Orthogonalitätseigenschaften der Eigenvektoren ermöglichen die Entkopplung der Differentialgleichungen, damit das System als lineare Summierung der Eigenvektoren dargestellt werden kann. Das Eigenwertproblem komplexer Strukturen wird häufig mit Verwendung gelöst Finite -Elemente -Analyse, aber verallgemeinern Sie die Lösung auf skalarwerte Schwingungsprobleme.
Eigenfaces

Im Bildverarbeitung, verarbeitete Bilder von Gesichtern können als Vektoren angesehen werden, deren Komponenten die sind Helligkeit von jedem Pixel.[49] Die Dimension dieses Vektorraums ist die Anzahl der Pixel. Die Eigenvektoren der Kovarianzmatrix assoziiert mit einem großen Satz normalisierter Bilder von Gesichtern werden genannt Eigenfaces; Dies ist ein Beispiel für Hauptkomponentenanalyse. Sie sind sehr nützlich, um ein Gesichtsbild als lineare Kombination von einigen von ihnen. In dem Gesichtserkennung Zweig von Biometrie, Eigenfaces bieten ein Mittel zur Bewerbung Datenkompression Gesichter für Identifikation Zwecke. Es wurde ebenfalls Untersuchungen zu Eigenvisionssystemen durchgeführt, die Handgesten bestimmen.
Ähnlich wie bei diesem Konzept, Eigenvoices Stellen Sie die allgemeine Richtung der Variabilität der menschlichen Aussprachen einer bestimmten Äußerung dar, wie z. B. ein Wort in einer Sprache. Basierend auf einer linearen Kombination solcher Eigenschaft kann eine neue Sprachaussprache des Wortes konstruiert werden. Diese Konzepte wurden in automatischen Spracherkennungssystemen für die Anpassung der Sprecher nützlich.
Trägheitstensor
Im Mechanikdie Eigenvektoren der Trägheitszertifikationsmoment definiere das Hauptachsen von a starrer Körper. Das Tensor von Moment Trägheit ist eine Schlüsselmenge, die erforderlich ist, um die Rotation eines starren Körpers um seine Massezentrum.
Spannungstensor
Im Feste Mechanik, das betonen Tensor ist symmetrisch und kann daher in a zerlegt werden Diagonale Tensor mit den Eigenwerten auf der diagonalen und Eigenvektoren als Grundlage. Weil es diagonal ist, hat der Spannungstensor in dieser Orientierung keine scheren Komponenten; Die Komponenten, die sie haben, sind die Hauptkomponenten.
Grafiken
Im Spektralgraphentheorieein Eigenwert von a Graph wird als Eigenwert der Grafik definiert Adjazenzmatrix , oder (zunehmend) der Grafiken Laplace -Matrix wegen seines Diskreter Laplace -Operator, was entweder ist (manchmal genannt das Kombinatorischer Laplace) oder (manchmal genannt das Normalisierter Laplace), wo ist eine diagonale Matrix mit gleich dem Grad des Scheitelpunkts , und in , das Der diagonale Eintrag ist . Das Der Haupt -Eigenvektor eines Diagramms ist definiert als der Eigenvektor, der dem entspricht th größte oder Th kleinster Eigenwert des Laplace. Der erste Haupt -Eigenvektor des Diagramms wird auch nur als Haupt -Eigenvektor bezeichnet.
Der Haupt -Eigenvektor wird verwendet, um die zu messen Zentralität seiner Eckpunkte. Ein Beispiel ist Google's Seitenrang Algorithmus. Der Hauptmerkmal eines modifizierten Adjazenzmatrix Der World Wide Web Graph gibt die Seite Ränge als Komponenten. Dieser Vektor entspricht dem Stationäre Verteilung des Markov -Kette dargestellt durch die zeile-armalisierte Adjazenzmatrix; Die Adjazenzmatrix muss jedoch zuerst geändert werden, um sicherzustellen, dass eine stationäre Verteilung besteht. Der zweitkleinste Eigenvektor kann verwendet werden, um die Grafik in Cluster zu teilen Spektrales Clustering. Andere Methoden sind auch zum Clustering verfügbar.
Grundlegende Fortpflanzungsnummer
Die grundlegende Fortpflanzungsnummer () ist eine grundlegende Zahl bei der Untersuchung, wie sich Infektionskrankheiten ausbreiten. Wenn eine infektiöse Person in eine Bevölkerung völlig anfälliger Menschen eingesetzt wird, dann ist die durchschnittliche Anzahl von Personen, die eine typische infektiöse Person infizieren wird. Die Erzeugungszeit einer Infektion ist die Zeit, , von einer Person, die infiziert wird, bis zur nächsten Person, die infiziert wird. In einer heterogenen Bevölkerung definiert die Matrix der nächsten Generation, wie viele Menschen in der Bevölkerung nach der Zeit infiziert werden werden ging vorbei. ist dann der größte Eigenwert der nächsten Generation Matrix.[50][51]
Siehe auch
- Antiegenwert -Theorie
- Eigenoperator
- Eigenplane
- Eigenwertalgorithmus
- Einführung in Eigenstaaten
- Jordanische Normalform
- Liste der numerischen Analyse-Software
- Nichtlinearer Eigenproblem
- Normaler Eigenwert
- Quadratisches Eigenwert Problem
- Singularwert
- Spektrum einer Matrix
Anmerkungen
- ^ Notiz:
- 1751 bewies Leonhard Euler, dass jede Körperschaft eine Hauptdrehachse hat: Leonhard Euler (präsentiert: Oktober 1751; veröffentlicht: 1760) "Du Mouvement d'Un Corps Solide Quelconque Lorsqu'il Tourne Autoour d'un ax Mobile" (Bei der Bewegung eines jeden festen Körpers, während er sich um eine bewegliche Achse dreht), Histoire de l'Académie Royale des Sciences et des Belles Lettres de Berlin, S. 176–227. Auf P. 212Euler beweist, dass jeder Körper eine Hauptdrehachse enthält: "Théorem. 44. De Quelque Figure Que Soit Le Corps, auf y peut Toujours -Beauftragter un Tel Axe, Qui Passe Par Son Center de Gravité, Autoour Duquel Le Corps Peut Tourner Librement & d'un Mouvement Uniforme." (Theorem. 44. Wie auch immer die Form des Körpers sein, man kann ihm immer eine solche Achse zuweisen, die durch seinen Schwerpunkt verläuft, um den es sich frei und mit einer gleichmäßigen Bewegung drehen kann.)
- 1755, Johann Andreas Segner bewies, dass jede Körperschaft drei Hauptrotationsachsen hat: Johann Andreas Segner, Probe Theoriae Turbinum [Aufsatz über die Theorie der Oberteile (d. H. Drehende Körper)] (Halle ("Halae"), (Deutschland): Gebauer, 1755). (https://books.google.com/books?id=29 p. xxviiii [29]) leitet Segner eine Gleichung dritten Grades in ab in t, was beweist, dass ein Körper drei wichtigste Rotationsachsen hat. Er erklärt dann (auf derselben Seite): "Non -Autem Repugnat Tres Esse Eiusmodi Positiones Plani HM, Quia in Aequatione Cubica Radices Tres Esse POSSunt, et tres tangentis t Valores." (Es ist jedoch nicht inkonsistent [, dass es drei solche Positionen der Ebene HM gibt, da in kubischen Gleichungen [es] drei Wurzeln und drei Werte der Tangente t geben können.)
- Die relevante Passage von Segners Arbeit wurde kurz von kurz erörtert von Arthur Cayley. Siehe: A. Cayley (1862) "Bericht über den Fortschritt der Lösung bestimmter besonderer Probleme der Dynamik", Bericht des zweiunddreißigsten Treffens der British Association for the Advancement of Science; Im Oktober 1862 in Cambridge abgehalten, 32: 184–252; Besonders sehen S. 225–226.
- ^ Kline 1972, S. 807–808 Augustin Cauchy (1839) "Mémoire Sur l'Entégration des Équations Linéaires" (Memoiren zur Integration linearer Gleichungen), COMPTES Rendus, 8: 827–830, 845–865, 889–907, 931–937. Von p. 827: "Auf Sait d'Ailleurs qu'en Suivant la Méthode de Lagrange, auf obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entlast avec la variable Principale les racines d'e une équation que j'appellera l 'équation caractéristique, Le deGré de Cette équation Étant Précisément l'ordentle de l'équation différentielle qu'il s'agit d'Entégrer. " (Man weiß außerdem, dass durch die Befolgung der Lagrange -Methode man für den allgemeinen Wert der Hauptvariablen eine Funktion erhalten, in der es zusammen mit der Hauptvariablen die Wurzeln einer bestimmten Gleichung erscheinen, die ich die "charakteristische Gleichung" nennen werde, nenne die "charakteristische Gleichung". Der Grad dieser Gleichung ist genau die Reihenfolge der Differentialgleichung, die integriert werden muss.)
- ^ Sehen:
- David Hilbert (1904) "Grundzüge iner Allgemeinen Theorie der linearen IntegralgleImungen. (Erste Mitteilung)" (Grundlagen einer allgemeinen Theorie der linearen Integralgleichungen. (Erster Bericht)), Nachricht von der Gesellschaft der Wissenschaftsen Zu Göttingen, Mathematisch-Physikalische Klasse (Nachrichten der philosophischen Gesellschaft in Göttingen, mathematisch-physischer Abschnitt), S. 49–91. Von p. 51: "Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich 'Eigenfunktionen' nenne, liefern: ..." (Insbesondere in diesem ersten Bericht komme ich zu Formeln, die die [Serie] -entwicklung einer willkürlichen Funktion in Bezug auf einige besondere Funktionen bieten, die ich nenne Eigenfunktionen: ...) Später auf derselben Seite: "Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe, ... " (Dieser Erfolg ist hauptsächlich auf die Tatsache zurückzuführen, dass ich, wie es bisher passiert ist, nicht vor allem auf einen Beweis für die Existenz von Eigenwerten abzielen, ...)
- Für die Herkunft und Entwicklung der Begriffe Eigenwert, charakteristischer Wert usw. siehe: Früheste bekannte Verwendungen einiger der Wörter der Mathematik (e)
- ^ Für einen Beweis dieses Lemma siehe Roman 2008, Satz 8.2 auf p. 186; Shilov 1977, p. 109; Hefferon 2001, p. 364; Beezer 2006, Theorem Edeli auf p. 469; und Lemma für die lineare Unabhängigkeit von Eigenvektoren
- ^ Durch Gaußsche Eliminierung Über Formale Machtserie abgeschnitten zu Begriffe ist es möglich, mitzukommen Operationen, aber das dauert nicht Kombinatorische Explosion berücksichtigen.
Zitate
- ^ Burden & Faires 1993, p. 401.
- ^ a b HERTEIN 1964, S. 228, 229.
- ^ a b Nering 1970, p. 38.
- ^ Weisstein n.d.
- ^ Betteridge 1965.
- ^ a b "Eigenvektor und Eigenwert". www.mathsifun.com. Abgerufen 19. August 2020.
- ^ Press et al. 2007, p. 536.
- ^ Wolfram.com: Eigenvektor.
- ^ a b c d Nering 1970, p. 107.
- ^ Hawkins 1975§2.
- ^ a b c d Hawkins 1975, §3.
- ^ Kline 1972, p. 673.
- ^ a b Kline 1972, S. 807–808.
- ^ Kline 1972, S. 715–716.
- ^ Kline 1972, S. 706–707.
- ^ Kline 1972, p. 1063, p ..
- ^ Aldrich 2006.
- ^ Francis 1961, S. 265–271.
- ^ Kublanovskaya 1962.
- ^ Golub & Van Loan 1996§7.3.
- ^ Meyer 2000§7.3.
- ^ Abteilung für Mathematik der Cornell University (2016) Lower-Level-Kurse für Neulinge und Studenten im zweiten Jahr. Zugriff am 2016-03-27.
- ^ Mathematik der Universität von Michigan (2016) Mathematikkurs Katalog Archiviert 2015-11-01 im Wayback -Maschine. Zugriff am 2016-03-27.
- ^ Press et al. 2007, p. 38.
- ^ Fraleigh 1976, p. 358.
- ^ a b c Golub & Van Loan 1996, p. 316.
- ^ Anton 1987, S. 305, 307.
- ^ a b Beauregard & Fraleigh 1973, p. 307.
- ^ HERTEIN 1964, p. 272.
- ^ Nering 1970, S. 115–116.
- ^ HERTEIN 1964, p. 290.
- ^ Nering 1970, p. 116.
- ^ WolChover 2019.
- ^ a b Denton et al. 2022.
- ^ Van Mieghem 2014.
- ^ Korn & Korn 2000, Abschnitt 14.3.5a.
- ^ Friedberg, Insel & Spence 1989, p. 217.
- ^ Nering 1970, p. 107; Shilov 1977, p. 109 Lemma für den Eigenraum
- ^ Lipschutz & Lipson 2002, p. 111.
- ^ a b c d Trefethen & Bau 1997.
- ^ Vellekoop & Mosk 2007, S. 2309–2311.
- ^ a b Rotter & Gigan 2017, p. 15005.
- ^ Bender et al. 2020, p. 165901.
- ^ Graham & Midgley 2000, S. 1473–1477.
- ^ Sneed & Folk 1958, S. 114–150.
- ^ Knox-Robinson & Gardoll 1998, p. 243.
- ^ Busche, Christian; Schiller, Beate. "Endogene Geologie - Ruhr -Universität Bochum". www.ruhr-uni-bochum.de.
- ^ Benn & Evans 2004, S. 103–107.
- ^ Xirouhakis, Votsis & Delopoulus 2004.
- ^ Diekmann, Heesterbeek & Metz 1990, S. 365–382.
- ^ Heesterbeek & Diekmann 2000.
Quellen
- Aldrich, John (2006), "Eigenwert, Eigenfunktion, Eigenvektor und verwandte Begriffe", in Miller, Jeff (Hrsg.), Früheste bekannte Verwendungen einiger der Wörter der Mathematik
- Anton, Howard (1987), Elementare lineare Algebra (5. Aufl.), New York: Wiley, ISBN 0-471-84819-0
- Beauregard, Raymond A.; Fraleigh, John B. (1973), Ein erster Kurs in linearer Algebra: mit optionaler Einführung in Gruppen, Ringe und Felder, Boston: Houghton Mifflin Co., ISBN 0-395-14017-x
- Beezer, Robert A. (2006), Ein erster Kurs in linearer Algebra, Kostenloses Online -Buch unter GNU -Lizenz, Universität Puget Sound
- Bender, Nicholas; Yamilov, Alexey; Yilmaz, Hasan; Cao, Hui (14. Oktober 2020). "Schwankungen und Korrelationen von Transmissions -Eigenchanneln in diffusiven Medien". Physische Überprüfungsbriefe. 125 (16): 165901. Arxiv:2004.12167. Bibcode:2020phrvl.125p5901b. doi:10.1103/PhysRevlett.125.165901. ISSN 0031-9007. PMID 33124845. S2CID 216553547.
- Benn, D.; Evans, D. (2004), Ein praktischer Leitfaden für die Untersuchung von Gletschersedimenten, London: Arnold, S. 103–107
- Betteridge, Harold T. (1965), Das deutsche Wörterbuch des neuen Cassells, New York: Funk & Wagnall, Lccn 58-7924
- Burden, Richard L.; Faires, J. Douglas (1993), Numerische Analyse (5. Aufl.), Boston: Prindle, Weber und Schmidt, ISBN 0-534-93219-3
- Denton, Peter B.; Parke, Stephen J.; Tao, Terence; Zhang, Xining (Januar 2022). "Eigenvektoren von Eigenwerten: Eine Übersicht über eine grundlegende Identität in linearen Algebra" (PDF). Bulletin der American Mathematical Society. 59 (1): 31–58. Arxiv:1908.03795. doi:10.1090/bull/1722. S2CID 213918682. Archiviert (PDF) from the original on 19 January 2022.
- Diekmann, o; Heesterbeek, JA; Metz, JA (1990), "Über die Definition und Berechnung des Grundreproduktionsverhältnisses R0 in Modellen für Infektionskrankheiten in heterogenen Populationen", Zeitschrift für mathematische Biologie, 28 (4): 365–382, doi:10.1007/bf00178324, HDL:1874/8051, PMID 2117040, S2CID 22275430
- Fraleigh, John B. (1976), Ein erster Kurs in abstrakter Algebra (2. Aufl.), Lesen: Addison-Wesley, ISBN 0-201-01984-1
- Francis, J. G. F. (1961), "Die QR -Transformation, I (Teil 1)", Das Computerjournal, 4 (3): 265–271, doi:10.1093/comjnl/4.3.265
- Francis, J. G. F. (1962), "Die QR -Transformation, II (Teil 2)", Das Computerjournal, 4 (4): 332–345, doi:10.1093/comjnl/4.4.332
- Friedberg, Stephen H.; Insel, Arnold J.; Spence, Lawrence E. (1989), Lineare Algebra (2. Aufl.), Englewood Cliffs, NJ: Prentice Hall, ISBN 0-13-537102-3
- Golub, Gene H.; Van Loan, Charles F. (1996), Matrixberechnungen (3. Aufl.), Baltimore, MD: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
- Graham, D.; Midgley, N. (2000), "Grafische Darstellung der Partikelform unter Verwendung von dreieckigen Diagrammen: eine Excel -Tabellenkalkulationsmethode", Erdoberflächenprozesse und Landformen, 25 (13): 1473–1477, Bibcode:2000EPL ... 25.1473G, doi:10.1002/1096-9837 (200012) 25:13 <1473 :: Aid-Esp158> 3.0.co; 2-C;, S2CID 128825838
- Hawkins, T. (1975), "Cauchy und die spektrale Theorie der Matrizen", Historia Mathematica, 2: 1–29, doi:10.1016/0315-0860 (75) 90032-4
- Heesterbeek, J. A. P.; Diekmann, Odo (2000), Mathematische Epidemiologie von Infektionskrankheiten, Wiley Series in Mathematical and Computational Biology, West Sussex, England: John Wiley & Sons
- Hefferon, Jim (2001), Lineare Algebra, Colchester, VT: Online -Buch, St. Michael's College
- HERTEIN, I. N. (1964), Themen in Algebra, Waltham: Blaisdell Publishing Company, ISBN 978-1114541016
- Kline, Morris (1972), Mathematisches Denken von der Antike bis zur Neuzeit, Oxford University Press, ISBN 0-19-501496-0
- Knox-Robinson, C.; Gardoll, Stephen J. (1998), "Gis-Stereoplot: Ein interaktives Stereonet-Plot-Modul für ArcView 3.0 Geografisches Informationssystem", Computer & Geowissenschaften, 24 (3): 243, Bibcode:1998cg ..... 24..243k, doi:10.1016/s0098-3004 (97) 00122-2
- Korn, Granino A.; Korn, Theresa M. (2000), "Mathematisches Handbuch für Wissenschaftler und Ingenieure: Definitionen, Theoreme und Formeln für Referenz und Überprüfung", New York: McGraw-Hill (2. überarbeitete Ausgabe), Bibcode:1968MHSE.BOOK ..... K., ISBN 0-486-41147-8
- Kublanovskaya, Vera N. (1962), "Auf einigen Algorithmen für die Lösung des vollständigen Eigenwertproblems", UdSSR Computational Mathematics und mathematische Physik, 1 (3): 637–657, doi:10.1016/0041-5553 (63) 90168-x
- Lipschutz, Seymour; Lipson, Marc (12. August 2002). Schaums einfacher Überblick über lineare Algebra. McGraw Hill Professional. p. 111. ISBN 978-007139880-0.
- Meyer, Carl D. (2000), Matrixanalyse und angewendete lineare Algebra, Philadelphia: Gesellschaft für industrielle und angewandte Mathematik (Siam), ISBN 978-0-89871-454-8
- Nering, Evar D. (1970), Lineare Algebra- und Matrix -Theorie (2. Aufl.), New York: Wiley, Lccn 76091646
- Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007), Numerische Rezepte: Die Kunst des wissenschaftlichen Computers (3. Aufl.), ISBN 978-0521880688
- Roman, Steven (2008), Erweiterte lineare Algebra (3. Aufl.), New York: Springer Science + Business Media, ISBN 978-0-387-72828-5
- Rotter, Stefan; Gigan, Sylvain (2. März 2017). "Lichtfelder in komplexen Medien: Mesoskopische Streuung trifft auf der Wellenkontrolle". Bewertungen der modernen Physik. 89 (1): 015005. Arxiv:1702.05395. Bibcode:2017RVMP ... 89A5005R. doi:10.1103/revmodphys.89.015005. S2CID 119330480.
- Shilov, Georgi E. (1977), Lineare Algebra, Übersetzt und bearbeitet von Richard A. Silverman, New York: Dover Publications, ISBN 0-486-63518-x
- Sneed, E. D.; Folk, R. L. (1958), "Kieselsteine im Lower Colorado River, Texas, eine Studie zur Partikelmorphogenese", Journal of Geology, 66 (2): 114–150, Bibcode:1958jg ..... 66..114s, doi:10.1086/626490, S2CID 129658242
- Trefethen, Lloyd N.; BAU, David (1997), Numerische lineare Algebra, Siam
- Van Mieghem, Piet (18. Januar 2014). "Graph -Eigenvektoren, grundlegende Gewichte und Zentralitätsmetriken für Knoten in Netzwerken". Arxiv:1401.4580 [math.sp].
- Vellekoop, I. M.; Mosk, A. P. (15. August 2007). "Das kohärente Licht durch undurchsichtiges Streuungsmedien fokussieren". Optikbriefe. 32 (16): 2309–2311. Bibcode:2007optl ... 32.2309v. doi:10.1364/ol.32.002309. ISSN 1539-4794. PMID 17700768.
- Weisstein, Eric W. "Eigenvektor". mathworld.wolfram.com. Abgerufen 4. August 2019.
- Weisstein, Eric W. (n.d.). "Eigenwert". mathworld.wolfram.com. Abgerufen 19. August 2020.
- WolChover, Natalie (13. November 2019). "Neutrinos führen zu unerwarteten Entdeckungen in der grundlegenden Mathematik". Quantenmagazin. Abgerufen 27. November 2019.
- Xirouhakis, a.; Votsis, G.; Delopoulus, A. (2004), Schätzung der 3D -Bewegung und Struktur menschlicher Gesichter (PDF), Nationale Technische Universität von Athen
Weitere Lektüre
- Golub, Gene F.; Van der Vorst, Henk A. (2000), "Eigenwertberechnung im 20. Jahrhundert" (PDF), Journal of Computational and Applied Mathematics, 123 (1–2): 35–65, Bibcode:2000JCOAM.123 ... 35G, doi:10.1016/s0377-0427 (00) 00413-1, HDL:1874/2663
- Hill, Roger (2009). "λ - Eigenwerte". 60 Symbole. Brady Haran für die Universität von Nottingham.
- Kuttler, Kenneth (2017), Eine Einführung in die lineare Algebra (PDF), Brigham Young Universität
- Strang, Gilbert (1993), Einführung in die lineare Algebra, Wellesley, MA: Wellesley-Cambridge Press, ISBN 0-9614088-5-5
- Strang, Gilbert (2006), Lineare Algebra und ihre Anwendungen, Belmont, CA: Thomson, Brooks/Cole, ISBN 0-03-010567-6
Externe Links
- Was sind Eigenwerte? -Nichttechnische Einführung von Physlink.coms "Ask the Experts"
- Eigenwerte und Eigenvektoren numerische Beispiele - Tutorial und interaktives Programm von Revoledu.
- Einführung in Eigenvektoren und Eigenwerte - Vortrag von der Khan Academy
- Eigenvektoren und Eigenwerte | Essenz der linearen Algebra, Kapitel 10 - eine visuelle Erklärung mit 3Blue1Brown
- Matrix -Eigenvektorenrechner Aus Symbolablab Größe (für eine quadratische Matrix), füllen Sie die Einträge numerisch aus und klicken Sie auf die Schaltfläche GO. Es kann auch komplexe Zahlen akzeptieren.)
Theorie
- Berechnung von Eigenwerten
- Numerische Lösung von Eigenwertproblemen Herausgegeben von Zhaojun Bai, James Demmel, Jack Dongarra, Axel ruhe und Henk van der Vorst