Eigenwaarden en eigenvectoren

In lineaire algebra, een eigenvector (/ˈɡənˌvɛktər/) of karakteristieke vector van een lineaire transformatie is een niet -nul vector dat verandert hoogstens door een scalair- factor wanneer die lineaire transformatie erop wordt toegepast. De overeenkomstige eigenwaarde, vaak aangegeven door , is de factor waarmee de eigenvector wordt geschaald.

Geometrisch, een eigenvector, overeenkomend met een echt niet -nul eigenwaarde, wijst in een richting waarin het is uitgerekt Door de transformatie en de eigenwaarde is de factor waarmee deze wordt uitgerekt. Als de eigenwaarde negatief is, wordt de richting omgekeerd.[1] Losjes gesproken, in een multidimensionaal Vector ruimte, de eigenvector wordt niet gedraaid.

Formele definitie

Als T is een lineaire transformatie van een vectorruimte V over een veld F in zichzelf en v is een niet nul vector in V, dan v is een eigenvector van T als T(v) is een scalair veelvoud van v. Dit kan worden geschreven als

waar λ is een scalaire in F, bekend als de eigenwaarde, karakteristieke waarde, of karakteristieke wortel geassocieerd met v.

Er is een directe correspondentie tussen n-door-n vierkante matrices en lineaire transformaties van een n-dimensionaal vectorruimte in zichzelf, gegeven elke basis van de vectorruimte. Daarom is het in een eindige-dimensionale vectorruimte gelijkwaardig om eigenwaarden en eigenvectoren te definiëren met behulp van de taal van matrices, of de taal van lineaire transformaties.[2][3]

Als V is eindig-dimensionaal, de bovenstaande vergelijking is equivalent aan[4]

waar A is de matrixweergave van T en u is de coördineren vector van v.

Overzicht

Eigenwaarden en eigenvectoren komen prominent aanwezig bij de analyse van lineaire transformaties. Het voorvoegsel eigen- wordt overgenomen van de Duits woord eigen (verwant met de Engels woord eigen) voor "juiste", "kenmerk", "eigen".[5][6] Oorspronkelijk gebruikt om te studeren Hoofdassen van de rotatiebeweging van rigide lichamen, eigenwaarden en eigenvectoren hebben een breed scala aan toepassingen, bijvoorbeeld in stabiliteitsanalyse, trillingsanalyse, atomaire orbitalen, gezichtsherkenning, en matrixdiagonalisatie.

In wezen een eigenvector v van een lineaire transformatie T is een niet -nul vector die, wanneer T wordt erop toegepast, verandert niet van richting. Toepassen T naar de eigenvector schaalt de eigenvector alleen door de scalaire waarde λ, een eigenwaarde genoemd. Deze voorwaarde kan worden geschreven als de vergelijking

aangeduid als de eigenwaarde vergelijking of eigenwaarde. In het algemeen, λ kan iets zijn scalair-. Bijvoorbeeld, λ kan negatief zijn, in welk geval de eigenvector de richting omkeert als onderdeel van de schaal, of het kan nul zijn of complex.

In deze afschuifmapping De rode pijl verandert van richting, maar de blauwe pijl niet. De blauwe pijl is een eigenvector van deze afschuifmapping omdat deze niet van richting verandert, en omdat de lengte ongewijzigd is, is de eigenwaarde 1.
Een 2 × 2 reële en symmetrische matrix die een stretching en afschuiving van het vlak vertegenwoordigt. De eigenvectoren van de matrix (rode lijnen) zijn de twee speciale richtingen zodat elk punt erop gewoon op hen zal glijden.

De Mona Lisa Voorbeeld hier afgebeeld biedt een eenvoudige illustratie. Elk punt op het schilderij kan worden weergegeven als een vector die vanuit het midden van het schilderij naar dat punt wijst. De lineaire transformatie in dit voorbeeld wordt een genoemd afschuifmapping. Punten in de bovenste helft worden naar rechts verplaatst en punten in de onderste helft worden naar links verplaatst, evenredig met hoe ver ze zijn van de horizontale as die door het midden van het schilderij gaat. De vectoren die naar elk punt in het oorspronkelijke beeld wijzen, worden daarom rechts of links gekanteld en langer of korter gemaakt door de transformatie. Punt langs De horizontale as beweegt helemaal niet wanneer deze transformatie wordt toegepast. Daarom is elke vector die rechtstreeks naar rechts of links wijst zonder verticale component een eigenvector van deze transformatie, omdat de mapping zijn richting niet verandert. Bovendien hebben deze eigenvectoren allemaal een eigenwaarde gelijk aan één, omdat de mapping ook hun lengte niet verandert.

Lineaire transformaties kunnen veel verschillende vormen aannemen, vectoren in kaart brengen in verschillende vectorruimtes, zodat de eigenvectoren ook vele vormen kunnen aannemen. De lineaire transformatie kan bijvoorbeeld een differentiaaloperator Leuk vinden , in welk geval de eigenvectoren functies zijn die worden genoemd eigenfuncties die worden geschaald door die differentiële operator, zoals

Als alternatief kan de lineaire transformatie de vorm aannemen van een n door n Matrix, in welk geval de eigenvectoren zijn n door 1 matrices. Als de lineaire transformatie wordt uitgedrukt in de vorm van een n door n Matrix A, dan kan de eigenwaarde -vergelijking voor een lineaire transformatie hierboven worden herschreven als de matrixvermenigvuldiging

waar de eigenvector v is een n door 1 matrix. Voor een matrix kunnen eigenwaarden en eigenvectoren worden gebruikt Decomponeer de matrix- Bijvoorbeeld door diagonalisering het.

Eigenwaarden en eigenvectoren geven aanleiding tot veel nauw verwante wiskundige concepten en het voorvoegsel eigen- wordt royaal toegepast bij het benoemen van hen:

  • De set van alle eigenvectoren van een lineaire transformatie, elk gekoppeld aan de overeenkomstige eigenwaarde, wordt de eigenSysteem van die transformatie.[7][8]
  • De set van alle eigenvectoren van T overeenkomend met dezelfde eigenwaarde, samen met de nul vector, wordt een eigenspace, of de karakteristieke ruimte van T geassocieerd met die eigenwaarde.[9]
  • Als een set eigenvectoren van T vormt een basis van het domein van T, dan wordt deze basis een eigenbasis.

Geschiedenis

Eigenwaarden worden vaak geïntroduceerd in de context van lineaire algebra of matrixtheorie. Historisch gezien ontstonden ze echter in de studie van kwadratische vormen en differentiaalvergelijkingen.

In de 18e eeuw, Leonhard Euler bestudeerde de rotatiebeweging van een rigide lichaamen ontdekte het belang van de Hoofdassen.[a] Joseph-Louis Lagrange realiseerde zich dat de belangrijkste assen de eigenvectoren van de traagheidsmatrix zijn.[10]

In het begin van de 19e eeuw, Augustin-Louis Cauchy zag hoe hun werk kon worden gebruikt om de kwadrische oppervlakkenen gegeneraliseerd het naar willekeurige dimensies.[11] Cauchy bedacht ook de term Racine Caractéristique (karakteristieke wortel), voor wat nu wordt genoemd eigenwaarde; Zijn termijn overleeft in karakteristieke vergelijking.[b]

Later, Joseph Fourier gebruikte het werk van Lagrange en Pierre-Simon Laplace om de warmtevergelijking door Scheiding van variabelen In zijn beroemde boek uit 1822 Théorie Analytique de la Chaleur.[12] Charles-François Sturm ontwikkelde de ideeën van Fourier verder en bracht ze onder de aandacht van Cauchy, die ze combineerde met zijn eigen ideeën en kwam tot het feit dat echt symmetrische matrices hebben echte eigenwaarden.[11] Dit werd uitgebreid door Charles Hermite in 1855 tot wat nu wordt genoemd Hermitische matrices.[13]

Rond dezelfde tijd, Francesco Brioschi bewezen dat de eigenwaarden van Orthogonale matrices liggen op de eenheidscirkel,[11] en Alfred Clebsch vond het overeenkomstige resultaat voor scheefmetrische matrices.[13] Eindelijk, Karl Weierstrass een belangrijk aspect verduidelijkt in de stabiliteitstheorie Gestart door Laplace, door dat te beseffen defecte matrices kan instabiliteit veroorzaken.[11]

Ondertussen, Joseph Liouville bestudeerde eigenwaardeproblemen vergelijkbaar met die van Sturm; De discipline die uit hun werk is voortgekomen, wordt nu genoemd Sturm - Liouville Theory.[14] Schwarz bestudeerde de eerste eigenwaarde van Laplace's vergelijking over algemene domeinen tegen het einde van de 19e eeuw, terwijl Poincaré bestudeerd Poissons vergelijking een paar jaar later.[15]

Aan het begin van de 20e eeuw, David Hilbert bestudeerde de eigenwaarden van integrale operators door de operators te zien als oneindige matrices.[16] Hij was de eerste die de Duits woord eigenwat "eigen" betekent,[6] Om eigenwaarden en eigenvectoren in 1904 aan te duiden,[c] hoewel hij misschien een gerelateerd gebruik heeft gevolgd door Hermann von Helmholtz. Gedurende enige tijd was de standaardterm in het Engels "juiste waarde", maar de meer onderscheidende term "eigenwaarde" is vandaag de standaard.[17]

Het eerste numerieke algoritme voor het berekenen van eigenwaarden en eigenvectoren verscheen in 1929, toen Richard Von Mises publiceerde de vermogensmethode. Een van de meest populaire methoden vandaag, de QR -algoritme, werd onafhankelijk voorgesteld door John G. F. Francis[18] en Vera Kublanovskaya[19] in 1961.[20][21]

Eigenwaarden en eigenvectoren van matrices

Eigenwaarden en eigenvectoren worden vaak voorgesteld aan studenten in de context van lineaire algebra -cursussen gericht op matrices.[22][23] Bovendien kunnen lineaire transformaties over een eindige-dimensionale vectorruimte worden weergegeven met behulp van matrices,[2][3] wat vooral gebruikelijk is in numerieke en computationele toepassingen.[24]

Matrix A handelt door de vector uit te rekken x, niet van richting veranderen, dus x is een eigenvector van A.

Beschouwen n-Dimensionale vectoren die worden gevormd als een lijst met n Scalars, zoals de driedimensionale vectoren

Er wordt gezegd dat deze vectoren zijn scalaire veelvouden van elkaar, of parallel of collineair, als er een scalair is λ zoals dat

In dit geval .

Overweeg nu de lineaire transformatie van n-Dimensionale vectoren gedefinieerd door een n door n Matrix A,,

of

waar voor elke rij,

Als het dat gebeurt v en w zijn scalaire veelvouden, dat wil zeggen

 

 

 

 

(1)

dan v is een eigenvector van de lineaire transformatie A en de schaalfactor λ is de eigenwaarde overeenkomend met die eigenvector. Vergelijking (1) is de eigenwaarde vergelijking voor de matrix A.

Vergelijking (1) kan gelijkwaardig worden vermeld als

 

 

 

 

(2)

waar I is de n door n identiteitsmatrix en 0 is de nul vector.

Eigenwaarden en de karakteristieke polynoom

Vergelijking (2) heeft een niet -nul oplossing v als en alleen als de bepalend van de matrix (Aλi) is nul. Daarom de eigenwaarden van A zijn waarden van λ die aan de vergelijking voldoet

 

 

 

 

(3)

De ... gebruiken Leibniz -formule voor determinanten, de linkerkant van de vergelijking (3) is een polynoom functie van de variabele λ en de rang van dit polynoom is n, de volgorde van de matrix A. Zijn coëfficiënten afhankelijk zijn van de vermeldingen van A, behalve dat zijn termijn van graad n is altijd (−1)nλn. Deze polynoom wordt de karakteristiek polynoom van A. Vergelijking (3) wordt de karakteristieke vergelijking of de seculiere vergelijking van A.

De Fundamentele stelling van algebra impliceert dat de karakteristieke polynoom van een n-door-n Matrix A, een polynoom van graad zijn n, kan zijn bewerkt in het product van n lineaire termen,

 

 

 

 

(4)

waar elk λi Kan echt zijn, maar is over het algemeen een complex getal. De nummers λ1, λ2, ..., λn, die misschien niet allemaal verschillende waarden hebben, zijn wortels van de polynoom en zijn de eigenwaarden van A.

Als een kort voorbeeld, dat later in meer detail wordt beschreven in de sectie Voorbeelden, overweeg de matrix

Het bepalen van de bepalende factor (Aλi), de karakteristieke polynoom van A is

Het karakteristieke polynoom instellen gelijk aan nul, het heeft wortels op λ = 1 en λ = 3, die zijn de twee eigenwaarden van A. De eigenvectoren die overeenkomen met elke eigenwaarde kunnen worden gevonden door op te lossen voor de componenten van v in de vergelijking . In dit voorbeeld zijn de eigenvectoren niet -nul scalaire veelvouden van

Als de vermeldingen van de matrix A Zijn allemaal reële getallen, dan zullen de coëfficiënten van de karakteristieke polynoom ook reële getallen zijn, maar de eigenwaarden kunnen nog steeds niet -nul denkbeeldige delen hebben. De vermeldingen van de overeenkomstige eigenvectoren kunnen daarom ook niet -nul denkbeeldige onderdelen hebben. Evenzo kunnen de eigenwaarden zijn irrationele nummers Zelfs als alle inzendingen van A zijn rationele nummers Of zelfs als ze allemaal gehele getallen zijn. Echter, als de vermeldingen van A zijn alle algebraïsche nummers, waaronder de rationals, de eigenwaarden zijn complexe algebraïsche nummers.

De niet-reale wortels van een echte polynoom met echte coëfficiënten kunnen worden gegroepeerd in paren van complexe conjugaten, namelijk met de twee leden van elk paar met denkbeeldige delen die alleen verschillen in teken en hetzelfde echte deel. Als de graad vreemd is, dan door de Stelling van de tussenliggende waarde Ten minste een van de wortels is echt. Daarom echte matrix Met vreemde volgorde heeft ten minste één echte eigenwaarde, terwijl een echte matrix met zelfs bestelling mogelijk geen echte eigenwaarden heeft. De eigenvectoren geassocieerd met deze complexe eigenwaarden zijn ook complex en verschijnen ook in complexe geconjugeerde paren.

Algebraïsche veelheid

Laten λi een eigenwaarde zijn van een n door n Matrix A. De algebraïsche veelheid μA(λi) van de eigenwaarde is het Multipliciteit als een wortel van het karakteristieke polynoom, dat wil zeggen het grootste geheel getal k zoals dat (λλi)k verdeelt gelijkmatig dat polynoom.[9][25][26]

Stel dat een matrix A heeft dimensie n en dn verschillende eigenwaarden. Terwijl vergelijking (4) factoren de karakteristieke polynoom van A in het product van n lineaire termen met sommige termen die mogelijk herhalen, kan de karakteristieke polynoom in plaats daarvan worden geschreven als het product van d termen die elk overeenkomen met een duidelijke eigenwaarde en verhoogd tot de kracht van de algebraïsche multipliciteit,

Als d = n dan is de rechterkant het product van n lineaire termen en dit is hetzelfde als vergelijking (4). De grootte van de algebraïsche multipliciteit van elke eigenwaarde is gerelateerd aan de dimensie n net zo

Als μA(λi) = 1, dan λi zou een Eenvoudige eigenwaarde.[26] Als μA(λi) is gelijk aan de geometrische veelheid van λi, γA(λi), gedefinieerd in de volgende sectie, dan λi zou een semi -eenvoudige eigenwaarde.

Eigenspaces, geometrische multipliciteit en de eigenbasis voor matrices

Gegeven een bepaalde eigenwaarde λ van de n door n Matrix A, definieer de set E Om alle vectoren te zijn v die voldoen aan de vergelijking (2),

Aan de ene kant is deze set precies de kernel of nullspace van de matrix (Aλi). Anderzijds, per definitie, is elke niet -nul vector die aan deze voorwaarde voldoet een eigenvector van A geassocieerd met λ. Dus de set E is de unie van de nul vector met de set van alle eigenvectoren van A geassocieerd met λ, en E is gelijk aan de nullspace van (Aλi). E wordt de eigenspace of karakteristieke ruimte van A geassocieerd met λ.[27][9] In het algemeen λ is een complex getal en de eigenvectoren zijn complex n door 1 matrices. Een eigenschap van de nullspace is dat het een lineaire subruimte, dus E is een lineaire subruimte van .

Omdat de eigenspace E is een lineaire subruimte, dat is het gesloten onder aanvulling. Dat wil zeggen, als twee vectoren u en v behoren tot de set E, geschreven u, vE, dan (u + v) ∈ E of gelijkwaardig A(u + v) = λ(u + v). Dit kan worden gecontroleerd met behulp van de distributieve eigendom van matrix vermenigvuldiging. Evenzo omdat E is een lineaire subruimte, deze is gesloten onder scalaire vermenigvuldiging. Dat wil zeggen, als vE en α is een complex getal, (αv) ∈ E of gelijkwaardig A(αv) = λ(αv). Dit kan worden gecontroleerd door op te merken dat vermenigvuldiging van complexe matrices met complexe getallen is commutatief. Zo lang als u + v en αv zijn niet nul, ze zijn ook eigenvectoren van A geassocieerd met λ.

De dimensie van de eigenspace E geassocieerd met λ, of gelijkwaardig het maximale aantal lineair onafhankelijke eigenvectoren geassocieerd met λwordt de eigenwaarde genoemd Geometrische veelheid γA(λ). Omdat E is ook de nullspace van (Aλi), de geometrische veelheid van λ is de dimensie van de nulspace van (Aλi), ook wel de nietigheid van (Aλi), die betrekking heeft op de dimensie en rang van (Aλi) net zo

Vanwege de definitie van eigenwaarden en eigenvectoren, moet de geometrische multipliciteit van een eigenwaarde ten minste één zijn, dat wil zeggen dat elke eigenwaarde ten minste één bijbehorende eigenvector heeft. Bovendien kan de geometrische multipliciteit van een eigenwaarde zijn algebraïsche multipliciteit niet overschrijden. Bedenk bovendien dat de algebraïsche multipliciteit van een eigenwaarde niet hoger kan zijn dan n.

Om de ongelijkheid te bewijzen , overweeg hoe de definitie van geometrische multipliciteit het bestaan ​​impliceert ortonormaal eigenvectoren , zoals dat . We kunnen daarom een ​​(unitaire) matrix vinden Wiens eerste kolommen zijn deze eigenvectoren, en waarvan de resterende kolommen elke orthonormale set van kunnen zijn vectoren orthogonaal voor deze eigenvectoren van . Dan heeft een volledige rang en is daarom inverteerbaar, en met Een matrix waarvan linksbovenblok de diagonale matrix is . Dit betekent dat . Met andere woorden, is vergelijkbaar met , wat dat inhoudt . Maar uit de definitie van we weten dat bevat een factor wat betekent dat de algebraïsche veelheid van Moet voldoen .

Veronderstellen heeft verschillende eigenwaarden , waar de geometrische veelheid van is . De totale geometrische veelheid van ,,

is de dimensie van de som van alle eigenspaces van 's eigenwaarden, of gelijkwaardig het maximale aantal lineair onafhankelijke eigenvectoren van . Als , dan

  • De directe som van de eigenspaces van alle 's eigenwaarden is de hele vectorruimte .
  • Een basis van kan worden gevormd uit lineair onafhankelijke eigenvectoren van ; Een dergelijke basis wordt een eigenbasis
  • Elke vector in kan worden geschreven als een lineaire combinatie van eigenvectoren van .

Aanvullende eigenschappen van eigenwaarden

Laten Wees willekeurig matrix van complexe getallen met eigenwaarden . Elke eigenwaarde verschijnt keer in deze lijst, waar is de algebraïsche multipliciteit van de eigenwaarde. De volgende zijn eigenschappen van deze matrix en zijn eigenwaarden:

  • De spoor van , gedefinieerd als de som van zijn diagonale elementen, is ook de som van alle eigenwaarden,[28][29][30]
  • De bepalend van is het product van al zijn eigenwaarden,[28][31][32]
  • De eigenwaarden van de e Kracht van ; d.w.z. de eigenwaarden van , voor elk positief geheel getal , zijn .
  • De matrix is inverteerbaar Als en alleen als elke eigenwaarde niet nul is.
  • Als is omkeerbaar, dan de eigenwaarden van zijn en de geometrische multipliciteit van elke eigenwaarde valt samen. Bovendien, aangezien de karakteristieke polynoom van het omgekeerde de wederzijds polynoom Van het origineel delen de eigenwaarden dezelfde algebraïsche multipliciteit.
  • Als is gelijk aan zijn conjugaat transponeren , of gelijkwaardig als is Hermitiaans, dan is elke eigenwaarde echt. Hetzelfde geldt voor elke symmetrisch Echte matrix.
  • Als is niet alleen Hermitiaans, maar ook positief gedefineerd, positief-semidefiniet, negatief-definitief of negatief-semidefiniet, dan is elke eigenwaarde positief, niet-negatief, negatief of niet-positief, respectievelijk.
  • Als is eenheid, elke eigenwaarde heeft absolute waarde .
  • als is een matrix en zijn de eigenwaarden, dan de eigenwaarden van matrix (waar is de identiteitsmatrix) zijn . Bovendien, als , de eigenwaarden van zijn . Meer in het algemeen voor een polynoom de eigenwaarden van matrix zijn .

Links en rechts eigenvectoren

Veel disciplines vertegenwoordigen traditioneel vectoren als matrices met een enkele kolom in plaats van als matrices met een enkele rij. Om die reden verwijst het woord "eigenvector" in de context van matrices bijna altijd naar een Juiste eigenvector, namelijk een kolom vector dat Rechtsaf vermenigvuldigt de Matrix In de bepalende vergelijking, vergelijking (1),

De eigenwaarde en eigenvectorprobleem kan ook worden gedefinieerd voor rij vectoren dat links vermenigvuldigingsmatrix . In deze formulering is de bepalende vergelijking

waar is een scalaire en is een Matrix. Elke rijvector Het bevredigen van deze vergelijking wordt een genoemd linker eigenvector van en is de bijbehorende eigenwaarde. De transponering van deze vergelijking,

Deze vergelijking vergelijken met vergelijking (1), volgt onmiddellijk dat een linkse eigenvector van is hetzelfde als het transponeren van een juiste eigenvector van , met dezelfde eigenwaarde. Bovendien, sinds de karakteristieke polynoom van is hetzelfde als de karakteristieke polynoom van , de eigenwaarden van de linkse eigenvectoren van zijn hetzelfde als de eigenwaarden van de juiste eigenvectoren van .

Diagonalisatie en de eigendecompositie

Stel dat de eigenvectoren van A vorm een ​​basis, of gelijkwaardig A heeft n Lineair onafhankelijke eigenvectoren v1, v2, ..., vn met bijbehorende eigenwaarden λ1, λ2, ..., λn. De eigenwaarden hoeven niet te onderscheiden. Definieer een vierkante matrix Q waarvan de kolommen de n lineair onafhankelijke eigenvectoren van A,,

Sinds elke kolom van Q is een eigenvector van A, meteen vermenigvuldigen A door Q schaalt elke kolom van Q door de bijbehorende eigenwaarde,

Definieer met dit in gedachten een diagonale matrix λ waarbij elk diagonaal element λII is de eigenwaarde geassocieerd met de ide kolom van Q. Dan

Omdat de kolommen van Q zijn lineair onafhankelijk, Q is omkeerbaar. Het vermenigvuldigen van beide zijden van de vergelijking met Q−1,,

of door in plaats daarvan beide kanten te vermenigvuldigen met Q−1,,

A kan daarom worden ontleed in een matrix samengesteld uit zijn eigenvectoren, een diagonale matrix met zijn eigenwaarden langs de diagonaal en de inverse van de matrix van eigenvectoren. Dit wordt de eigendecompositie en het is een gelijkenistransformatie. Zo'n matrix A schijnt zo te zijn vergelijkbaar naar de diagonale matrix λ of diagonaliseerbaar. De matrix Q is de verandering van basismatrix van de gelijkenistransformatie. In wezen de matrices A en λ vertegenwoordigen dezelfde lineaire transformatie uitgedrukt in twee verschillende basen. De eigenvectoren worden als basis gebruikt bij het weergeven van de lineaire transformatie als λ.

Veronderstel een matrix A is diagonaliseerbaar. Laten P wees een niet-singulaire vierkante matrix zodanig dat P−1AP is een diagonale matrix D. Links vermenigvuldigen beide door P, AP = PD. Elke kolom van P moet daarom een ​​eigenvector zijn van A waarvan de eigenwaarde het overeenkomstige diagonale element is van D. Sinds de kolommen van P moet lineair onafhankelijk zijn P Om inverteerbaar te zijn, bestaan ​​er n lineair onafhankelijke eigenvectoren van A. Hieruit volgt dan dat de eigenvectoren van A vorm een ​​basis als en alleen als A is diagonaliseerbaar.

Een matrix die niet diagonaliseerbaar is, zou zijn defecte. Voor defecte matrices generaliseert het idee van eigenvectoren naar Gegeneraliseerde eigenvectoren en de diagonale matrix van eigenwaarden generaliseert naar de Jordan normale vorm. Over een algebraïsch gesloten veld, elke matrix A heeft een Jordan normale vorm en geeft daarom een ​​basis toe van gegeneraliseerde eigenvectoren en een ontleding in Gegeneraliseerde eigenspaces.

Variabele karakterisering

In de Hermitiaans Geval, eigenwaarden kunnen een variatiekarakterisering krijgen. De grootste eigenwaarde van is de maximale waarde van de kwadratische vorm . Een waarde van Dat beseft dat maximum, is een eigenvector.

Matrixvoorbeelden

Tweedimensionaal matrixvoorbeeld

De transformatiematrix A = behoudt de richting van paarse vectoren parallel aan vλ= 1 = [1 −1]T en blauwe vectoren parallel aan vλ= 3 = [1 1]T. De rode vectoren zijn niet parallel aan beide eigenvector, dus hun richtingen worden veranderd door de transformatie. De lengtes van de paarse vectoren zijn ongewijzigd na de transformatie (vanwege hun eigenwaarde van 1), terwijl blauwe vectoren drie keer de lengte van het origineel zijn (vanwege hun eigenwaarde van 3). Zie ook: een uitgebreide versie, die alle vier kwadranten toont.

Overweeg de matrix

De figuur rechts toont het effect van deze transformatie op puntcoördinaten in het vlak. De eigenvectoren v van deze transformatie voldoen aan de vergelijking (1), en de waarden van λ waarvoor de bepalende factor van de matrix (A-λi) is gelijk aan nul zijn de eigenwaarden.

De determinant nemen om een ​​karakteristieke polynoom van te vinden A,,

Het karakteristieke polynoom instellen gelijk aan nul, het heeft wortels op λ= 1 en λ= 3, die zijn de twee eigenwaarden van A.

Voor λ= 1, Vergelijking (2) wordt,

Elke niet -nul vector met v1 = -v2 lost deze vergelijking op. Daarom,

is een eigenvector van A overeenkomstig met λ = 1, net als elk scalair veelvoud van deze vector.

Voor λ= 3, Vergelijking (2) wordt

Elke niet -nul vector met v1 = v2 lost deze vergelijking op. Daarom,

is een eigenvector van A overeenkomstig met λ = 3, net als elk scalair veelvoud van deze vector.

Dus de vectoren vλ= 1 en vλ= 3 zijn eigenvectoren van A geassocieerd met de eigenwaarden λ= 1 en λ= 3, respectievelijk.

Driedimensionaal matrixvoorbeeld

Overweeg de matrix

De karakteristieke polynoom van A is

De wortels van de karakteristieke polynoom zijn 2, 1 en 11, die de enige drie eigenwaarden zijn van A. Deze eigenwaarden komen overeen met de eigenvectoren , , en , of een niet -nul -meerdere daarvan.

Driedimensionaal matrixvoorbeeld met complexe eigenwaarden

Houd rekening met de cyclische permutatrix

Deze matrix verschuift de coördinaten van de vector met één positie en verplaatst de eerste coördinaat naar de bodem. Zijn karakteristieke polynoom is 1 -λ3, wiens wortels zijn

waar is een denkbeeldige eenheid met .

Voor de echte eigenwaarde λ1 = 1, elke vector met drie gelijke niet -nul -vermeldingen is een eigenvector. Bijvoorbeeld,

Voor het complexe geconjugeerde paar denkbeeldige eigenwaarden,

Dan

en

Daarom de andere twee eigenvectoren van A zijn complex en zijn en met eigenwaarden λ2 en λ3, respectievelijk. De twee complexe eigenvectoren verschijnen ook in een complex geconjugeerde paar,

Diagonale matrixvoorbeeld

Matrices met vermeldingen alleen langs de hoofddiagonaal worden genoemd diagonale matrices. De eigenwaarden van een diagonale matrix zijn de diagonale elementen zelf. Overweeg de matrix

De karakteristieke polynoom van A is

die de wortels heeft λ1 = 1, λ2 = 2, en λ3 = 3. Deze wortels zijn de diagonale elementen evenals de eigenwaarden vanA.

Elk diagonaal element komt overeen met een eigenvector waarvan de enige niet -nulcomponent zich in dezelfde rij bevindt als dat diagonale element. In het voorbeeld komen de eigenwaarden overeen met de eigenvectoren,

respectievelijk, evenals scalaire veelvouden van deze vectoren.

Driehoekige matrixvoorbeeld

Een matrix waarvan de elementen boven de hoofddiagonaal allemaal nul zijn, wordt een genoemd lager driehoekige matrix, terwijl een matrix waarvan de elementen onder de hoofddiagonaal allemaal nul zijn, een bovenste driehoekige matrix. Net als bij diagonale matrices zijn de eigenwaarden van driehoekige matrices de elementen van de hoofddiagonaal.

Overweeg de lagere driehoekige matrix,

De karakteristieke polynoom van A is

die de wortels heeft λ1 = 1, λ2 = 2, en λ3 = 3. Deze wortels zijn de diagonale elementen evenals de eigenwaarden vanA.

Deze eigenwaarden komen overeen met de eigenvectoren,

respectievelijk, evenals scalaire veelvouden van deze vectoren.

Matrix met herhaalde eigenwaarden voorbeeld

Zoals in het vorige voorbeeld, de lagere driehoekige matrix

heeft een karakteristieke polynoom die het product is van zijn diagonale elementen,

De wortels van deze polynoom, en dus de eigenwaarden, zijn 2 en 3. De algebraïsche veelheid van elke eigenwaarde is 2; Met andere woorden, het zijn allebei dubbele wortels. De som van de algebraïsche multipliciteiten van alle verschillende eigenwaarden is μA = 4 = n, de volgorde van de karakteristieke polynoom en de dimensie van A.

Aan de andere kant, de Geometrische veelheid van de eigenwaarde 2 is slechts 1, omdat de eigenspace wordt overspannen door slechts één vector en is daarom 1-dimensionaal. Evenzo is de geometrische veelheid van de eigenwaarde 3 1 omdat zijn eigenspace wordt overspannen door slechts één vector . De totale geometrische veelheid γA is 2, wat de kleinste is die het zou kunnen zijn voor een matrix met twee verschillende eigenwaarden. Geometrische multipliciteiten worden in een later gedeelte gedefinieerd.

Eigenvector-eigenvalue identiteit

Voor een Hermitiaanse matrix, de norm kwadraat van de jDe component van een genormaliseerde eigenvector kan worden berekend met alleen de matrix eigenwaarden en de eigenwaarden van de overeenkomstige kleine matrix,,

waar is de Submatrix gevormd door het verwijderen van de jDe rij en kolom uit de originele matrix.[33][34][35] Deze identiteit strekt zich ook uit tot diagonaliseerbare matricesen is in de literatuur vele malen herontdekt.[34]

Eigenwaarden en eigenfuncties van differentiële operators

De definities van eigenwaarde en eigenvectoren van een lineaire transformatie T blijft geldig, zelfs als de onderliggende vectorruimte een oneindig-dimensionaal is Hilbert of Banach -ruimte. Een veelgebruikte klasse van lineaire transformaties die werken op oneindige dimensionale ruimtes zijn de differentiaaloperators Aan Functieruimten. Laten D Wees een lineaire differentiaaloperator op de ruimte C oneindig onderscheidbaar Echte functies van een echt argument t. De eigenwaarde vergelijking voor D is de differentiaalvergelijking

De functies die aan deze vergelijking voldoen, zijn eigenvectoren van D en worden gewoonlijk genoemd eigenfuncties.

Afgeleide operator voorbeeld

Overweeg de afgeleide operator met eigenwaarde vergelijking

Deze differentiaalvergelijking kan worden opgelost door beide zijden te vermenigvuldigen met DT/f(t) en integreren. Zijn oplossing, de exponentiële functie

is de eigenfunctie van de afgeleide operator. In dit geval is de eigenfunctie zelf een functie van de bijbehorende eigenwaarde. In het bijzonder voor λ = 0 de eigenfunctie f(t) is een constante.

De belangrijkste eigenfunctie Artikel geeft andere voorbeelden.

Algemene definitie

Het concept van eigenwaarden en eigenvectoren strekt zich van nature uit tot willekeurig Lineaire transformaties op willekeurige vectorruimtes. Laten V Wees een vectorruimte over sommigen veld K van scalars, en laat T Wees een lineaire transformatie -in kaart brengen V naar binnen V,,

We zeggen dat een niet -nul vector vV is een eigenvector van T Als en alleen als er een scalair bestaat λK zoals dat

 

 

 

 

(5)

Deze vergelijking wordt de eigenwaarde -vergelijking genoemd voor T, en de scalaire λ is de eigenwaarde van T overeenkomend met de eigenvector v. T(v) is het resultaat van het toepassen van de transformatie T naar de vector v, terwijl λv is het product van de scalaire λ met v.[36][37]

Eigenspaces, geometrische multipliciteit en de eigenbasis

Gegeven een eigenwaarde λ, overweeg de set

dat is de unie van de nul vector met de set van alle eigenvectoren geassocieerd metλ. E wordt de eigenspace of karakteristieke ruimte van T geassocieerd metλ.

Per definitie van een lineaire transformatie,

voor x,,yV en αK. Daarom, als u en v zijn eigenvectoren van T geassocieerd met eigenwaarde λ, namelijk u,,vE, dan

Dus beide u + v en αv zijn nul of eigenvectoren van T geassocieerd met λ, namelijk u + v, αvE, en E is gesloten onder toevoeging en scalaire vermenigvuldiging. De eigenspace E geassocieerd met λ is daarom een ​​lineaire subruimte van V.[38] Als die subruimte dimensie 1 heeft, wordt het soms een eigenlijn.[39]

De Geometrische veelheid γT(λ) van een eigenwaarde λ is de dimensie van de eigenspace geassocieerd met λ, d.w.z. het maximale aantal lineair onafhankelijke eigenvectoren geassocieerd met die eigenwaarde.[9][26] Door de definitie van eigenwaarden en eigenvectoren, γT(λ) ≥ 1 omdat elke eigenwaarde ten minste één eigenvector heeft.

De eigenspaces van T Vorm altijd een directe som. Als gevolg hiervan, eigenvectoren van verschillend Eigenwaarden zijn altijd lineair onafhankelijk. Daarom kan de som van de afmetingen van de eigenspaces de dimensie niet overschrijden n van de vectorruimte waarop T werkt, en er kan niet meer zijn dan n verschillende eigenwaarden.[d]

Elke subruimte overspannen door eigenvectoren van T is een invariante subruimte van Ten de beperking van T Een dergelijke subruimte is diagonaliseerbaar. Bovendien, als de hele vectorruimte V kan worden overgebracht door de eigenvectoren van Tof gelijkwaardig als de directe som van de eigenspaces geassocieerd met alle eigenwaarden van T is de hele vectorruimte V, dan een basis van V noemde een eigenbasis kan worden gevormd uit lineair onafhankelijke eigenvectoren van T. Wanneer T geeft een eigenbasis toe, T is diagonaliseerbaar.

Spectrale theorie

Als λ is een eigenwaarde van T, dan de operator (Tλi) is niet één op één, en daarom is het omgekeerd (Tλi)−1 bestaat niet. Het omgekeerde geldt voor eindige-dimensionale vectorruimtes, maar niet voor oneindige dimensionale vectorruimtes. Over het algemeen is de operator (Tλi) heeft misschien geen inverse, zelfs als λ is geen eigenwaarde.

Om deze reden, in functionele analyse eigenwaarden kunnen worden gegeneraliseerd naar de spectrum van een lineaire operator T als de set van alle scalars λ waarvoor de operator (Tλi) heeft geen begrensd omgekeerd. Het spectrum van een operator bevat altijd al zijn eigenwaarden, maar is niet beperkt tot hen.

Associatieve algebra's en representatietheorie

Men kan het algebraïsche object generaliseren dat op de vectorruimte werkt, ter vervanging van een enkele operator die op een vectorruimte werkt door een Algebra -weergave - een associatieve algebra handelen op een module. De studie van dergelijke acties is het gebied van representatietheorie.

De representatie-theoretisch gewichtsconcept is een analoog van eigenwaarden, terwijl Gewichtsvectoren en gewichtsruimten zijn respectievelijk de analogen van eigenvectoren en eigenspaces.

Dynamische vergelijkingen

De makkelijkste Verschilvergelijkingen hebben de vorm

De oplossing van deze vergelijking voor x aangaande met t wordt gevonden door de karakteristieke vergelijking te gebruiken

die kan worden gevonden door te stapelen in matrixvorm een ​​reeks vergelijkingen bestaande uit de bovenstaande verschilvergelijking en de k- 1 vergelijkingen Een k-Dimensionaal systeem van de eerste orde in de gestapelde variabele vector In termen van de ooit lagged waarde en het nemen van de karakteristieke vergelijking van de matrix van dit systeem. Deze vergelijking geeft k karakteristieke wortels voor gebruik in de oplossingsvergelijking

Een vergelijkbare procedure wordt gebruikt voor het oplossen van een differentiaalvergelijking van de vorm

Berekening

De berekening van eigenwaarden en eigenvectoren is een onderwerp waar theorie, zoals gepresenteerd in elementaire lineaire algebra -schoolboeken, vaak verre van praktijk is.

Klassieke methode

De klassieke methode is om eerst de eigenwaarden te vinden en vervolgens de eigenvectoren voor elke eigenwaarde te berekenen. Het is op verschillende manieren slecht geschikt voor niet-exacte rekenkundige drijvend punt.

Eigenwaarden

De eigenwaarden van een matrix kan worden bepaald door de wortels van de karakteristieke polynoom te vinden. Dit is gemakkelijk voor Matrices, maar de moeilijkheid neemt snel toe met de grootte van de matrix.

In theorie kunnen de coëfficiënten van de karakteristieke polynoom exact worden berekend, omdat het sommen producten van matrixelementen zijn; en er zijn algoritmen die alle wortels van een polynoom van willekeurige mate kunnen vinden voor alle vereiste nauwkeurigheid.[40] Deze benadering is echter in de praktijk niet levensvatbaar omdat de coëfficiënten door onvermijdelijk zouden zijn vervuild Afrotfouten, en de wortels van een polynoom kunnen een extreem gevoelige functie van de coëfficiënten zijn (zoals geïllustreerd door Wilkinson's polynoom).[40] Zelfs voor matrices waarvan de elementen gehele getallen zijn, wordt de berekening niet -triviaal, omdat de bedragen erg lang zijn; De constante term is de bepalend, die voor een is een som van verschillende producten.[e]

Expliciet algebraïsche formules Voor de wortels van een polynoom bestaan ​​alleen als de graad is 4 of minder. Volgens de Abel - Rruffini stelling Er is geen algemene, expliciete en exacte algebraïsche formule voor de wortels van een polynoom met graad 5 of meer. (Algemeenheid is belangrijk omdat elke polynoom met graad is de karakteristieke polynoom van sommigen begeleidende matrix opdracht .) Daarom kunnen voor matrices van orde 5 of meer de eigenwaarden en eigenvectoren niet worden verkregen door een expliciete algebraïsche formule en moeten daarom worden berekend door benadering numerieke methodes. Zelfs de exacte formule Want de wortels van een graad 3 polynoom is numeriek onpraktisch.

Eigenvectoren

Zodra de (exacte) waarde van een eigenwaarde bekend is, kunnen de overeenkomstige eigenvectoren worden gevonden door niet -nul oplossingen van de eigenwaarde -vergelijking te vinden, die een systeem van lineaire vergelijkingen met bekende coëfficiënten. Zodra het eenmaal bekend is dat 6 een eigenwaarde van de matrix is

We kunnen zijn eigenvectoren vinden door de vergelijking op te lossen , dat is

Deze matrixvergelijking is gelijk aan twee lineaire vergelijkingen

     dat is     

Beide vergelijkingen verminderen tot de enkele lineaire vergelijking . Daarom elke vector van de vorm , voor elk niet -nul reëel nummer is een eigenvector van met eigenwaarde .

De matrix Hierboven heeft nog een eigenwaarde . Een vergelijkbare berekening toont aan dat de overeenkomstige eigenvectoren de niet -nul oplossingen zijn van , dat wil zeggen elke vector van de vorm , voor elk niet -nul reëel nummer .

Eenvoudige iteratieve methoden

De omgekeerde benadering, van het eerst zoeken naar de eigenvectoren en vervolgens het bepalen van elke eigenwaarde uit zijn eigenvector, blijkt veel meer traceerbaar te zijn voor computers. Het eenvoudigste algoritme hier bestaat uit het kiezen van een willekeurige startvector en deze vervolgens herhaaldelijk met de matrix vermenigvuldigen (de vector optioneel normaliseren om zijn elementen van redelijke grootte te behouden); Hierdoor convergeren de vector naar een eigenvector. Een variatie is om in plaats daarvan de vector te vermenigvuldigen met ; Dit zorgt ervoor dat het convergeert naar een eigenvector van de eigenwaarde die het dichtst in de buurt is .

Als is (een goede benadering van) een eigenvector van , dan kan de overeenkomstige eigenwaarde worden berekend als

waar geeft de conjugaat transponeren van .

Moderne methoden

Efficiënte, nauwkeurige methoden om eigenwaarden en eigenvectoren van willekeurige matrices te berekenen, waren pas bekend tot de QR -algoritme werd ontworpen in 1961.[40] Het combineren van de Huishoudelijke transformatie Met de LU -ontleding resulteert in een algoritme met een betere convergentie dan het QR -algoritme. Voor groot Hermitiaans schaarse matrices, de Lanczos -algoritme is een voorbeeld van een efficiënte iteratieve methode Om eigenwaarden en eigenvectoren te berekenen, naast verschillende andere mogelijkheden.[40]

De meeste numerieke methoden die de eigenwaarden van een matrix berekenen, bepalen ook een set overeenkomstige eigenvectoren als bijproduct van de berekening, hoewel implementors soms ervoor kiezen om de eigenvectorinformatie weg te gooien zodra deze niet langer nodig is.

Toepassingen

Eigenwaarden van geometrische transformaties

De volgende tabel presenteert enkele voorbeeldtransformaties in het vlak, samen met hun 2 × 2 matrices, eigenwaarden en eigenvectoren.

Eigenwaarden van geometrische transformaties
Het schalen Ongelijke schaal Rotatie Horizontale afschuiving Hyperbolische rotatie
Illustratie Equal scaling (homothety) Vertical shrink and horizontal stretch of a unit square. Rotation by 50 degrees
Horizontal shear mapping
Squeeze r=1.5.svg
Matrix
Kenmerk
polynoom
Eigenwaarden,
Algebraïsch mult.,
Geometrisch mult.,
Eigenvectoren Alle niet -nul vectoren

De karakteristieke vergelijking voor een rotatie is een kwadratische vergelijking met discriminerend , wat een negatief getal is wanneer θ is geen gehele veelvoud van 180 °. Daarom zijn de twee eigenwaarden, behalve deze speciale gevallen, complexe getallen, ; en alle eigenvectoren hebben niet-reale inzendingen. Inderdaad, behalve voor die speciale gevallen, verandert een rotatie de richting van elke niet -nul vector in het vlak.

Een lineaire transformatie die een vierkant naar een rechthoek van hetzelfde gebied brengt (a Knijp in kaart brengen) heeft wederzijdse eigenwaarden.

Schrödinger -vergelijking

De golffuncties geassocieerd met de Gebonden toestanden van een elektron in een waterstofatoom kan worden gezien als de eigenvectoren van de waterstofatoom Hamiltoniaans evenals van de Angular Momentum Operator. Ze worden geassocieerd met eigenwaarden die worden geïnterpreteerd als hun energieën (naar beneden toenemen: ) en hoekmomentum (toenemende over: S, P, D, ...). De illustratie toont het kwadraat van de absolute waarde van de golffuncties. Er komen helderdere gebieden overeen met hoger kansdichtheid voor een positie meting. Het midden van elke figuur is de atoomkern, a proton.

Een voorbeeld van een eigenwaarde -vergelijking waarbij de transformatie wordt weergegeven in termen van een differentiële operator is de tijdonafhankelijke Schrödinger -vergelijking in kwantummechanica:

waar , de Hamiltoniaans, is een tweede orde differentiaaloperator en , de Golf functie, is een van de eigenfuncties die overeenkomen met de eigenwaarde , geïnterpreteerd als zijn energie.

In het geval dat men echter alleen geïnteresseerd is in de gebonden toestand Oplossingen van de Schrödinger -vergelijking, zoekt men naar binnen de ruimte van vierkant integreerbaar functies. Omdat deze ruimte een is Hilbert -ruimte met een goed gedefinieerde scalair product, men kan een basisset waarin en kan worden weergegeven als een eendimensionale array (d.w.z. een vector) en een matrix respectievelijk. Hierdoor kan men de Schrödinger -vergelijking in een matrixvorm weergeven.

De Bra -ket notatie wordt in deze context vaak gebruikt. Een vector, die een status van het systeem vertegenwoordigt, in de Hilbert -ruimte van vierkante integreerbare functies wordt weergegeven door . In deze notatie is de Schrödinger -vergelijking:

waar is een eigenstaat van en vertegenwoordigt de eigenwaarde. is een waarneembaar zelfbeschermingsoperator, het oneindige-dimensionale analoog van Hermitiaanse matrices. Zoals in het geval van de matrix, in de bovenstaande vergelijking wordt verondersteld de vector te zijn die is verkregen door toepassing van de transformatie tot .

Golftransport

Licht, akoestische golven, en magnetrons zijn willekeurig verspreide Talloze keren bij het doorkruisen van een statisch ongeordend systeem. Hoewel meerdere verstrooiing herhaaldelijk de golven randomiseert, is uiteindelijk coherent golftransport door het systeem een ​​deterministisch proces dat kan worden beschreven door een veldtransmissiematrix .[41][42] De eigenvectoren van de transmissie -operator Vorm een ​​set stoornisspecifieke ingangsgolffronts waarmee golven kunnen paren in de eigenchannels van het ongeordende systeem: de onafhankelijke padengolven kunnen door het systeem reizen. De eigenwaarden, , van komen overeen met de intensiteitstransmissie geassocieerd met elk eigenchannel. Een van de opmerkelijke eigenschappen van de transmissie -operator van diffusieve systemen is hun bimodale eigenwaardeverdeling met en .[42] Bovendien is een van de opvallende eigenschappen van open eigenchannels, voorbij de perfecte transmissie, het statistisch robuuste ruimtelijke profiel van de eigenchannels.[43]

Moleculaire orbitalen

In kwantummechanicaen in het bijzonder in atomisch en moleculaire fysica, binnen de Hartree - Fock theorie, de atomisch en moleculaire orbitalen kan worden gedefinieerd door de eigenvectoren van de Fock -operator. De overeenkomstige eigenwaarden worden geïnterpreteerd als ionisatiepotentialen via Koopmans 'stelling. In dit geval wordt de term eigenvector gebruikt in een iets meer algemene betekenis, omdat de Fock -operator expliciet afhankelijk is van de orbitalen en hun eigenwaarden. Dus als men dit aspect wil onderstrepen, spreekt men over niet -lineaire eigenwaardeproblemen. Dergelijke vergelijkingen worden meestal opgelost door een herhaling Procedure, in dit geval opgeroepen Zelfconsistente veld methode. In kwantumchemie, men vertegenwoordigt vaak de Hartree-Fock-vergelijking in een nietorthogonaal basisset. Deze specifieke weergave is een Gegeneraliseerd eigenwaardeprobleem genaamd Roothaan -vergelijkingen.

Geologie en glaciologie

In geologie, vooral in de studie van glaciaal tot, eigenvectoren en eigenwaarden worden gebruikt als een methode waarmee een massa informatie over de oriëntatie en dip van een clastic-kiezers in een 3D-ruimte met zes nummers kan worden samengevat in een 3-D-ruimte. In het veld kan een geoloog dergelijke gegevens verzamelen voor honderden of duizenden klasten In een bodemmonster, dat alleen grafisch kan worden vergeleken, zoals in een tri-plot (Sneed and Folk) diagram,[44][45] of als een stereonet op een Wulff -net.[46]

De uitgang voor de oriëntatie -tensor bevindt zich in de drie orthogonale (loodrechte) ruimte. De drie eigenvectoren worden besteld door hun eigenwaarden ;[47] dan is de primaire oriëntatie/dip van clast, is de secundaire en is het tertiaire, in termen van kracht. De clast -oriëntatie wordt gedefinieerd als de richting van de eigenvector, op een Windroos van 360 °. Dip wordt gemeten als de eigenwaarde, de modulus van de tensor: dit wordt gewaardeerd van 0 ° (geen dip) tot 90 ° (verticaal). De relatieve waarden van , , en worden bepaald door de aard van de stof van het sediment. Als , de stof zou isotropisch zijn. Als , van de stof wordt gezegd dat het vlak is. Als , de stof zou lineair zijn.[48]

Hoofdcomponentanalyse

PCA van de multivariate Gaussiaanse verdeling gecentreerd op met een standaardafwijking van 3 in ruwweg de richting en van 1 in de orthogonale richting. De getoonde vectoren zijn eenheid eigenvectoren van de (symmetrische, positief-semidefiniet) covariantiematrix geschaald door de vierkantswortel van de overeenkomstige eigenwaarde. Net als in het eendimensionale geval wordt de vierkantswortel genomen omdat de standaardafwijking wordt gemakkelijker gevisualiseerd dan de variantie.

De eigendecompositie van een symmetrisch Positieve semidefiniet (PSD) Matrix levert een orthogonale basis van eigenvectoren, die elk een niet -negatieve eigenwaarde hebben. De orthogonale ontleding van een PSD -matrix wordt gebruikt in multivariate analyse, waar de steekproef covariantiematrices zijn PSD. Deze orthogonale ontleding wordt genoemd Hoofdcomponentanalyse (PCA) in statistieken. PCA -studies lineaire relaties onder variabelen. PCA wordt uitgevoerd op de covariantiematrix of de correlatiematrix (waarin elke variabele wordt geschaald om zijn te hebben steekproefvariantie gelijk aan één). Voor de covariantie- of correlatiematrix komen de eigenvectoren overeen hoofdcomponenten en de eigenwaarden naar de Variantie uitgelegd door de belangrijkste componenten. Hoofdcomponentanalyse van de correlatiematrix biedt een orthogonale basis Voor de ruimte van de waargenomen gegevens: in deze basis komen de grootste eigenwaarden overeen met de belangrijkste componenten die worden geassocieerd met de meeste covariabiliteit tussen een aantal waargenomen gegevens.

Hoofdcomponentanalyse wordt gebruikt als een middel voor dimensionaliteitsvermindering In de studie van grote gegevenssets, zoals die welke zijn aangetroffen in bio -informatica. In Q -methodologie, de eigenwaarden van de correlatiematrix bepalen het oordeel van de Q-methodoloog over praktisch betekenis (die verschilt van de statistische significantie van Hypothesetesten; cf. criteria voor het bepalen van het aantal factoren). Meer in het algemeen kan principale componentanalyse worden gebruikt als een methode van factoren analyse in Structurele vergelijkingsmodellering.

Trillingsanalyse

Modusvorm van een afstemmingsvork bij Eigenfrequency 440.09 Hz

Eigenwaardeproblemen treden op natuurlijke wijze op in de trillingsanalyse van mechanische structuren met veel graden van vrijheid. De eigenwaarden zijn de natuurlijke frequenties (of Eigenfrequenties) van trillingen en de eigenvectoren zijn de vormen van deze vibratiemodi. In het bijzonder wordt ongedempte trillingen beheerst door

of

dat wil zeggen, versnelling is evenredig met de positie (d.w.z. we verwachten Sinusoïdaal zijn in de tijd).

In dimensies, wordt een massamatrix en a stijfheidsmatrix. Toelaatbare oplossingen zijn dan een lineaire combinatie van oplossingen voor de Gegeneraliseerd eigenwaardeprobleem

waar is de eigenwaarde en is de (denkbeeldige) hoekfrequentie. De belangrijkste trillingsmodi verschillen van de belangrijkste nalevingsmodi, die de eigenvectoren zijn van alleen. Verder, gedempte trilling, geregeerd door

leidt tot een zogenaamde kwadratisch eigenwaardeprobleem,,

Dit kan worden gereduceerd tot een gegeneraliseerd eigenwaardeprobleem door algebraïsche manipulatie ten koste van het oplossen van een groter systeem.

De orthogonaliteitseigenschappen van de eigenvectoren maken het mogelijk om de differentiaalvergelijkingen te ontkoppelen, zodat het systeem kan worden weergegeven als lineaire sommatie van de eigenvectoren. Het eigenwaardeprobleem van complexe structuren wordt vaak opgelost met behulp van Eindige elementanalyse, maar generaliseer de oplossing netjes voor scalaire gewaardeerde trillingsproblemen.

Eigenfaces

Eigenfaces Als voorbeelden van eigenvectoren

In afbeelding verwerken, verwerkte beelden van gezichten kunnen worden gezien als vectoren waarvan de componenten de helderheid van elke pixel.[49] De dimensie van deze vectorruimte is het aantal pixels. De eigenvectoren van de covariantiematrix geassocieerd met een grote set genormaliseerde foto's van gezichten worden genoemd eigenfaces; Dit is een voorbeeld van Hoofdcomponentanalyse. Ze zijn erg handig om een ​​gezichtsbeeld uit te drukken als een lineaire combinatie van sommige van hen. In de gezichtsherkenning tak van biometrie, eigenfaces bieden een middel om toe te passen data compressie naar gezichten voor identificatie doeleinden. Er is ook onderzoek gedaan naar Eigen Vision Systems die handgebaren bepalen.

Vergelijkbaar met dit concept, Eigenvoices vertegenwoordigen de algemene richting van variabiliteit in menselijke uitspraken van een bepaalde uiting, zoals een woord in een taal. Gebaseerd op een lineaire combinatie van dergelijke eigenvoices, kan een nieuwe stemuitspraak van het woord worden geconstrueerd. Deze concepten zijn nuttig gevonden in automatische spraakherkenningssystemen voor aanpassing van de luidspreker.

Tensor van Moment of Inertia

In mechanica, de eigenvectoren van de Moment van traagheid tensor Definieer de Hoofdassen van een rigide lichaam. De tensor van moment van luiheid is een belangrijke hoeveelheid die nodig is om de rotatie van een rigide lichaam rond zijn te bepalen Zwaartepunt.

Stresstensor

In Solide mechanica, de spanning tensor is symmetrisch en kan dus worden ontleed in een diagonaal Tensor met de eigenwaarden op de diagonale en eigenvectoren als basis. Omdat het diagonaal is, in deze oriëntatie, heeft de stresstensor geen scheren componenten; De componenten die het heeft, zijn de belangrijkste componenten.

Grafieken

In Spectral Graph Theory, een eigenwaarde van een grafiek wordt gedefinieerd als een eigenwaarde van de grafiek aangrenzende matrix , of (steeds meer) van de grafiek Laplaciaanse matrix Vanwege zijn Discrete Laplace -operator, dat is een van beide (Soms de combinatorisch Laplacian) of (Soms de genormaliseerde Laplacian), waar is een diagonale matrix met gelijk aan de mate van hoekpunt , en in , de De diagonale invoer is . De de belangrijkste eigenvector van een grafiek wordt gedefinieerd als de eigenvector die overeenkomt met de de grootste of De kleinste eigenwaarde van de Laplacian. De eerste belangrijkste eigenvector van de grafiek wordt ook alleen de belangrijkste eigenvector genoemd.

De belangrijkste eigenvector wordt gebruikt om de centraliteit van zijn hoekpunten. Een voorbeeld is Google's Paginabeoordeling algoritme. De belangrijkste eigenvector van een gemodificeerde aangrenzende matrix van de World Wide Web Graph geeft de pagina -rangorde als zijn componenten. Deze vector komt overeen met de stationaire verdeling van de Markov -keten weergegeven door de rij-genormaliseerde aangrenzende matrix; De aangrenzende matrix moet echter eerst worden gewijzigd om ervoor te zorgen dat er een stationaire verdeling bestaat. De tweede kleinste eigenvector kan worden gebruikt om de grafiek in clusters te verdelen, via spectrale clustering. Andere methoden zijn ook beschikbaar voor clustering.

Basis reproductienummer

Het basisreproductienummer () is een fundamenteel aantal in de studie van hoe infectieziekten zich verspreiden. Als een besmettelijk persoon in een populatie van volledig vatbare mensen wordt geplaatst, dan is het gemiddelde aantal mensen dat een typische besmettelijke persoon zal infecteren. De generatietijd van een infectie is de tijd, , van de ene persoon die besmet raakt op de volgende persoon die besmet raakt. In een heterogene populatie definieert de volgende generatie matrix hoeveel mensen in de bevolking na verloop van tijd zullen worden geïnfecteerd heeft gehaald. is dan de grootste eigenwaarde van de volgende generatiematrix.[50][51]

Zie ook

Aantekeningen

  1. ^ Opmerking:
    • In 1751 bewees Leonhard Euler dat elk lichaam een ​​hoofdas van rotatie heeft: Leonhard Euler (gepresenteerd: oktober 1751; gepubliceerd: 1760) "Du Mouvement d'Un Corps Solide Quelconque Lorsqu'il Tourne Autour D'An Axe Mobile" (Op de beweging van een vast lichaam terwijl het rond een bewegende as roteert), Histoire de L'Académie Royale des Sciences et des Belles Lettres de Berlin, pp. 176–227. Op p. 212, Euler bewijst dat elk lichaam een ​​hoofdas van rotatie bevat: "Théorem. 44. de quelque figuur que soit le corps, op y peut toujours cessionner un tel ax, qui passe par son center de gravité, autour duquel le corps peut tourner bibliotheken & d'un mouvement uniforme." (Stelling. 44. wat de vorm van het lichaam ook is, men kan er altijd zo'n as aan toewijzen, die door het zwaartepunt loopt, waarrond het vrij en met een uniforme beweging kan roteren.)
    • In 1755, Johann Andreas Segner bewezen dat elk lichaam drie hoofdassen van rotatie heeft: Johann Andreas Segner, Specimen theoriae turbinum [Essay over de theorie van tops (d.w.z. roterende lichamen)] (Halle ("Halae"), (Duitsland): Gebauer, 1755). ((https://books.google.com/books?id=29 p. xxviiii [29]), Segner leidt een derde graad vergelijking in t, wat bewijst dat een lichaam drie hoofdassen van rotatie heeft. Hij stelt dan (op dezelfde pagina): "Non Autem Repugnat Tres Esse Eiusmodi Positiones Plani HM, Quia in aquatione cubica radices tres esse Possunse, et tres tangentis t valores." (Het is echter niet inconsistent [dat er] drie van dergelijke posities van het vlak HM zijn, omdat in kubieke vergelijkingen [er] drie wortels kunnen zijn, en drie waarden van de raaklijn t.)
    • De relevante passage van Segner's werk werd kort besproken door Arthur Cayley. Zie: A. Cayley (1862) "Rapport over de voortgang van de oplossing van bepaalde speciale problemen van dynamiek", Verslag van de twintigste bijeenkomst van de British Association for the Advancement of Science; gehouden in Cambridge in oktober 1862, 32: 184–252; zie vooral pp. 225–226.
  2. ^ Kline 1972, pp. 807–808 Augustin Cauchy (1839) "Mémoire sur l'intégration des équations linéaires" (memoires over de integratie van lineaire vergelijkingen), Comptes rendus, 8: 827–830, 845–865, 889–907, 931–937. Van p. 827: "Op Sait d'Ailleurs qu'en suivant la méthode de lagrange, op butiende pour valeur générale de la variabele prinicipale une fonction danans laquelle mei een variabele principe les racines racines d'Une bepaalde Équitation que j'Appellaai l 'Équation Caractéristique, le degré de cette Équation Étant précisément l'order de l'équation différentielle qu'il s'agit d'intégrer. " (Men weet bovendien dat men door de methode van LaGrange te volgen, men voor de algemene waarde van de hoofdvariabele een functie verkrijgt waarin de hoofdvariabele verschijnt, de wortels van een bepaalde vergelijking die ik de "karakteristieke vergelijking" zal noemen " , de mate van deze vergelijking is precies de volgorde van de differentiaalvergelijking die moet worden geïntegreerd.)
  3. ^ Zien:
    • David Hilbert (1904) "Grundzüge Einer Allgemeinen Theorie der linears Integralgleichungen. (Erste Mitteilung)" " (Fundamentals van een algemene theorie van lineaire integrale vergelijkingen (eerste rapport)), Nachrichten von der Gesellschaft der Wissenschaften Zu Göttingen, Mathematisch-Physikalische Klasse (Nieuws van de Philosophical Society in Göttingen, Mathematical-Physical Section), pp. 49–91. Van p. 51: "Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich 'Eigenfunktionen' nenne, liefern: ..." (In het bijzonder, in dit eerste rapport, kom ik aan in formules die de [serie] ontwikkeling van een willekeurige functie bieden in termen van enkele onderscheidende functies, die ik noem eigenfuncties: ...) Later op dezelfde pagina: "Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe, ... " (Dit succes is voornamelijk toe te schrijven aan het feit dat ik niet, zoals het is gebeurd tot nu toe, in de eerste plaats een bewijs van het bestaan ​​van eigenwaarden, ...)
    • Zie voor de oorsprong en evolutie van de termen eigenwaarde, karakteristieke waarde, enz. Vroegste bekende toepassingen van enkele van de woorden van wiskunde (e)
  4. ^ Zie voor een bewijs van dit lemma Romeins 2008, Stelling 8.2 op p. 186; Shilov 1977, p. 109; Hefferon 2001, p. 364; Beezer 2006, Stelling Edeli op p. 469; en lemma voor lineaire onafhankelijkheid van eigenvectoren
  5. ^ Door te doen Gaussiaanse eliminatie over Formele Power -serie afgekapt tot Voorwaarden is het mogelijk om mee weg te komen bewerkingen, maar dat duurt niet combinatorische explosie rekening houdend.

Citaten

  1. ^ Burden & Faires 1993, p. 401.
  2. ^ a b Herstein 1964, pp. 228, 229.
  3. ^ a b Nering 1970, p. 38.
  4. ^ Weisstein n.d.
  5. ^ Betteridge 1965.
  6. ^ a b "Eigenvector en eigenwaarde". www.mathsisfun.com. Opgehaald 19 augustus 2020.
  7. ^ Press et al. 2007, p. 536.
  8. ^ Wolfram.com: eigenvector.
  9. ^ a b c d Nering 1970, p. 107.
  10. ^ Hawkins 1975, §2.
  11. ^ a b c d Hawkins 1975, §3.
  12. ^ Kline 1972, p. 673.
  13. ^ a b Kline 1972, pp. 807–808.
  14. ^ Kline 1972, pp. 715–716.
  15. ^ Kline 1972, pp. 706–707.
  16. ^ Kline 1972, p. 1063, P ..
  17. ^ Aldrich 2006.
  18. ^ Francis 1961, pp. 265–271.
  19. ^ Kublanovskaya 1962.
  20. ^ Golub & Van Loan 1996, §7.3.
  21. ^ Meyer 2000, §7.3.
  22. ^ Cornell University Department of Mathematics (2016) Lager niveau cursussen voor eerstejaarsstudenten en tweedejaarsstudenten. Bezocht op 2016-03-27.
  23. ^ University of Michigan Mathematics (2016) Wiskundige cursuscatalogus Gearchiveerd 2015-11-01 op de Wayback -machine. Bezocht op 2016-03-27.
  24. ^ Press et al. 2007, p. 38.
  25. ^ Fraleigh 1976, p. 358.
  26. ^ a b c Golub & Van Loan 1996, p. 316.
  27. ^ Anton 1987, pp. 305, 307.
  28. ^ a b Beauregard & Fraleigh 1973, p. 307.
  29. ^ Herstein 1964, p. 272.
  30. ^ Nering 1970, pp. 115–116.
  31. ^ Herstein 1964, p. 290.
  32. ^ Nering 1970, p. 116.
  33. ^ Wolchover 2019.
  34. ^ a b Denton et al. 2022.
  35. ^ Van Mieghem 2014.
  36. ^ Korn & Korn 2000, Sectie 14.3.5a.
  37. ^ Friedberg, Insel & Spence 1989, p. 217.
  38. ^ Nering 1970, p. 107; Shilov 1977, p. 109 Lemma voor de eigenspace
  39. ^ Lipschutz & Lipson 2002, p. 111.
  40. ^ a b c d Trefethen & Bau 1997.
  41. ^ Vellekoop & Mosk 2007, pp. 2309–2311.
  42. ^ a b Rotter & Gigan 2017, p. 15005.
  43. ^ Bender et al. 2020, p. 165901.
  44. ^ Graham & Midgley 2000, pp. 1473–1477.
  45. ^ Sneed & Folk 1958, pp. 114–150.
  46. ^ Knox-Robinson & Gardoll 1998, p. 243.
  47. ^ Busche, Christian; Schiller, Beate. "Endogene Geologie - Ruhr -Universität Bochum". www.ruhr-uni-bochum.de.
  48. ^ Benn & Evans 2004, pp. 103-107.
  49. ^ Xirouhakis, Votsis & Delopoulus 2004.
  50. ^ Diekmann, Heesterbeek & Metz 1990, pp. 365–382.
  51. ^ Heesterbeek & Diekmann 2000.

Bronnen

Verder lezen

Externe links

Theorie