Singuliere waarden ontbinding

Illustratie van de ontleding van de enkelvoudige waarde Uσv van een echte 2 × 2 -matrix M.
  • Bovenkant: De actie van M, aangegeven door het effect ervan op de eenheidsschijf D en de twee canonieke eenheidsvectoren e1 en e2.
  • Links: De actie van V, een rotatie, op D, e1, en e2.
  • Onderkant: De actie van Σ, een schaling door de enkelvoudige waarden σ1 horizontaal en σ2 verticaal.
  • Rechts: De actie van U, nog een rotatie.

In lineaire algebra, de singuliere waarden ontbinding (SVD) is een factorisatie van een echt of complex Matrix. Het generaliseert de eigendecompositie van een vierkant normale matrix met een orthonormale eigenbasis voor iedereen Matrix. Het is gerelateerd aan de polaire ontleding.

In het bijzonder de ontleding van de enkelvoudige waarde van een complexe matrix M is een factorisatie van de vorm waar U is een complex eenheidsmatrix, is een rechthoekige diagonale matrix met niet-negatieve reële getallen op de diagonaal, V is een complexe eenheidsmatrix, en is de conjugaat transponeren van V. Een dergelijke ontleding bestaat altijd voor elke complexe matrix. Als M is echt dan U en V kan gegarandeerd echt zijn orthogonaal matrices; In dergelijke contexten wordt de SVD vaak aangegeven

De diagonale inzendingen van worden uniek bepaald door M en staan ​​bekend als de enkelvoudige waarden van M. Het aantal niet-nul enkelvoudige waarden is gelijk aan de rang van M. De kolommen van U en de kolommen van V worden links-singulaire vectoren en rechter-singulaire vectoren van genoemd M, respectievelijk. Ze vormen twee sets van orthonormale bases u1, ..., um en v1, ..., vn , en als ze worden gesorteerd zodat de enkelvoudige waarden Met waarde nul bevinden zich allemaal in de hoogst genummerde kolommen (of rijen), kan de ontleding van de enkelvoudige waarde worden geschreven als waar is de rang van M.

De SVD is niet uniek. Het is altijd mogelijk om de ontleding te kiezen, zodat de enkelvoudige waarden zijn in dalende volgorde. In dit geval, (maar niet U en V) wordt uniek bepaald door M.

De term verwijst soms naar de Compact SVD, een soortgelijke ontleding waarin is vierkant diagonaal van grootte , waar is de rang van M, en heeft alleen de niet-nul enkelvoudige waarden. In deze variant, U is een semi-unitaire matrix en is een semi-unitaire matrix, zoals dat

Wiskundige toepassingen van de SVD omvatten het berekenen van de pseudoinverse, matrixbenadering en het bepalen van de rang, bereik, en nulruimte van een matrix. De SVD is ook uiterst nuttig op alle wetenschapsgebieden, engineering, en statistieken, zoals signaalverwerking, minst vierkanten het passen van gegevens, en procescontrole.

Intuïtieve interpretaties

Geanimeerde illustratie van de SVD van een 2D, echt schuifmatrix M. Eerst zien we de schijf in blauw samen met de twee Canonieke eenheidsvectoren. We zien dan de acties van M, die de schijf vervormt tot een Ovaal. De SVD ontleedt M in drie eenvoudige transformaties: een eerste rotatie V, a het schalen langs de coördinaatassen en een laatste rotatie U. De lengte σ1 en σ2 van de semi-assen van de ellips zijn de enkelvoudige waarden van M, namelijk Σ1,1 en Σ2,2.
Visualisatie van de matrixvermenigvuldiging in ontleding van enkelvoudige waarde

Rotatie, coördinatenschaling en reflectie

In het speciale geval wanneer M is een m × m echt vierkante matrix, de matrices U en V kan worden gekozen om echt te zijn m × m Matrices ook. In dat geval is "eenheid" hetzelfde als "orthogonaal". Vervolgens, interpreteren van zowel eenheidsmatrices als de diagonale matrix, hier samengevat als als A, als een lineaire transformatie xBijl van de ruimte Rm, de matrices U en V staan ​​voor rotatie of reflectie van de ruimte, terwijl vertegenwoordigt de het schalen van elke coördinaat xi door de factor σi. Aldus breekt de SVD -ontleding elke lineaire transformatie van Rm in een samenstelling van drie geometrisch transformaties: een rotatie of reflectie (V), gevolgd door een coördinaat per coördinaat het schalen (), gevolgd door een andere rotatie of reflectie (U).

In het bijzonder als M heeft dan een positieve bepalende factor U en V kan worden gekozen om beide rotaties te zijn met reflecties of beide rotaties zonder reflecties. Als de determinant negatief is, heeft precies een van hen een reflectie. Als de determinant nul is, kan elk onafhankelijk worden gekozen als van beide type.

Als de matrix M is echt maar niet vierkant, namelijk m×n met mn, het kan worden geïnterpreteerd als een lineaire transformatie van Rn tot Rm. Dan U en V kan worden gekozen als rotaties/reflecties van Rm en Rn, respectievelijk; en , naast het schalen van de eerste Coördinaten breiden de vector ook uit met nullen, d.w.z. verwijdert achterstandscoördinaten, om te draaien Rn naar binnen Rm.

Enkelvoudige waarden als semiaxen van een ellips of ellipsoïde

Zoals getoond in de figuur, de enkelvoudige waarden kan worden geïnterpreteerd als de grootte van de semiaxen van een Ovaal in 2d. Dit concept kan worden gegeneraliseerd n-dimensionaal Euclidische ruimte, met de enkelvoudige waarden van elke n × n vierkante matrix worden gezien als de omvang van de semiaxis van een n-dimensionaal ellipsoïde. Evenzo zijn de enkelvoudige waarden van alle m × n matrix kan worden gezien als de grootte van de semiaxis van een n-dimensionaal ellipsoïde in m-Dimensionale ruimte, bijvoorbeeld als een ellips in een (gekanteld) 2D -vlak in een 3D -ruimte. Singulaire waarden coderen de grootte van de semiaxis, terwijl enkelvoudige vectoren coderen voor de richting. Zien onderstaand voor verdere details.

De kolommen van U en V zijn orthonormale bases

Sinds U en V zijn unitair, de kolommen van elk van hen vormen een set van orthonormale vectoren, die kan worden beschouwd als Basisvectoren. De matrix M brengt de basisvector toe Vi naar de uitgerekte eenheidsvector σi Ui. Door de definitie van een eenheidsmatrix geldt hetzelfde voor hun geconjugeerde transposes U en V, behalve de geometrische interpretatie van de enkelvoudige waarden als stukken verloren gaat. Kortom, de kolommen van U, U, V, en V zijn orthonormale bases. Wanneer de is een positief-semidefiniet Hermitiaanse matrix, U en V zijn beide gelijk aan de unitaire matrix die wordt gebruikt om diagonalisering . Wanneer echter is niet positief-semidefiniet en Hermitian maar toch diagonaliseerbaar, zijn eigendecompositie en enkele ontleding van de waarde zijn verschillend.

Geometrische betekenis

Omdat U en V zijn unitair, we weten dat de kolommen U1, ..., Um van U leveren een orthonormale basis van Km en de kolommen V1, ..., Vn van V een orthonormale basis opleveren van Kn (met betrekking tot de standaard scalaire producten op deze ruimtes).

De lineaire transformatie

heeft een bijzonder eenvoudige beschrijving met betrekking tot deze orthonormale bases: we hebben

waar σi is de i-th diagonale toegang van , en T(Vi) = 0 voor i > min (m,n).

De geometrische inhoud van de SVD -stelling kan dus als volgt worden samengevat: voor elke lineaire kaart T: KnKm men kan orthonormale bases van Kn en Km zoals dat T wijst de i-th Basis vector van Kn naar een niet-negatief veelvoud van de i-th Basis vector van Kmen stuurt de linksbasisvectoren naar nul. Met betrekking tot deze bases, de kaart T wordt daarom weergegeven door een diagonale matrix met niet-negatieve echte diagonale inzendingen.

Overweeg de bol om een ​​meer visuele smaak van enkelvoudige waarden en SVD -factorisatie te krijgen - althans bij het werken aan echte vectorruimtes - overweeg S van straal één in Rn. De lineaire kaart T brengt deze bol toe aan een ellipsoïde in Rm. Niet-nul enkelvoudige waarden zijn gewoon de lengte van de semi-assen van deze ellipsoïde. Vooral wanneer n = m, en alle enkelvoudige waarden zijn verschillend en niet-nul, de SVD van de lineaire kaart T kan gemakkelijk worden geanalyseerd als een opeenvolging van drie opeenvolgende bewegingen: overweeg de ellipsoïde T(S) en specifiek zijn assen; Overweeg dan de aanwijzingen in Rn verstuurd door T op deze assen. Deze aanwijzingen zijn toevallig wederzijds orthogonaal. Pas eerst een isometrie toe V deze aanwijzingen naar de coördinaatassen van sturen Rn. Breng bij een tweede stap een endomorfisme D Diagonaliseerd langs de coördinaatassen en strekken of krimpen in elke richting, met behulp van de semi-assen lengtes van T(S) als rekcoëfficiënten. De compositie DV stuurt vervolgens de unit-sphere naar een ellipsoïde isometrisch naar T(S). Pas een isometrie toe om de derde en laatste stap te definiëren U aan deze ellipsoïde om te verkrijgen T(S). Zoals gemakkelijk kan worden gecontroleerd, de compositie UDV valt samen met T.

Voorbeeld

Houd rekening met de 4 × 5 Matrix

Een enkele dekpositie van deze matrix wordt gegeven door Uσv

De schaalmatrix is nul buiten de diagonale (grijze cursief) en één diagonaal element is nul (rood vet). Bovendien, omdat de matrices U en V zijn eenheid, vermenigvuldigen met hun respectieve conjugaat -transposeert identiteitsmatrices, zoals hieronder getoond. In dit geval, omdat U en V worden echt gewaardeerd, elk is een orthogonale matrix.

Deze specifieke ontleding van enkele waarde is niet uniek. Kiezen zoals dat

is ook een geldige ontleding van enkelvoudige waarde.

SVD en spectrale ontleding

Enkelvoudige waarden, enkelvoudige vectoren en hun relatie tot de SVD

Een niet-negatief reëel aantal σ is een enkelvoudige waarde voor M Als en alleen als er een eenheidslengte vectoren bestaan in Km en in Kn zoals dat

De vectoren en worden genoemd links-singulair en rechts-singulaire vectoren voor σ, respectievelijk.

In elke ontleding van een enkelvoudige waarde

de diagonale inzendingen van zijn gelijk aan de enkelvoudige waarden van M. De eerste p = min (m, n) kolommen van U en V zijn respectievelijk linker- en rechter-singulaire vectoren voor de overeenkomstige enkelvoudige waarden. Bijgevolg impliceert de bovenstaande stelling dat:

  • Een m × n Matrix M heeft maximaal p verschillende enkelvoudige waarden.
  • Het is altijd mogelijk om een eenheidsbasis U voor Km met een subset van basisvectoren die de links-singulaire vectoren van elke enkelvoudige waarde van overspannen M.
  • Het is altijd mogelijk om een ​​eenheidsbasis te vinden V voor Kn met een subset van basisvectoren die de rechter-singulaire vectoren van elke enkelvoudige waarde van overspannen M.

Een enkelvoudige waarde waarvoor we twee linkse vectoren links (of rechts) kunnen vinden die lineair onafhankelijk zijn, wordt genoemd ontaarden. Als en zijn twee links-singulaire vectoren die beide overeenkomen met de enkelvoudige waarde σ, dan is elke genormaliseerde lineaire combinatie van de twee vectoren ook een links-singulaire vector die overeenkomt met de enkelvoudige waarde σ. De vergelijkbare verklaring geldt voor rechts-singulaire vectoren. Het aantal onafhankelijke linker- en rechter-singulaire vectoren valt samen en deze enkelvoudige vectoren verschijnen in dezelfde kolommen van U en V overeenkomend met diagonale elementen van allemaal met dezelfde waarde σ.

Als uitzondering omvatten de linker- en rechter-singulaire vectoren van enkelvoudige waarde 0 alle eenheidsvectoren in de kernel en Cokernel, respectievelijk van M, die door de Rank -nullity stelling kan niet dezelfde dimensie zijn als mn. Zelfs als alle enkelvoudige waarden niet nul zijn, als m > n dan is de cokernel niet -triviaal, in welk geval U is opgevuld met mn Orthogonale vectoren van de Cokernel. Omgekeerd, als m < n, dan V wordt opgevuld door nm Orthogonale vectoren van de kernel. Als de enkelvoudige waarde van 0 echter bestaat, zijn de extra kolommen van U of V verschijnt al als links of rechter-singulaire vectoren.

Niet-gedegenereerde enkelvoudige waarden hebben altijd unieke linker- en rechter-singulaire vectoren, tot vermenigvuldiging door een eenheidsfase-factor eiφ (voor het echte geval tot een teken). Bijgevolg, als alle enkelvoudige waarden van een vierkante matrix M zijn niet-gedegenereerde en niet-nul, dan is de ontleding van de enkelvoudige waarde uniek, tot vermenigvuldiging van een kolom van U door een eenheidsfase-factor en gelijktijdige vermenigvuldiging van de overeenkomstige kolom van V door dezelfde eenheidsfase-factor. Over het algemeen is de SVD uniek tot willekeurige eenheidstransformaties die uniform worden toegepast op de kolomvectoren van beide U en V overspant de subruimten van elke enkelvoudige waarde, en tot willekeurige unitaire transformaties op vectoren van U en V respectievelijk de kernel en cokernel overspannen van M.

Relatie met de ontleding van eigenwaarde

De ontleding van de enkelvoudige waarde is zeer algemeen in de zin dat deze op elke zin kan worden toegepast m × n matrix, terwijl eigenwaarde ontleding kan alleen worden toegepast op diagonaliseerbare matrices. Desondanks zijn de twee ontledingen gerelateerd.

Gegeven een SVD van M, zoals hierboven beschreven, zijn de volgende twee relaties gelden:

De rechterkant van deze relaties beschrijven de ontledingen van de eigenwaarde van de linkerkant. Vervolgens:

  • De kolommen van V (rechts-singulaire vectoren) zijn eigenvectoren van MM.
  • De kolommen van U (links-singulaire vectoren) zijn eigenvectoren van Mm.
  • De niet-nul elementen van (niet-nul enkelvoudige waarden) zijn de vierkante wortels van de niet-nul eigenwaarden van MM of Mm.

In het speciale geval dat M is een normale matrix, die per definitie vierkant moet zijn, de spectrale stelling zegt dat het kan eenheid diagonaliseerd een basis gebruiken van eigenvectoren, zodat het kan worden geschreven M = Udu voor een eenheidsmatrix U en een diagonale matrix D met complexe elementen σi langs de diagonaal. Wanneer M is Positief semi-definitief, σi zal niet-negatieve reële getallen zijn, zodat de ontleding M = Udu is ook een ontleding van enkele waarde. Anders kan het worden herschikt als een SVD door de fase te verplaatsen e van elke σi tot zijn overeenkomstige Vi of Ui. De natuurlijke verbinding van de SVD met niet-normale matrices is via de polaire ontleding stelling: M = SR, waar S = Uσu is positief semidefiniet en normaal, en R = UV is eenheid.

Dus, behalve voor positieve semi-definitieve matrices, de eigenwaarde-ontleding en SVD van M, terwijl gerelateerd, verschillen: de ontleding van eigenwaarde is M = Udu−1, waar U is niet noodzakelijk eenheid en D is niet noodzakelijkerwijs positief semi-definitief, terwijl de SVD dat is M = Uσv, waar is diagonaal en positief semi-definitief, en U en V zijn eenheidsmatrices die niet noodzakelijkerwijs gerelateerd zijn, behalve via de matrix M. Terwijl alleen niet-defectief vierkante matrices hebben een eigenwaarde -ontleding, elke Matrix heeft een SVD.

Toepassingen van de SVD

Pseudoinverse

De ontleding van de enkelvoudige waarde kan worden gebruikt voor het berekenen van de pseudoinverse van een matrix. (Verschillende auteurs gebruiken verschillende notatie voor de pseudoinverse; hier gebruiken we .) Inderdaad, de pseudoinverse van de matrix M met een ontleding van een enkelvoudige waarde M = Uσv is

M = V Σ U

waar Σ is de pseudoinverse van Σ, die wordt gevormd door elke niet-nul diagonale invoer te vervangen door zijn wederkerig en het omzetten van de resulterende matrix. De pseudoinverse is een manier om op te lossen Lineaire kleinste vierkanten problemen.

Homogene lineaire vergelijkingen oplossen

Een set van Homogene lineaire vergelijkingen kan worden geschreven als Bijl = 0 voor een matrix A en vector x. Een typische situatie is dat A is bekend en een niet-nul x moet worden bepaald die voldoet aan de vergelijking. Zo'n x hoort bij A's nulruimte en wordt soms een (rechter) nulvector van genoemd A. De vector x kan worden gekenmerkt als een rechter-singulaire vector die overeenkomt met een enkelvoudige waarde van A dat is nul. Deze observatie betekent dat als A is een vierkante matrix en heeft geen enkele enkelvoudige waarde, de vergelijking heeft geen niet-nul x als een oplossing. Het betekent ook dat als er verschillende verdwijnende enkelvoudige waarden zijn, elke lineaire combinatie van de bijbehorende rechter-singulaire vectoren een geldige oplossing is. Analoog aan de definitie van een (rechter) nulvector, een niet-nul x bevredigend xA = 0, met x het aangeven van het geconjugeerde transponeren van xwordt een linker nul vector van genoemd A.

Totaal minimalisatie van de kleinste kwadraten

A Totaal kleinste vierkanten Probleem zoekt de vector x die de 2-norm van een vector Bijl onder de beperking ||x|| = 1. De oplossing blijkt de rechtermantelige vector van te zijn A overeenkomend met de kleinste enkelvoudige waarde.

Bereik, nulruimte en rang

Een andere toepassing van de SVD is dat deze een expliciete weergave van de bereik en nulruimte van een matrix M. De rechter-singulaire vectoren die overeenkomen met het verdwijnen van enkelvoudige waarden van M overspannen de nulruimte van M en de links-singulaire vectoren die overeenkomen met de niet-nul enkelvoudige waarden van M overspannen het bereik van M. Bijvoorbeeld in het bovenstaande voorbeeld De nulruimte wordt overgebracht door de laatste twee rijen van V en het bereik wordt overgebracht door de eerste drie kolommen van U.

Als gevolg hiervan, de rang van M is gelijk aan het aantal niet-nul enkelvoudige waarden dat hetzelfde is als het aantal niet-nul diagonale elementen . In numerieke lineaire algebra kunnen de enkelvoudige waarden worden gebruikt om de effectieve rang van een matrix, zoals Afrondingsfout Kan leiden tot kleine maar niet-nul enkelvoudige waarden in een rangdeficiënte matrix. Enkele waarden die verder gaan dan een significante opening wordt verondersteld numeriek equivalent te zijn aan nul.

Lage matrixbenadering

Sommige praktische toepassingen moeten het probleem oplossen benadering een matrix M met een andere matrix , Gezegd te zijn afgekapt, die een specifieke rang heeft r. In het geval dat de benadering is gebaseerd op het minimaliseren van de Frobenius Norm van het verschil tussen M en onder de beperking dat , het blijkt dat de oplossing wordt gegeven door de SVD van M, namelijk

waar is dezelfde matrix als behalve dat het alleen de r Grootste enkelvoudige waarden (de andere enkelvoudige waarden worden vervangen door nul). Dit staat bekend als de Eckart - Young Stelling, zoals het werd bewezen door die twee auteurs in 1936 (hoewel het later bekend was geweest bij eerdere auteurs; zie Stewart 1993).

Scheidbare modellen

De SVD kan worden beschouwd als het ontbinden van een matrix in een gewogen, geordende som van scheidbare matrices. Met scheidbaar bedoelen we dat een matrix A kan worden geschreven als een buitenste product van twee vectoren A = uv, of, in coördinaten, . In het bijzonder de matrix M kan worden afgebroken als

Hier Ui en Vi zijn de i-th kolommen van de overeenkomstige SVD -matrices, σi zijn de geordende enkelvoudige waarden, en elk Ai is scheidbaar. De SVD kan worden gebruikt om de ontleding van een beeldverwerkingsfilter te vinden in scheidbare horizontale en verticale filters. Merk op dat het aantal niet-nul σi is precies de rang van de matrix.

Scheidbare modellen ontstaan ​​vaak in biologische systemen en de SVD -factorisatie is nuttig om dergelijke systemen te analyseren. Sommige visuele velden V1 eenvoudige cellen kunnen bijvoorbeeld goed worden beschreven[1] door een Gabor -filter In het ruimtedomein vermenigvuldigd met een modulatiefunctie in het tijdsdomein. Aldus, gegeven een lineair filter geëvalueerd door bijvoorbeeld bijvoorbeeld, omgekeerde correlatie, men kan de twee ruimtelijke afmetingen herschikken in een dimensie, waardoor een tweedimensionaal filter (ruimte, tijd) kan worden opgeleverd die kan worden ontleed via SVD. De eerste kolom van U In de SVD -factorisatie is dan een Gabor terwijl de eerste kolom van V vertegenwoordigt de tijdmodulatie (of vice versa). Men kan dan een index van scheidbaarheid definiëren

dat is de fractie van het vermogen in de matrix M die wordt verklaard door de eerste scheidbare matrix in de ontleding.[2]

Dichtstbijzijnde orthogonale matrix

Het is mogelijk om de SVD van een vierkante matrix te gebruiken A het bepalen van orthogonale matrix O dichtst bij A. De nabijheid van fit wordt gemeten door de Frobenius Norm van OA. De oplossing is het product UV.[3] Dit is intuïtief logisch omdat een orthogonale matrix de ontleding zou hebben UIV waar I is de identiteitsmatrix, dus dat als A = Uσv Dan het product A = UV komt neer op het vervangen van de enkelvoudige waarden door die. Gelijkwaardig, de oplossing is de unitaire matrix R = UV van de polaire ontleding M = RP = P'R in beide volgorde van stretch en rotatie, zoals hierboven beschreven.

Een soortgelijk probleem, met interessante toepassingen in vormanalyse, is de Orthogonaal Procrustes -probleem, die bestaat uit het vinden van een orthogonale matrix O die het dichtst in kaart brengen A tot B. Specifiek,

waar geeft de Frobenius -norm aan.

Dit probleem is gelijk aan het vinden van de dichtstbijzijnde orthogonale matrix voor een bepaalde matrix M = ATB.

Het KABSCH -algoritme

De Kabsch -algoritme (genaamd Wahba's probleem in andere velden) gebruikt SVD om de optimale rotatie te berekenen (met betrekking tot de minimalisatie van de minste kwadraten) die een reeks punten uitlijnt met een overeenkomstige set punten. Het wordt onder andere gebruikt om de structuren van moleculen te vergelijken.

Signaalverwerking

De SVD en Pseudoinverse zijn met succes toegepast op signaalverwerking,[4] afbeelding verwerken en Big Data (bijv. In genomische signaalverwerking).[5][6][7][8]

Andere voorbeelden

De SVD wordt ook uitgebreid toegepast op de studie van lineair omgekeerde problemen en is nuttig bij de analyse van regularisatiemethoden zoals die van Tikhonov. Het wordt veel gebruikt in statistieken, waar het verband houdt Hoofdcomponentanalyse en naar Correspondentieanalyse, en in signaalverwerking en patroonherkenning. Het wordt ook gebruikt in alleen-uitvoer modale analyse, waar de niet-geschalen modus vormt kan worden bepaald uit de enkelvoudige vectoren. Nog een ander gebruik is latente semantische indexering bij tekstverwerking van natuurlijke taal.

Over het algemeen is er numerieke berekening met lineaire of gelineariseerde systemen, er is een universele constante die de regelmaat of singulariteit van een probleem kenmerkt, het "conditienummer" van het systeem is . Het regelt vaak het foutenpercentage of convergentiepercentage van een bepaald computationele schema op dergelijke systemen.[9][10]

De SVD speelt ook een cruciale rol op het gebied van kwantuminformatie, in een vorm die vaak wordt genoemd als de Schmidt -ontleding. Hierdoor worden toestanden van twee kwantumsystemen van nature ontleed, waardoor ze een noodzakelijke en voldoende voorwaarde bieden om te zijn verstrikt: als de rang van de Matrix is ​​groter dan één.

Eén toepassing van SVD op vrij grote matrices is in Numerieke weersvoorspelling, waar Lanczos -methoden worden gebruikt om de meest lineair snel groeiende weinig verstoringen te schatten tot de centrale numerieke weersvoorspelling gedurende een bepaalde initiële voorwaartse tijdsperiode; d.w.z. de enkelvoudige vectoren die overeenkomen met de grootste enkelvoudige waarden van de gelineariseerde propagator voor het globale weer gedurende die tijdsinterval. De output enkelvoudige vectoren in dit geval zijn hele weersystemen. Deze verstoringen worden vervolgens door het volledige niet -lineaire model geleid om een ensemble -voorspelling, het geven van grip op een deel van de onzekerheid die moet worden toegestaan ​​rond de huidige centrale voorspelling.

SVD is ook toegepast op verminderde ordermodellering. Het doel van verminderde ordermodellering is om het aantal vrijheidsgraden te verminderen in een complex systeem dat moet worden gemodelleerd. SVD was gekoppeld aan Radiale basisfuncties om oplossingen te interpoleren op driedimensionale onstabiele stromingsproblemen.[11]

Interessant is dat SVD is gebruikt om zwaartekrachtgolfvormmodellering te verbeteren door de op de grond gebaseerde zwaartekrachtinterferometer Aligo.[12] SVD kan helpen om de nauwkeurigheid en snelheid van golfvormgeneratie te vergroten ter ondersteuning van zoekopdrachten van zwaartekrachtgolven en het bijwerken van twee verschillende golfvormmodellen.

Enkelvoudige waarde ontleding wordt gebruikt in Aanbevelingssystemen Om de itembeoordelingen van mensen te voorspellen.[13] Gedistribueerde algoritmen zijn ontwikkeld om de SVD op clusters van grondstoffenmachines te berekenen.[14]

SVD met een lage rang is toegepast voor hotspot-detectie van ruimtelijke gegevens met toepassing op ziekte uitbraak detectie.[15] Een combinatie van SVD en SVD van hogere orde is ook toegepast voor realtime gebeurtenisdetectie van complexe gegevensstromen (multivariate gegevens met ruimte- en tijdafmetingen) in Ziektebewaking.[16]

Bestaande bewijzen

Een eigenwaarde λ van een matrix M wordt gekenmerkt door de algebraïsche relatie Mu = λu. Wanneer M is Hermitiaans, er is ook een variatiekarakterisering beschikbaar. Laten M wees echt n × n symmetrische matrix. Definiëren

Door de extreme waarde stelling, deze continue functie bereikt bij sommigen een maximum u Wanneer beperkt tot de eenheidsfeer {||x|| = 1}. Door de Lagrange -vermenigvuldigers stelling, u Noodzakelijk voldoet

Voor een reëel nummer λ. Het Nabla -symbool, , is de del operator (differentiatie met betrekking tot x). Met behulp van de symmetrie van M we verkrijgen

Daarom Mu = λu, dus u is een eenheid lengte eigenvector van M. Voor elke eigenheid van eenheidslengte v van M zijn eigenwaarde is f(v), dus λ is de grootste eigenwaarde van M. Dezelfde berekening uitgevoerd op de orthogonale aanvulling van u Geeft de volgende grootste eigenwaarde enzovoort. De complexe Hermitiaanse zaak is vergelijkbaar; daar f(x) = x* M x is een echt gewaardeerde functie van 2n Echte variabelen.

Enkelvoudige waarden zijn vergelijkbaar omdat ze algebraïsch kunnen worden beschreven of uit variatieprincipes. Hoewel, in tegenstelling tot de eigenwaarde, hermiticiteit of symmetrie, van M is niet langer vereist.

Deze sectie geeft deze twee argumenten voor het bestaan ​​van ontleding van een enkelvoudige waarde.

Gebaseerd op de spectrale stelling

Laten Boon m × n Complexe matrix. Sinds is positief semi-definitief en Hermitian, door de spectrale stelling, er bestaat een n × n eenheidsmatrix zoals dat

waar is diagonaal en positief definitief, van dimensie , met het aantal niet-nul eigenwaarden van (waarvan kan worden aangetoond dat het verifieert ). Let daar op is hier per definitie een matrix wiens -de kolom is de -de eigenvector van , overeenkomend met de eigenwaarde . Bovendien, de -de kolom van , voor is een eigenvector van met eigenwaarde . Dit kan worden uitgedrukt door te schrijven net zo , waar de kolommen van en Daarom bevatten de eigenvectoren van overeenkomend met respectievelijk niet-nul en nul eigenwaarden. Met behulp van dit herschrijven van , de vergelijking wordt:

Dit betekent dat

Bovendien houdt de tweede vergelijking in .[17] Ten slotte de eenheid van vertaalt, in termen van en , in de volgende voorwaarden:

waarbij de subscripts op de identiteitsmatrices worden gebruikt om op te merken dat ze van verschillende dimensies zijn.

Laten we nu definiëren

Dan,

sinds Dit kan ook worden gezien als onmiddellijk gevolg van het feit dat . Dit is gelijk aan de waarneming dat als is de set van eigenvectoren van overeenkomend met niet-vuizige eigenwaarden , dan is een set orthogonale vectoren, en is een (over het algemeen niet complete) set van ortonormaal vectoren. Dit komt overeen met het hierboven gebruikte matrixformalisme de matrix waarvan de kolommen zijn , met de matrix waarvan de kolommen de eigenvectoren van zijn met verdwijnende eigenwaarde, en de matrix waarvan de kolommen de vectoren zijn .

We zien dat dit bijna het gewenste resultaat is, behalve dat en zijn in het algemeen niet eenheid, omdat ze misschien niet vierkant zijn. We weten echter wel dat het aantal rijen van is niet kleiner dan het aantal kolommen, omdat de afmetingen van is niet groter dan en . Ook sinds

de kolommen erin zijn orthonormaal en kunnen worden uitgebreid tot een orthonormale basis. Dit betekent dat we kunnen kiezen zoals dat is eenheid.

Voor V1 we hebben al V2 om het eenheid te maken. Definieer nu

waar extra nulrijen worden toegevoegd of verwijderd Om het aantal nulrijen te maken gelijk aan het aantal kolommen van U2en dus de algehele dimensies van gelijk aan . Dan

wat het gewenste resultaat is:

Merk op dat het argument kan beginnen met diagonalisering Mm liever dan MM (Dit laat dat direct zien Mm en MM hebben dezelfde niet-nul eigenwaarden).

Gebaseerd op variatiekarakterisering

De enkelvoudige waarden kunnen ook worden gekenmerkt als de maxima van uTMV, beschouwd als een functie van u en v, over bepaalde subruimten. De enkelvoudige vectoren zijn de waarden van u en v waar deze maxima worden bereikt.

Laten M duiden een m × n Matrix met echte inzendingen. Laten Sk−1 Wees de eenheid -Sphere in en definiëren

Overweeg de functie σ beperkt tot Sm−1 × Sn−1. Sinds beide Sm−1 en Sn−1 zijn compact Sets, hun Product is ook compact. Bovendien, sindsdien σ is continu, het bereikt een grootste waarde voor ten minste één paar vectoren uSm−1 en vSn−1. Deze grootste waarde wordt aangegeven σ1 en de bijbehorende vectoren worden aangegeven u1 en v1. Sinds σ1 is de grootste waarde van σ(u, v) het moet niet-negatief zijn. Als het negatief was, verandert het teken van een van beide u1 of v1 zou het positief en daarom groter maken.

Uitspraak. u1, v1 zijn links- en rechter-singulaire vectoren van M met overeenkomstige enkelvoudige waarde σ1.

Een bewijs. Vergelijkbaar met het geval van de eigenwaarden, door veronderstelling, voldoen de twee vectoren aan de Lagrange -vermenigvuldigingsvergelijking:

Na wat algebra wordt dit

De eerste vergelijking van links vermenigvuldigen met en de tweede vergelijking van links door en nemen ||u|| = ||v|| = 1 Rekening houdend met

Dit aansluiten op het paar vergelijkingen hierboven, hebben we

Dit bewijst de verklaring.

Meer enkelvoudige vectoren en enkelvoudige waarden kunnen worden gevonden door te maximaliseren σ(u, v) Over genormaliseerd u, v die orthogonaal zijn u1 en v1, respectievelijk.

De doorgang van echt naar complex is vergelijkbaar met de eigenwaarde.

Het berekenen van de SVD

De ontleding van de enkelvoudige waarde kan worden berekend met behulp van de volgende waarnemingen:

  • De links-singulaire vectoren van M zijn een set van ortonormaal eigenvectoren van Mm.
  • De rechter-singulaire vectoren van M zijn een reeks orthonormale eigenvectoren van MM.
  • De niet-nul enkelvoudige waarden van M (gevonden op de diagonale inzendingen van ) zijn de vierkante wortels van de niet-nul eigenwaarden van beide MM en Mm.

Numerieke benadering

De SVD van een matrix M wordt meestal berekend door een tweestapsprocedure. In de eerste stap wordt de matrix gereduceerd tot een bidiagonale matrix. Dit neemt O(Mn2) Floating-Point Operations (FLOP), ervan uitgaande mn. De tweede stap is om de SVD van de bidiagonale matrix te berekenen. Deze stap kan alleen worden gedaan met een iteratieve methode (zoals bij eigenwaarde -algoritmen). In de praktijk volstaat het echter om de SVD tot een bepaalde precisie te berekenen, zoals de machine -epsilon. Als deze precisie als constant wordt beschouwd, neemt de tweede stap O (n) iteraties, elk kosten o (n) flops. De eerste stap is dus duurder en de totale kosten zijn O (Mn2) flops (Trefethen & Bau III 1997, Lezing 31).

De eerste stap kan worden gedaan met behulp van Reflecties van huishoudelijken Voor een kostprijs van 4Mn2- 4n3/3 flops, ervan uitgaande dat alleen de enkelvoudige waarden nodig zijn en niet de enkelvoudige vectoren. Als m is veel groter dan n dan is het voordelig om eerst de matrix te verminderen M naar een driehoekige matrix met de QR -ontleding en gebruik vervolgens reflecties van huishoudelijke naam om de matrix verder te verminderen tot bidiagonale vorm; De gecombineerde kosten zijn 2Mn2+ 2n3 flops (Trefethen & Bau III 1997, Lezing 31).

De tweede stap kan worden gedaan door een variant van de QR -algoritme voor de berekening van eigenwaarden, die voor het eerst werd beschreven door Golub & Kahan (1965). De Lapack Subroutine DBDSQR[18] Implementeert deze iteratieve methode, met enkele wijzigingen om de zaak te dekken waar de enkelvoudige waarden erg klein zijn (Demmel & Kahan 1990). Samen met een eerste stap met behulp van de reflecties van huishoudelijke naam en, indien van toepassing, QR -ontleding, vormt dit de DGESVD[19] Routine voor de berekening van de ontleding van de enkelvoudige waarde.

Hetzelfde algoritme wordt geïmplementeerd in de GNU wetenschappelijke bibliotheek (GSL). De GSL biedt ook een alternatieve methode die een eenzijdige Jacobi-orthogonalisatie gebruikt in stap 2 (GSL Team 2007). Deze methode berekent de SVD van de bidiagonale matrix door een reeks van 2 × 2 SVD -problemen op te lossen, vergelijkbaar met hoe de Jacobi EigenValue -algoritme Lost een reeks van 2 × 2 eigenwaarde -methoden op (Golub & Van Loan 1996, §8.6.3). Nog een andere methode voor stap 2 gebruikt het idee van Divide-and-Conquer EigenValue-algoritmen (Trefethen & Bau III 1997, Lezing 31).

Er is een alternatieve manier die niet expliciet de EigenValue -ontleding gebruikt.[20] Meestal het enkelvoudige waardeprobleem van een matrix M wordt omgezet in een equivalent symmetrisch eigenwaardeprobleem zoals M m, MM, of

De benaderingen die EigenValue -ontledingen gebruiken, zijn gebaseerd op de QR -algoritme, wat goed ontwikkeld is om stabiel en snel te zijn. Merk op dat de enkelvoudige waarden reële en rechts- en linkse vectoren zijn, zijn niet vereist om gelijkenisstransformaties te vormen. Men kan iteratief afwisselen tussen de QR -ontleding en de LQ -ontleding Om de echte diagonaal te vinden Hermitische matrices. De QR -ontleding geeft MQ r en de LQ -ontleding van R geeft RL P. Dus bij elke iteratie hebben we dat MQ L P, update ML en herhaal de orthogonalisaties. Eventueel,[verduidelijking nodig] Deze iteratie tussen QR -ontleding en LQ -ontleding produceert linker- en rechtse unitaire enkelvoudige matrices. Deze benadering kan niet gemakkelijk worden versneld, zoals het QR -algoritme kan met spectrale verschuivingen of deflatie. Dit komt omdat de shift -methode niet gemakkelijk kan worden gedefinieerd zonder gebruik te maken van gelijkenisstransformaties. Deze iteratieve aanpak is echter heel eenvoudig te implementeren, dus is een goede keuze als snelheid niet uitmaakt. Deze methode biedt ook inzicht in hoe puur orthogonale/unitaire transformaties de SVD kunnen verkrijgen.

Analytisch resultaat van 2 × 2 SVD

De enkelvoudige waarden van een 2 × 2 -matrix kunnen analytisch worden gevonden. Laat de matrix zijn

waar zijn complexe getallen die de matrix parametreren, I is de identiteitsmatrix, en duiden op de Pauli Matrices. Dan worden de twee enkelvoudige waarden gegeven door

Verminderde SVD's

Visualisatie van gereduceerde SVD -varianten. Van boven naar beneden: 1: volledige SVD, 2: dunne svd (verwijder kolommen van u niet overeenkomend met rijen van v*), 3: compacte svd (verwijder een defense enkelvoudige waarden en bijbehorende kolommen/rijen in u en v*), 4 : Afgeknotte SVD (houd alleen de grootste t enkelvoudige waarden en bijbehorende kolommen/rijen in U en V*)

In toepassingen is het vrij ongebruikelijk voor de volledige SVD, inclusief een volledige unitaire ontleding van de nulruimte van de matrix, te vereist. In plaats daarvan is het vaak voldoende (evenals sneller en economischer voor opslag) om een ​​gereduceerde versie van de SVD te berekenen. Het volgende kan worden onderscheiden voor een m×n Matrix M van rang r:

Dunne svd

De dunne, of economie-size, SVD van een matrix M is gegeven door[21]

waar

,

de matrices Uk en Vk bevatten alleen de eerste k kolommen van U en Ven σk Bevat alleen de eerste k enkelvoudige waarden van σ. De matrix Uk is dus m×k, Σk is k×k diagonaal, en Vk* is k×n.

De dunne SVD gebruikt aanzienlijk minder ruimte- en berekeningstijd als k≪ Max (m, n). De eerste fase in de berekening is meestal een QR -ontleding van M, wat in dit geval een aanzienlijk snellere berekening kan opleveren.

Compact SVD

Alleen de r kolomvectoren van U en r rijvectoren van V* overeenkomend met de niet-nul enkelvoudige waarden σr worden berekend. De resterende vectoren van U en V* worden niet berekend. Dit is sneller en economischer dan de dunne SVD als r≪ min (m, n). De matrix Ur is dus m×r, Σr is r×r diagonaal, en Vr* is r×n.

Afgeknotte SVD

In veel toepassingen het nummer r van de niet-nul enkelvoudige waarden is groot, waardoor zelfs de compacte SVD onpraktisch is om te berekenen. In dergelijke gevallen moeten de kleinste enkelvoudige waarden mogelijk worden afgekapt om alleen te berekenen tr Niet-nul enkelvoudige waarden. De afgeknotte SVD is niet langer een exacte ontleding van de oorspronkelijke matrix M, maar biedt eerder het optimale Lage matrixbenadering door elke matrix van een vaste rangt

,

waar matrix Ut is m×t, Σt is t×t diagonaal, en Vt* is t×n. Alleen de t kolomvectoren van U en t rijvectoren van V* overeenkomend met de t Grootste enkelvoudige waarden σt worden berekend. Dit kan veel sneller en economischer zijn dan de compacte SVD als tr, maar vereist een compleet andere toolset van numerieke oplossers.

In toepassingen die een benadering vereisen voor de Moore - penrose omgekeerd van de matrix M, de kleinste enkelvoudige waarden van M zijn interessant, die uitdagender zijn om te berekenen in vergelijking met de grootste.

Afgeknotte SVD is werkzaam latente semantische indexering.[22]

Normen

KY -fannormen

De som van de k grootste enkelvoudige waarden van M is een matrixnorm, de KY Fan k-norm van M.[23]

De eerste van de KY-fannormen, de KY-fan 1-norm, is hetzelfde als de Operatornorm van M als een lineaire operator met betrekking tot de Euclidische normen van Km en Kn. Met andere woorden, de KY Fan 1-Norm is de operatornorm die wordt geïnduceerd door de standaard 2 Euclidisch binnenproduct. Om deze reden wordt het ook de operator 2-norm genoemd. Men kan gemakkelijk de relatie tussen de KY-fan 1-norm- en enkelvoudige waarden verifiëren. Het is over het algemeen waar voor een begrensde operator M Op (mogelijk oneindig-dimensionale) Hilbert-ruimtes

Maar in de Matrix -zaak ((M* m)1/2 is een normale matrix, dus ||M* m||1/2 is de grootste eigenwaarde van (M* m)1/2, d.w.z. de grootste enkelvoudige waarde van M.

De laatste van de KY -fannormen, de som van alle enkelvoudige waarden, is de Trace -norm (ook bekend als de 'nucleaire norm'), gedefinieerd door ||M|| = Tr [(M* m)1/2] (de eigenwaarden van M* m zijn de vierkanten van de enkelvoudige waarden).

Hilbert - Schmidt Norm

De enkelvoudige waarden zijn gerelateerd aan een andere norm op de ruimte van operators. Houd rekening met de Hilbert - Schmidt innerlijk product op de n × n matrices, gedefinieerd door

Dus de geïnduceerde norm is

Omdat het spoor invariant is onder eenheidsequivalentie, laat dit zien

waar σi zijn de enkelvoudige waarden van M. Dit wordt de Frobenius Norm, Schatten 2-norm, of Hilbert - Schmidt Norm van M. Directe berekening laat zien dat de Frobenius -norm van M = (mIJ) valt samen met:

Bovendien zijn de Frobenius -norm en de trace -norm (de nucleaire norm) speciale gevallen van de Schattennorm.

Variaties en generalisaties

Modus-k vertegenwoordiging

kan worden weergegeven met behulp van modus-k vermenigvuldiging matrix toepassen dan op het resultaat; dat is .[24]

Tensor SVD

Er bestaan ​​twee soorten tensor-ontledingen, die de SVD generaliseren naar multi-way arrays. Een van hen ontleedt een tensor in een som van rang-1-tensoren, die een genoemd wordt Tensor ranglijst. Het tweede type ontleding berekent de orthonormale subruimten die verband houden met de verschillende factoren die in het tensorproduct verschijnen van vectorruimtes waarin de tensor leeft. Deze ontleding wordt in de literatuur aangeduid als de SVD van hogere orde (Hosvd) of Tucker3/Tuckerm. In aanvulling, Multilinear Principal Component Analysis in Multilinear Subspace Learning omvat dezelfde wiskundige bewerkingen als Tucker -ontleding, worden gebruikt in een andere context van dimensionaliteitsvermindering.

Schaalinvariante SVD

De enkelvoudige waarden van een matrix A zijn uniek gedefinieerd en zijn invariant met betrekking tot linker en/of rechter unitaire transformaties van A. Met andere woorden, de enkelvoudige waarden van UAV, voor Unitary U en V, zijn gelijk aan de enkelvoudige waarden van A. Dit is een belangrijke eigenschap voor toepassingen waarin het nodig is om Euclidische afstanden en invariantie met betrekking tot rotaties te behouden.

De schaalinvariante SVD, of Si-SVD,[25] is analoog aan de conventionele SVD, behalve dat de unieke beperkte enkelvoudige waarden invariant zijn met betrekking tot diagonale transformaties van A. Met andere woorden, de enkelvoudige waarden van Dae, voor omkeerbare diagonale matrices D en E, zijn gelijk aan de enkelvoudige waarden van A. Dit is een belangrijke eigenschap voor toepassingen waarvoor invariantie aan de keuze van eenheden op variabelen (bijv. Metrische versus imperiale eenheden) nodig is.

Hogere orde SVD van functies (HOSVD)

Tensor Product (TP) modeltransformatie numeriek de Hosvd van functies. Bezoek voor meer informatie:

Begrensde operators op Hilbert -ruimtes

De factorisatie M = Uσv kan worden uitgebreid tot een begrensde operator M Op een scheidbare Hilbert -ruimte H. Namelijk voor elke begrensde operator M, er bestaan ​​een Gedeeltelijke isometrie U, een eenheid V, een maatruimte (X,,μ), en een niet-negatief meetbaar f zoals dat

waar is de vermenigvuldiging door f Aan L2(X, μ).

Dit kan worden aangetoond door het lineaire algebraïsche argument voor het matriciale geval hierboven na te bootsen. VTfV* is de unieke positieve vierkantswortel van M*m, zoals gegeven door de Borel functionele calculus voor zelfbeschermingsoperators. De reden waarom U Niet hoeven te zijn, is dat, in tegenstelling tot het eindige-dimensionale geval, gegeven een isometrie U1 met niet -triviale kernel, een geschikt U2 mag dat niet zo vinden

is een unitaire operator.

Wat matrices betreft, is de enkelvoudige waarde -factorisatie gelijk aan de polaire ontleding Voor operators: we kunnen gewoon schrijven

en merk dat op U v* is nog steeds een gedeeltelijke isometrie terwijl VTfV* is positief.

Enkelvoudige waarden en compacte operators

Het idee van enkelvoudige waarden en linker/rechter-singulaire vectoren kan worden uitgebreid compacte operator op Hilbert Space omdat ze een discreet spectrum hebben. Als T is compact, elke niet-nul λ In zijn spectrum is een eigenwaarde. Bovendien kan een compacte zelfvoorzieningsoperator worden gediagonaliseerd door zijn eigenvectoren. Als M is compact, zo is MM. Het diagonalisatieresultaat toepassen, het unitaire beeld van zijn positieve vierkantswortel Tf  heeft een set orthonormale eigenvectoren {ei} overeenkomend met strikt positieve eigenwaarden {σi}. Voor enige ψH,,

waar de serie convergeert in de normtopologie op H. Merk op hoe dit lijkt op de uitdrukking uit het eindige-dimensionale geval. σi worden de enkelvoudige waarden van M. {Uei} (Resp. {Vei}) kunnen worden beschouwd als de links-singulaire (resp. rechter-singular) vectoren van M.

Compacte operators op een Hilbert -ruimte zijn de sluiting van Eindige range operators in de uniforme operatortopologie. De bovenstaande serie -uitdrukking geeft een expliciete dergelijke weergave. Een onmiddellijk gevolg hiervan is:

Stelling. M is compact als en alleen als MM is compact.

Geschiedenis

De ontleding van de enkelvoudige waarde werd oorspronkelijk ontwikkeld door differentiële geometers, die wilden bepalen of een echte bilineaire vorm kan gelijk worden gemaakt aan een ander door onafhankelijke orthogonale transformaties van de twee ruimtes waarop het werkt. Eugenio Beltrami en Camille Jordan onafhankelijk ontdekt, respectievelijk in 1873 en 1874, dat de enkelvoudige waarden van de bilineaire vormen, vertegenwoordigd als een matrix, vormen een complete set van invarianten voor bilineaire vormen onder orthogonale substituties. James Joseph Sylvester Aangekomen ook bij de ontleding van de enkelvoudige waarde voor echte vierkante matrices in 1889, blijkbaar onafhankelijk van zowel Beltrami als Jordanië. Sylvester noemde de enkelvoudige waarden de Canonieke multiplicatoren van de matrix A. De vierde wiskundige die de ontleding van de enkelvoudige waarde onafhankelijk is ontdekt, is Autonne in 1915, die er via de polaire ontleding. Het eerste bewijs van de ontleding van de enkelvoudige waarde voor rechthoekige en complexe matrices lijkt te zijn Carl Eckart en Gale J. Young in 1936;[26] Ze zagen het als een generalisatie van de Hoofdas transformatie voor Hermitische matrices.

In 1907, Erhard Schmidt gedefinieerd een analoog van enkelvoudige waarden voor integrale operators (die compact zijn, onder zwakke technische veronderstellingen); Het lijkt erop dat hij zich niet bewust was van het parallelle werk over enkelvoudige waarden van eindige matrices. Deze theorie werd verder ontwikkeld door Émile Picard in 1910, die de eerste is die de cijfers noemt enkelvoudige waarden (of in het Frans, Valeurs singulières).

Praktische methoden voor het berekenen van de SVD -datum terug naar Kogbetliantz in 1954-1955 en Hestenes in 1958,[27] Lijken nauw op de Jacobi EigenValue -algoritme, die vliegtuigrotaties gebruikt of Givens rotaties. Deze werden echter vervangen door de methode van Gene Golub en William Kahan Gepubliceerd in 1965,[28] die gebruikt Transformaties van huishoudenaar of reflecties. In 1970, Golub en Christian Reinsch[29] publiceerde een variant van het Golub/Kahan-algoritme dat nog steeds degene is die vandaag het meest wordt gebruikt.

Zie ook

Aantekeningen

  1. ^ DeAngelis, G. C.; Ohzawa, i.; Freeman, R. D. (oktober 1995). "Receptief-velddynamiek in de centrale visuele paden". Trends Neurosci. 18 (10): 451–8. doen:10.1016/0166-2236 (95) 94496-r. Pmid 8545912. S2CID 12827601.
  2. ^ DePireux, D. A.; Simon, J. Z.; Klein, D. J.; Shamma, S. A. (maart 2001). "Spectro-temporele responsveldkarakterisering met dynamische rimpelingen in de primaire auditieve cortex van de ferrete". J. Neurofysiol. 85 (3): 1220–34. doen:10.1152/jn.2001.85.3.1220. Pmid 11247991.
  3. ^ De ontleding van de enkelvoudige waarde in symmetrische (lowdin) orthogonalisatie en gegevenscompressie
  4. ^ Sahidullah, Md.; Kinnunen, Tomi (maart 2016). "Lokale spectrale variabiliteitsfuncties voor luidsprekerverificatie". Digitale signaalverwerking. 50: 1–11. doen:10.1016/j.dsp.2015.10.011.
  5. ^ O. Alter, P. O. Brown en D. Botstein (september 2000). "Singulaire waardeontleding voor genoombrede expressiegegevensverwerking en modellering". PNAS. 97 (18): 10101-10106. Bibcode:2000pnas ... 9710101A. doen:10.1073/pnas.97.18.10101. PMC 27718. Pmid 10963673.
  6. ^ O. Alter; G. H. Golub (november 2004). "Integratieve analyse van gegevens op genoomschaal met behulp van pseudoinverse projectie voorspelt een nieuwe correlatie tussen DNA-replicatie en RNA-transcriptie". PNAS. 101 (47): 16577–16582. Bibcode:2004pnas..10116577a. doen:10.1073/pnas.0406767101. PMC 534520. Pmid 15545604.
  7. ^ O. Alter; G. H. Golub (augustus 2006). "Singular Value Decomposition of genoomschaal mRNA-lengtes verdeling onthult asymmetrie in RNA-gelelektroforese bandverbreding". PNAS. 103 (32): 11828–11833. Bibcode:2006pnas..10311828a. doen:10.1073/pnas.0604756103. PMC 1524674. Pmid 16877539.
  8. ^ Bertagnolli, N. M.; Drake, J. A.; Tennessen, J. M.; Alter, O. (november 2013). "SVD identificeert transcriptlengteverdelingsfuncties uit DNA -microarray -gegevens en onthult evolutionaire krachten wereldwijd die het GBM -metabolisme beïnvloeden". PLOS One. 8 (11): E78913. Bibcode:2013Ploso ... 878913B. doen:10.1371/journal.pone.0078913. PMC 3839928. Pmid 24282503. Markeren.
  9. ^ Edelman, Alan (1992). "Over de verdeling van een geschaalde conditienummer" (PDF). Wiskunde. Comp. 58 (197): 185–190. Bibcode:1992Macom..58..185E. doen:10.1090/s0025-5718-1992-1106966-2.
  10. ^ Shen, Jianhong (Jackie) (2001). "Over de enkelvoudige waarden van Gaussiaanse willekeurige matrices". Lineair alg. Toepassing. 326 (1–3): 1–14. doen:10.1016/S0024-3795 (00) 00322-0.
  11. ^ Walton, S.; Hassan, O.; Morgan, K. (2013). "Verminderde ordermodellering voor onstabiele vloeistofstroom met behulp van de juiste orthogonale ontleding en radiale basisfuncties". Toegepaste wiskundige modellering. 37 (20–21): 8930–8945. doen:10.1016/j.apm.2013.04.025.
  12. ^ Setyawati, Y.; Ohme, F.; Khan, S. (2019). "Verbetering van het zwaartekrachtgolfvormmodel door dynamische kalibratie". Fysieke beoordeling D. 99 (2): 024010. arxiv:1810.07060. Bibcode:2019phrvd..99b4010s. doen:10.1103/PhysRevd.99.024010. S2CID 118935941.
  13. ^ Sarwar, Badrul; Karypis, George; Konstan, Joseph A. & Riedl, John T. (2000). "Toepassing van dimensionaliteitsvermindering van het aanbevelingssysteem - een case study" (PDF). universiteit van Minnesota. {{}}: Cite Journal vereist |journal= (helpen)
  14. ^ Bosagh Zadeh, Reza; Carlsson, Gunnar (2013). "Dimensie Independent Matrix Square met MapReduce" (PDF). arxiv:1304.1467. Bibcode:2013arxiv1304.1467b. {{}}: Cite Journal vereist |journal= (helpen)
  15. ^ Hadi Fanaee Tork; João Gama (september 2014). "Eigenspace -methode voor spatiotemporele hotspot -detectie". Expertsystemen. 32 (3): 454–464. arxiv:1406.3506. Bibcode:2014arxiv1406.3506f. doen:10.1111/exsy.12088. S2CID 15476557.
  16. ^ Hadi Fanaee Tork; João Gama (mei 2015). "Eigenevent: een algoritme voor gebeurtenisdetectie van complexe gegevensstromen in syndromisch toezicht". Intelligente gegevensanalyse. 19 (3): 597–616. arxiv:1406.3496. doen:10.3233/ida-150734. S2CID 17966555.
  17. ^ Om dit te zien, moeten we dat gewoon opmerken , en onthoud dat .
  18. ^ Netlib.org
  19. ^ Netlib.org
  20. ^ Mathworks.co.kr/matlabcentral/filexchange/12674-simple-svd
  21. ^ Demmel, James (2000). "Ontleding". Sjablonen voor de oplossing van algebraïsche eigenwaardeproblemen. Door Bai, Zhaojun; Demmel, James; Dongarra, Jack J.; Ruhe, Axel; Van der Vorst, Henk A. Society for Industrial and Applied Mathematics. doen:10.1137/1.9780898719581. ISBN 978-0-89871-471-5.
  22. ^ Chicco, D; Masseroli, M (2015). "Softwaresuite voor voorspelling van gen- en eiwit annotatie en zoekopdracht". IEEE/ACM -transacties op computationele biologie en bioinformatica. 12 (4): 837–843. doen:10.1109/tcbb.2014.2382127. HDL:11311/959408. Pmid 26357324. S2CID 14714823.
  23. ^ Fan, Ky. (1951). "Maximale eigenschappen en ongelijkheden voor de eigenwaarden van volledig continue operators". Proceedings of the National Academy of Sciences of the United States of America. 37 (11): 760–766. Bibcode:1951pnas ... 37..760f. doen:10.1073/pnas.37.11.760. PMC 1063464. Pmid 16578416.
  24. ^ De Lathauwer, L.; De Moor, B.; Vandewalle, J. (1 januari 2000). "Een multilineaire ontleding van de enkelvoudige waarde". SIAM Journal over matrixanalyse en toepassingen. 21 (4): 1253–1278. Citeseerx 10.1.1.102.9135. doen:10.1137/s0895479896305696. ISSN 0895-4798.
  25. ^ Uhlmann, Jeffrey (2018), Een algemene matrix inverse die consistent is met betrekking tot diagonale transformaties (PDF), SIAM Journal on Matrix Analysis, Vol. 239: 2, pp. 781–800
  26. ^ Eckart, C.; Young, G. (1936). "De benadering van de ene matrix door een andere van een lagere rang". Psychometrika. 1 (3): 211–8. doen:10.1007/BF02288367. S2CID 10163399.
  27. ^ Hestenes, M. R. (1958). "Inversie van matrices door biorthogonalisatie en gerelateerde resultaten". Journal of the Society for Industrial and Applied Mathematics. 6 (1): 51–90. doen:10.1137/0106005. Jstor 2098862. DHR 0092215.
  28. ^ (Golub & Kahan 1965)
  29. ^ Golub, G. H.; Reinsch, C. (1970). "Singular Value Decomposition en minst vierkantenoplossingen". Numerische wiskunde. 14 (5): 403–420. doen:10.1007/BF02163027. DHR 1553974. S2CID 123532178.

Referenties

Externe links