Egenvärdesalgoritm
I numerisk analys är ett av de viktigaste problemen att utforma effektiva och stabila algoritmer för att hitta egenvärdena för en matris . Dessa egenvärdesalgoritmer kan också hitta egenvektorer.
Egenvärden och egenvektorer
Givet en n × n kvadratisk matris A av reella eller komplexa tal, är ett egenvärde λ och dess associerade generaliserade egenvektor v ett par som följer relationen
där v är en n × 1 kolumnvektor som inte är noll, I är n × n identitetsmatrisen , k är ett positivt heltal, och både λ och v tillåts vara komplexa även när A är reell. När k = 1 kallas vektorn helt enkelt en egenvektor , och paret kallas ett egenpar . I detta fall är A v = λ v . Varje egenvärde λ av A har vanliga egenvektorer associerade till sig, för om k är det minsta heltal så att ( A − λI ) k v = 0 för en generaliserad egenvektor v , så är ( A − λI ) k −1 v en vanlig egenvektor . Värdet k kan alltid tas som mindre än eller lika med n . Speciellt ( A − λI ) n v = 0 för alla generaliserade egenvektorer v associerade med λ .
För varje egenvärde λ av A består kärnan ker( A − λI ) av alla egenvektorer associerade med λ (tillsammans med 0), kallade egenrymden till λ , medan vektorrummet ker(( − λI ) n ) består A av alla generaliserade egenvektorer, och kallas det generaliserade egenutrymmet . Den geometriska multipliciteten av λ är dimensionen av dess egenrum. Den algebraiska multipliciteten av λ är dimensionen av dess generaliserade egenrum. Den senare terminologin motiveras av ekvationen
där det är determinantfunktionen , λ i . är alla distinkta egenvärden för A och α i är motsvarande algebraiska multipliciteter Funktionen p A ( z ) är det karakteristiska polynomet för A. Så den algebraiska multipliciteten är multipliciteten av egenvärdet som en nolla av det karakteristiska polynomet. Eftersom vilken egenvektor som helst också är en generaliserad egenvektor är den geometriska multipliciteten mindre än eller lika med den algebraiska multipliciteten. De algebraiska multipliciteterna summerar till n , graden av det karakteristiska polynomet. Ekvationen p A ( z ) = 0 kallas den karakteristiska ekvationen , eftersom dess rötter är exakt A: s egenvärden . Enligt – Hamilton-satsen lyder A själv samma ekvation: p A ( A ) = 0 . Som en konsekvens blir matrisens kolumner måste vara antingen 0 eller generaliserade egenvektorer för egenvärdet λ j , eftersom de förintas av . Faktum är att kolumnutrymmet är det generaliserade egenutrymmet för λ j .
Varje samling av generaliserade egenvektorer av distinkta egenvärden är linjärt oberoende, så en grund för alla C n kan väljas bestående av generaliserade egenvektorer. Närmare bestämt kan denna bas { v i }
n i = 1 väljas och organiseras så att
- om v i och v j har samma egenvärde, så har v k för varje k mellan i och j , och
- om v i inte är en vanlig egenvektor, och om λ i är dess egenvärde, då ( A − λ i I ) v i = v i −1 (i synnerhet måste v 1 vara en vanlig egenvektor).
Om dessa basvektorer placeras som kolumnvektorerna för en matris V = [ v 1 v 2 ⋯ v n ] , så kan V användas för att omvandla A till dess Jordaniska normalform :
där λ i är egenvärdena, β i = 1 om ( A − λ i +1 ) v i +1 = v i och β i = 0 annars.
Mer generellt, om W är vilken inverterbar matris som helst och λ är ett egenvärde för A med generaliserad egenvektor v , då ( W −1 AW − λI ) k W − k v = 0 . λ är alltså ett egenvärde för W −1 AW med generaliserad egenvektor W − k v . Det vill säga, liknande matriser har samma egenvärden.
Normala, Hermitiska och realsymmetriska matriser
Adjointen M * M för = M T en komplex matris M är transponeringen av konjugatet av M : * . En kvadratisk matris A kallas normal om den pendlar med sin adjoint: A * A = AA * . Den kallas hermitisk om den är lika med dess adjoint: A * = A . Alla hermitiska matriser är normala. Om A bara har reella element, är adjointen bara transponeringen, och A är hermitisk om och endast om den är symmetrisk . När den tillämpas på kolumnvektorer kan adjointen användas för att definiera den kanoniska inre produkten på C n : w ⋅ v = w * v . Normala, Hermitiska och realsymmetriska matriser har flera användbara egenskaper:
- Varje generaliserad egenvektor i en normal matris är en vanlig egenvektor.
- Vilken normal matris som helst liknar en diagonal matris, eftersom dess Jordaniska normalform är diagonal.
- Egenvektorer för distinkta egenvärden för en normal matris är ortogonala.
- Nollutrymmet och bilden (eller kolumnutrymmet) för en normal matris är ortogonala mot varandra.
- För vilken normal matris A som helst har Cn av en ortonormal bas som består av egenvektorer A . Motsvarande matris av egenvektorer är enhetlig .
- Egenvärdena för en hermitisk matris är reella, eftersom ( λ − λ ) v = ( A * − A ) v = ( A − A ) v = 0 för en egenvektor v som inte är noll .
- Om A är reell finns det en ortonormal grund för R n som består av egenvektorer till A om och endast om A är symmetrisk.
Det är möjligt för en reell eller komplex matris att ha alla reella egenvärden utan att vara hermitisk. Till exempel har en riktig triangulär matris sina egenvärden längs sin diagonal, men är i allmänhet inte symmetrisk.
Villkorsnummer
Alla problem med numerisk beräkning kan ses som utvärderingen av någon funktion f för någon ingång x . Villkorstalet κ ( f , x ) för problemet är förhållandet mellan det relativa felet i funktionens utdata och det relativa felet i ingången, och varierar med både funktionen och ingången . Villkorsnumret beskriver hur felet växer under beräkningen. Dess bas-10-logaritm talar om hur många färre siffror av noggrannhet som finns i resultatet än vad som fanns i ingången. Villkorsnumret är ett bästa scenario. Det återspeglar den instabilitet som är inbyggd i problemet, oavsett hur det löses. Ingen algoritm kan någonsin ge mer exakta resultat än vad som anges av villkorsnumret, förutom av en slump. En dåligt utformad algoritm kan dock ge betydligt sämre resultat. Till exempel, som nämnts nedan, är problemet med att hitta egenvärden för normala matriser alltid välkonditionerat. Problemet med att hitta rötterna till ett polynom kan dock vara mycket dåligt konditionerat . Således kan egenvärdesalgoritmer som fungerar genom att hitta rötterna till det karakteristiska polynomet vara dåligt konditionerade även när problemet inte är det.
För problemet med att lösa den linjära ekvationen A κ ( A −1 , b ) av v = b där A är inverterbar, ges matrisvillkorstalet || A || op || A −1 || op , där || || op är operatornormen underordnad den normala euklidiska normen på C n . Eftersom detta tal är oberoende av b och är detsamma för A och A −1 kallas det vanligtvis bara för villkorstalet κ ( A ) för matrisen A . Detta värde κ ( A ) är också det absoluta värdet av förhållandet mellan det största egenvärdet för A och dess minsta. Om A är enhetlig , då || A || op = || A −1 || op = 1 , så κ ( A ) = 1 . För generella matriser är operatornormen ofta svår att beräkna. Av denna anledning används vanligtvis andra matrisnormer för att uppskatta tillståndsnumret.
För egenvärdesproblemet bevisade Bauer och Fike att om λ är ett egenvärde för en diagonaliserbar n × n matris A med egenvektormatris V , så är det absoluta felet vid beräkning av λ begränsat av produkten av κ ( V ) och det absoluta felet i A . Som ett resultat är villkorsnumret för att hitta λ κ ( λ , A ) = κ ( V ) = || V || op || V −1 || op . Om A är normal är V enhetlig och κ ( λ , A ) = 1 . Således är egenvärdesproblemet för alla normala matriser välkonditionerat.
Villkorsnumret för problemet att hitta egenrymden för en normalmatris A som motsvarar ett egenvärde λ har visat sig vara omvänt proportionellt mot minimiavståndet mellan λ och de andra distinkta egenvärdena för A . Speciellt är egenrymdsproblemet för normala matriser välkonditionerat för isolerade egenvärden. När egenvärden inte är isolerade är det bästa man kan hoppas på att identifiera spännvidden för alla egenvektorer för närliggande egenvärden.
Algoritmer
Den mest tillförlitliga och mest använda algoritmen för att beräkna egenvärden är John GF Francis QR -algoritm , som anses vara en av de tio bästa algoritmerna under 1900-talet.
Varje moniskt polynom är det karakteristiska polynomet för dess följematris . Därför skulle en generell algoritm för att hitta egenvärden också kunna användas för att hitta rötter till polynom. Abel -Ruffini-satsen visar att varje sådan algoritm för dimensioner större än 4 antingen måste vara oändliga eller involvera funktioner av större komplexitet än elementära aritmetiska operationer och bråkpotenser. Av denna anledning existerar algoritmer som exakt beräknar egenvärden i ett ändligt antal steg endast för ett fåtal specialklasser av matriser. För allmänna matriser är algoritmer iterativa , vilket ger bättre ungefärliga lösningar med varje iteration.
Vissa algoritmer producerar varje egenvärde, andra kommer att producera ett fåtal, eller bara ett. Men även de senare algoritmerna kan användas för att hitta alla egenvärden. När ett egenvärde λ för en matris A har identifierats kan det användas för att antingen rikta algoritmen mot en annan lösning nästa gång, eller för att reducera problemet till ett som inte längre har λ som lösning.
Omdirigering åstadkoms vanligtvis genom att skifta: A ersätts med A − μI för någon konstant μ . Egenvärdet som hittas för A − μI måste ha lagts till μ igen för att få ett egenvärde för A . Till exempel, för power iteration , μ = λ . Power iteration hittar det största egenvärdet i absolut värde, så även när λ bara är ett ungefärligt egenvärde, är det osannolikt att power iteration hittar det en andra gång. Omvänt invers iterationsbaserade metoder det lägsta egenvärdet, så μ väljs långt ifrån λ och förhoppningsvis närmare något annat egenvärde.
Reduktion kan åstadkommas genom att begränsa A till kolumnutrymmet i matrisen A − λI , som A bär till sig själv. Eftersom A - λI är singular är kolumnutrymmet av mindre dimension. Egenvärdesalgoritmen kan sedan appliceras på den begränsade matrisen. Denna process kan upprepas tills alla egenvärden har hittats.
Om en egenvärdesalgoritm inte producerar egenvektorer är en vanlig praxis att använda en invers iterationsbaserad algoritm med μ inställd på en nära approximation till egenvärdet. Detta kommer snabbt att konvergera till egenvektorn för det egenvärde som ligger närmast μ . För små matriser är ett alternativ att titta på kolumnutrymmet för produkten av A − λ ' I för vart och ett av de andra egenvärdena λ ' .
En formel för normen för enhetsegenvektorkomponenter för normala matriser upptäcktes av Robert Thompson 1966 och återupptäcktes oberoende av flera andra. Om A är en normal matris med egenvärden λ i ( A ) och motsvarande enhetsegenvektorer v i vars komponentposter är v i,j , låt A j vara matris erhållen genom att ta bort den i -te raden och kolumnen från A , och låt λ k ( A j ) vara dess k -:te egenvärde. Sedan
Om är de karakteristiska polynomen för och , kan formeln skrivas om som
Hessenberg och tridiagonala matriser
Eftersom egenvärdena för en triangulär matris är dess diagonala element, för allmänna matriser finns det ingen finit metod som gaussisk eliminering för att omvandla en matris till triangulär form samtidigt som egenvärden bevaras. Men det går att nå något nära triangulärt. En övre Hessenberg-matris är en kvadratisk matris där alla poster under subdiagonalen är noll. En lägre Hessenberg-matris är en där alla poster ovanför superdiagonalen är noll. Matriser som är både övre och nedre Hessenberg är tridiagonala . Hessenberg och tridiagonala matriser är utgångspunkterna för många egenvärdealgoritmer eftersom nollposterna minskar problemets komplexitet. Flera metoder används vanligtvis för att omvandla en generell matris till en Hessenberg-matris med samma egenvärden. Om den ursprungliga matrisen var symmetrisk eller hermitisk, kommer den resulterande matrisen att vara tridiagonal.
När endast egenvärden behövs finns det inget behov av att beräkna likhetsmatrisen, eftersom den transformerade matrisen har samma egenvärden. Om egenvektorer också behövs, kan likhetsmatrisen behövas för att transformera egenvektorerna för Hessenbergmatrisen tillbaka till egenvektorer för den ursprungliga matrisen.
Metod | Gäller för | Producerar | Kostnad utan likhetsmatris | Kostnad med likhetsmatris | Beskrivning |
---|---|---|---|---|---|
Hushållarförvandlingar | Allmän | Hessenberg | 2 n 3 ⁄ 3 + O ( n 2 ) | 4 n 3 ⁄ 3 + O ( n 2 ) | Spegla varje kolumn genom ett delutrymme för att nollställa dess nedre poster. |
Ger rotationer | Allmän | Hessenberg | 4 n 3 ⁄ 3 + O ( n 2 ) | Tillämpa plana rotationer för att nollställa enskilda poster. Rotationer är ordnade så att senare inte gör att nollposter blir olik noll igen. | |
Arnoldi iteration | Allmän | Hessenberg | Utför Gram–Schmidt-ortogonalisering på Krylov-delrum. | ||
Lanczos algoritm | Hermitian | Tridiagonal | Arnoldi-iteration för hermitiska matriser, med genvägar. |
För symmetriska tridiagonala egenvärdeproblem kan alla egenvärden (utan egenvektorer) beräknas numeriskt i tiden O(n log(n)), med hjälp av halvering på det karakteristiska polynomet.
Iterativa algoritmer
Iterativa algoritmer löser egenvärdesproblemet genom att producera sekvenser som konvergerar till egenvärdena. Vissa algoritmer producerar också sekvenser av vektorer som konvergerar till egenvektorerna. Vanligast är att egenvärdessekvenserna uttrycks som sekvenser av liknande matriser som konvergerar till en triangulär eller diagonal form, vilket gör att egenvärdena lätt kan läsas. Egenvektorsekvenserna uttrycks som motsvarande likhetsmatriser.
Metod | Gäller för | Producerar | Kostnad per steg | Konvergens | Beskrivning |
---|---|---|---|---|---|
Lanczos algoritm | Hermitian | m största/minsta egenpar | |||
Power iteration | allmän | egenpar med största värde | O ( n 2 ) | linjär | Applicerar matrisen upprepade gånger på en godtycklig startvektor och åternormaliserar. |
Omvänd iteration | allmän | egenpar med värdet närmast μ | linjär | Power iteration för ( A − μI ) −1 | |
Rayleigh kvot iteration | Hermitian | vilket egenpar som helst | kubisk | Power iteration för ( A − μ i I ) −1 , där μ i för varje iteration är Rayleigh-kvoten för föregående iteration. | |
Förkonditionerad invers iteration eller LOBPCG-algoritm | positiv-definitiv reell symmetri | egenpar med värdet närmast μ | Invers iteration med en förkonditionering (en ungefärlig invers till A ). | ||
Bisektionsmetod | riktigt symmetrisk tridiagonal | något egenvärde | linjär | Använder bisektionsmetoden för att hitta rötter till det karakteristiska polynomet, med stöd av Sturm-sekvensen. | |
Laguerre iteration | riktigt symmetrisk tridiagonal | något egenvärde | kubisk | Använder Laguerres metod för att hitta rötter till det karakteristiska polynomet, med stöd av Sturm-sekvensen. | |
QR-algoritm | Hessenberg | alla egenvärden | O ( n 2 ) | kubisk | Faktorerna A = QR , där Q är ortogonal och R är triangulär, tillämpar sedan nästa iteration på RQ . |
alla egenpar | 6 n 3 + O ( n 2 ) | ||||
Jacobi egenvärdesalgoritm | riktigt symmetrisk | alla egenvärden | O ( n 3 ) | kvadratisk | Använder Givens-rotationer för att försöka rensa alla off-diagonala poster. Detta misslyckas, men stärker diagonalen. |
Söndra och erövra | Hermitisk tridiagonal | alla egenvärden | O ( n 2 ) | Delar upp matrisen i submatriser som diagonaliseras och sedan rekombineras. | |
alla egenpar | ( 4 ⁄ 3 ) n 3 + O ( n 2 ) | ||||
Homotopi metod | riktigt symmetrisk tridiagonal | alla egenpar | O ( n 2 ) | Konstruerar en beräkningsbar homotopiväg från ett diagonalt egenvärdeproblem. | |
Vikt spektrummetod | riktigt symmetrisk | egenpar med värdet närmast μ | Förkonditionerad invers iteration tillämpad på ( A − μI ) 2 | ||
MRRR-algoritm | riktigt symmetrisk tridiagonal | några eller alla egenpar | O ( n 2 ) | "Flera relativt robusta representationer" – utför invers iteration på en LDL T - nedbrytning av den förskjutna matrisen. |
Direkt beräkning
Även om det inte finns någon enkel algoritm för att direkt beräkna egenvärden för allmänna matriser, finns det många specialklasser av matriser där egenvärden kan beräknas direkt. Dessa inkluderar:
Triangulära matriser
Eftersom determinanten för en triangulär matris produkten av dess diagonala poster, om är triangulär, då . Således är egenvärdena för T dess diagonala poster.
Faktorerbara polynomekvationer
Om p är vilket polynom som helst och p ( A ) = 0, så uppfyller även egenvärdena för A samma ekvation. Om p råkar ha en känd faktorisering, så ligger egenvärdena för A bland dess rötter.
Till exempel är en projektion en kvadratisk matris P som uppfyller P 2 = P . Rötterna till den motsvarande skalära polynomekvationen, λ 2 = λ , är 0 och 1. Varje projektion har alltså 0 och 1 för sina egenvärden. Multiplicitet 0 som ett egenvärde är nulliteten av P , medan multipliciteten av 1 är rangordningen av P .
Ett annat exempel är en matris A som uppfyller A 2 = α 2 I för viss skalär α . Egenvärdena måste vara ± α . Projektionsoperatörerna
uppfylla
och
Kolumnrummen för P + och P − är egenrymden för A motsvarande + α respektive − α .
2×2 matriser
För dimensionerna 2 till 4 finns formler som involverar radikaler som kan användas för att hitta egenvärdena. Medan en vanlig praxis för 2×2 och 3×3 matriser, för 4×4 matriser gör den ökande komplexiteten hos rotformlerna detta tillvägagångssätt mindre attraktivt.
För 2×2-matrisen
det karakteristiska polynomet är
Således kan egenvärdena hittas genom att använda kvadratformeln :
Definiera för att vara avståndet mellan de två egenvärdena är det enkelt att beräkna
med liknande formler för c och d . Av detta följer att beräkningen är välkonditionerad om egenvärdena är isolerade.
Egenvektorer kan hittas genom att utnyttja Cayley–Hamilton-satsen . Om λ 1 , λ 2 är egenvärdena, då ( A − λ 1 I )( A − λ 2 I ) = ( A − λ 2 I )( A − λ 1 I ) = 0 , så kolumnerna i ( A − λ 2 I ) förintas av ( A − λ 1 I ) och vice versa. Om man antar att ingen av matriserna är noll, måste kolumnerna för var och en inkludera egenvektorer för det andra egenvärdet. (Om endera matrisen är noll så A en multipel av identiteten och vilken vektor som helst som inte är noll är en egenvektor.)
Anta till exempel
sedan tr( A ) = 4 − 3 = 1 och det( A ) = 4(−3) − 3(−2) = −6 , så den karakteristiska ekvationen är
och egenvärdena är 3 och -2. Nu,
I båda matriserna är kolumnerna multiplar av varandra, så båda kolumnerna kan användas. Således (1, −2) tas som en egenvektor associerad med egenvärdet −2, och (3, −1) som en egenvektor associerad med egenvärdet 3, vilket kan verifieras genom att multiplicera dem med A .
3×3 matriser
Den karakteristiska ekvationen för en symmetrisk 3×3 matris A är:
Denna ekvation kan lösas med metoderna för Cardano eller Lagrange , men en affin förändring till A kommer att förenkla uttrycket avsevärt och leda direkt till en trigonometrisk lösning . Om A = pB + qI så har A och B samma egenvektorer, och β är ett egenvärde till B om och endast om α = pβ + q är ett egenvärde till A . Låter och ger
Substitutionen β = 2cos θ och viss förenkling med identiteten cos 3 θ = 4cos 3 θ − 3cos θ reducerar ekvationen till cos 3 θ = det( B ) / 2 . Således
Om det( B ) är komplext eller är större än 2 i absolut värde, bör arccosinus tas längs samma gren för alla tre värdena på k . Det här problemet uppstår inte när A är verkligt och symmetriskt, vilket resulterar i en enkel algoritm:
0
0
% Givet en reell symmetrisk 3x3 matris A, beräkna egenvärdena % Observera att acos och cos verkar på vinklar i radianer p1 = A ( 1 , 2 ) ^ 2 + A ( 1 , 3 ) ^ 2 + A ( 2 , 3 ) ^ 2 om ( p1 == ) % A är diagonal. eig1 = A ( 1 , 1 ) eig2 = A ( 2 , 2 ) eig3 = A ( 3 , 3 ) annars q = spår ( A ) / 3 % spår (A) är summan av alla diagonalvärden p2 = ( A ( 1 , 1 ) - q ) ^ 2 + ( A ( 2 , 2 ) - q ) ^ 2 + ( A ( 3 , 3 ) - q ) ^ 2 + 2 * p1 p = sqrt ( p2 / 6 ) B = ( 1 / p ) * ( A - q * I ) % I är identitetsmatrisen r = det ( B ) / 2 % I exakt aritmetik för en symmetrisk matris -1 <= r <= 1 % men beräkningsfel kan lämna det något utanför detta intervall. om ( r <= - 1 ) phi = pi / 3 elseif ( r >= 1 ) phi = else phi = acos ( r ) / 3 slut % uppfyller egenvärdena eig3 <= eig2 <= eig1 eig1 = q + 2 * p * cos ( phi ) eig3 = q + 2 * p * cos ( phi + ( 2 * pi / 3 )) eig2 = 3 * q - eig1 - eig3 % eftersom spår(A) = eig1 + eig2 + eig3 slut
Återigen kan egenvektorerna för A erhållas genom att använda Cayley–Hamiltons sats . Om α 1 , α 2 , α 3 är distinkta egenvärden för A , då ( A − α 1 I )( A − α 2 I )( A − α 3 I ) = 0 . Således kommer kolumnerna av produkten av två av dessa matriser att innehålla en egenvektor för det tredje egenvärdet. Men om α 3 = α 1 , då ( A − α 1 I ) 2 ( A − α 2 I ) = 0 och ( A − α 2 I ) ( A − α 1 I ) 2 = 0 . Det generaliserade egenutrymmet för α 1 spänns alltså av kolumnerna av A − α 2 I medan det ordinarie egenutrymmet sträcks av kolumnerna av ( A − α 1 I ) ( A − α 2 I ) . Det ordinarie egenutrymmet för α 2 spänns över av kolumnerna av ( A − α 1 I ) 2 .
Till exempel, låt
Den karakteristiska ekvationen är
med egenvärden 1 (av multiplicitet 2) och -1. Beräknande,
och
Således är (−4, −4, 4) en egenvektor för −1, och (4, 2, −2) är en egenvektor för 1. (2, 3, −1) och (6, 5, −3) är båda generaliserade egenvektorer associerade med 1, varav en av dem skulle kunna kombineras med (−4, −4, 4) och (4, 2, −2) för att bilda en bas för generaliserade egenvektorer för A . När de väl hittats kan egenvektorerna normaliseras om det behövs.
Egenvektorer för normala 3×3-matriser
Om en 3×3-matris är normal, kan korsprodukten användas för att hitta egenvektorer. Om är ett egenvärde för , så är nollutrymmet för vinkelrät mot dess kolumnutrymme. Korsprodukten av två oberoende kolumner av kommer att vara i nollutrymmet. Det vill säga, det kommer att vara en egenvektor associerad med . Eftersom kolumnutrymmet är tvådimensionellt i detta fall måste egenutrymmet vara endimensionellt, så vilken annan egenvektor som helst kommer att vara parallell med den.
0 Om inte innehåller två oberoende kolumner men inte är , kan korsprodukten fortfarande användas. I det här fallet ett egenvärde av multiplicitet 2, så vilken vektor som helst som är vinkelrät mot kolumnutrymmet kommer att vara en egenvektor. Antag att är en kolumn som inte är noll av . Välj en godtycklig vektor inte parallell med . Sedan och kommer att vara vinkelrät mot och kommer således att vara egenvektorer till .
Detta fungerar inte när inte är normal, eftersom nollutrymmet och kolumnutrymmet inte behöver vara vinkelräta för sådana matriser.
Se även
Anteckningar
Vidare läsning
- Bojanczyk, Adam W.; Adam Lutoborski (januari 1991). "Beräkning av Euler-vinklarna för en symmetrisk 3X3-matris" . SIAM Journal on Matrix Analysis and Applications . 12 (1): 41–48. doi : 10.1137/0612005 .