Eigen Decomposition: Eigenvalues and Eigenvectors Explained | आइगेन डीकंपोज़िशन: आइगेनवैल्यू और आइगेनवेक्टर का विश्लेषण


आइगेन डीकंपोज़िशन: आइगेनवैल्यू और आइगेनवेक्टर का विश्लेषण

मैट्रिक्स सिद्धांत में Eigen Decomposition एक अत्यंत महत्वपूर्ण अवधारणा है। यह हमें बताती है कि एक मैट्रिक्स किन दिशा-वेक्टरों (directions) में केवल स्केलिंग का कार्य करता है और उन्हें विकृत नहीं करता। इन विशेष दिशाओं को Eigenvectors और उनके संबंधित स्केलिंग फैक्टर को Eigenvalues कहा जाता है।

1️⃣ आइगेनवैल्यू और आइगेनवेक्टर की परिभाषा

यदि किसी वर्ग मैट्रिक्स A के लिए कोई गैर-शून्य वेक्टर x और एक स्केलर λ ऐसा मौजूद हो कि:

A × x = λ × x

तो λ को A का Eigenvalue और x को उसका Eigenvector कहा जाता है।

भौतिक दृष्टिकोण:

मैट्रिक्स A जब किसी वेक्टर x पर कार्य करता है तो दिशा वही रहती है, केवल उसकी लंबाई λ गुणा बदल जाती है।

2️⃣ आइगेनवैल्यू निकालने की प्रक्रिया

समीकरण से:

(A - λI)x = 0

Non-trivial समाधान के लिए:

det(A - λI) = 0

इस समीकरण को Characteristic Equation कहते हैं। इसके हल λ₁, λ₂, …, λₙ ही Eigenvalues होते हैं।

उदाहरण:

A = | 2  1 |
    | 1  2 |

Characteristic equation:
|2-λ  1  |
|1   2-λ| = (2-λ)² - 1 = λ² - 4λ + 3 = 0
λ₁ = 1, λ₂ = 3

Eigenvectors:

λ₁=1 के लिए: (A - I)x = 0 ⇒ (1 1; 1 1)x = 0 ⇒ x₁ = [1, -1]

λ₂=3 के लिए: (A - 3I)x = 0 ⇒ (-1 1; 1 -1)x = 0 ⇒ x₂ = [1, 1]

3️⃣ ज्यामितीय व्याख्या (Geometric Interpretation)

Eigenvectors वे दिशाएँ हैं जिन पर मैट्रिक्स का प्रभाव केवल स्केलिंग का होता है — न दिशा बदलती है, न घुमाव होता है। Eigenvalues यह बताती हैं कि उस दिशा में कितना खिंचाव (stretch) या संकुचन (compression) हुआ है।

4️⃣ Eigen Decomposition सूत्र

यदि मैट्रिक्स A के n रेखीय रूप से स्वतंत्र Eigenvectors हैं, तो उसे इस रूप में लिखा जा सकता है:

A = P × D × P⁻¹
  • P = Eigenvectors का मैट्रिक्स
  • D = Eigenvalues का Diagonal मैट्रिक्स

उदाहरण:

A = | 2 1 |
    | 1 2 |

P = | 1 1 |
    | -1 1 |,  D = | 1 0 |
                    | 0 3 |

A = P D P⁻¹

5️⃣ गुणधर्म (Properties)

  • det(A) = Product of Eigenvalues
  • Trace(A) = Sum of Eigenvalues
  • यदि A Symmetric है तो इसके सभी Eigenvalues वास्तविक (Real) होते हैं।
  • Eigenvectors हमेशा Orthogonal बन सकते हैं।

6️⃣ अनुप्रयोग (Applications)

  • Principal Component Analysis (PCA): डेटा में अधिकतम variance निकालने हेतु।
  • Google PageRank: वेब पेज रैंकिंग में Eigenvector आधारित मॉडल।
  • Quantum Mechanics: Observable quantities की गणना में।
  • Machine Learning: Dimensionality Reduction और Covariance Analysis।

7️⃣ डायगोनलाइज़ेशन (Diagonalization)

यदि A के n स्वतंत्र Eigenvectors हैं, तो उसे डायगोनल मैट्रिक्स D में परिवर्तित किया जा सकता है। यह प्रक्रिया किसी सिस्टम को सरल रूप में बदलने के लिए अत्यंत उपयोगी है।

8️⃣ निष्कर्ष

Eigen Decomposition एक ऐसी विधि है जो किसी मैट्रिक्स की आंतरिक विशेषताओं को प्रकट करती है। Eigenvalues हमें मैट्रिक्स की शक्ति और प्रभाव बताते हैं, जबकि Eigenvectors उसकी दिशा को परिभाषित करते हैं। यह रैखिक बीजगणित और डेटा साइंस दोनों में एक आधारभूत सिद्धांत है।

Related Post