Gradient of a Matrix: Rules and Derivation | मैट्रिक्स का ग्रेडिएंट: नियम और व्युत्पत्ति


मैट्रिक्स का ग्रेडिएंट: नियम और व्युत्पत्ति

मैट्रिक्स ग्रेडिएंट (Matrix Gradient) रैखिक बीजगणित और कैलकुलस का एक उन्नत विषय है, जो मशीन लर्निंग, ऑप्टिमाइजेशन और डीप लर्निंग जैसे क्षेत्रों में अत्यधिक उपयोगी है। यह किसी मैट्रिक्स फ़ंक्शन के तत्वों के सापेक्ष परिवर्तन की दर (Rate of Change) बताता है।

1️⃣ ग्रेडिएंट क्या है?

किसी स्केलर फ़ंक्शन f(x) का ग्रेडिएंट उस फ़ंक्शन के हर पैरामीटर के सापेक्ष आंशिक अवकलजों (Partial Derivatives) का समूह होता है:

∇f(x) = [∂f/∂x₁, ∂f/∂x₂, …, ∂f/∂xₙ]

जब यह अवधारणा मैट्रिक्स पर लागू की जाती है, तो यह मैट्रिक्स के प्रत्येक तत्व के सापेक्ष अवकलजों की मैट्रिक्स बन जाती है।

2️⃣ मैट्रिक्स ग्रेडिएंट की परिभाषा

यदि f(X) एक स्केलर फ़ंक्शन है जहाँ X एक n×m मैट्रिक्स है, तो f(X) का ग्रेडिएंट इस प्रकार लिखा जाता है:

∇ₓ f(X) = [∂f/∂xᵢⱼ]

यहाँ प्रत्येक तत्व xᵢⱼ के सापेक्ष आंशिक अवकलज लेकर एक मैट्रिक्स बनती है जो X के समान आकार की होती है।

3️⃣ ग्रेडिएंट के सामान्य नियम (Common Gradient Rules)

(a) Linear Function:

यदि f(X) = aᵀXb, जहाँ a और b वेक्टर हैं, तो:

∇ₓ f(X) = a bᵀ

(b) Trace Function:

यदि f(X) = tr(AᵀX), तो:

∇ₓ f(X) = A

(c) Quadratic Form:

यदि f(X) = xᵀA x, तो:

∇ₓ f = (A + Aᵀ)x

(d) Determinant:

यदि f(X) = det(X), तो:

∇ₓ f(X) = det(X) (X⁻¹)ᵀ

(e) Log Determinant:

यदि f(X) = log(det(X)), तो:

∇ₓ f(X) = (X⁻¹)ᵀ

(f) Trace of Quadratic Form:

यदि f(X) = tr(XᵀAX), तो:

∇ₓ f(X) = (A + Aᵀ)X

4️⃣ व्युत्पत्ति उदाहरण (Derivation Example)

मान लीजिए f(X) = tr(XᵀX)

यह एक स्केलर फ़ंक्शन है जिसका परिणाम है X के सभी तत्वों के वर्गों का योग।

Step 1:

f(X) = Σ Σ xᵢⱼ²

Step 2:

∂f/∂xᵢⱼ = 2xᵢⱼ

अतः,

∇ₓ f(X) = 2X

5️⃣ ग्रेडिएंट का महत्व (Importance)

  • Machine Learning में Cost Function के न्यूनतम मान निकालने के लिए Gradient Descent में।
  • Optimization Problems में Constraints और Objective Functions के बीच संबंध समझने हेतु।
  • Neural Networks में Weights अपडेट करने के लिए।

6️⃣ ग्रेडिएंट और जैकोबियन (Gradient vs Jacobian)

Gradient एक स्केलर फ़ंक्शन के लिए होता है, जबकि Jacobian एक वेक्टर फ़ंक्शन के लिए। Jacobian प्रत्येक आउटपुट के सापेक्ष सभी इनपुट्स के अवकलजों की मैट्रिक्स है।

7️⃣ अनुप्रयोग (Applications)

  • Deep Learning में Backpropagation Algorithm
  • Econometrics में Maximum Likelihood Estimation
  • Control Theory में Error Minimization
  • Statistical Modelling में Parameter Optimization

8️⃣ निष्कर्ष

Matrix Gradient एक गणितीय उपकरण है जो किसी सिस्टम या मॉडल के संवेदनशीलता (Sensitivity) को मापता है। यह हर आधुनिक कंप्यूटेशनल क्षेत्र का अभिन्न हिस्सा है, विशेषकर Machine Learning और Optimization में।

Related Post