/ LINEAR-ALGEBRA, MATH

Matrix Decompositions

데이터사이언스대학원 Bootcamp 4일차 수업은 4장 Matrix Decomposition을 공부했다. 선형대수의 핵심적 개념인 eigenvalue와 eigenvector가 나오므로 잘 알아두는 게 중요하다.

4.1 Determinant and Trace

Determinant는 square matrix에 대해서만 정의되며 Laplace Expansion을 통해 구할 수 있다. 역행렬의 존재여부를 확인하고 구하거나 n-dimensional 평행육면체의 부피를 구하는 등에 쓰인다.

Trace는 diagonal elements의 합이다. 두 행렬이 각각 n X k, k X n이라면 교환법칙이 성립하기 때문에 cyclic permutation에 대해 invariant하다.

4.2 Eigenvalues and Eigenvectors

행렬 A의 eigenvalue와 eigenvector를 구하는 방법을 알아보자. 우선 charateristic polynomial을 solve해서 λ를 구한다. 이때 구해지는 λ가 eigenvalue들이 된다. 특정 λ에 대해 (A-λI)x = O를 풀어서 구한 벡터 x들이 eigenvectors가 되며 이들의 span이 eigenspace가 된다.

4.4 Eigendecomposition and Diagonalization

Diagonal matrix D는 과 같이 invertible matrix P를 이용해서 나타낼수 있는 행렬을 의미한다. 이때, A와 D는 닮음 관계에 있다고 한다. 식을 다시 표현하면 AP = PD로 나타낼 수 있는데 이는 eignevalue와 eigenvector를 정의할 때 보았던 식과 유사하다. 즉, 우리는 A를 꼴로 나타낼 수 있는데 이를 eigendecomposition이라고 한다. D는 entry(대각선 값)들이 eigenvalue이고 P는 그에 상응하는 eigenvector들이 column vector인 행렬이다. P는 full rank인 square matrix여야 한다. 이는 eigenvector들이 모두 선형독립이라는 말과 동치이다.

Orthormal Basis B의 역행렬은 transopose와 같다는 점이 eigendecomposition할 때 유용하게 쓰일 수 있다. 우선 하나의 eigenvector를 이용해서 Gram–Schmidt process를 수행하면 서로 orthornormal한 벡터들을 얻을 수 있다.

4.5 Singular Value Decomposition

square matrix가 아닌 행렬도 분해해서 차원을 축소해서 나타낼수 있다. Eigendecompostion의 일반화된 버전으로 볼 수 있기에 SVD는 특정 행렬에 대해 항상 가능하다.