선형대수학
-
PCA선형대수학 2021. 1. 8. 23:50
[computer&science20]에서 PCA를 다음과 같이 설명한다. dimensionality reduction technique that represents a hyperplane with maximum variance. 즉 분산이 최대가 되는 hyperplane을 표현하는 차원 축소 기술. PCA 계산 데이터 X => [n, p] (n: 데이터 갯수, p : 각 데이터의 차원) 이 주어졌을 때, 1. 공분산 행렬 C 계산. ($\frac{(X-\mu)(X-\mu)^T}{N}$) 2. C는 정사각행렬이므로 고윳값 분해 가능. 고윳값과 고유벡터 계산 3. 고유벡터를 고윳값의 크기별로 정렬한 것이 주성분이라 할 수 있다. 이때, 고윳값이 분산이라고 할 수 있으며, 고유벡터에 주어진 데이터르 투영하는 ..
-
rank의 확장된 의미선형대수학 2021. 1. 3. 16:24
전공 선대에서의 rank는 그저 행렬을 만들기 위해 스칼라 값이 곱해지는 column vector가 독립적인것이 최소 몇개가 필요한지였음. 이는 단순히 가우스 소거법으로 간단히 구할 수 있었다. 하지만 3차원에서부터의 rank를 이해하려면 이러한 방식으로는 되지 않는다. [2x2] 의 행렬을 생각 해 볼때, 이 행렬이 아래와 같이 두 벡터의 outer product로 나타내어 지면 rank는 1이고, 죽어도 안되고, 추가적인 합이 필요하면 rank가 2가 된다. 행과 열의 최댓값이 2이므로 최대 rank는 2이다. 그러면 [NxN] 행렬에서도 마찬가지로 위에서는 최대 열 행이 2라서 2개의 합으로 됬는데 N>2이면 안될 수도 있다. 따라서 저 합이 몇개가 되는지가 rank라고 생각하자. 만약 행렬이 아닌..