본문 바로가기

ML & DM/Dimension Reduction

Loading vs eigenvectors in PCA http://stats.stackexchange.com/questions/143905/loadings-vs-eigenvectors-in-pca-when-to-use-one-or-another PCA에서, 당신은 공분산( 또는 상관관계) 행렬을 공분산(상관관계)의 크기 부분(고유값들)과 공분산의 방향부분(고유벡터들)로 나눈다. 그 다음 당신은 아마 고유 벡터가 고유값을 지니고 있을거라 생각한다. 그래서 loadings는 변수들간에 관찰된 공분산/상관관계를 가진 크기로 비교가 가능해진다. 왜냐하면 변수들의 공분산으로부터 도출된것이 변수들과 주성분들사이의 공분산 형태로 반환되기 때문이다. 사실상 Loadings들은 원래 변수들과 단위척도화된 주성분간의 공분산/상관관계들 이다. Loadings: 주성분 혹은 요.. 더보기
Clustering 과 Dimensionality Reduction의 차이 Clustering 과 Dimension reduction의 차이 그림에서 보다시피 Clustering 은 instance()을 요약하는 것, 행을 요약하는 것이고 Feature나 특징, 변수들이 있는 열에 대해서 요약을 하는것이 바로 차원축소이다. 더보기
Dimension Reduction 아래 설명은 http://deepcumen.com/2015/04/dimension-reduction/ 과 http://darkpgmr.tistory.com/110의 설명을 정리해본것이다.수학적 설명은 최대한 배제하여 직관적이고 개괄적인 부분만 설명을 했으므로 PCA와 LDA가 뭔지에 대해서 개념을 잡는데 초점을 맞추었다. 1. 벡터화에 대한 간단한 언급 일단 설명을 위해 먼저 벡터화에 대해서 설명을 간략하게 하겠다. 위 사진을 보면 28*28 픽셀의 이미지가 있다. 이 이미지 파일 안에 있는 총 픽셀수는 28*28=784개의 픽셀수가 있고, 픽셀하나를 하나의 차원으로 놓고 각 차원은 하나의 Feature가 된다. 이 Feature안에서 값들은 RGB(0~225)가 될 것이다. 따라서 하나의 벡터요소는 해.. 더보기