ML - Lecture 16: Dimension reduction
앞에서 공부를 하면서 느꼈을 것인데 dimension이 크고 그러면 힘들다고 배웠다. 근데 정확히 왜 그런 것일까? 이번 장에서는 그 정확한 이유에 대해 알아보고 PCA와 LDA라는 방법을 통해 dimension을 줄여보는 것을 해 보겠다.
앞에서 공부를 하면서 느꼈을 것인데 dimension이 크고 그러면 힘들다고 배웠다. 근데 정확히 왜 그런 것일까? 이번 장에서는 그 정확한 이유에 대해 알아보고 PCA와 LDA라는 방법을 통해 dimension을 줄여보는 것을 해 보겠다.
vsfs(Very Simple File System)에 대해 배울 것이다. 파일 시스템은 순수한 소프트웨어로 CPU 가상화나 메모리 가상화랑은 다른다. 그때는 kernel mode가 필요했지만 vsfs는 그렇지 않다. 우선 파일 시스템은 두가지 측면이 있다. Data st...
일단 clustering(군집화)이 뭘까? Clustering은 유사성이나 같은 패턴을 가지는 객체들을 그룹으로 묶는 것이라고 생각하면 된다. 앞에서 배운 classification이나 그런 분류와 뭐가 다르냐는 생각일 들 것이다. 크게 차이나는 부분은 clustering은 uns...
이번 장에서는 Nearest neighbor, kernel regression, 그리고 이를 이용하는 classification에 대해 다룰 것이다. 지금까지 우리는 선형적이고 항수가 하나로 나타나는 그러한 것들만 봤다.
영속성을 설명하기에 앞서 입력/출력 장치의 개념을 소개할 것이다. I/O device는 컴퓨터 시스템을 유용하기 쓰기 위해서는 필요하다. 그러면 시스템에과 I/O를 어떻게 합쳐야 할까?