Skip to content

(07.20) W03_L02_Conditional Independence

Dae Ha Kim edited this page Jul 21, 2018 · 9 revisions

https://www.youtube.com/watch?v=OzBehvcqW_0&index=12&list=PLt9QR0WkC4WVszuogbmIIHIIQ2RMI78RC


성빈(2018.07.20) : 이번시간에는 conditional independence에 대해 배웠다.

classification(예시에서는 binary classification)을 할 경우에

데이터셋의 인자간에 상관관계가 있다면 인자간의 상관관계를 모두 표현하기에는

기하학적으로 많은 케이스가존재하기 때문에

판단하는데 인자간에는 서로 영향을 미치지 않는다고 가정한다는 내용인 것 같다.

같은 independence의 경우라도 marginal independence는 independence가 되기위해서는

인자에 영향을 미치는 다른 Y에 대한 정보가 주어진 경우에만 independent하다고 한다.


민규 (2018.07.20) : 이번에는 naive bayes classifier를 해결하기 위해 conditional independence를 배웠다. 날씨 데이터에서 다양한 condition에 대한 조합이 존재하기 때문에 문제를 해결할 수 없다. 우리는 확률적으로 conditional independence를 적용하여 문제를 간소화할 수 있다. Conditional independence는 Y가 관측이 된 상황에서는 다른 X의 correlation이 있다고 해도 이 상황에서는 독립이 성립할 수 있다. 가끔 확률은 당연한 현상을 모델링하는 좋은 툴인 것 같지만, 제대로 사용하기 엄청 어려운 것 같다. 이제 다음 시간에는 위 방법을 활용하여 naive bayes classifier를 해결하는 것을 배울 것이다.


진구 (2018.07.20)
이 강의에서는 conditional independence와 marginal independence에 대해 강의해주셨다.
군대에 비유한 conditional independence 비유는 정말 와닿았다.
그런데 이게 머신러닝에서 어떻게 적용되고 어느정도의 정확도(?)에 관여하는지는 다음강의를 들어야 알 것 같다 ㅎㅎ.


대하 (2018.07.21) 이번 강의에서는 더욱 완전한 bayes classifier의 형태를 다뤘다.

https://ko.m.wikipedia.org/wiki/나이브_베이즈_분류

여기 링크를 들어가면 왜 PI를 사용해서 각각의 조건부 확률을 곱하는 이유를 알 수 있다.

이후에 연산량을 줄이기 위해서 이런 factorization 기법이 사용되는 경우가 또 나오게 된다.

Bayesian network을 다룰 때 자세히 배우게 된다.

Clone this wiki locally