Skip to content

(07.16) W02_L03_IntroToD.T.

Dae Ha Kim edited this page Jul 16, 2018 · 6 revisions

https://www.youtube.com/watch?v=dPP60RSEBek&list=PLt9QR0WkC4WVszuogbmIIHIIQ2RMI78RC&index=8


진구(2018.07.14):
룰베이스드에서 빠르게 디시젼 트리로 넘어왔다.
이번 강은 인트로라 매우 짧았다.
디씨젼 트리를 보면서 저거는 사람이 일일히 짜는 거 아닌가? 어떻게 머신러닝이지? 하는 생각을 하는데
곧바로 확률얘기가 나와서 이해가 되었다. 가장 분리율(?)이 높은 기준들부터 시작하는 것 같다.
즉 하나의 기준만 가지고 판단을 할 때 가장 오류가 적은 것이 상위로 오고 그 밑으로 가지쳐나가는 것 같다.
자세한 것은 다음 강에서 설명하실 듯 하다.


민규(2018.07.16): Rule-based 알고리즘의 한계를 이전 강의에서 배웠다. 이를 극복하기 위해 통계적인 기법을 활용한 간단한 알고리즘인 decision tree를 이용한다. 이번 강의는 decision tree에 대한 개요를 설명하는 강의라 그런지 매우 짧다. 자료구조 tree와 같이 가지를 쳐나가는데 특정한 규칙을 통해 예측을 하는 기법인 것을 보인다. 다음 강의에서 Credit Approval Dataset을 통해서 이 알고리즘의 구체적인 동작원리를 배울 수 있을 것이다.


성빈(2018.07.16): 오늘은 decision tree의 앞부분에 대해 배웠다. 저번의 rule based가 perfect world에서 잘 작동했었는데, real world는 일관적이지 않은 결과, 관측에러, 모든정보를 가지고 있지 않기 때문에 decision tree 라는 통계적인 기법을 사용하는 알고리즘이 필요한 것 같다. 같은 데이터에서 어떤 특성을 보느냐에 따라 결과가 많이 달라진다는것 같다.


대하(2018.07.17): 좀 늦었지만 뒤늦게 강의를 들었다. 결국에는 데이터에서의 noise 때문에 단순히 rule-based model은 사용하기 힘들고, 확률이 들어가는 통계적인 model을 사용해야 할 것 같다. 그리고 이 강의에서 크게 정보를 얻은 부분은 아래 링크로 들어가면 다양한 ml dataset을 다운받을 수 있다는 점이다!! 나중에 다같이 이 데이터 셋으로 간단한 코딩도 해보면 좋을 것 같다 :) https://archive.ics.uci.edu/ml/index.php

Clone this wiki locally