Skip to content

(07.24) W03_L04_Classifier with Matlab

kibitzing edited this page Jul 24, 2018 · 11 revisions

Lecture : https://youtu.be/0gCqnv9RL-g

Source code : https://github.com/aailabkaist/Introduction-to-Artificial-Intelligence-Machine-Learning


대하(2018.07.24): 직접 만나서 간단한 데이터 셋으로든 실험을 해보면 좋을 것 같다!!


성빈(2018.07.24): 이번시간에는 매트랩을통해 실제 코드를 봤다. Text Mining Field 단순한 특성 분류로는 정확하게 찾기 힘들다 -> 상품에 따라 특성이 다르기때문에

리뷰의 단어를 백터로 표현 - Bag of Words 별 내용은 읎다.


승관(2018.07.24):

  • 특성을 나타내는 단어를 레퍼런스로 사용하여 분류를 할때 전문적인 Classifier를 필요로한다.
  • 장문의 텍스트는 벡터의 형식으로 나타내는게 효과적임. (Back of words)
  • Positive case : 1, Nagative case : 2 로 구분.
  • 수식에 로그를 씌워서 계산 과정에서 0이 되는 것을 방지. (핵심)
  • 매트랩 코드를 직접 한번 돌려보면 매우 유익할것 같다.

민규(2018.07.24): 간단한 예제를 배우는 시간이었다. 댓글의 긍정/부정을 판단하는 문제로 댓글의 문장은 bag of word를 통해 단어를 벡터화했다. 이를 통해 likelihood와 prior를 계산하여 문제를 해결했다. 신기한 점은 중간에 확률을 계산할 때 단어가 반드시 하나씩 나온다는 prior를 가정하여 확률을 계산하는 MAP방식을 이용한 것이다. 설명을 들으니 당연한 것 같지만 쉽게 생각하지 못한 부분이다. 코드 상에서 prior를 저런 식으로 준다는 것을 깨달았고 기회가 되면 활용할 수 있을 것 같다.


진구(2018.07.24):
나이즈베이즈classifier를 이용한 텍스트마이닝 예제
Bag of Words: 워드 모아 놓고 등장 했는지 안 했는지 1, 0 등으로 표시.
맽랩 코드만 보고 파이썬으로 짜보는 등 해도 재밌을 듯


Clone this wiki locally