-
Notifications
You must be signed in to change notification settings - Fork 0
(07.24) W03_L04_Classifier with Matlab
Lecture : https://youtu.be/0gCqnv9RL-g
Source code : https://github.com/aailabkaist/Introduction-to-Artificial-Intelligence-Machine-Learning
대하(2018.07.24): 직접 만나서 간단한 데이터 셋으로든 실험을 해보면 좋을 것 같다!!
성빈(2018.07.24): 이번시간에는 매트랩을통해 실제 코드를 봤다. Text Mining Field 단순한 특성 분류로는 정확하게 찾기 힘들다 -> 상품에 따라 특성이 다르기때문에
리뷰의 단어를 백터로 표현 - Bag of Words 별 내용은 읎다.
승관(2018.07.24):
- 특성을 나타내는 단어를 레퍼런스로 사용하여 분류를 할때 전문적인 Classifier를 필요로한다.
- 장문의 텍스트는 벡터의 형식으로 나타내는게 효과적임. (Back of words)
- Positive case : 1, Nagative case : 2 로 구분.
- 수식에 로그를 씌워서 계산 과정에서 0이 되는 것을 방지. (핵심)
- 매트랩 코드를 직접 한번 돌려보면 매우 유익할것 같다.
민규(2018.07.24): 간단한 예제를 배우는 시간이었다. 댓글의 긍정/부정을 판단하는 문제로 댓글의 문장은 bag of word를 통해 단어를 벡터화했다. 이를 통해 likelihood와 prior를 계산하여 문제를 해결했다. 신기한 점은 중간에 확률을 계산할 때 단어가 반드시 하나씩 나온다는 prior를 가정하여 확률을 계산하는 MAP방식을 이용한 것이다. 설명을 들으니 당연한 것 같지만 쉽게 생각하지 못한 부분이다. 코드 상에서 prior를 저런 식으로 준다는 것을 깨달았고 기회가 되면 활용할 수 있을 것 같다.
진구(2018.07.24):
나이즈베이즈classifier를 이용한 텍스트마이닝 예제
Bag of Words: 워드 모아 놓고 등장 했는지 안 했는지 1, 0 등으로 표시.
맽랩 코드만 보고 파이썬으로 짜보는 등 해도 재밌을 듯