Evidence-Based Classification
증거 기반 분류
-> 각각의 특징(feature value)을 증거로 생각함
obtain the strength of the evidence given by each feature, we can combine them probabilistically
joint probability: 결합 확률
p(AB): 두 사건이 동시에 발생할 확률: joint probability
만약 두 사건이 독립적으로 일어난다면 p(AB)=p(A)p(B)
조건부확률 공식
->Bayes' rule 공식 : 우변을 통해 좌변 값 추정
사전확률, 사후확률
사후확률의 활용용도
1. 발생확률 추정
2. 순위 매기는 데 사용
3. 확률 비교를 통해 가장 사후확률이 높은 값 확인할 수 있음
E값이 여러개의 속성값을 가지고 있을 때
-> Conditional Independence
(이 때 AB는 independent하다고 가정한다)
Naive Bayes Classifier
classification에만 관심 있을 때 분자만 가지고 비교해도 됨(분모는 같으니까)
장점
1. 분류가 매우 쉽다
2. 저장공간과 수행시간에서 효율적이다.
3. 실제 상황에서 적용이 쉽다
단 독립적 추정 때문에 확률값은 정확하게 측정되지 않는다
4. 점진적 학습이다(incremental learner)
-> 새로운 데이터가 들어왔을 때 기존 데이터 활용하면 되고 다시 학습해야 하는 번거로움이 없다
-> 누적된 값을 반영 가능하다
'Data Science > 데이터사이언스개론' 카테고리의 다른 글
Ch8 visualizing Model Performance (0) | 2023.06.06 |
---|---|
Ch7 Good Model (0) | 2023.06.06 |
Ch6 Clustering (0) | 2023.06.06 |
Ch5 overfitting and its avoidance (0) | 2023.06.06 |
튜플 리스트 딕셔너리 (0) | 2023.04.24 |