본문 바로가기

나이브베이즈3

[데이터 사이언스 스쿨] 7.3 나이브베이즈 분류모형을 이용한 감성 분석 샘플 데이터로는 github에 올려져 있는 네이버 영화 감상평에 대한 감성 분석 예제를 이용한다. https://raw.githubusercontent.com/e9t/nsmc/master/ratings_train.txt https://raw.githubusercontent.com/e9t/nsmc/master/ratings_test.txt - 출처 : [데이터 사이언스 스쿨] 7.3 나이브베이즈 분류모형을 이용한 감성 분석 2021. 5. 12.
[데이터 사이언스 스쿨] 7.2 나이브베이즈 분류모형 나이즈베이즈 분류모형(Naive Bayes classification model)에서는 모든 차원의 개별 독립변수가 서로 조건부독립(conditional independent)이라는 가정을 사용한다. 이러한 가정을 나이브 가정(naive assumption)이라고 한다. 조건부독립(conditional independence)은 일반적인 독립과 달리 조건이 되는 별개의 확률변수 C가 존재해야 한다. 조건이 되는 확률변수 C에 대한 A, B의 결합조건부확률이 C에 대한 A, B의 조건부확률의 곱과 같으면 A와 B가 C에 대해 조건부독립이라고 한다. - 출처 : [데이터 사이언스 스쿨] 7.2 나이브베이즈 분류모형 2021. 5. 12.
[K-ICT 빅데이터센터] Ch12. 스팸메일 필터링 모델링-NaiveBayes-임정환교수 ★ 강의자료, 소스코드 다운받기 : https://kbig.kr/portal/kbig/datacube/... 주요 내용 정리 나이브 베이즈 분류기는 확률기반 분류기로 특징이 상호 독립적이라는 가정 하에 클래스 전체의 확률 분포 대비 특정 클래스에 속할 확률을 베이즈 정리를 기반으로 계산한다. CountVectorizer를 사용해 불용어 제거와 단어의 출현 빈도 특징을 추출할 수 있다. 벡터 변환 시 훈련 데이터에 대해서는 fit_transform()을 사용하고, 테스트 데이터에 대해서는 transform() 메서드를 사용한다. 나이브 베이즈 분류기는 특징의 출현 빈도 계산용 초기값 스무딩 파라미터 alpha와 학습 데이터에 대해 사전 확률 사용을 결정하는 파라미터 fit_prior로 파라미터 튜닝을 할 .. 2021. 4. 9.