IT 와 Social 이야기/NLP 자연어처리168 [딥러닝을이용한 자연어 처리 입문] 1108 BiLSTM으로 한국어 스팀 리뷰 감성 분류하기 - 대상 데이터 : 게임 플랫폼 스팀에 등록된 한국어 리뷰(10,000 개) - 다운로드 링크 : https://github.com/bab2min/corpus/tree/master/sentiment - 분류 모델 : BiLSTM - 출처 : [딥러닝을이용한 자연어 처리 입문] 1108 BiLSTM으로 한국어 스팀 리뷰 감성 분류하기 2021. 5. 25. [딥러닝을이용한 자연어 처리 입문] 1107 네이버 쇼핑 리뷰 감성 분류하기(Naver Shopping Review Sentiment Analysis) - 대상 데이터 : 네이버 쇼핑 리뷰 총 200,000개 리뷰로 구성된 데이터로 평점이 5점 만점에 1, 2, 4, 5인 리뷰들로 구성된 데이터 평점이 4, 5인 리뷰들에 긍정을 의미하는 레이블 1을, 평점이 1, 2인 리뷰들에 부정을 의미하는 레이블 0 3점인 리뷰는 긍부정 유무가 애매하여 데이터 구성 시에 제외됨 - 다운로드 링크 : https://github.com/bab2min/corpus/tree/master/sentiment - 분류 모델 : GRU - 출처 : [딥러닝을이용한 자연어 처리 입문] 1107 네이버 쇼핑 리뷰 감성 분류하기(Naver Shopping Review Sentiment Analysis) 2021. 5. 25. [딥러닝을이용한 자연어 처리 입문] 1106 네이버 영화 리뷰 감성 분류하기(Naver Movie Review Sentiment Analysis) - 대상 데이터 : 총 200,000개 리뷰와 리뷰가 긍정인 경우 1을 부정인 경우 0으로 표시한 레이블로 구성 - 분류모델 : LSTM - 다운로드 링크 : https://github.com/e9t/nsmc/ - 출처 : [딥러닝을이용한 자연어 처리 입문] 1106 네이버 영화 리뷰 감성 분류하기(Naver Movie Review Sentiment Analysis) 2021. 5. 25. [딥러닝을이용한 자연어 처리 입문] 1105 나이브 베이즈 분류기(Naive Bayes Classifier) - 나이브 베이즈 분류기에 입력 텍스트로 메일의 본문이 주어졌을 때, 입력 텍스트가 정상 메일인지 스팸 메일인지 구분하기 위한 확률을 아래와 같이 표현할 수 있음 P(정상 메일 | 입력 텍스트) = 입력 텍스트가 있을 때 정상 메일일 확률 P(스팸 메일 | 입력 텍스트) = 입력 텍스트가 있을 때 스팸 메일일 확률 - 이를 베이즈의 정리에 따라서 식을 표현하면 P(정상 메일 | 입력 텍스트) = (P(입력 텍스트 | 정상 메일) × P(정상 메일)) / P(입력 텍스트) P(스팸 메일 | 입력 텍스트) = (P(입력 텍스트 | 스팸 메일) × P(스팸 메일)) / P(입력 텍스트) - 식을 간소화하면 P(정상 메일 | 입력 텍스트) = P(입력 텍스트 | 정상 메일) × P(정상 메일) P(스팸 메일 |.. 2021. 5. 25. 이전 1 ··· 7 8 9 10 11 12 13 ··· 42 다음