본문 바로가기

딥러닝131

[딥러닝을이용한 자연어 처리 입문] 1201 합성곱 신경망(Convolution Neural Network) 위의 그림에서 CONV는 합성곱 연산을 의미하고, 합성곱 연산의 결과가 활성화 함수 ReLU를 지남. 이 두 과정을 합성곱층(Convolution layer)이라고 함. 그 후에 POOL이라는 구간을 지나는데 이는 풀링 연산을 의미하며 풀링층(Pooling layer)이라고 함. 1. 합성곱 신경망의 대두 - 이미지를 다층 퍼셉트론을 이용하여 분류 시 이미지를 1차원 텐서인 벡터로 변환하여 다층 퍼셉트론의 입력층으로 사용하는데 이 1차원으로 변환된 결과는 변환 전에 가지고 있던 이미지의 공간적인 구조(spatial structure) 정보가 유실된 상태임 - 여기서 공간적인 구조 정보라는 것은 거리가 가까운 어떤 픽셀들끼리는 어떤 연관이 있고, 어떤 픽셀들끼리는 값이 비슷하거나 등을 포함하고 있음. 결국.. 2021. 5. 26.
[딥러닝을이용한 자연어 처리 입문] 1106 네이버 영화 리뷰 감성 분류하기(Naver Movie Review Sentiment Analysis) - 대상 데이터 : 총 200,000개 리뷰와 리뷰가 긍정인 경우 1을 부정인 경우 0으로 표시한 레이블로 구성 - 분류모델 : LSTM - 다운로드 링크 : https://github.com/e9t/nsmc/ - 출처 : [딥러닝을이용한 자연어 처리 입문] 1106 네이버 영화 리뷰 감성 분류하기(Naver Movie Review Sentiment Analysis) 2021. 5. 25.
[딥러닝을이용한 자연어 처리 입문] 1102 스팸 메일 분류하기(Spam Detection) - 데이터 : 캐글에서 제공하는 정상 메일과 스팸 메일이 섞여져 있는 스팸 메일 데이터 - 분류방식 : 바닐라 RNN(Vanilla RNN) - 출처 : [딥러닝을이용한 자연어 처리 입문] 1102 스팸 메일 분류하기(Spam Detection) 2021. 5. 24.
[딥러닝을이용한 자연어 처리 입문] 1009 엘모(Embeddings from Language Model, ELMo) 1. ELMo(Embeddings from Language Model) - 같은 표기의 단어라도 문맥에 따라서 다르게 워드 임베딩(Contextualized Word Embedding)을 할 수 있는 모델 2. biLM(Bidirectional Language Model)의 사전 훈련 - 순방향 언어모델과 역방향 언어모델이 각각의 은닉 상태만을 다음 은닉층으로 보내며 훈련시킨 후에 ELMo 표현으로 사용하기 위해서 은닉 상태를 연결(concatenate)시킴 4. ELMo 표현(represenatation, 벡터)을 사용해서 스팸 메일 분류하기 - 텐서플로우 버전을 1로 다운그레이드 필요 - 출처 : [딥러닝을이용한 자연어 처리 입문] 1009 엘모(Embeddings from Language Model.. 2021. 5. 22.