word embedding3 [딥러닝을이용한 자연어 처리 입문] 1001 워드 임베딩(Word Embedding) 워드 임베딩(Word Embedding)은 단어를 벡터로 표현하는 방법으로, 단어를 밀집 표현으로 변환 함 1. 희소 표현(Sparse Representation) - 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법(ex: one-hot vector) - 단어 집합이 클수록 고차원의 벡터가 됨(공간적 낭비) - 단어의 의미를 담지 못함 2. 밀집 표현(Dense Representation) - 사용자가 설정한 값으로 모든 단어의 벡터 차원을 맞춤 - 설정된 차원은 실수값으로 채워짐 3. 워드 임베딩(Word Embedding) - 단어를 밀집 벡터(dense vector)의 형태로 표현하는 방법(embedding vector) - 방법론 : LSA, Word2Vec, FastText,.. 2021. 5. 21. [KoreaUniv DSBA] 논문리뷰 - FastText: Enriching Word Vectors with Subword Information - 김수빈님 - 발표영상 ★ Contents : 00:37 Overview 01:10 Prerequisite 04:24 Paper Review 19:44 Summary 20:15 Comments 2021. 3. 23. [KoreaUniv DSBA] 강필성 교수: 05_Text_Representation_II_Distributed_Representation_Part_4_Kor Unstructured Data Analysis 05_Text_Representation_II_Distributed Representation_Part_4_Kor - Doc2Vec - Paragraph embedding - Class embedding - sequence embedding, - etc. https://github.com/pilsung-kang/text-... 2021. 3. 2. 이전 1 다음