질문
1. 문장 생성시 다양성은 어떻게 해결하나요?
2. 문장 생성 모델 훈련시, 토픽을 감안한 효율적인 훈련 방법은 있나요? 역으로 문장이 주어졌을 때, 해당 문장을 어떤 토픽으로 분류할 수 있나요?
3. 문장 길이가 길어질 수록 점수가 낮아질 것 같은데 어떻게 해결하나요? 일반적인 문장표현은 어떻게 찾을 수 있나요?
4. 재미있는 문장은 어떻게 해야 훈련해야 할까요?
5. 문장에 점수를 메긴다(scroing)는 무엇을 뜻하나요?
6. "Tagging" 문제에서 self attention 을 활용하면 어떤가요?
7. Self attention은 얼만큼 길이의 context 길이를 볼 수 있나요? 그렇다면 계산량 이슈는 어떻게 해결하나요?
- 출처: [edwith] 딥러닝을 이용한 자연어 처리 : Q & A - Neural Language Models - 조경현교수
'IT 와 Social 이야기 > NLP 자연어처리' 카테고리의 다른 글
[edwith] 딥러닝을 이용한 자연어 처리 : Encoder & Decoder - 조경현교수 (0) | 2021.03.19 |
---|---|
[edwith] 딥러닝을 이용한 자연어 처리 : Overview - Neural Machine Translation - 조경현교수 (0) | 2021.03.19 |
[edwith] 딥러닝을 이용한 자연어 처리 : Summary - Neural Language Models - 조경현교수 (0) | 2021.03.18 |
[edwith] 딥러닝을 이용한 자연어 처리 : Long Term Dependency - 조경현교수 (0) | 2021.03.18 |
[edwith] 딥러닝을 이용한 자연어 처리 : Neural N-Gram Language Model - 조경현교수 (0) | 2021.03.18 |