본문 바로가기

deep learning115

[Idea Factory KAIST] 딥러닝 홀로서기 : #1.Lec - OT - 발표자료 링크 : https://github.com/heartcored98/Stand...​ - 자료 저장소 링크 : https://github.com/heartcored98/Stand...​ - 피드백 링크 : https://goo.gl/forms/EjHD7zJ6lvmh9thB2​ [Dingbro Crew] ★ 강의 - 조재영(whwodud9@kaist.ac.kr) ★ 촬영 - 김승수(seungsu0407@kaist.ac.kr) ★ 편집 - 김보성(kbs6473@kaist.ac.kr) ★ 디자인 - 황반석(hemistone@kaist.ac.kr) 2021. 3. 22.
[edwith] 딥러닝을 이용한 자연어 처리 : Q n A(Basic Machine Learning: Supervised Learning) - 조경현 교수 [LECTURE] Questions : edwith 학습목표 이번 강의 주제인 "Basic Machine Learning-Supervised Learning" 에 관련된 질문입니다. 같이 생각하는 시간을 가지면서 배운 지식을 공고히... - 커넥트재단 www.edwith.org 출처: [edwith] 딥러닝을 이용한 자연어 처리 : Q n A(Basic Machine Learning: Supervised Learning) - 조경현 교수 질문 1. 모델 아키텍쳐의 결정 방법 이론은 존재하나요? 어떻게 결정해야할까요? 2. 확률적 경사 하강법(Stochastic Gradient Descent)에서 확률적(Stochastic)은 무엇을 뜻하나요? 3. 베르누이분포에서 시그모이드 함수와 소프트맥스 함수를 쓰는.. 2021. 3. 16.
[edwith] 딥러닝을 이용한 자연어 처리 : Summary(Basic Machine Learning: Supervised Learning) - 조경현 교수 [LECTURE] Summary : edwith 학습목표 지금까지 배운 신경망 지도학습에 대해서 다시 한번 정리하고 복습합니다 핵심키워드 가설집합(Hypothesis set) 비용함수(Loss function) 최적화(Opti... - 커넥트재단 www.edwith.org - 출처: [edwith] 딥러닝을 이용한 자연어 처리 : Summary(Basic Machine Learning: Supervised Learning) - 조경현 교수 핵심키워드 가설집합(Hypothesis set) 비용함수(Loss function) 최적화(Optimization) 역전파(Backpropagation) 확률적 경사 하강법(Stochastic Gradient descent) 2021. 3. 16.
[edwith] 딥러닝을 이용한 자연어 처리 : Gradient-Based Optimization(경사기반 최적화) - 조경현 교수 [LECTURE] Gradient-Based Optimization : edwith 학습목표 경사기반 최적화기법에 대해 학습합니다. 핵심키워드 경사기반 최적화기법(Gradient-Based Optimization) 확률적 경사 하강법(Stochastic Gradi... - 커넥트재단 www.edwith.org - 출처: [edwith] 딥러닝을 이용한 자연어 처리 : Gradient-Based Optimization(경사기반 최적화) - 조경현 교수 학습내용 Off-the-shelf gradient-based optimization Gradient descent, L-BFGS, Conjugate gradient 등 방법 들이 있습니다. 그러나 위 방법들은 매개변수(parameters)가 많아질 수록 시간.. 2021. 3. 16.