남들 다 할줄아는 딥러닝을 나도 하기위해, 만학의 꿈에 도전하는 김젼
# Prepare venv first
# Install dependencies
pip install -r requirements.txt
# Execute jupyter notebook
jupyter notebook --no-browser --ip=$(dig +short myip.opendns.com @resolver1.opendns.com)
- 예시 코드 : https://github.com/WegraLee/deep-learning-from-scratch
- 수식 및 그림들 : https://github.com/WegraLee/deep-learning-from-scratch/blob/master/equations_and_figures.zip
- @simnalamburt
- @pinkrespect
- @JungWinter
- @malkoG
- @initNirvana
- @Cura-inthelab
- @nellaG
- @VanilaJelly
- (챕터 1 관련) numpy가 빠른이유
- (챕터 1 관련) http://www.labri.fr/perso/nrougier/from-python-to-numpy/#memory-layout
- (챕터 2 관련) imshow로 퍼셉트론 시각화하기
- (챕터 2 관련) 다층 퍼셉트론만으로 함수 만들어보자
- (챕터 3 관련) 텐서를 쓰는 이유
- (챕터 3 관련)
@
연산자 오버로딩 - (챕터 4 관련) 에러함수 해석적으로 미분 안하는 이유
- (챕터 4 관련) Cross Entropy Error를 쓰는 이유
- (챕터 2, 4 관련) 퍼셉트론, 미분, 편미분, 그래디언트를 함수로 표현해보자
- (챕터 4 관련) 오탈자
- (챕터 4 관련) https://docs.scipy.org/doc/numpy/reference/generated/numpy.einsum.html
- (챕터 5 관련) k-fold cross-validation
- (챕터 5 관련) http://playground.tensorflow.org
- Vanishing gradient problem
- Dying Relu problem, LReLUs
- 시그모이드 다음에 CEE 바로쓰면 그래디언트 계산 안좋게됨
- sigmoid_cross_entropy_with_logits
- d_step g_step 비율을 1:1이 아닌걸로 해야 잘된대
- 내가 만든 뉴럴넷 웹서비스로 올리자
- 소프트맥스-CEE 미분