Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
data_analysis:nn [2020/04/18 14:21] – [back-propagation] prgramdata_analysis:nn [2025/07/07 14:12] (current) – external edit 127.0.0.1
Line 1: Line 1:
 ====== Neural Network ====== ====== Neural Network ======
  
-[[blog:draft:easy_nn]]+[[blog:easy_nn]]
  
 과적합 가능성, 해석X, 최후의 수단? 과적합 가능성, 해석X, 최후의 수단?
 +
 +역사 : http://solarisailab.com/archives/1206
  
 <<PRML>> <<PRML>>
Line 32: Line 34:
 step function step function
 hyperplane으로 구분되는 두 개의 공간을 분리하는 역할 hyperplane으로 구분되는 두 개의 공간을 분리하는 역할
 +
 +{{:data_analysis:pasted:20200419-164011.png}}
  
 ===활성화 함수activation function=== ===활성화 함수activation function===
Line 103: Line 107:
 수치미분을 이용한 계산에는 시간이 걸리지만, 구현이 간단 수치미분을 이용한 계산에는 시간이 걸리지만, 구현이 간단
 back-propagation of error은 기울기를 고속으로 구할 수 있다. back-propagation of error은 기울기를 고속으로 구할 수 있다.
- 
-실제계산 
-https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/ 
  
  
Line 113: Line 114:
 4. hidden layer의 오류값을 추정하기 위해 출력층의 오류값을 뒤로 전파(back-propagate) 4. hidden layer의 오류값을 추정하기 위해 출력층의 오류값을 뒤로 전파(back-propagate)
 5. 오류값의 기울기를 다시 구하고 같은 방식으로 hidden layer의 weight를 재조정. 5. 오류값의 기울기를 다시 구하고 같은 방식으로 hidden layer의 weight를 재조정.
 +
 +== 실제계산 ==
 +[[data_analysis:nn_backpropagation_calc]]
 +
 +
  
  
  • data_analysis/nn.1587219716.txt.gz
  • Last modified: 2025/07/07 14:12
  • (external edit)