Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
data_analysis:nn [2020/04/18 14:11] – prgram | data_analysis:nn [2025/07/07 14:12] (current) – external edit 127.0.0.1 | ||
---|---|---|---|
Line 1: | Line 1: | ||
====== Neural Network ====== | ====== Neural Network ====== | ||
- | [[blog:draft:easy_nn]] | + | [[blog: |
과적합 가능성, 해석X, 최후의 수단? | 과적합 가능성, 해석X, 최후의 수단? | ||
+ | |||
+ | 역사 : http:// | ||
<< | << | ||
Line 32: | Line 34: | ||
step function | step function | ||
hyperplane으로 구분되는 두 개의 공간을 분리하는 역할 | hyperplane으로 구분되는 두 개의 공간을 분리하는 역할 | ||
+ | |||
+ | {{: | ||
===활성화 함수activation function=== | ===활성화 함수activation function=== | ||
Line 95: | Line 99: | ||
===back-propagation=== | ===back-propagation=== | ||
+ | https:// | ||
계산적 효율성. | 계산적 효율성. | ||
W가 충분히 큰 경우, 오류함수 계산에 O(W) 만큼 연산 필요. | W가 충분히 큰 경우, 오류함수 계산에 O(W) 만큼 연산 필요. | ||
Line 102: | Line 107: | ||
수치미분을 이용한 계산에는 시간이 걸리지만, | 수치미분을 이용한 계산에는 시간이 걸리지만, | ||
back-propagation of error은 기울기를 고속으로 구할 수 있다. | back-propagation of error은 기울기를 고속으로 구할 수 있다. | ||
- | |||
- | 실제계산 | ||
- | https:// | ||
Line 112: | Line 114: | ||
4. hidden layer의 오류값을 추정하기 위해 출력층의 오류값을 뒤로 전파(back-propagate) | 4. hidden layer의 오류값을 추정하기 위해 출력층의 오류값을 뒤로 전파(back-propagate) | ||
5. 오류값의 기울기를 다시 구하고 같은 방식으로 hidden layer의 weight를 재조정. | 5. 오류값의 기울기를 다시 구하고 같은 방식으로 hidden layer의 weight를 재조정. | ||
+ | |||
+ | == 실제계산 == | ||
+ | [[data_analysis: | ||
+ | |||
+ | |||