blog:easy_nn

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
blog:easy_nn [2020/04/21 01:20] – [마무리] prgramblog:easy_nn [2025/07/07 14:12] (current) – external edit 127.0.0.1
Line 337: Line 337:
 지금까지, 어렵지만, 인공신경망, 딥러닝의 기본에 대해서 알아보았다. 지금까지, 어렵지만, 인공신경망, 딥러닝의 기본에 대해서 알아보았다.
  
-1) 퍼셉트론이란 인간의 신경세포를 본 떠 만든 모형으로 회귀분석과 같은 말이다. 2) 퍼셉트론 하나만으로는 비선형 문제를 풀 수 없어서 여러개를 겹쳐서 사용하는데, 이 것을 인공신경망이라고 한다. 3) 여러 층을 가진 인공신경망을 학습하기 위해, 오차를 최소화하는 데 경사하강법을 사용한다. 4) 경사하강법은 오차를 미분하여 미분값의 방향으로 한 발짝식 움직이면서 최소값을 찾아가는 방법이다. 5) 여러 층을 가지는 인공신경망에서는 미분값을 빠르게 계산하기 위해 오차역전파법을 사용한다 6) 오차역전파법은 합성함수의 연쇄법칙을 이용해서 제곱에 비례하는 계산을 선형적인 계산시간으로 줄여준다.+1) 퍼셉트론이란 인간의 신경세포를 본 떠 만든 모형으로 회귀분석과 같은 말이다. 
 +2) 퍼셉트론 하나만으로는 비선형 문제를 풀 수 없어서 여러개를 겹쳐서 사용하는데, 이 것을 인공신경망이라고 한다. 
 +3) 여러 층을 가진 인공신경망을 학습하기 위해, 오차를 최소화하는 데 경사하강법을 사용한다. 
 +4) 경사하강법은 오차를 미분하여 미분값의 방향으로 한 발짝식 움직이면서 최소값을 찾아가는 방법이다. 
 +5) 여러 층을 가지는 인공신경망에서는 미분값을 빠르게 계산하기 위해 오차역전파법을 사용한다
 +6) 오차역전파법은 합성함수 미분의 연쇄법칙을 이용해서제곱에 비례하는 계산 시간을 선형적인 계산시간으로 줄여준다.
  
 기본적인 딥러닝은 이렇게 이루어진다. 물론 과적합을 막기 위한 여러 방법들과 CNN, RNN, 강화학습 등 많은 변형들이 있지만 기본적으로는 동일한 매커니즘으로 이루어진다. 아직 많이 연구되고 있는 핫한 분야이기도 하고, 많은 변형들과 테크닉들이 포함되어 있기 때문에 단순히 이번 설명으로는 딥러닝에 대해서 모두 설명할 수는 없을 것이다. 기본적인 딥러닝은 이렇게 이루어진다. 물론 과적합을 막기 위한 여러 방법들과 CNN, RNN, 강화학습 등 많은 변형들이 있지만 기본적으로는 동일한 매커니즘으로 이루어진다. 아직 많이 연구되고 있는 핫한 분야이기도 하고, 많은 변형들과 테크닉들이 포함되어 있기 때문에 단순히 이번 설명으로는 딥러닝에 대해서 모두 설명할 수는 없을 것이다.
Line 347: Line 352:
 많은 단점들이 개선되고 있고, 언젠가 해결될지도 모르겠지만, 기본적으로 모든 문제에 무조건 좋은 모형은 없기 때문에 무조건 딥러닝을 요구하기 보다는 항상 trade-off를 고민하여 문제를 풀려고 해야 할 것이다. 많은 단점들이 개선되고 있고, 언젠가 해결될지도 모르겠지만, 기본적으로 모든 문제에 무조건 좋은 모형은 없기 때문에 무조건 딥러닝을 요구하기 보다는 항상 trade-off를 고민하여 문제를 풀려고 해야 할 것이다.
  
-마지막으로 KDnuggets 에 올라온 데이터 사이언스에 대한 불편한 진실에 있는 말을 염두해 볼 필요가 있겠다 (([[https://www.kdnuggets.com/2015/05/data-science-inconvenient-truth.html|https://www.kdnuggets.com/2015/05/data-science-inconvenient-truth.html]]))  >95%의 일에는 딥러닝이 필요하지 않다\\ +마지막으로 KDnuggets 에 올라온 데이터 사이언스에 대한 불편한 진실에 있는 말을 염두해 볼 필요가 있겠다 (([[https://www.kdnuggets.com/2015/05/data-science-inconvenient-truth.html|https://www.kdnuggets.com/2015/05/data-science-inconvenient-truth.html]]))   
->실제 분석의 90%는 일반화 선형모델(GLM)으로 해결된다.+ 
 +> 95%의 일에는 딥러닝이 필요하지 않다 
 +> 실제 분석의 90%는 일반화 선형모델(GLM)으로 해결된다.
  
 ===== Reference ===== ===== Reference =====
  • blog/easy_nn.1587432054.txt.gz
  • Last modified: 2025/07/07 14:12
  • (external edit)