blog:easy_random_forest

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
blog:easy_random_forest [2020/04/01 01:23] – [그래서 왜 많이 쓰나?] prgramblog:easy_random_forest [2025/07/07 14:12] (current) – external edit 127.0.0.1
Line 35: Line 35:
 {{ :blog:draft:pasted:20200331-185001.png }} {{ :blog:draft:pasted:20200331-185001.png }}
  
-가장 좋은 방법은 모든 가능한 나무를 그린 후에 데이터를 잘 설명하는 것을 고르는 것이겠다. 하지만 이는 변수의 수, 데이터의 수가 많아지면 거의 불가능한 일이기 때문에 ''욕심쟁이Greedy'' (귀차니즘) 방법을 사용한다. 가장 잘 나누는 변수 -> 그 다음 변수 -> 그다음 변수... 해서 결론이 나올 때까지 반복하여 나무를 그리는 이다.+가장 좋은 방법은 모든 가능한 나무를 그린 후에 데이터를 잘 설명하는 것을 고르는 것이겠다. 하지만 이는 변수의 수, 데이터의 수가 많아지면 거의 불가능한 일이기 때문에 가장 잘 나누는 변수 -> 그 다음 변수 -> 그다음 변수... 해서 결론이 나올 때까지 반복하여 나무를 그리는 방법을 사용한다. 단계별로 당장의 최선을 찾아간다는 의미로 ''욕심쟁Greedy'' 방법이라고 한다.
  
 {{ :blog:draft:pasted:20200331-185012.png }} {{ :blog:draft:pasted:20200331-185012.png }}
Line 117: Line 117:
  
  
-===== 단점은 없? =====+===== 단점은 없? =====
 모든 모형에는 단점이 있다. 위의 장점들도 어떤 문제나 상황에서는 틀린 말이 되는 경우도 많다.  모든 모형에는 단점이 있다. 위의 장점들도 어떤 문제나 상황에서는 틀린 말이 되는 경우도 많다. 
  
Line 147: Line 147:
 ''되도록 모형에 대한 질문보다 변수와 데이터에 대한 질문을 해보도록 하자'' ''되도록 모형에 대한 질문보다 변수와 데이터에 대한 질문을 해보도록 하자''
 ===== Reference ===== ===== Reference =====
-[[data_analysis:random_forest|]] 수식이 가미된 매운맛 버전+[[data_analysis:random_forest|]] 수식있는 매운맛 버전
 An Introduction to Statistical Learning,  Gareth M. James 外, Springer, 2014 An Introduction to Statistical Learning,  Gareth M. James 外, Springer, 2014
 The Elements of Statistical Learning,  Trevor Hastie 外, Springer, 2001 The Elements of Statistical Learning,  Trevor Hastie 外, Springer, 2001
  • blog/easy_random_forest.1585704215.txt.gz
  • Last modified: 2025/07/07 14:12
  • (external edit)