Bagging can dramatically reduce the variance of unstable procedures like Decision tree.
1. sampling
2. make diverse model
3. boost every model
4. blend models
AI Ensemble Notion
Base merges and MoErges
Inter-AI Communication Usages
클래스(또는 label) 은 분류에 의한 선택목록 각각
앙상블 학습 및 랜덤 포레스트
머신러닝에서 여러개의 모델을 학습시켜 그 모델들의 예측결과들을 이용해 하나의 모델보다 더 나은 값을 예측하는 방법을 말한다. 이러한 방법을 앙상블 학습 (ensemble learning) 또는 (ensemble method)이라고 한다. 앙상블 방법 앙상블 학습의 대표적인 예로는 랜덤 포레스트 (Random Forest)가 있다. 랜덤포레스트는 여러개의 의사결정나무(decision tree)들을 생성한 다음, 각 개별 트리의 예측값들 중에서 가장 많은 선택을 받은 클래스(또는 label)로 예측하는 알고리즘이다.
https://excelsior-cjh.tistory.com/166

Seonglae Cho