728x90
반응형
1. Random Forest 특징
- 수많은 trees를 이용. 예측정확성이 single decision tree일 때보다 좋음
- parameter에 매우 민감.
- 최대 트리 사이즈에 대해서 민감하지 않고 항상 좋은 예측을 하기에 좋음.
그 model은 single decision tree보다는 훨씬 나은 성능을 보여줍니다.
수많은 decision tree에 대해서 예측을 한 뒤 평균을 계산하니깐요.
+) Intermediate Machine Learning: XGBoost - Introduction 참고 - wakaranaiyo.tistory.com/17
2. 예제
from sklearn.ensemble import RandomForestRegressor
from sklearn.metrics import mean_absolute_error
forest_model = RandomForestRegressor(random_state=1)
forest_model.fit(train_X, train_y)
data_predict_y = forest_model.predict(val_X)
print(mean_absolute_error(val_y, data_predict_y))
- n_estimators: the number of trees in the forest
728x90
반응형
'Machine Learning > [Kaggle Course] ML (+ 딥러닝, 컴퓨터비전)' 카테고리의 다른 글
Intro to AutoML (0) | 2020.10.08 |
---|---|
!! Steps to apply machine learing to real-world data (0) | 2020.10.08 |
[Kaggle Courses] UnderFitting vs OverFitting (0) | 2020.09.27 |
[Kaggle Courses] What is Model Validation (Evaluating) (0) | 2020.09.26 |
[Kaggle Courses] From Fitting to Prediction (0) | 2020.09.26 |