XGBoost vs. lightBGM
|
XGBoost |
LightGBM |
| 속도 |
상대적으로 느림 |
빠름 (2~10배) |
| 메모리 |
많이 씀 |
적게 씀 |
| 과적합 |
상대적으로 강함 |
소규모 데이터에서 취약 |
| 데이터 크기 |
중소형에 적합 |
대용량에 강함 |
| 튜닝 난이도 |
비교적 쉬움 |
파라미터 더 많음 |
Boosting
XGBoost (eXtream Gradient Boosting)
LightGBM
CatBoost
SHAP (SHapley Additive exPlanations)
- TreeExplainer, DeepExplainer, GradientExplinter, LinerExplainer는 모델의 구조 또는 파라미터를 활용하기 때문에 model-specific하다
- DeepExplainer및 GradientExplainer는 딥러닝 프레임워크인 TensorFlow/Keras 및 PyTorch에서만 동작한다.
Reference.
https://velog.io/@tobigs_xai/2주차-SHAP-SHapley-Additive-exPlanation