머신 러닝 빠개기/Decision Tree(2)
-
About GOSS/EFB in LightGBM
- LightGBM과 GBDT의 차이점 --> Light라는 말이 여기서 파생되어 나오지 않았나 생각함.. Feature와 Row의 수를 정보손실을 최소화하며(Light하게) 줄여주기 때문에? --> 그러면 일반 GBDT 모델들은 (XGBoost) 해당 기능이 없다는 말이고.. One-Hot인코딩 같은걸 하면 일일이 분기하면서 내려가서 늦었던건가? - GOSS : Gradient-based One-Side Sampling - EFB : Exclusive Feature Bundling https://towardsdatascience.com/what-makes-lightgbm-lightning-fast-a27cf0d9785e What makes lightGBM lightning fast? Understand..
2020.04.14 -
LightGBM 빠개기
Paper https://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradient-boosting-decision-tree.pdf Overview https://zereight.tistory.com/254 Ensemble(앙상블) 학습이란? (필사) feat. 랜덤포레스트,XGBoost, LightGBM (파이썬 머신러닝 완벽가이드 발췌) - 개요 앙상블 학습을 통한 분류는 여러개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종예측을 도출하는 기법을 말합니다. 어려운 문제의 결론을 내기위해 여.. zereight.tistory.com Code Structure https://www.slideshare.net/slideshow/embed_..
2020.04.13