Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Reinforcement Learning
- 신경망
- 꿈
- 번역
- 딥러닝
- neural networks
- 매크로
- 강화학습
- Andrej Karpathy
- Tutorial
- 답변
- 한국어
- 질문
- Hvass-Lab
- tensorflow
- machine learning
- deep learning
- DeepLearning
- SAS
- TensorFlow Tutorials
- 행복
- 세상
- 머신러닝
- 인공지능
- tutorials
- Artificil Intelligence
- SQL
- openai
- 사랑
- cs231n
Archives
- Today
- Total
목록gradient boosting model (1)
Economics & Deeplearning
catboost
xgboost 로 gbm 의 시대가 왔지만(정규화와 분산성?) lightgbm 이 leaf wise gbm 으로 속도와 정확성 두마리 토끼를 잡았다고 생각했는데 boosting 모델의 parameter tuning 은 항상 문제였다 overfitting 이 되기 쉬워 조정을 잘 했어야하는데 오늘 catboost 에 대한 글을 읽으면서 논문을 대충 훑어봤는데 무릎이 탁 쳐진다. 기본설정이 좋아서 파라미터 튜닝이 별반 차이 없다고 하는데 그 이유를 알 것 같았다. https://arxiv.org/abs/1706.09516 Fighting biases with dynamic boosting catboost 의 구현 알고리즘이다. all current implementations are susceptible t..
머신러닝
2017. 7. 20. 01:22