일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- cs231n
- 신경망
- 인공지능
- tensorflow
- 매크로
- Reinforcement Learning
- 답변
- 딥러닝
- 행복
- Tutorial
- 사랑
- Artificil Intelligence
- machine learning
- DeepLearning
- 세상
- 한국어
- Andrej Karpathy
- neural networks
- TensorFlow Tutorials
- SAS
- SQL
- deep learning
- 질문
- tutorials
- 머신러닝
- openai
- 강화학습
- Hvass-Lab
- 번역
- 꿈
- Today
- Total
Economics & Deeplearning
앙상블 기법 2 본문
첫 번째, 서로 다른 복수개의 분류기를 학습하는 방법에 대해 생각해보면 다음과 같은 것들이 있다.
학습 알고리즘의 차별화 : 베이즈 분류기와 k-NN 분류기를 결합하거나, 신경망과 SVM을 결합하는 등 접근 방법 자체가 다른 것을 선택한다.
모델 선택과 관련된 파라미터의 차별화 : k-NN 분류 알고리즘을 적용하되 k 값을 달리하면서 j로 다른 분류기를 복수 개 만들어 사용하거나, 다층 퍼셉트론의 경우 은닉층의 뉴런 수를 달리하면서 여러 가지 모델을 만들어 사용한다.
학습데이터의 차별화 : 같은 모델을 사용하되, 학습에 사용되는 데이터 집합을 달리하여 복수 개의 분류기를 만든다. 예를 들어, 같은 신경망 모델을 사용하되, 전체 학습데이터를 적절히 조합하여 서로 다른 학습데이터 집합들을 만들어 이들을 학습에 이용한다.
결합하는 방법에도 다음 두 가지로 크게 나눌 수 있다.
병렬적 결합 방법 : 각각의 분류기로부터 얻어진 결과를 한 번에 모두 함께 고려하여 하나의 최종 결과를 얻는다.
순차적 결합 방법 : 각 분류기의 결과를 단계별로 나누어, 앞 단계에 배치된 분류기의 결과가 뒤에 배치된 분류기의 학습과 분류에 영향을 미친다.
간단한 방법은 학습데이터를 달리하여 학습기에 변화를 주는 간단한 방법인데, 이를 통해 하나의 학습기를 사용함으로써 얻을 수 없는 성능 향상의 효과를 충분히 얻어낼 수 있다.
필터링에 의한 방법 : 하나의 분류기를 학습할 때마다 새로운 데이터를 생성하되, 바로 학습에 적용하기에 앞서 이전에 학습이 완료된 분류기들을 이용하여 필터링함으로써, 미리 학습된 분류기에 의해 제대로 분류되지 못하는 데이터들이 학습되도록 한다. 초기에 개발된 부스팅 방법에서 이러한 전략을 사용하였으며, 학습의 특성을 결합 방법에도 적용하면 캐스케이딩에 의한 학습기 결합이 이에 적합하다.
리샘플링에 의한 방법 : 학습데이터를 매번 새로 생성하는 대신, 주어진 전체 학습데이터로부터 일부 집합을 추출하여 각 분류기에 학습한다. 가장 단순한 샘플링 기법을 사용하는 방법으로 배깅 방법이 있으며, 이후 분류가 어려운 샘플들이 보다 자주 선택될 수 있도록 하는 샘플링 기법을 적용한 방법으로 MadaBoost 방법이 개발되었다.
가중치조정에 의한 방법 : 모든 분류기에 대해 같은 학습데이터를 사용하되, 각 데이터에 가중치를 주어 학습에 대한 영향도를 달리한다. 가장 대표적인 앙상블 학습 방법인 AdaBoost 방법이 이에 해당한다.
'머신러닝' 카테고리의 다른 글
40 Must know Questions to test a data scientist on Dimensionality Reduction techniques (0) | 2017.03.21 |
---|---|
41 Essential Machine Learning Interview Questions (with answers) (0) | 2017.03.21 |
앙상블 기법 4 - 부스팅 (3) | 2016.01.26 |
앙상블 기법 3 - 배깅과 보팅 (2) | 2016.01.26 |
앙상블 기법 1 (3) | 2016.01.26 |