개별적인 여러 알고리즘을 서로 결합해 예측결과를 도출함
-> 배깅, 부스팅과 공통점
차이점
개별 알고리즘으로 예측한 데이터 기반으로 -> 다시 에측 수행
즉, 개별 알고리즘의 예측 결과 데이터 세트를 최종 메타 데이터 세트로 만듦
-> 별도의 ML 알고리즘으로 최종 학습 수행
-> 테스트 데이터 기반으로 다시 최종 예측 수행
필요한 모델
1. 개별적인 기반 모델(3개 이상)
2. 최종 메타 모델 : 개별 기반 모델의 예측 데이터를 학습 데이터로 만들어서 학습함
핵심은 여러 개별 모델의 예측 데이터를 각각 스태킹 형태로 결합
-> 최종 메타 모델의 학습용 피처 데이터 세트와 테스트용 피처 데이터 세트 만드는 것
스태킹은 현실에서 자주 사용 X
BUT 캐글 같은 대회에서 성능 수치를 조금이라도 높여야 할 때 사용됨
BUT 항상 성능이 향상되는 것도 아님
-> 성능이 비슷한 모델을 결합해 좀 더 나은 성능 향상을 도출하기 위해 적용
스태킹 모델 개념의 다이어그램
여러개 모델의 예측값 합하고 스태킹 형태로 쌓은 뒤 이에 대한 예측 다시 수행

M개 로우, N개 피처를 가진 데이터 세트에 스태킹 앙상블 적용 가정
학습에 사용한 ML 알고리즘 모델 3개
1. 모델별로 각각 학습시킨 뒤 예측 수행하면 M개 로우를 가진 1개 레이블 값 도출
2. 예측 레이블 값을 다시 합해서 새로운 데이터 세트 만들기
3. 스태킹된 데이터 세트에 최종 모델 적용해 최종 예측!!

'Machine Learning & Deep Learning > 파이썬 머신러닝 완벽 가이드(공룡책)' 카테고리의 다른 글
불균형 데이터 처리, 언더 샘플링, 오버 샘플링 (0) | 2023.06.28 |
---|---|
결정트리 (0) | 2023.05.29 |
p39 ~ 04 데이터 핸들링- 판다스 (0) | 2023.05.21 |