본문으로 건너뛰기

"Cross validation" 태그로 연결된 1개 게시물개의 게시물이 있습니다.

교차 검증 - 데이터를 여러 부분으로 나누어 모델을 검증하는 기법

모든 태그 보기

Stacked Generalization

· 약 6분
David H. Wolpert

논문 정보

  • 제목: Stacked Generalization
  • 저자: David H. Wolpert (Los Alamos National Laboratory)
  • 학회/저널: Neural Networks
  • 발행일: 1992-12-01
  • DOI: 10.1016/S0893-6080(05)80023-1
  • 주요 연구 내용: 여러 일반화기(generalizer)를 결합하거나 단일 일반화기의 성능을 향상시키기 위한 '스택 일반화(Stacked Generalization)' 프레임워크를 제안함. 이 방법은 원본 학습 데이터를 분할하여 생성된 예측값들을 새로운 학습 데이터로 삼아 상위 레벨의 일반화기를 학습시키는 2단계 구조를 가짐.
  • 주요 결과 및 결론: 두 가지 실험(함수 표면 피팅, NETtalk 음소 변환)을 통해 스택 일반화가 단일 일반화기나 전통적인 교차 검증(cross-validation) 기반의 '승자 독식' 방식보다 우수한 성능을 보임을 입증함. 거의 모든 실제 일반화 문제에서 스택 일반화를 사용하여 오류율을 최소화해야 한다고 결론지음.
  • 기여점: 일반화 오류를 줄이기 위한 새로운 방법론인 스택 일반화를 공식적으로 소개함. 기존의 교차 검증, 부트스트래핑, 단순 평균 등의 기법들이 스택 일반화 프레임워크의 특수한 경우임을 보여줌으로써, 보다 정교하고 일반적인 모델 결합 방식을 제시함.