PARTNER
검증된 파트너 제휴사 자료

반응/미반응 자료의 과대표본 추출에 대한 연구 (A Study for Oversampling under Rare Events Data)

한국학술지에서 제공하는 국내 최고 수준의 학술 데이터베이스를 통해 다양한 논문과 학술지 정보를 만나보세요.
10 페이지
기타파일
최초등록일 2025.05.05 최종저작일 2013.08
10P 미리보기
반응/미반응 자료의 과대표본 추출에 대한 연구
  • 미리보기

    서지정보

    · 발행기관 : 한국자료분석학회
    · 수록지 정보 : Journal of The Korean Data Analysis Society / 15권 / 4호 / 1883 ~ 1892페이지
    · 저자명 : 황산하, 진서훈, 최종후

    초록

    반응/미반응과 같은 이분형(binary) 목표변수를 갖는 모집단에서 모형개발을 위한 데이터마트를 형성할 때 반응/미반응 구성비는 구축된 모형의 성능에 영향을 준다. 따라서 목표변수의 특정 범주가 상대적으로 희소한 경우 모형 구축을 위하여 데이터마트를 형성할 때, 목표변수 각 범주 빈도의 수적 형평성을 맞추는 것이 바람직하다. 이를 과대표본추출(oversampling)이라고 한다. 본 연구는 이에 대한 실험적 연구로 과대표본추출의 구성비를 1:1에서 1:20까지 다양하게 구성하여 분류기준값(cut-off) 별로 최적모형을 찾아보았다. 특히 앙상블 기법인 부스팅(boosting) 중 아다부스트(AdaBoost)와 랜덤포레스트(random forests) 기법을 의사결정나무 및 회귀모형과 함께 비교하였다. 또한 교차타당성(cross-validation)을 통한 검증을 통하여 과대표본추출의 적절한 분류기준값과 구성비를 찾아보았다. 분류기준값 0.10에서 구성비가 1:20, 1:16 등 불균형이 심할 때는 로지스틱회귀분석이 좋은 결과를 주었으며 그 외의 구성비에서는 아다부스트가 가장 좋은 결과를 주었다. 분류기준값 0.20에서는 구성비의 불균형이 적을 때는 아다부스트가 좋은 결과를 주었으며 구성비의 불균형이 클 때는 의사결정나무가 좋은 결과를 주었다. 분류기준값 0.3에서 0.5까지에서는 로지스틱회귀분석과 랜덤포레스트가 좋은 결과를 주고 있으며 의사결정나무는 상대적으로 좋지 않은 결과를 보였다.

    영어초록

    For binary classification problem, target ratio of data mart can affect model performance. When forming a data mart for model building, if certain categories of the target variable is relatively rare, it is desirable that good/bad ratio of target variable is balanced. This is called as oversampling. This study is experimental study for oversampling. Target ratio is changed from 1:1 to 1:20. We found optimal model under various target ratio. Especially, boosting and random forrest are compared with traditional classification method decision tree and logistic regression. Proper target ratio and cut-off value are found by cross-validation. Logistic regression model gave better result when target/non-target ratio is 1:20 and 1:16 under cut-off value 0.10. AdaBoost gave the best result for other target ratio cases. Under the cut-off value 0.20, AdaBoost gave better result for target/non-target ratio is balanced decision tree gave better result for unbalanced target/non-target ratio. Under the cut-off value 0.3 to 0.5, logistic regression and random forest gave better result while decision tree gave worse result.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“Journal of The Korean Data Analysis Society”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요. 해피캠퍼스의 방대한 자료 중에서 선별하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 목차부터 본문내용까지 자동 생성해 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 캐시를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 08월 04일 월요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
12:33 오전