• AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

인공신경망 모델 압축을 위한 적응적 양자화 기반 지식 증류 기법 (Knowledge Distillation Based on Adaptive Quantization for Artificial Neural Network Model Compression)

7 페이지
기타파일
최초등록일 2025.04.28 최종저작일 2020.09
7P 미리보기
인공신경망 모델 압축을 위한 적응적 양자화 기반 지식 증류 기법
  • 미리보기

    서지정보

    · 발행기관 : 대한전자공학회
    · 수록지 정보 : 전자공학회논문지 / 57권 / 9호 / 37 ~ 43페이지
    · 저자명 : 이조은, 한태희

    초록

    심층 신경망(Deep neural networks, DNNs)은 이미지 분류 및 컴퓨터 비전 등 다양한 응용 분야에서 활용되고 있다. 하지만 신경망의 심도 및 복잡성이 증가함에 따라 자원이 제한된 임베디드 시스템에서 심층 신경망 구현의 한계가 발생하고 있으며 이를 극복하기 위한 경량화 연구가 진행되고 있다. 이를 위해 신경망 파라미터의 정밀도를 감소시켜 모델을 압축하는 양자화(Quantization) 기법과 대규모 네트워크의 학습 데이터를 이용하여 소규모 네트워크를 훈련시키는 지식 증류(Knowledge distillation, KD) 기법이 등장하였다. 본 논문에서는 신경망 모델의 계산 복잡도와 스토리지 사용량을 최적화하기 위해 지식 증류에 양자화 기법을 접목시켜 데이터마다 정밀도를 개별적으로 처리하는 적응적 양자화 기반 지식 증류 기법을 제안한다. CIFAR10과 CIFAR100 데이터 셋에 대해 ResNet 모델로 실험한 결과, 제안하는 기법은 양자화 기법 대비 정확도가 증가했으며, 경량화를 진행하지 않은 모델 대비 신경망 모델 크기가 평균 69.29% 감소하였다.

    영어초록

    Deep neural networks (DNNs) have been used in various applications such as image classification and computer vision. However, as the depth and complexity of the neural networks increase, the limitation of deployment on resource-constrained environments like embedded systems occurs, and the research on compressing neural networks has been conducted. It includes the quantization technique that reduces the precision of neural network parameters and the knowledge distillation technique that trains a small network using training data of a large one. This paper focuses on knowledge distillation combining the quantization to optimize the computational complexity and storage usage of the neural network model. We propose an adaptive quantization-based knowledge distillation that processes the precision of each data according to the amount of value. As a result of experimenting with the ResNet model on CIFAR10 and CIFAR100 datasets, the proposed method had an average accuracy increase compared to the quantization method, and the neural network model size decreased by an average of 69.29% compared to the full-precision model.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“전자공학회논문지”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
  • 전문가 요청 쿠폰 이벤트
  • 전문가요청 배너
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 12월 03일 수요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
12:49 오후