• AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

딥러닝 모델의 압축 방법에 따른 엣지 장치에서의성능 평가 연구 (A Study on the Performance Evaluation of Edge Device according to the Compression Method of Deep Learning Model)

11 페이지
기타파일
최초등록일 2025.04.17 최종저작일 2021.06
11P 미리보기
딥러닝 모델의 압축 방법에 따른 엣지 장치에서의성능 평가 연구
  • 미리보기

    서지정보

    · 발행기관 : 대한전자공학회
    · 수록지 정보 : 전자공학회논문지 / 58권 / 6호 / 50 ~ 60페이지
    · 저자명 : 최진욱, 최수혁, 정은성

    초록

    강력한 GPU 기반의 컴퓨팅 자원을 바탕으로, 우수한 성능의 딥러닝 모델이 대거 출현하였다. 해당 모델들을 컴퓨팅 자원이 충분하지 않은 IoT/Edge device 환경에 적용하기 위해 모델 압축(model compression) 기법의 필요성이 증가하고 있다. 본 논문에서는 Tensorflow 2 Framework의 ImageNet으로 학습된 Resnet50, VGG19 Model을 전이 학습을 이용하여 CIFAR-10 Dataset으로 재학습시킨 후, 모델 압축 기법 중 지식 증류(Knowledge Distillation), 가중치 가지치기(Weight Pruning), 양자화(Quantization)의 3가지 기법을 활용하여 모델 압축 전/후 성능을 비교하였다. 모델 크기와 한 이미지 당 처리 시간, 정확도를 단일 GPU를 통해 GPU 서버와 NVIDIA Jetson Nano 환경에서 측정 후 비교하여, 각 기법에 대한 장단점을 분석했다. 지식 증류 기법은 student 모델에 의해 모델의 크기와 inference 실행 시간이 결정이 되지만, 학습량이 정확도에 미치는 영향이 크다는 것을 알 수 있었다. 가중치 가지치기 기법은 제거되는 가중치의 sparsity에 의해 정확도 및 모델의 크기가 결정이 된다. 마지막 양자화 기법은 파일사이즈의 높은 압축률과 정확도를 보였다. 하지만, inference 시간이 다른 모델 압축 기법에 비해 확연히 길어지며, 양자화 인식 훈련을 거치지 않고 훈련 후 양자화만 적용하였을 때, 충분한 정확도가 나온다면 양자화 인식 훈련은 오히려 정확도의 감소를 야기할 수 있다는 단점을 보였다.

    영어초록

    Based on robust GPU-based computing resources, a large number of high-performance deep learning models have emerged. There is an increasing need for model compression techniques to apply these models to IoT/Edge device environments without sufficient computing resources. This paper retrained the ResNet50 and VGG19 models trained with ImageNet dataset in the Tensorflow 2 Framework with CIFAR-10 dataset using transfer learning. We then utilized three model compression techniques (Knowledge Distillation, Weight Pruning, and Quantization) for comparative study. In the knowledge distillation technique, the size and reference execution time of the model was determined by the student model, whereas the learning volume had a large impact on accuracy. In the weight pruning technique, the sparsity of the weights determined accuracy and model size. The quantization technique showed a high compression rate of file size and accuracy, but the inference time is significantly longer than other model compression techniques. Suppose we can achieve sufficient accuracy when only quantization is applied after training without going through quantization recognition training. In that case, quantization recognition training may be unnecessary and may even lead to a decreased accuracy.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“전자공학회논문지”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 02월 02일 월요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
2:28 오전