• AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

소형 네트워크에서 배치 정규화의 스케일링 인자를 활용한 채널 프루닝 (Channel Pruning using Scaling Factor of Batch Normalization in Compact Networks)

7 페이지
기타파일
최초등록일 2025.04.08 최종저작일 2019.03
7P 미리보기
소형 네트워크에서 배치 정규화의 스케일링 인자를 활용한 채널 프루닝
  • 미리보기

    서지정보

    · 발행기관 : 대한전자공학회
    · 수록지 정보 : 전자공학회논문지 / 56권 / 3호 / 52 ~ 58페이지
    · 저자명 : 최재훈, 김대영, 양동원, 이준희, 김도경, 김창익

    초록

    기존의 합성곱 신경망 기반의 딥러닝 모델은 데이터가 크고 연산량이 많기 때문에 실제 응용분야에 적용하는데 어려움이 있다. 이러한 한계를 극복하기 위해 소형 네트워크인 MobileNet, MobileNetV2 개발되고 있다. 그러나 위 소형 네트워크 역시 임베디드 시스템에 적용하는데 불필요한 연산량이 많다. 따라서 실제 환경에서 요하는 소규모 클래스의 객체 분류를 효율적으로 수행하기 위해서는 소형화된 딥러닝 모델을 추가적으로 경량화할 필요가 있다. 본 논문에서는 효율적인 객체 분류를 위해 MobileNet, MobileNetV2의 채널을 프루닝하여 네트워크를 경량화하는 방법을 제안한다. Network Slimming에서 이용하는 배치 정규화의 스케일링 인자를 기반으로 소형 네트워크의 채널을 프루닝한다. 또한, 소규모 클래스의 객체 분류 성능을 확인하기 위해 사람, 차량, 이외의 기타 데이터로 이루어진 데이터 셋으로 구성하였다. 위 데이터 셋과 CIFAR, SVHN 데이터 셋에서 제안하는 알고리즘을 적용하였을 때, 분류 성능은 유지하면서 모델의 데이터의 크기와 연산량이 줄어드는 것을 확인할 수 있었다.

    영어초록

    The existing convolutional neural network-based deep learning models are difficult to apply to real-world applications due to its large data size and high computational complexity. To overcome these limitations, compact networks such as MobileNet and MobileNetV2 are proposed. However, these compact networks still have redundant parameters that can be pruned in an embedded system. Therefore, in order to classify objects into a small number of classes required in a real environment, it is necessary to study on the lightening deep learning models. In this paper, we propose a method to lighten the network by pruning channels of MobileNet and MobileNetV2, which are representative compact networks for efficient object classification. We prune the channel of the compact networks based on the scaling factor of the batch normalization used in Network Slimming. We also constructed a dataset consisting of people, vehicles, and other data to evaluate the object classification performance of a small class. We can confirm the proposed algorithm reduces the model size and the computational complexity while maintaining the classification performance in the above dataset, CIFAR, and SVHN datasets.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“전자공학회논문지”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
  • EasyAI 무료체험
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 10월 14일 화요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
7:03 오후