• 전문가 요청 쿠폰 이벤트
PARTNER
검증된 파트너 제휴사 자료

모바일 전시관 음성대화 가이드 시스템을 위한 한국어 질문 유사매칭기반 (s)LLM 캐시 엔진의 개발 (Development of a (s)LLM Cache Engine Based on Korean Question Similarity Matching for Mobile Exhibition Voice Conversation Guide Systems)

11 페이지
기타파일
최초등록일 2025.05.01 최종저작일 2024.08
11P 미리보기
모바일 전시관 음성대화 가이드 시스템을 위한 한국어 질문 유사매칭기반 (s)LLM 캐시 엔진의 개발
  • 미리보기

    서지정보

    · 발행기관 : 한국정보과학회
    · 수록지 정보 : 데이타베이스연구 / 40권 / 2호 / 77 ~ 87페이지
    · 저자명 : 우승문, 정석현, 이정준

    초록

    최근 들어, LLM 기술의 눈부신 발전에 따라 많은 융합응용이 시범적으로 나타나고 있다. 그러나 이들은 아직 실시간 음성 대화를 지원하기에는 응답시간이 충분히 빠르지 않고, LLM 서비스를 이용하는 경우에는 사용료가 높고 sLLM을 구축하여 사용하기에도 서버 구축 및 운영 비용이 많이 들어 실전 서비스에 배치되지 못하고 있다. 본 논문은 미술관, 박물관과 같은 전시관의 전시물에 제한된 범위의 주제에 대해 질의문들에 대한 대규모 언어 모델(LLM) 혹은 sLLM의 응답 성능을 개선하기 위해 한국어 기반 형태소 분석을 통한 조사, 어미를 제외하고, 질의문을 분류하여 질의문 유사매칭 대상을 축소하여 캐시 응답시간을 개선한 캐시구조를 제안한다. 또한, 제안하는 캐시 엔진은 미술관이나 박물관 방문객들의 빈발하는 전형적인 질문들을 이용하여 질문들의 템플릿을 만들고, 이를 이용하여 캐시 엔진에 질의문과 답변을 미리 저장하여 웜 스타트(warm start)를 가능하게 한다. 실험 결과, 제안하는 시스템은 기존 GPTCache에 비해 캐시 히트의 경우 7배, 캐시 미스의 경우 3배 응답속도를 개선하였다. 본 연구는 향후 (s)LLM 기반으로 비용이 저렴하며 빠른 응답시간이 필요한 “전시관 양방향 음성 대화 모바일 가이드”와 같은 응용에 기여할 수 있을 것으로 기대된다.

    영어초록

    Recently, with the remarkable advancements in LLM technology, many fusion applications have been experimentally emerging. However, these applications do not yet support real-time voice conversations due to insufficiently fast response times, and using LLM services incurs high usage fees. Furthermore, deploying and operating sLLM systems is expensive, making it challenging to implement them in practical services. This paper proposes a cache structure that improves response time of large language models (LLMs) or sLLMs for queries on limited topics about exhibits in galleries or museums by excluding particles and endings through Korean-based morphological analysis, classifying queries, and reducing the scope of query similarity matching to enhance cache response times. Additionally, the proposed cache engine creates templates of frequent queries from museum or gallery visitors and prefetches these questions and answers into the cache, enabling a warm start. Experimental results show that the proposed system improves response speed by 7 times in case of cache hits and 3 times in case of cache misses compared to the existing GPTCache. This study is expected to contribute to applications such as "interactive voice mobile guides for exhibitions," which require low-cost and fast response times based on (s)LLM.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우
문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 04월 18일 토요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
1:34 오전