
총 287개
-
LLM(대규모 언어 모형)과 LMM(대규모 멀티모달 모형)의 비교 및 딥러닝과의 관계2025.01.261. LLM(대규모 언어 모형) LLM은 자연어 처리(NLP) 분야에서 필수적인 역할을 하는 인공지능 시스템입니다. LLM은 인간의 언어 이해 및 해석 방식을 모방하여, GPT-4나 BERT와 같은 대표적인 AI 모델을 만들어냈습니다. 이러한 모델들은 문장 생성, 번역, 요약 등에서 강력한 성능을 발휘하며, 마치 언어 전문가가 문법과 의미를 분석하는 것과 유사한 방식으로 작동합니다. 2. LMM(대규모 멀티모달 모형) LMM은 언어뿐만 아니라 이미지, 소리, 영상 등 다양한 형태의 데이터를 동시에 처리할 수 있는 인공지능입니다. 이...2025.01.26
-
외국어로서의 한국어 이해 교육론 - 읽기 교육 모형 세 가지와 각 모형의 장점2025.01.031. 상향식 읽기 모형 상향식 읽기 모형은 글자와 단어를 먼저 이해하고 점차 큰 단위로 나아가는 해독 과정을 강조합니다. 이 모형의 장점은 초급 학습자나 단순한 정보/지식 전달을 위한 교육에 효과적이라는 것입니다. 문자 해독, 어휘 이해, 문장 구조 파악 등 언어 능력 향상에 도움이 됩니다. 2. 하향식 읽기 모형 하향식 읽기 모형은 학습자의 배경지식을 활용하여 글의 내용을 예측하고 추론하는 능동적인 과정을 강조합니다. 이 모형의 장점은 학습자를 능동적인 의미 구성자로 보며, 정확한 의미 파악보다는 가능한 의미 구성에 초점을 맞춘다...2025.01.03
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08
-
단어 인지의 유창성이 읽기 교육에 미치는 영향2025.01.061. 단어 인지의 유창성 단어 인지의 유창성은 읽기 교육에서 매우 중요한 요소 중 하나입니다. 이는 학생들이 단어를 인식하고 해석하는 능력에 영향을 미치며, 이는 전반적인 읽기 이해력에도 영향을 미칩니다. 따라서 교사들은 단어 인지의 유창성을 향상시키기 위한 방법을 찾고 연구해야 합니다. 이를 위해 교사들은 학생들이 단어를 이해하는 방식을 이해하고, 이에 맞는 적절한 교육 방법을 선택해야 합니다. 2. 단어 인지의 유창성과 읽기 능력의 관계 단어 인지 능력과 읽기 능력은 긴밀한 관련이 있으며, 어린이들이 단어 인지 능력을 향상시키는...2025.01.06
-
멀티미디어에 대하여 논하시오 멀티미디어개론2025.01.131. 멀티미디어의 정의 멀티미디어는 기존의 컴퓨터에서 텍스트만을 처리할 수 있었으나 정보인식과 표현 기술의 발전으로 텍스트 이외에도 음성, 도형, 영상 등 다양한 매체를 이용하여 표현하고 처리할 수 있게 해주는 것을 의미한다. 즉, 다양한 매체가 혼재되어 있는 다중매체, 또는 그 다중매체를 다루는 기기를 말한다. 2. 멀티미디어의 특징 멀티미디어의 특징은 1) 통합성 - 다양한 미디어들을 통합해서 역동적인 정보를 전달할 수 있다. 2) 쌍방향성 - 사용자와 정보제공자 간 상호작용이 가능해져 정보 전달 효과를 극대화할 수 있다. 3)...2025.01.13
-
외국어로서의 한국어이해교육론에서 읽기 교육 모형 소개2025.01.211. 상향식 읽기 모형 상향식 모형은 1960년대 말까지 받아들여졌던 모형으로, 독자의 텍스트 이해 과정을 언어의 작은 단위인 음운이나 음절, 단어, 구에서부터 언어의 큰 단위인 문장, 단락에 이어 텍스트로 진행된다고 보는 관점입니다. 이 모형에서 독자는 수동적 역할을 하며, 텍스트 내에 고정된 글의 의미가 있다는 전제를 내포합니다. 상향식 모형은 비교적 학습자에게 익숙하지 않은 내용이나 생소한 텍스트를 읽을 경우 유용하지만, 글이나 글자의 정확한 해독 및 글의 분석에만 치우치다 보면 텍스트의 의미 구성과 파악에는 소홀해질 수 있다...2025.01.21
-
생성형 인공 지능 입문 족보 대비 문제은행(오프라인 기말고사, 세종대)2025.01.151. 생성형 인공지능이란? 생성형 인공지능은 데이터 전처리, 모델 학습, 결과 생성으로 구성되며, GPT와 ChatGPT와 같은 모델이 대표적입니다. 생성형 인공지능은 텍스트, 이미지, 소리, 동영상 등 다양한 콘텐츠 생성에 활용되지만, 데이터 의존성, 모델 복잡성, 윤리적 문제 등의 한계가 있습니다. 이를 해결하기 위해 데이터 증강, 전이 학습, 하드웨어 개선, 효율적인 알고리즘 개발 등의 방안이 필요합니다. 2. 언어 처리 신경망 개요 RNN은 순차 데이터 처리를 위해 필요하지만, 기울기 소실 문제가 있습니다. LSTM과 GRU...2025.01.15
-
LLM(Large Language Model)과 LMM(Large Multimodal Model)의 비교 및 Deep Learning과의 관계2025.01.261. LLM(Large Language Model) LLM은 대규모 텍스트 데이터를 학습하여 언어 이해와 생성을 수행하는 모델입니다. GPT, BERT 시리즈 등이 대표적이며, 사전에 학습된 방대한 파라미터와 맥락적 추론 능력을 통해 다양한 분야에서 활용되고 있습니다. LLM은 텍스트 상의 문맥 흐름을 예측하고 의미를 파악함으로써 정교한 언어 처리와 유연한 질의응답을 수행할 수 있습니다. 2. LMM(Large Multimodal Model) LMM은 텍스트를 넘어 이미지, 음성, 영상 등 서로 다른 형태(모달)의 데이터를 통합적으...2025.01.26
-
표기가 옳은 것을 (모두) 고르고, 표기가 옳은 이유를 간단하게 설명하시오.2025.01.241. 표기 오류 식별 제시된 문장에서 표기가 옳은 것을 고르고, 그 이유를 간단히 설명하였습니다. 표기가 옳은 이유는 주로 문법적 규칙에 부합하거나 발음상 구별되는 차이를 반영하고 있기 때문입니다. 2. 한국어 띄어쓰기의 어려움 한국어 띄어쓰기가 어려운 이유는 구와 합성어를 구분하기 어려운 경우가 있고, 같은 형태의 단어가 때에 따라 단어 또는 구로 사용되기 때문입니다. 또한 단어의 자격 여부를 일반인이 판단하기 어려운 경우도 있습니다. 3. 문장 오류 분석 제시된 문장에서 단어 사용의 오류나 문장의 자연스럽지 않은 부분을 분석하고...2025.01.24
-
LLM(대규모 언어 모형)과 LMM(대규모 멀티모달 모형)의 비교 및 딥러닝과의 관계2025.01.291. LLM(Large Language Model) LLM은 대규모 텍스트 데이터를 학습하여 자연어를 이해하고 생성하는 데 중점을 둔 모델입니다. 방대한 데이터 학습, 자연어 생성 능력, 단일 모달리티 처리가 주요 특징이며, 챗봇, 문서 요약 및 생성, 번역 시스템, 코딩 보조 도구 등에 활용됩니다. 2. LMM(Large Multimodal Model) LMM은 텍스트, 이미지, 오디오, 비디오와 같은 다양한 형태의 데이터를 동시에 처리할 수 있는 모델입니다. 다양한 데이터 소스, 상호작용 능력, 복합적 태스크 수행이 주요 특징이...2025.01.29