
총 10개
-
트랜스포머 모델링2025.05.061. 트랜스포머 모델 트랜스포머는 어텐션만으로 구성된 신경망 모델로, RNN이나 CNN의 단점을 보완한 모델입니다. 트랜스포머는 어텐션 메커니즘을 사용하며, 단어를 동시에 고려할 수 있고 입력에 순서 정보가 없다는 특징이 있습니다. 트랜스포머 인코더는 멀티헤드 셀프 어텐션으로 구성되어 있으며, 트랜스포머 디코더는 마스크드 멀티헤드 셀프 어텐션을 사용합니다. 2. CNN의 문제점 CNN은 커널을 이용하기 때문에 이미지의 특징을 추출하는데 있어 국소적인 부분만을 고려하는 문제점이 있습니다. 3. RNN의 문제점 RNN은 시간의 흐름에 ...2025.05.06
-
ChatGPT 설명 및 이용 가이드2025.05.071. ChatGPT ChatGPT는 최근 인공지능 분야에서 주목받는 대화 모델의 일종입니다. 이 모델은 OpenAI에서 개발한 GPT(Generative Pre-trained Transformer) 모델의 일부로, 자연어 처리 기술과 딥러닝 알고리즘을 활용하여 인간과 대화하는 역할을 수행합니다. ChatGPT는 챗봇, 인공지능 비서, 상담원 등 다양한 분야에서 활용됩니다. 2. Transformer ChatGPT(Generative Pre-trained Transformer)은 딥러닝 기술 중 하나인 Transformer 구조를 기...2025.05.07
-
트랜스포머 알고리즘의 개요와 적용 사례2025.01.171. 트랜스포머 알고리즘 트랜스포머 알고리즘은 2017년 구글의 연구팀이 발표한 딥러닝 모델로, 자연어 처리(NLP) 분야에서 혁신적인 변화를 가져왔습니다. 이 알고리즘은 인코더-디코더 구조와 어텐션 메커니즘을 기반으로 하며, 병렬 처리와 확장성을 통해 대규모 데이터를 효율적으로 처리할 수 있습니다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 알고리즘은 인코더와 디코더로 구성됩니다. 인코더는 입력 데이터를 고차원 벡터로 변환하고, 디코더는 이 벡터를 다시 출력 데이터로 변환합니다. 핵심은 어텐션 메커니즘으로, 입력 데이터의 각 요소...2025.01.17
-
트랜스포머 알고리즘의 개념과 적용 사례2025.01.251. 트랜스포머 알고리즘의 개념 트랜스포머 알고리즘은 주의 메커니즘을 기반으로 하는 딥러닝 모델로, 입력 데이터의 각 요소가 다른 모든 요소와의 관계를 고려하여 변환된다. 이를 통해 순차적인 처리 대신 병렬 처리가 가능하게 되어 학습 속도가 크게 향상되었다. 트랜스포머는 인코더와 디코더로 구성되어 있으며, 각 단계에서 다중 헤드 자기 주의 메커니즘을 사용한다. 이 알고리즘은 2017년 구글의 연구팀이 발표한 논문에서 처음 소개되었다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 모델은 인코더와 디코더 블록으로 구성되어 있다. 인코더는...2025.01.25
-
챗GPT에게 묻는 인류의 미래 - 김대식 교수와 생성인공지능과의 대화 1장 발췌 요약2025.05.041. 챗GPT의 정의와 '학습' 챗GPT는 오픈 AI가 개발한 대규모 언어 모델이다. 인간처럼 텍스트를 이해하고 생성할 수 있도록 학습되었다. 또 질문에 대답하기, 정보 제공하기, 글쓰기 돕기와 같은 다양한 작업을 보조할 수 있다. 챗GPT는 GPT(Genterative Pre-training Transformer 생성적 사전학습 트랜스포머) 모델의 변형으로, 한 문장 안에서 앞에 오는 단어의 맥락을 고려해 다음 단어를 예측하도록 학습되었다. 2. 작동원리: 트랜스포머와 신경망 챗GPT 모델은 텍스트처럼 순차적 데이터를 처리하는 데...2025.05.04
-
IT와 경영정보시스템 2024년 2학기 방송통신대 중간과제물: 인공지능(AI) 학습을 위해 고안된 LLM(Large Language Model)과 LMM(Large Multimodal Model) 비교 및 Deep Learning과의 관계2025.01.261. 인공지능(AI)의 정의 1956년 미국의 수학자이자 과학자인 존 매카시가 '인공지능'이라는 용어를 처음 제안한 이후, 인공지능 연구는 지속적으로 발전해왔으며 여러 분야에서 인간의 능력을 점점 뛰어넘고 있다. 인공지능은 컴퓨터 과학과 방대한 데이터 세트를 활용하여 문제를 해결하는 기술 분야로, 머신러닝과 딥러닝이 인공지능의 하위 분야를 구성한다. 2. 인공지능의 역사 인공지능에 대한 논의는 1950년대부터 시작되었으며, 앨런 튜링, 마빈 민스키, 존 매카시 등의 선구자들이 기계의 사고 가능성을 탐구하며 인공지능 연구의 기반을 마...2025.01.26
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08
-
Chat GPT의 기술적 구현_아키텍처 및 인프라2025.01.171. Chat GPT의 기본 아키텍처 Chat GPT의 근간이 되는 기술적 구조를 이해하는 것은 매우 중요합니다. 이 섹션에서는 Chat GPT의 기본 아키텍처를 구성하는 주요 요소들을 살펴봅니다. 트랜스포머 모델의 구조, 자기 주의 메커니즘, 다중 헤드 어텐션 등이 핵심적인 역할을 합니다. 2. 대규모 언어 모델 학습 방법 Chat GPT와 같은 대규모 언어 모델을 학습시키는 과정은 매우 복잡하고 정교합니다. 이 섹션에서는 사전 학습과 파인튜닝, 비지도 학습의 활용, 강화 학습을 통한 개선 등 Chat GPT의 학습 방법에 대해 ...2025.01.17
-
[인공지능] 인공지능(AI)의 진보와 미래 (알파고에서 Chat GPT까지)2025.05.101. 자연어 처리 모델의 진보 인공지능의 핵심적인 기술인 자연어 처리 모델은 지속적으로 발전해왔다. 과거에는 합성곱 신경망(CNN)과 순환신경망(RNN)이 주로 사용되었지만, 2017년 구글 딥마인드에서 발표한 트랜스포머(Transformer) 모델은 이들의 한계를 극복하며 자연어 처리 성능을 크게 향상시켰다. 트랜스포머는 어텐션 메커니즘과 병렬 계산을 통해 문장 내 단어들 간의 상호작용을 고려하고 효율적인 학습이 가능하게 했다. 이러한 발전은 챗GPT의 자연어 처리 능력 향상에 기여했다. 2. 생성형 인공지능(Generative ...2025.05.10
-
생성형 인공 지능 입문 족보 대비 문제은행(오프라인 기말고사, 세종대)2025.01.151. 생성형 인공지능이란? 생성형 인공지능은 데이터 전처리, 모델 학습, 결과 생성으로 구성되며, GPT와 ChatGPT와 같은 모델이 대표적입니다. 생성형 인공지능은 텍스트, 이미지, 소리, 동영상 등 다양한 콘텐츠 생성에 활용되지만, 데이터 의존성, 모델 복잡성, 윤리적 문제 등의 한계가 있습니다. 이를 해결하기 위해 데이터 증강, 전이 학습, 하드웨어 개선, 효율적인 알고리즘 개발 등의 방안이 필요합니다. 2. 언어 처리 신경망 개요 RNN은 순차 데이터 처리를 위해 필요하지만, 기울기 소실 문제가 있습니다. LSTM과 GRU...2025.01.15