총 16개
-
자연언어처리4공통형 7강까지 학습한 모델 알고리즘 중 하나를 적용한 논문에서 모델이 어떻게 사용되었는지 기술2025.01.261. BERT 모델 적용 논문 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"에서 BERT 모델은 자연어 처리(NLP) 분야의 다양한 언어 이해 작업을 해결하기 위해 사용되었습니다. BERT는 문맥 이해, 단어의 다의성 해결, 사전 훈련과 미세 조정, 모델의 일반화 능력 향상 등의 문제를 다루고자 했습니다. 이를 위해 BERT는 양방향 문맥 처리, Masked Language Model, Next Sentence Prediction ...2025.01.26
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08
-
벡터 데이터베이스2025.05.081. 벡터 데이터베이스 벡터 데이터베이스는 복합 비정형 데이터를 효과적이고 효율적으로 저장하고 검색하기 위한 기술입니다. 단어나 문장과 같은 정보를 숫자로 변환하여 숫자와 유사한 것을 찾는 방식의 데이터베이스입니다. 기존 데이터베이스는 텍스트 기반 검색을 사용했지만, 벡터 데이터베이스는 숫자 기반 검색을 사용합니다. 이를 통해 비정형 데이터와 벡터 데이터를 효율적으로 저장할 수 있습니다. 이 기술의 배경에는 뉴럴 네트워크(CNN)의 발달로 복합 비정형 데이터를 정확하게 임베딩하여 숫자(벡터)로 표현할 수 있게 된 것이 있습니다. 예...2025.05.08
-
트랜스포머 알고리즘의 개념과 적용 사례2025.01.251. 트랜스포머 알고리즘의 개념 트랜스포머 알고리즘은 주의 메커니즘을 기반으로 하는 딥러닝 모델로, 입력 데이터의 각 요소가 다른 모든 요소와의 관계를 고려하여 변환된다. 이를 통해 순차적인 처리 대신 병렬 처리가 가능하게 되어 학습 속도가 크게 향상되었다. 트랜스포머는 인코더와 디코더로 구성되어 있으며, 각 단계에서 다중 헤드 자기 주의 메커니즘을 사용한다. 이 알고리즘은 2017년 구글의 연구팀이 발표한 논문에서 처음 소개되었다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 모델은 인코더와 디코더 블록으로 구성되어 있다. 인코더는...2025.01.25
-
ChatGPT 설명 및 이용 가이드2025.05.071. ChatGPT ChatGPT는 최근 인공지능 분야에서 주목받는 대화 모델의 일종입니다. 이 모델은 OpenAI에서 개발한 GPT(Generative Pre-trained Transformer) 모델의 일부로, 자연어 처리 기술과 딥러닝 알고리즘을 활용하여 인간과 대화하는 역할을 수행합니다. ChatGPT는 챗봇, 인공지능 비서, 상담원 등 다양한 분야에서 활용됩니다. 2. Transformer ChatGPT(Generative Pre-trained Transformer)은 딥러닝 기술 중 하나인 Transformer 구조를 기...2025.05.07
-
앨리스의 REBT와 ABCDE모델2025.04.261. 엘리스의 REBT 인지정서행동 상담 REBT는 Rational Emotive Behavior Therapy의 약자로, 합리 정서행동치료 또는 인지 정서행동치료를 이르는 말이다. 정서, 행동적 문제를 해결할 때 인지주의의 입장을 차용하며, 미국의 심리학자이자 정신과 의사 알버트 앨리스에 의해 만들어졌다. REBT에서는 자조, 유연함, 합리적인 사고방식 등이 정신 건강과 밀접한 관련을 가진다고 주장한다. 인간은 합리적인 사고를 할 수 있음과 동시에 왜곡된 사고를 할 수 있는데, 이를 앨리스는 인간이 이런 잠재적인 기능을 선천적으로...2025.04.26
-
트랜스포머 알고리즘의 개요와 적용 사례2025.01.171. 트랜스포머 알고리즘 트랜스포머 알고리즘은 2017년 구글의 연구팀이 발표한 딥러닝 모델로, 자연어 처리(NLP) 분야에서 혁신적인 변화를 가져왔습니다. 이 알고리즘은 인코더-디코더 구조와 어텐션 메커니즘을 기반으로 하며, 병렬 처리와 확장성을 통해 대규모 데이터를 효율적으로 처리할 수 있습니다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 알고리즘은 인코더와 디코더로 구성됩니다. 인코더는 입력 데이터를 고차원 벡터로 변환하고, 디코더는 이 벡터를 다시 출력 데이터로 변환합니다. 핵심은 어텐션 메커니즘으로, 입력 데이터의 각 요소...2025.01.17
-
생성형 인공 지능 입문 족보 대비 문제은행(오프라인 기말고사, 세종대)2025.01.151. 생성형 인공지능이란? 생성형 인공지능은 데이터 전처리, 모델 학습, 결과 생성으로 구성되며, GPT와 ChatGPT와 같은 모델이 대표적입니다. 생성형 인공지능은 텍스트, 이미지, 소리, 동영상 등 다양한 콘텐츠 생성에 활용되지만, 데이터 의존성, 모델 복잡성, 윤리적 문제 등의 한계가 있습니다. 이를 해결하기 위해 데이터 증강, 전이 학습, 하드웨어 개선, 효율적인 알고리즘 개발 등의 방안이 필요합니다. 2. 언어 처리 신경망 개요 RNN은 순차 데이터 처리를 위해 필요하지만, 기울기 소실 문제가 있습니다. LSTM과 GRU...2025.01.15
-
IT와경영정보시스템1공통 인공지능AI 학습고안된 LLM Large Language Model 대규모언어모형과 LMMLarge Multimodal Mode 대규모멀티모달모형 비교하시오002025.01.261. LLM (Large Language Model; 대규모 언어 모형) LLM은 주로 텍스트 데이터를 기반으로 학습된 모델로, 자연어 처리(NLP) 작업에 초점을 맞춥니다. 이러한 모델은 대량의 텍스트 데이터를 통해 언어의 구조, 의미 및 맥락을 이해하고 생성하는 능력을 가지고 있습니다. 예시로는 GPT(Generative Pre-trained Transformer), BERT(Bidirectional Encoder Representations from Transformers) 등이 있습니다. 2. LMM (Large Multim...2025.01.26
-
현대 컴퓨터 과학의 발전과 알고리즘의 역할2025.05.161. 컴퓨터 과학의 발전과 알고리즘의 역할 현대의 컴퓨터 과학 발전은 꾸준한 연구와 발전의 연속이라 할 수 있습니다. 특히, 알고리즘이 이러한 발전의 핵심이 되어왔다는 것이 많은 학자들의 공통된 견해입니다. 본 장에서는 'The Nature of Computation'이라는 논문을 통해 현대 컴퓨터 과학의 기원과 알고리즘의 중요성에 대하여 자세히 알아보겠습니다. 2. 자연어 처리 분야의 딥러닝 동향 최근 연구에서는 자연 언어 처리(NLP) 분야에서 딥러닝의 동향을 관찰할 수 있습니다. 이 주제에 대하여, 최근 논문 'Attentio...2025.05.16
