소개글
"생성형 AI를 활용한 대학생의 과제를 인정할수 없다라는 주제로 토론할거야"에 대한 내용입니다.
목차
1. 생성형 AI와 사회적 영향
1.1. 생성형 AI의 개요
1.2. 생성형 AI가 인간에게 미칠 수 있는 위험성
1.2.1. 인간의 비판적 사고능력 저하
1.2.2. 거짓 정보 노출 위험
1.2.3. 불명확한 출처
1.3. 생성형 AI를 이용하는 개인의 바람직한 태도
1.3.1. 사고능력 향상을 위한 자세
1.3.2. 생성형 AI 창작물의 출처와 설명 명시
1.4. 생성형 AI의 윤리적 문제
1.4.1. 표절과 지적재산권 침해
1.4.2. 정보의 신뢰도
1.5. 생성형 AI의 활용방안
1.5.1. AI 컨택센터
1.5.2. 교육
1.6. 챗봇(chatGPT)의 사회적 영향
1.6.1. 기술중심 관점
1.6.2. 사회구성론적 관점
2. 참고 문헌
본문내용
1. 생성형 AI와 사회적 영향
1.1. 생성형 AI의 개요
생성형 AI(Generative AI)는 기존의 텍스트, 오디오, 이미지 등의 콘텐츠를 활용하여 새로운 유사한 콘텐츠를 만드는 인공지능 기술이다. 이전 AI가 데이터와 패턴을 학습하여 대상을 이해했다면, 생성형 AI는 기존 데이터와 비교 학습을 통해 새로운 창작물을 생성해낸다.
생성형 AI 기술은 최근 급격히 발전하여 다양한 분야에 활용되고 있다. 대화형 AI 챗봇인 ChatGPT, 텍스트를 이미지로 변환하는 AI 미드저니 등이 대표적인 사례이며 이미 대중화되고 있다. 이러한 생성형 AI 기술은 혁신적인 기능을 가지고 있어 활용 범위가 무궁무진한 수준이다. 생산성 향상과 같은 장점이 있지만, 인간의 창의력과 사고력 저하, 거짓 정보 확산, 저작권 침해 등의 우려도 나타나고 있다.
생성형 AI는 방대한 데이터베이스를 기반으로 하기 때문에 사용자의 질문에 구체적이고 체계적인 답변을 제공할 수 있다. 이를 통해 사용자는 편리하고 효율적인 정보를 얻을 수 있지만, 제공되는 정보의 신뢰성과 정확성에 대한 우려도 존재한다. 또한 생성형 AI가 생성한 창작물에 대한 저작권 문제, 표절 가능성 등 윤리적 쟁점들이 지속적으로 제기되고 있다.
따라서 생성형 AI 기술의 발전과 활용을 위해서는 기술의 잠재적 위험성에 대한 대책 마련이 필요할 것으로 보인다. 사용자 보호, 정보 신뢰성 확보, 지적재산권 보호 등의 다각도의 논의와 규제 마련이 요구된다.
1.2. 생성형 AI가 인간에게 미칠 수 있는 위험성
1.2.1. 인간의 비판적 사고능력 저하
생성형 AI 서비스인 ChatGPT가 미국에서 출시된 이후 엄청난 사용자 수를 기록하면서 검색 엔진을 대체하고 있다. 이전에는 궁금한 것을 해결하거나 과제를 수행하기 위해서 구글과 같은 검색 사이트를 통해 직접 검색하여 정보를 얻어 자신만의 창작물을 만들어냈었다. 하지만, ChatGPT와 같은 생성형 AI 서비스가 나온 후로는 간단하게 인공지능에게 궁금한 것을 물어볼 수 있게 되었다. 생성형 AI가 구체적으로 답변을 해주고 그럴싸한 문장까지 만들어주기 때문에 이제는 대학생들 중에서 ChatGPT를 쓰지 않는 사람이 없는 수준이 되었다.
ChatGPT는 사용자가 질문을 입력하면 방대한 양의 인터넷 문서를 검색하여 완성된 문장으로 답변을 준다. 어떤 질문을 하던지 그럴 듯한 답변을 해주기 때문에 openAI가 ChatGPT를 공개한지 5일 만에 사용자가 100만명을 돌파했다. 워싱턴 포스트에서는 ChatGPT가 완벽하지는 않으나 실제 학생들이 내놓을 법한 답변을 만들어내기 때문에 혁명적인 AI로 인하여 교수와 교사들이 충격에 빠졌다고 전달했다. 이미 발빠른 학생들이 ChatGPT를 활용하고 있다. 코딩 과제물을 ChatGPT에게 물어보면 코딩 문제를 스스로 풀어주기 때문에 학생들이 이를 이용해서 과제를 해결하고 있다. 또한, 시험을 치를 때 ChatGPT를 이용할 수도 있기 때문에 부정행위가 발생할 수도 있다.
가장 큰 문제는 이러한 ChatGPT에 의존하는 학생들이 늘어나게 되면 학습 능력이 저하될 수 있다는 것이다. 레포트와 같은 과제물을 ChatGPT로 해결해 버리면 사고력을 향상시킨다는 교육의 목표가 무용지물이 되어 버린다. 인간은 글쓰기 과정을 통해서 생각을 하고 스스로 문제해결 능력을 키워 나간다. 하지만, ChatGPT가 중요한 과제를 해결해 주다 보니 학생들은 이러한 사고를 할 필요가 없어졌다. 이미 미국에서는 ChatGPT가 에세이 과제를 하기 위한 수단으로 활용이 되고 있으며, 이로 인하여 학교에서는 어떻게 ChatGPT를 차단시킬 수 있을지 고민하고 있다. 미국에서는 ChatGPT의 사용을 막기 위해서는 단순히 사실만 나열하는 에세이 과제를 내는 것이 아니라 분석적 사고 능력을 요구하는 과제를 제출해야 한다는 의견이 나오고 있으며, 일부 교사들은 AI의 사용을 막기 위해서 과제물을 손으로 직접 작성해오게 하거나 수업 중에 과제물을 작성하게 하고 있다.
학생들이 ChatGPT와 같은 생성형 AI에 의존을 하게 되면서 스스로 생각을 하기 보다는 ChatGPT가 만들어낸 답변과 생성된 내용에 의존하여 과제를 해결하는 것은 미국뿐만 아니라 국내에서도 문제가 되고 있다. 이미 올해 ...
참고 자료
정원식, ‘ChatGPT’가 대신 써준 과제 교사들은 걸러낼 수 있을까, 경향신문, 2022.12.29.
https://m.khan.co.kr/world/world-general/article/202212291616001
최미송, [단독]국내 국제학교 학생들, 챗GPT로 과제 대필… ‘전원 0점’, 동아일보, 2023.02.09.
https://www.donga.com/news/Society/article/all/20230209/117801590/1
전수빈, ‘데이터 해적질’ 논란부터 할루시네이션까지, 챗GPT 열풍이 부른 논란, 벤처이코노미, 2023.02.13.
https://vtecon.com/news/114989/
김경수, 2023, 전남대 문화전문대학원 교수, 챗GPT의 상식과 활용방안
박찬, 2022, AI타임스, 챗GPT, 스스로 규제 필요성 역설
이가람, 최민지, 2023, 중앙일보, 교육부 직원들도 챗GPT ‘열공’교육 현장 적용 방안 고민할것
이진로, 2023, 영산대 자유전공학부 교수, 경남시론, 챗GPT 시대의 성찰과 대응 방안
한국지능정보사회진흥원(NIA), “AI 활성화를 위한 3대 자원 지원 전략”, 2020.9.
한국지능정보사회진흥원(NIA), “AI 학습용 데이터 사업의 실효성 향상을 위한 정책
방향”, 2020.11.
공용, 2023, 기술혁명, GPT의 사용에 따른 문제점과 활용방안
김경수, 2023, 전남대 문화전문대학원 교수, 챗GPT의 상식과 활용방안
박찬, 2022, AI타임스, 챗GPT, 스스로 규제 필요성 역설
이가람, 최민지, 2023, 중앙일보, 교육부 직원들도 챗GPT ‘열공’교육 현장 적용 방안 고민할것
이진로, 2023, 영산대 자유전공학부 교수, 경남시론, 챗GPT 시대의 성찰과 대응 방안
한국지능정보사회진흥원(NIA), “AI 활성화를 위한 3대 자원 지원 전략”, 2020.9.
한국지능정보사회진흥원(NIA), “AI 학습용 데이터 사업의 실효성 향상을 위한 정책
방향”, 2020.11.