• AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

인공지능 챗봇의 편향 통제를 위한 윤리 가이드라인 (Ethical Guidelines for Controlling Bias of Artificial Intelligence Chatbots)

30 페이지
기타파일
최초등록일 2025.05.13 최종저작일 2023.02
30P 미리보기
인공지능 챗봇의 편향 통제를 위한 윤리 가이드라인
  • 미리보기

    서지정보

    · 발행기관 : 한국공법학회
    · 수록지 정보 : 공법연구 / 51권 / 3호 / 715 ~ 744페이지
    · 저자명 : 이희옥

    초록

    ‘챗봇’은 최초의 인공지능 알고리즘 프로그램이면서 인간과 대화할 수 있는 기술이다. 초기 챗봇은 비교적 단순한 검색 시스템에 기반하여 사용자의 질문에 대한 응답을 해주는 서비스로 인공지능의 위험 논쟁에서 어느 정도 거리를 둘 수 있었다. 그런데 2016년 3월 빅데이터를 학습한 인공지능 챗봇 테이(Tay)의 등장은 머신러닝의 편향성이 현실적인 문제임을 알렸다. 테이는 출시 16시간 만에 대량학살을 지지하는 등 각종 차별, 혐오, 비속어를 쏟아내면서 물의를 빚어 서비스 종료에 이른다. 이후 발견된 유사한 사례들은 인공지능 챗봇의 학습 데이터와 알고리즘의 편향성 문제를 제기시키기에 충분하였다. 이후 국내외에서 인공지능 데이터와 알고리즘의 위험성이 본격적으로 논의된바, EU에서는 인공지능(AI) 윤리 가이드라인과 인공지능법안이 발표되었고 그 영향으로 우리나라에서도 「인공지능(AI) 윤리기준」이 관계부처의 합동으로 제시되었다.
    이 같은 실정에서 국내에서도 챗봇 이루다 사건이 발생한 것은 실로 안타까운 일이 아닐 수 없다. 이로써 테이가 촉발한 인공지능 편향성이 챗봇서비스의 보편적인 문제로 방증 된 것으로 보이기 때문이다. 이에 인간에게 이로운 인공지능의 구현을 위해서 인공지능 챗봇에 관한 규범이 적시에 마련되어야 할 것이다. 이루다는 스캐터랩社의 일상대화형 인공지능 챗봇으로 윤리적・법적 문제를 제기해 출시 3주를 넘기지 못하고 서비스 종료에 이르렀다. 이루다의 문제점은 다음의 몇 가지로 꼽을 수 있겠다. 첫째, 흑인・동성애자・장애인・여성 사회운동(미투운동)에 대한 질문에 대하여 이루다가 혐오 표현에 동조하고 차별적 표현을 한 점, 둘째, 일부 사용자들이 이루다를 성희롱 대상으로 삼고 관련 대화를 유도한 점, 셋째, 이루다에 제공된 데이터에 개인정보가 유출되어 개인의 프라이버시를 침해한 점이다.
    본 논문은 이 세 가지 문제점을 인공지능 챗봇이 갖는 위험요소인 ‘편향’과 관련지어 인간에 대한 ‘왜곡된 투사’라는 관점에서 논하고, 이때 인간의 자기결정과 나아가 인간존엄을 지키는 방안으로서 ‘챗봇 윤리 가이드라인’의 몇 가지 쟁점과 방안을 제시하고자 한다.

    영어초록

    Chatbot is the first artificial intelligence algorithm program and a technology that can talk to humans. Chatbot is implemented in a way that responds to user questions based on a relatively simple search system, and is known as a service that quite coexists with humans. According to this background, early chatbot services could be free from advanced artificial intelligence risk issues.
    However, the emergence of the artificial intelligence chatbot Tay, which learned big data in March 2016, announced that the problem of bias in machine learning was a realistic problem. Tay has caused a stir by pouring out various discrimination, hatred, and slang, including supporting genocide within 16 hours of its launch, leading to the end of the service. Similar cases found later were sufficient to raise the problem of bias in the learning data and algorithms of artificial intelligence chatbots. Since then, risk factors of artificial intelligence-based data and algorithms have been discussed in earnest at home and abroad, and the EU's artificial intelligence ethics guidelines and artificial intelligence bills have been announced, and due to the influence, “Artificial intelligence ethical standards” have been jointly presented in Korea.
    In this situation, it is unfortunate that the chatbot Ai luda case occurred in Korea, but it was an opportunity to inform that the problem of Tay's artificial intelligence bias may be a universal problem for chatbot services. Therefore, in order to realize artificial intelligence that is beneficial to humans, it seems that norms for artificial intelligence chatbots should be prepared in a timely manner.
    Ai luda is a daily interactive artificial intelligence chatbot launched by Scatter Lab and raised ethical and legal issues and ended the service within three weeks of its launch, and the problems at that time can be cited as the following.
    First, regarding questions about black, homosexual, disabled, and women's social movements, they sympathized with discrimination or hate expressions or expressed similar nuances. Second, some users used Ruda as a target of sexual harassment. Third, personal information included in Ai luda learning data was leaked.
    This paper discusses these three problems from the perspective of ‘distorted projection’ of humans in relation to ‘bias’, a risk factor of artificial intelligence chatbot, and suggests some issues and measures of ‘Chatbot Ethical Guideline’ as a way to protect human self-determination and further human dignity.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“공법연구”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 02월 19일 목요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
3:49 오후