• AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

인공지능의 개인정보 자동화 처리가 야기하는 차별 문제에 관한 연구 (A Study on Discrimination Problem caused by Automated Personal Data Processing of Artificial Intelligence)

52 페이지
기타파일
최초등록일 2025.07.07 최종저작일 2019.06
52P 미리보기
인공지능의 개인정보 자동화 처리가 야기하는 차별 문제에 관한 연구
  • 이 자료를 선택해야 하는 이유
    이 내용은 AI를 통해 자동 생성된 정보로, 참고용으로만 활용해 주세요.
    • 논리성
    • 전문성
    • 명확성
    • 유사도 지수
      참고용 안전
    • 🔍 인공지능의 차별 문제를 깊이 있게 법적, 기술적 관점에서 분석
    • 💡 개인정보 자동화 처리의 숨겨진 위험성을 체계적으로 설명
    • 🌐 EU GDPR 사례를 통한 국제적 관점의 해결방안 제시

    미리보기

    서지정보

    · 발행기관 : 서울대학교 법학연구소
    · 수록지 정보 : 서울대학교 법학 / 60권 / 2호 / 311 ~ 362페이지
    · 저자명 : 김성용, 정관영

    초록

    대한민국 헌법 제10조는 인간의 존엄과 행복추구권을, 또한 동법 제11조 제1항은 “모든 국민은 법 앞에 평등하다. 누구든지 성별⋅종교 또는 사회적 신분에 의하여 정치적⋅경제적⋅사회적⋅문화적 생활의 모든 영역에 있어서 차별을 받지 아니한다”라고 각 명시함으로써 인간의 존엄을 중심으로 자유와 권리를 보장받도록 하고 있다.
    인공지능을 앞세운 4차 산업혁명시대 우리는 법 앞에 평등하고, 각종 차별로부터 자유로울까? 특히 빅데이터 기반의 인공지능 시스템에서 자동화 처리로 인하여 정보주체가 받는 차별은 이미 우리 사회 깊숙이 자리하고 있지만, 우리는 차별을 당하고 있다는 것조차 지각하지 못하는 듯하다. 개인정보의 수집부터 삭제에 이르기까지 처리 메커니즘이 명확했던 과거와 달리, 거의 전 과정이 자동화된 오늘날 누구도 처리과정을 알 수 없는 이른바 ‘블랙박스화’로 인한 투명성 및 공정성의 문제는 새로운 사회문제로 자리 잡았다.
    개인정보는 개인정보보호원칙에 따라 최소한의 정보만 투명하게 수집⋅처리되어야 하지만, 첨단 기술발전으로 인한 자동화 처리로 자신의 정보가 어디서 어떻게 수집⋅처리되는지 알기 어려워 정보주체의 개인정보자기결정권 행사가 사실상 불가능해지고 있다. 이러한 자동화 처리는 정보주체의 차별로 이어져 인종 간의 갈등으로 비화될 수 있고, 나아가 자동화 처리로 대표되는 인공지능에 대한 막연한 거부감으로 기술발전을 가로막는 장벽이 될 수 있다. 그러나 인공지능은 인간이 만든 알고리즘에 의해 작동한다는 사실을 간과해서는 안되는바, 자동화 처리로 인한 정보주체의 차별 문제를 해결하기 위한 연구가 필요하다. 이에 본고에서는 알고리즘의 편향성을 알고리즘 설계⋅제작자가 의도한 경우와 의도치 못한 경우로 나누어 살펴보고, 차별의 개념 및 정의를 통한 인공지능의 차별에 대한 국내외 사례를 살펴볼 것이다. 인공지능의 차별로부터 어떻게 정보주체를 보호할지 개인정보보호관점에서 바라보기 위해 EU의 GDPR을 중심으로 살펴보고, 이를 통하여 현재 인공지능의 주류인 머신러닝으로부터 비롯된 불투명성을 알고리즘의 본질로부터 해결하는 방안을 찾아보도록 하겠다.

    영어초록

    Article 10. of the Constitution of the Republic of Korea provides human dignity and the right to pursue happiness, and Article 11. paragraph 1 of the same law states, “All people are equal before the law. No one is discriminated against in all areas of political, economic, social or cultural life by gender, religion or social status.” In each case, freedom and rights are guaranteed around human dignity.
    Will we be equal before the law and free from all kinds of discrimination during the fourth industrial revolution era with artificial intelligence? The discrimination that data subject receive from automated processing, especially in big data-based artificial intelligence systems, is already deep in our society, but we do not seem to be even aware that we are being discriminated against. Unlike in the past when the mechanisms for processing personal data from personal data collection to deletion were clear, the issue of transparency and fairness caused by so-called ‘black boxing’, where no one knows the process of handling it, has emerged as a new social issue.
    Although the minimum amount of personal data should be collected and processed transparently according to the principles of relating to processing of personal data, it is becoming virtually impossible for the data subject to exercise its own personal data decision-making authority because it is difficult to know where and how to collect and process its data through automated processing due to advanced technology development. This automated processing can lead to bias and discrimination of data subjects, which can escalate into racial conflict, and further become a barrier to technological development with a vague sense of rejection of artificial intelligence represented by automated processing. However, we should not overlook the fact that artificial intelligence works by human-made algorithms, and research is needed to solve the problem of bias and discrimination in data subjects due to automated processing.
    In this paper, we will divide the bias of algorithms into the intended and unintended cases of algorithms, and look at domestic and foreign cases of discrimination of artificial intelligence through the definition of discrimination. In order to see how to protect the data subject from discrimination of artificial intelligence, we will focus on the EU’s GDPR from a personal data protection perspective, and look for solutions based on the nature of the algorithm for the opacity derived from the machine learning algorithm, which is currently the mainstream of artificial intelligence.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“서울대학교 법학”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 02월 19일 목요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
6:48 오후