PARTNER
검증된 파트너 제휴사 자료

EU 일반정보보호규정(GDPR)의 알고리즘 자동화 의사결정에 대한 통제로써 설명을 요구할 권리에 대한 쟁점 분석과 전망 (Analysis of Issues and Prospects with the Right to Explanations as a Control Measure for Algorithm-Based Automated Decision-Making in EU-GDPR)

22 페이지
기타파일
최초등록일 2025.06.03 최종저작일 2019.03
22P 미리보기
EU 일반정보보호규정(GDPR)의 알고리즘 자동화 의사결정에 대한 통제로써 설명을 요구할 권리에 대한 쟁점 분석과 전망
  • 미리보기

    서지정보

    · 발행기관 : 민주주의법학연구회
    · 수록지 정보 : 민주법학 / 69호 / 277 ~ 298페이지
    · 저자명 : 김재완

    초록

    현대 정보통신기술(ICT)은 인공지능을 등장시키고 발전시킴으로써 인간 사회의 패러다임에 큰 변화를 가져오고 있다. 인공지능 발전의 가장 핵심적인 기술은 빅데이터와 알고리즘이다. 빅데이터의 알고리즘 시스템은 정교한 프로세스를 사용한다. 또 이러한 프로세스에는 데이터의 입력이 필요하다. 빅데이터와 알고리즘 기술을 가장 많이 활용하는 주체는 기업이며, 정당 등 정치적 목적을 가진 분야에서도 활발하게 이용되고 있다. 만약 알고리즘 시스템의 설계자가 데이터의 입력과 조작 등에 있어 자신의 특정한 성향이나 세계관만을 따른다면, 인공지능 알고리즘의 자동화된 의사결정과 그 생성물은 편향성, 차별성, 불공정성 등을 나타내게 된다. 이때 알고리즘은 이념의 생성물로서 필연적으로 정치적인 속성을 내포하게 된다. 알고리즘에 의한 자동화된 의사결정이 제공하는 결과가 전적으로 중립적이라고 볼 수는 없게 되는 것이다. 그 결과가 객관성과 공정성을 담아내지 못함에도 불구하고, 그 결과가 사회에 미치는 영향은 정치․경제․문화 등의 모든 분야를 망라하며, 이용자들의 선호와 판단 그리고 행동까지도 변화하게 만든다. 오늘날 알고리즘은 국가와 사회의 정치적, 사회적, 경제적, 문화적 상호작용과 의사결정에 중요한 기능과 역할을 담당하면서 계속해서 영향력을 높여 나가고 있다. 또한, 그 자체가 하나의 거대한 정치권력이 되어가는 모습마저도 나타낸다. 따라서 편향적인 데이터와 이를 통해 학습한 인공지능 알고리즘이 만들어내는 부정적인 결과인 차별, 편견, 배제, 불공정성 등을 효과적으로 통제하는 방안을 모색하는 사회적 논의와 법적 대응책이 필요하다.
    이에 EU의 일반정보보호규정(General Data Protection Regulation: GDPR)의 도입과 발효(2018년 5월)는 알고리즘의 투명성과 책무성에 대한 규범적 쟁점과 논의를 확대하는 계기를 마련해 주었다. GDPR은 정보 주체가 프로파일링에 대해 반대할 권리와 자동화된 의사결정의 대상이 되지 않을 권리가 있음을 규정하고 있다. 또한, 정보 주체가 그들에 관하여 수집된 정보에 접근할 권리가 있으며, 수집된 개인정보에 관해 통지를 받을 권리가 있음을 규정하고 있다. 이러한 규정들과 이의 해석을 통해서, 알고리즘에 기반한 자동화된 의사결정에 대한 설명을 요구할 권리(Right to explanation)가 도출될 수 있다. 설명을 요구할 권리는 이용자에게 프로파일링 기반의 알고리즘 결정에 관해 설명을 요구할 기회를 부여함과 동시에, 알고리즘 설계과정에서 인간적 개입의 중요성을 강조한 점에서 큰 의미가 있다. 또한, 설명을 요구할 권리는 해당 기업의 영업 비밀에 해당하는 알고리즘 설계과정에 정보 주체가 개입할 수 있도록 강제하는 규범적 가능성을 열어줌으로써, 알고리즘의 공정성․투명성 및 차별성 이슈를 풀어나가는데 핵심적인 역할을 할 것으로 생각된다.

    영어초록

    Modern information and communication technologies(ICTs) are bringing huge changes to the paradigms of human society by presenting and developing artificial intelligence(AI). The very core technologies in the development of AI are Big Data and algorithms. The algorithm system of Big Data uses an exquisite process, which requires the input of data. Big Data and algorithm technologies are most used by corporations and actively used in the fields with political purposes such as political parties. If the designer of an algorithm system bases data entry and manipulation only on his or her certain tendencies or world views, automated decision-making and its outcomes in the AI algorithm will display a bias, differentiation, and unfairness. In such a case, the algorithm is a product of ideology and necessarily has political attributes. There is no saying that outcomes by the automated decision-making process based on the algorithm are totally neutral. Even though such outcomes have no objectivity and fairness, their influences will encompass all the sectors of the society including politics, economy, and culture and change even the preferences, judgments and actions of users. Today, algorithms perform important functions and roles in political, social, economic, and cultural interactions and decision-making processes at the national and social level, continuing to increase their influences. They are even becoming an entity of huge political power themselves. There is thus a need for social discussions and legal measures to explore plans of effectively controlling discrimination, prejudice, exclusion, and unfairness that are negative outcomes of biased data and AI algorithms whose learning is based on biased data.
    EU-General Data Protection Regulation(GDPR) were introduced and came into effect in May, 2018, creating a chance to expand normative issues and discussions about the transparency and accountability of algorithms. EU-GDPR stipulate that the subjects of information have rights to refuse their profiling and not to become subjected to automated decision-making processes. EU-GDPR also state that they have rights to access to the information collected regarding them and notices about their personal information collected. The interpretations of these regulations and objections to them can result in a right to explanations about automated decision-making processes based on an algorithm. This right to explanations holds huge significance in that it grants an opportunity for users to request explanations about profiling-based algorithm decisions and puts an emphasis on the importance of human interventions in the algorithm design process. This right to explanations also opens up the normative possibilities of enforcing an intervention into the algorithm design process, which is part of a corporation's confidential business information, by the information subject, thus playing an essential role in addressing the fairness, transparency, and differentiation issues of algorithms.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“민주법학”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요. 해피캠퍼스의 방대한 자료 중에서 선별하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 목차부터 본문내용까지 자동 생성해 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 캐시를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 08월 02일 토요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
1:17 오후