소개글
"인공지능기술 발전과 인권침해 사례"에 대한 내용입니다.
목차
1. 서론
2. 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례
2.1. 사례 1: 페이스북 개인정보 유출
2.2. 사례 2
2.3. 사례 3
2.4. 사례 4
2.5. 사례 5
2.6. 사례 6
3. 인공지능과 민주주의의 관계
3.1. 인공지능과 민주주의의 일반적인 관계
3.2. 긍정적 측면
3.3. 부정적인 측면
4. 인공지능의 위험성과 한계를 통제하기 위한 제도, 원칙, 정책 및 법률
4.1. 일반적인 제도, 원칙, 정책 및 법률
4.2. 구체적인 제도, 원칙, 정책 및 법률
4.3. 본인의 생각
5. 결론
6. 참고 문헌
본문내용
1. 서론
인공지능 시대의 본격적인 진입을 앞두고 있는 지금, 많은 전문가들은 동 기술의 '특이점' 도래와 위험성을 강조하며 이에 대한 규제 필요성을 주장하기 시작하였다. 알고리즘에 의해 제공된 편향된 정보와 가치관에 의해 훼손되는 민주주의원리, 집적된 데이터가 권력화되어 나타나는 거대 디지털 권력 및 이를 활용한 정부의 중앙집권화 감시체계, 데이터를 통한 권력 획득 과정에서 침해되는 개인정보와 데이터 경로의존성이 높은 알고리즘에 의해 발생하는 차별적 결과 등 오늘날 우리 사회는 인공지능과 공존하는 삶에 있어서 기술 위험에 대응한 사회안전망 구축이 필요하다. 따라서 본론에서는 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고, 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적, 국제적 제도, 원칙, 정책 및 법률 등을 정리하면서, 본인의 생각을 제시해 보겠다.
2. 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례
2.1. 사례 1: 페이스북 개인정보 유출
페이스북 개인정보 유출 사례는 2016년 페이스북 이용자 개인정보 유출 사건으로, 이는 인공지능 알고리즘으로 수집된 정보가 정치적 편향성 강화와 여론 왜곡에 사용될 수 있음을 보여준 사례이다. 2016년 영국 데이터 분석기업 케임브리지 애널리티카(Cambridge Analytica)가 페이스북 이용자 약 8700만 명의 데이터를 동의 없이 수집하여 미국 대통령 선거 캠페인에 사용한 것이 밝혀졌다. 이는 'thisisyourdigitallife'라는 성격검사 앱을 통해 이루어졌으며, 페이스북 친구 목록, '좋아요'를 누른 항목, 위치 정보 등이 수집되었다. 이 사건은 개인정보 보호와 소셜 미디어의 데이터 사용에 대한 전 세계적인 관심을 불러일으켰고, 기술 기업들에 대한 엄격한 규제를 요구하는 목소리가 높아졌다. 또한 이 사건은 소비자 보호와 프로파간다 및 오보에 대한 강력한 통제를 요구하는 계기가 되었다.
2.2. 사례 2
사례 2 채팅 로봇 테이(Tay)는 MS(Micro Soft)사에서 인공지능(AI)을 기반으로 설계한 채팅 로봇으로, 사람들과의 채팅을 통해 정보와 다양한 의견들을 주고받으며 스스로 학습하는 챗봇이었다. 그러나 일부 트위터 사용자들이 테이와의 상호작용을 통해 인종차별적이고 정치적으로 편향된 내용, 욕설 등을 가르쳐 테이를 인종차별주의자이자 대량학살 지지자로 만들었다. 이는 인공지능 시스템의 학습 메커니즘이 사용자들의 부적절한 입력에 의해 왜곡될 수 있음을 보여주는 사례라 할 수 있다. 이처럼 인공지능 시스템의 학습과정에서 편향된 데이터나 인간의 개입으로 인해 차별적인 결과가 발생할 수 있다는 점은 인공지능 개발에 있어 중요한 고려사항이 되고 있다.
2.3. 사례 3
사례 3: Amazon 채용 알고리즘
글로벌 전자상거래 기업 Amazon社은 머신러닝 기술을 기반으로 하여 입사지원자 선별 프로그램을 비공식적으로 활용하였다. Amazon은 2014년부터 인공지능을 활용한 채용시스템을 개발하였는데, Amazon이 사용한 알고리즘이 소프트웨어 개발이나 기술 영역에서 입사에 지원한 여성에 대한 차별이 문제되었다. 특히 해당 알고리즘은 구직자들에게 1~5점 사이의 점수를 부여하였다. 또한 과거 10년간 Amazon에 제출된 채용 응시자의 이력서를 학습하였는데, 기술산업 영역에 종사하는 지원자들 중에는 남성직원이 압도적으로 많아 해당알고리즘도 남성 지원자를 더 선호하는 방향으로 학습하는 편향이 반영된 것이다. 가령 채용 응시자의 이력서에'여자 체스클럽 주장'으로 기재되었거나, 학교명을 지정하지는 않았지만'여자대학 졸업'과 같이'여성'이 기재된 이력서에 낮은 점수를 매긴 것으로 밝혀졌다. 반대로 남성 지원자의 자기소개서에 기재된"executed"내지는"captured"와 같은 표현에 높은 점수를 매겨 여성을 차별하였다. 결국 Amazon은 채용과정에서 성 편향적 논란을 낳게 되었고 채용 알고리즘 개발 프로젝트를 전면적으로 중단하였다.
2.4. 사례 4
애플社와 골드만삭스사는 2019년 8월 신용카드 'Apple Card'를 출시하였다. 해당 금융상품의 안내자료에는 Apple Card가 다른 신용카드보다 더 많은 개인 정보를 ...
참고 자료
김도윤 (2020). 인공지능기술과 인간의 책임 연구. 제주대학교. 박사학 위논문.
윤수정 (2020). 인공지능사회에서의 기본권. 공법연구.
김승래 (2018). 4 차 산업혁명과 AI 시대의 법적 과제와 전망. 법학연구.
양천수, 인공지능 혁명과 법, 서울:박영사, 2020.
고학수 외 2인,“인공지능과 차별”,「저스티스」제171호, 한국법학원, 2019.
이상욱, 이호영, 인공지능(AI) 윤리와 법(Ⅰ)-AI 윤리의 쟁점과 거버넌스 연구, 세종: 한국법제연구원, 2022.
BBC NEWS 코리아 폼페이지
권혜령, 정경수(2022), 국제인권법, 한국방송통신대학교출판문화원
이준일(2022), 인공지능과 현법, 헌법학연구
윤진숙(2022), AI의 지적재산권과 인권 보장, 법학연구 32권 2호
김용신(2021), 지능정보사회의 인공지능과 인권, 국제지역연구 25권 1호
윤수정 (2020). 인공지능사회에서의 기본권. 공법연구
고학수 외 2인(2019), 인공지능과 차별,「저스티스」제171호, 한국법학원