인공지능의 규범적 문제와 해결방안
- 최초 등록일
- 2023.06.01
- 최종 저작일
- 2023.05
- 6페이지/ 한컴오피스
- 가격 3,000원
* 본 문서(hwp)가 작성된 한글 프로그램 버전보다 낮은 한글 프로그램에서 열람할 경우 문서가 올바르게 표시되지 않을 수 있습니다.
이 경우에는 최신패치가 되어 있는 2010 이상 버전이나 한글뷰어에서 확인해 주시기 바랍니다.
소개글
"인공지능의 규범적 문제와 해결방안"에 대한 내용입니다.
목차
1. 학습데이터의 문제
2. 알고리즘의 문제
3. 개인정보보호의 문제
4. 저작권 문제
5. 교육과 연구분야에서의 인공지능 활용 문제
본문내용
가. 데이터의 편향
머신러닝, 딥러닝은 다량의 데이터를 학습함으로써 데이터의 경향성을 파악하여 대응하는 수준일 뿐 데이터에 대한 가치 판단 능력은 없다. 이러한 특성상 학습데이터가 소수집단에 대한 기존 사회의 편견이나 차별을 반영할 경우 그 인공지능 시스템은 이러한 편향성을 그대로 반영할 가능성이 높다. 양종모, 「인공지능과 법률서비스 분야의 혁신」, 한국학술정보(2021).
2015년 흑인 여성을 ‘고릴라’로 분류하여 자동 태깅한 구글 포토 서비스의 문제나 ‘미국인’을 검색할 경우 백인의 얼굴 이미지가 다수 등장하는 구글 이미지의 문제는, 학습데이터 자체에 흑인 얼굴 이미지가 부족하였던 점이 작용하였을 것으로 추단할 수 있다. 한국인공지능법학회, 「인공지능과 법」, 박영사(2019).
학습데이터의 편향으로 인한 소수 집단의 불이익이 우려되는 사례로 채용시스템을 들 수 있다. 어떤 회사에서 기존에 채용되었거나 상위 직급으로 승진한 직원들의 데이터를 기반으로 학습데이터를 구축하였다면, 종전의 차별적인 채용행태에 따른 경향(인종, 성, 학력에 따른 차별)이 그대로 반영될 수밖에 없다. 실례로 아마존은 과거 10년간 제출된 이력서의 단어 패턴을 학습 데이터로 하여 채용시스템을 훈련시켰는데, 여기에는 글로벌 인력의 60%, 관리직의 74%가 남성인 학습 데이터 자체에 내재된 젠더 편향이 그대로 반영되었다. IT업계에서 압도적 다수를 이루는 백인 남성 엔지니어들이 사용하여 업계에 널리 퍼진 용어나 프로그래밍 관행을 정상 또는 표준이라고 보고, 여기서 벗어나는 데이터에는 낮은 점수를 줌으로써 채용에 있어 백인 남성을 선호하고 여성에게는 불리하게 작용하였다. 이러한 문제가 드러나자 아마존은 2018년 위 시스템을 폐기하였다.
참고 자료
양종모, 「인공지능과 법률서비스 분야의 혁신」, 한국학술정보, 2021.
한국인공지능법학회, 「인공지능과 법」, 박영사, 2019.
노성열, 「AI시대, 내 일의 내일」, 동아시아, 2020.
차상육, “인공지능(AI)과 지적재산권의 새로운 쟁점-저작권법을 중심으로”, 법조(제
723호), 2017.