인공지능의 젠더 편향성 (A+ 대학교 학술 에세이)
- 최초 등록일
- 2023.09.29
- 최종 저작일
- 2022.12
- 5페이지/ MS 워드
- 가격 2,500원
소개글
"인공지능의 젠더 편향성 (대학교 학술 에세이)"에 대한 내용입니다.
A+ 받은 에세이입니다!!
목차
1. 인공지능 알고리즘의 편향성 문제 검토 및 분석
1.1. 젠더 편향성의 용어 정의
1.1.1. 알고리즘 편향성
1.1.2. 젠더 편향성
1.2. 젠더 편향성의 심각성 및 대두
2. 젠더 편향성으로 논란이 된 인공지능
2.1. 논란이 된 인공지능 챗봇 ‘이루다
2.2. 음성인식 인공지능의 젠더 편향적 설정
3. 인공지능 알고리즘의 젠더 편향성을 해결하기 위한 방안
3.1. 챗봇 인공지능의 젠더 편향 줄이기 위한 단계별 방안
3.2. 인공지능 연구개발 및 관련 산업에서의 여성 참여 확대
3.3. 알고리즘 투명성 확보
3.4. 젠더리스 인공지능 개발
4. 참고문헌
본문내용
1.1.1. 알고리즘 편향성
알고리즘 편향성이란, 특정 데이터의 학습 및 재생산 반복으로 인해 알고리즘의 의도된 목적과 다르게 불공정한 결과를 생성하는 오류이다. 그 예시로, 유튜브 알고리즘이 있다. 유튜브에서 특정 주제가 포함된 콘텐츠만 계속 떠서 그 콘텐츠만 보게 되다가 그 결과가 다시 알고리즘에 반영되어 편향이 심해지는 경우가 해당된다.
참고 자료
오요한, 홍성욱, 「인공지능 알고리즘은 사람을 차별하는가?」, 과학기술연구 제 18권 제 3호, 2018년 195쪽
한애라, 「인공지능과 젠더차별」, 통권 27호, 이화여자대학교 젠더법학연구소, 2019년, 3쪽
정채연, 「사법절차 및 사법서비스에서 인공지능 기술의 도입 및 수용을 위한 정책 연구」, 사법정책연구원, 2021년 10월, 130쪽
김효인, 조유빈, 「이루다·로지·싸이월드…IT업계 만연한 젠더 편향 드러내」, 투데이신문, 2022
임보미, 「남녀 구분없는 ‘젠더리스 AI 목소리’ 등장」, 동아일보, 2019년 3월