• AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

인공지능의 목소리, 규제할 수 있을까 ―젠더 편향 해소를 위한 제안― (Regulating AI Voices ―Exploring Solutions to Gender Bias―)

38 페이지
기타파일
최초등록일 2025.05.01 최종저작일 2023.12
38P 미리보기
인공지능의 목소리, 규제할 수 있을까 ―젠더 편향 해소를 위한 제안―
  • 미리보기

    서지정보

    · 발행기관 : 한국법철학회
    · 수록지 정보 : 법철학연구 / 26권 / 3호 / 167 ~ 204페이지
    · 저자명 : 김주현

    초록

    본 논문은 그동안 제시된 인공지능의 젠더 편향 해결 방안이 효과적인지, 그 방향성이 타당한지에 대한 물음을 탐구하고자 한다. 우리에게 잘 알려진 인공지능 기술인 디지털 어시스턴트는 기본적으로 여성으로 설정되었다. 글로벌 기술회사는 남성 소비자를 중심으로 디지털 어시스턴트의 목소리를 여성으로 설정하여 개발하고 보급하였다. 그런데 문제는 여성화된 디지털 어시스턴트가 기존의 젠더 불평등을 유지할 뿐 아니라 확산시킨다는 것이다. 디지털 어시스턴트의 목소리는 여성이 친절하고 유순하며 순종적이라는 젠더 고정관념을 강화하고, 성적 괴롭힘에 대한 잘못된 태도를 양산하였다. 그러나 이러한 디지털 어시스턴트의 여성화는 기술회사가 압도적으로 남성 인력에 의해 구성되었기 때문인데, 다른 전문 분야와 비교할 때, 인공지능 기술 분야에서 젠더 격차는 심각한 편이다.
    이러한 문제를 해결하기 위해 다방면의 국제적, 국내적 노력이 있었다. 기본적으로 여성 음성으로 설정되는 관행을 없애고, 젠더 중립적인 디지털 어시스턴트 개발을 모색하는 방안을 제시하였고, 디지털 어시스턴트의 젠더 편향으로 강화되는 젠더 불평등을 개선하기 위해 젠더에 민감한 데이터를 수집하고 알고리즘을 설계하거나 프로그래밍해야 한다는 제안을 하였다. 기술 분야의 젠더 격차를 해소하기 위해 여학생들의 이공계 진출을 지원하는 정책과 법제도 시행하였다. 하지만, 이러한 방안으로 역사적으로 뿌리 깊게 지속된 젠더 불평등이 해결되기란 쉽지 않았다. 특히 인공지능의 젠더 편향을 해결하는 기존의 방안은 다소 한계에 부딪히고 있는데, 여성 목소리를 기본값으로 하지 않기 위해 남성 옵션을 추가했지만, 성별 이분법적 고정관념을 드러내거나 성 정체성의 다양성을 고려하지 못한 점이 있다. 남성 중심의 기술회사에서 젠더 중립적인 디지털 어시스턴트의 개발이 가능한지도 의문이며, 젠더에 민감한 데이터와 알고리즘도 이를 설계하거나 감사하는 주체가 중요한데, 이에 대한 구체적인 논의가 이루어지지 않아 한계를 지닌다. 기술 분야의 여성 참여 정책과 법제가 시행되고 있음에도 여전히 인공지능 기술 분야에서 여성의 과소 대표성이 심각한 것도 문제이다.
    따라서 이러한 한계를 극복하고 효과적인 인공지능의 젠더 편향 해소 방안을 마련하기 위해 젠더 권력의 사회적, 정치적 맥락을 고려할 필요가 있다. 남성의 관점과 경험이 보편적인 남성 중심 사회에서는 인공지능 젠더 편향에 대한 문제의식이 부족할 수 있다. 인공지능 젠더 편향에 대한 사회적 인식 제고가 필요하며, 이를 위해서는 인공지능 젠더 편향에 대한 교육과 연구가 필요하다. 또한 인공지능의 젠더 편향을 해소하기 위한 구체적인 법적 지원 방안을 마련해야 한다. 젠더에 민감한 데이터를 수집하고 알고리즘을 설계하기 위해서는 젠더 문제를 파악하고 해결책을 제시할 수 있는 법적 지원 기구가 필요하며, 이는 기술 분야의 적극적 평등실현조치를 통해 기술-젠더 융합 전문가의 양성을 바탕으로 추진되어야 할 것이다.

    영어초록

    This article investigates the effectiveness of proposed solutions addressing gender bias in AI and evaluates their appropriateness. Globa tech companies have developed and marketed a digital assistant with a female voice, targeting male consumers. However, the issue lies in feminized digital assistants not merely perpetuating existing gender inequalities but exacerbating them. These digital assistant voices reinforce gender stereotypes, portraying women as kind, docile, and submissive, while fostering false attitudes about sexual harassment. This inclination towards female digital assistants stems from the overwhelmingly male workforce in tech companies, highlighting a severe gender divide within AI technology compared to other professional fields.
    Numerous international and national initiatives have aimed to address this issue. Proposals have emerged to eliminate defaulting to female voices, explore gender-neutral digital assistants, and collect gender-sensitive data. Efforts have also focused on designing algorithms to mitigate gender inequalities reinforced by biases in digital assistants. In the education sector, policies and legislation bolster girls’ entry into science and technology, addressing gender imbalances within the tech field. However, these measures struggle to rectify deeply entrenched gender inequalities. Specifically, existing measures tackling gender bias in AI have limitations. Some introduce a male option to avoid defaulting to a female voice but fail to confront gender binary stereotypes or consider diverse gender identities. The creation of gender-neutral digital assistants within male-dominated tech companies raises questions. Additionally, discussions about the individuals responsible for designing or auditing gender-sensitive data and algorithms are absent, hampering their collection and programming. Despite policies and legislation aimed at enhancing women’s participation in technology, a significant under-representation of women persists within the field of AI technology.
    To effectively address gender bias in AI, it is required to devise solutions that consider the social and political contexts of gendered power. In a predominantly male-dominated society where male perspectives and experiences prevail, awareness of gender bias in AI might be lacking. Raising social consciousness about gender bias in AI necessitates educational initiatives and dedicated research. Specific legal support should also be provided to help address gender bias in AI. Developing gender-sensitive data collection methods and algorithmic designs requires a legal support institute focused on identifying and proposing solutions to gender-related issues. Such endeavors require training experts at the intersection of technology and gender through affirmative action.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우
문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 02월 12일 목요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
12:00 오후