• AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

해명책임은 누구에게 왜 요구되는가? (To Whom is Accountability Required and Why?)

한국학술지에서 제공하는 국내 최고 수준의 학술 데이터베이스를 통해 다양한 논문과 학술지 정보를 만나보세요.
25 페이지
기타파일
최초등록일 2025.04.01 최종저작일 2024.03
25P 미리보기
해명책임은 누구에게 왜 요구되는가?
  • 미리보기

    서지정보

    · 발행기관 : 이화여자대학교 생명의료법연구소
    · 수록지 정보 : 생명윤리정책연구 / 17권 / 2호 / 137 ~ 161페이지
    · 저자명 : 최경석

    초록

    이 글에서 필자는 우선 “자율주행차량”이나 “책임 있는 인공지능”과 같이 인공지능과 관련하여 우리가 사용하는 용어들은 인공지능의 존재론적 지위와 관련하여 인공지능이 마치 책임의 주체인 것처럼 잘못 이해하게 하는 용어들임을 지적한다. 심지어 해명책임에 대한 논의에서도 해명책임의 주체를 인간이 아닌 인공지능인 것처럼 논의하는 경우도 있다. 필자는 인공지능은 행위의 주체가 될 수 없으며, 따라서 해명책임의 주체는 인공지능이 아니라, 인공지능 서비스에 대해 책임을 져야 하는 사람들이다. 최근 주목되는 설명가능성이나 해석가능성과 같은 인공지능의특성에 대한 논의에서도 해명책임이 중심적인 개념이며, 이들 특성은 해명책임의 이행에 도움을줄 수 있다. 하지만 이 특성이 인공지능이 지녀야 할 필수적인 특성은 아닐 수 있다고 보았다. 해명책임은 어떤 사태의 발생이나 관련된 판단에 대해 설명하는 의무로서 근본적으로는 정당화 근거를 제시하는 인식론적 활동에서 요구되는 의무이다. 따라서 해명책임의 핵심은 판단의 주체가왜 그런 판단을 했는지 그리고 그 판단이 왜 신뢰할 만한 것인지 그 정당화 근거를 제시하는 데 있다. 따라서 인공지능 기술에 기반한 서비스를 제공하는 사람은 해당 기술의 신뢰성이 왜 어떻게담보되는지 설명할 수 있어야 할 것이다.

    영어초록

    This article points out that the commonly used terms like “autonomous vehicle” or “responsible AI” mislead us to consider AI the subject of responsibility related to the ontological status of AI. Furthermore, there is an opinion where AI is treated to be the subject of accountability even in the discussion of accountability. I argue that AI cannot be the subject of action, nor that of responsibility. Therefore, the subject of accountability is not AI, but persons who are responsible for the service AI provides. Accountability is the key conpet in the discussion on the features of AI, such as explainability and interpretability, which have recently been noted. These features help the fulfillment of accountability. However these features may not be necessary features of AI. Accountability is a duty to explain the occurrence of a situation or its relevant judgment and is a duty required in epistemological activities that should provide a justification. The core of the responsibility for explanation lies in presenting the reasons why the subject of judgment makes such a judgment and why the judgment is reliable. Therefore, those who provide services based on AI technology should be able to explain why and how the reliability of the technology is guaranteed.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“생명윤리정책연구”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
  • EasyAI 무료체험
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 10월 11일 토요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
12:05 오후