• 전문가 요청 쿠폰 이벤트
PARTNER
검증된 파트너 제휴사 자료

헬스케어 인공지능에서 악을 식별할 수 있을까: 플로리디 정보 윤리학에 기초하여 (Can we identify evil in healthcare AI: A study on Floridi’s Information Ethics)

19 페이지
기타파일
최초등록일 2025.04.16 최종저작일 2023.12
19P 미리보기
헬스케어 인공지능에서 악을 식별할 수 있을까: 플로리디 정보 윤리학에 기초하여
  • 미리보기

    서지정보

    · 발행기관 : 한국생명윤리학회
    · 수록지 정보 : 생명윤리 / 24권 / 2호 / 87 ~ 105페이지
    · 저자명 : 김준혁

    초록

    인공지능의 도덕성에는 여전히 논쟁의 여지가 있다. 특히, 아직 인공지능이 자기 인식이나 의도를 가지고 있다고 말하기 어렵다는 점을 고려할 때 문제는 어려워진다. 그러나, 인공지능 개발에 도덕적 추론을 통합할 필요성에 관한 공감은 이미 형성되어 있다. 이때, 인공지능 자체의 악을 말할 수 있는지 여부가 중요하나 관련 논의는 대부분 이론적 수준에 머물러 있고, 실질적 논의는 인공지능 개발 및 사용의 윤리를 중심으로 이루어지고 있다. 그러나, 헬스케어 인공지능 영역은 생명의료윤리의 논의가 현재 가용되는 인공지능 알고리듬이나 장치와 만나야 하기 때문에 상황이 다르다. 생명의료윤리의 원칙 아래, 헬스케어 인공지능이 환자에게 해를 끼치거나 환자의 이익에 반하는 행동을 할 수 있는 상황을 평가하기 위해서는 명확한 기준이 필요하다. 주목할 만한 문제로 그 사용자가 오정보를 받을 수 있는 생성형 인공지능의 환각이 있다. 이것이 반드시 사용자에게 해를 끼치지는 않을 수도 있지만, 헬스케어 분야에서 그 영향은 검토를 필요로 한다. 본 논문은 루치아노 플로리디의 정보 윤리학에 기초하여 헬스케어의 맥락적 특수성 안에서 헬스케어 인공지능의 환각을 악으로 정의한다. 본 논문은 헬스케어 인공지능의 환각 수준을 측정하고 줄이기 위해 평가 지표를 사용할 것을 주장한다. 정보 윤리학을 개괄한 뒤, 이를 헬스케어 분야에 적용하여 본 논문은 헬스케어에 맞는 참-거짓 평가 기준의 필요성을 요청한다.

    영어초록

    The morality of Artificial Intelligence (AI) remains a point of contention, especially considering the lack of self-awareness or intent in AI systems. However, there is a consensus on the need to incorporate moral reasoning into AI development. The question of AI’s inherent ‘evil’ remains largely theoretical, suggesting that practical discussions should center around the ethics of AI development and use. However, in the healthcare AI domain, the situation differs due to the bioethical considerations and practical applications of several AI algorithms and devices. Despite principles of bioethics being applicable, clear criteria are needed to evaluate situations where healthcare AI could cause harm or act against patients’ benefits. A notable issue is the ‘hallucination’ caused by generative AI, where users might receive fabricated information or misinformation. Though this doesn’t necessarily harm users, its implications in healthcare are questionable. This paper aims to define hallucination in healthcare AI as an evil based on Luciano Floridi’s information ethics, emphasizing the contextual specificity of healthcare. It argues for the use of evaluation metrics to measure and reduce hallucination levels in healthcare AI. After an overview of information ethics, this study applies the concept to the healthcare domain, suggesting the need for a truth-falsity metric tailored to healthcare.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“생명윤리”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 03월 18일 수요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
3:55 오전