[소논문]인공지능 시스템 안전성 평가모델에 관한 고찰
유익에듀TV
다운로드
장바구니
소개글
최근 이슈가 되고 있는 인공지능의 안전성에 대한평가 모델 도출하기 위해 최근 발표된 인공지능 관련 표준과
지침 등을 정리한 자료
목차
1. 서론2. 이론적 고찰
2.1. 인공지능 시스템의 개념
2.2. 안전성의 개념
2.3. 시스템 안전공학의 안전성 평가 체계
2.4. 소프트웨어 안전성 진단 활동
2.5. 인공지능 시스템의 평가모델
2.5.1 인공지능 시스템 품질모델(ISO/IEC 25010, 25059)
2.5.2 인공지능 학습용 데이터 품질관리 지표(NIA, 2022)
2.5.3 인공지능 신뢰성 평가 모델(유럽위원회 ALTAI)
2.5.4 인공지능 윤리원칙 모델
2.5.5 인공지능 서비스 품질 평가 모델
3. 인공지능 시스템 안전성 평가 모델 개발
3.1. 인공지능 안전성 평가 모델 구성
3.2. 인공지능 시스템 안전성 평가요소
3.3. 인공지능 안전성 평가모델
4. 결론
참고문
본문내용
최근 인공지능 기술의 급속도로 발전하면서 다양한 분야에서 인공지능 기술의 적용이 확산되고 있으며 인공지능에 대한 관심이 높아지고 있으며 이와 더불어 기존 기술과 다 르게 자율적인 사고와 판단을 전제로 하는 인공지능 시스템에 대한 안전성에 대한 우려 도 같이 증가되고 있다. 인공지능 기술 자체 특성들 때문에 발생하는 안전성 문제에 대 한 주요한 내용을 살펴보면 다음과 같다. 첫째, 인공지능의 오작동에 대한 원인 파악이 어려운 기술적인 문제이다. 이것은 인공 지능 기술의 불확실성과 불투명성에서 기인한다. 기계학습에 기반을 둔 인공지능 알고리 즘은 복잡성이 높고 어떠한 근거로 결과를 도출하였는지 명확하게 파악하기 어려운 블랙 박스 구조라 할 수 있다. 이러한 불확실성과 불투명성은 인공지능 기술에 대한 신뢰성을 저해할 수 있다.1) 둘째, 인공지능 기술은 학습데이터에 매우 의존적이라는 취약성을 가지고 있다. 특정한 의도를 갖고 편향된 데이터를 인공지능에 주입하여 학습에 오류를 유발하는 데이터 중독 공격(data poisoning attack), 패턴 인식 시스템에 노이즈 데이터를 추가하여 오류를 일으 키는 적대적 공격(adversarial attack) 등을 들 수 있다.2) 또한 데이터의 품질과 편향성 문 제는 개발에 활용된 데이터가 부족하거나 편향성이 내재되거나, 사용 알고리즘 자체에 왜곡, 편향이 내포되어 있는 경우 생기는 사항이다. 데이터 처리 및 저장방식, 사용범위 등에 대한 규정을 마련해야 하는 문제이며, 인공지능 훈련자 등 전문가들의 윤리의식의 문제이기도 하다.3) 셋째, 인공지능과 관련하여 데이터의 연결과 공유가 확산되고 있는 현실에서 개인의 민감 정보 침해가 발생할 수 있는 문제이다. 사생활 침해를 최소화할 수 있는 문제와 피 해를 보상하기 위한 방안을 마련할 필요성이 있다.4)참고 자료
[1] 신용우. (2019). 인공지능 안전성 관련 정책 및 입법 현황. 전자공학회지, 46(10), 17-22.[2] 김종세. (2020). 인공지능의 안전성과 인간윤리에 대한 법정책적 고찰. 법학연구, 77(-), 1-35.
[3] [네이버 지식백과] 인공지능 [artificial intelligence, 人工知能] (두산백과 두피디아, 두산백과)
[4] [네이버 지식백과] 인공 지능시스템 [artificial intelligence system, 人工知能-] (전자용어사전, 1995. 3. 1., 월간전자기술 편집위원회)
[5] 허유선. (2021). 인공지능 시스템의 다양성 논의, 그 의미와 확장 -인공지능의 편향성에서 다양성까지-. 철학·사상·문화, 0(35), 201-234.
[6] [네이버 지식백과] 안전 [safety, 安全] (산업안전대사전, 2004. 5. 10., 최상복)
[7] [네이버 지식백과] 안전 [safety, 安全] (두산백과 두피디아, 두산백과)
[8] 한국정보통신기술협회. (2017). 「소프트웨어 안전 진단 가이드」, p. 13.
[9] 정보통신산업진흥원. (2016). SW 안전성 공통 개발 가이드, p. 29.
[10] 임현교. (2012). 시스템 안전공학, 한솔아카데미:서울, p.12.
[11] 박무일, 시스템 안전(System Safety) 기법.
[12] [네이버 지식백과] FTA [fault tree analysis] (기계공학용어사전, 1995. 3. 1., 기계공학사전편찬위원회).
[13] IEEE Standard for Software Safety Plans, 소프트웨어 안전 계획 수립 관련 표준.
[14] 정보통신산업진흥원. (2020). 중소기업의 실무 역량 강화를 위한 소프트웨어 안전기술 활용서, p. 21.
[15] 소프트웨어 진흥법 제2조(정의)[시행 2021. 12. 30.] [법률 제17799호, 2020. 12. 29., 타법개정].
[16] 한국정보통신기술협회. (2017). 「소프트웨어 안전 진단 가이드」, p. 13.
[17] 한국정보통신기술협회. (2017). 「소프트웨어 안전 진단 가이드」.
[18] ISO/IEC 25010:2011, Systems and software engineering — Systems and software Quality Requirements and Evaluation (SQuaRE) — System and software quality models, https://iso25000.com/index.php/en/iso-25000-standards/iso-25010.
[19] ISO/IEC DIS 25059, Software engineering — Systems and software Quality Requirements and Evaluation (SQuaRE) — Quality model for AI systems, https://iso25000.com/index.php/en/iso-25000-standards/iso-25059.
[20] ISO/IEC 25012:2008, Software engineering — Software product Quality Requirements and Evaluation (SQuaRE) — Data quality model, https://iso25000.com/index.php/en/iso-25000-standards/iso-25012.
[21] 인공지능 학습용 데이터 품질관리 가이드라인 v2.0; 제1권 품질관리 안내서, 한국지능정보사회진흥원, 2022.2월, 30-106.
[22] High-Level Expert Group on AI(AI HLEG), The assessment list for trustworthy artifitial intelligence(ALTAI) for self assessment, European Commision, July 2020.
[23] 김귀식, 신영준. (2021). 인공지능 윤리의식 검사 도구 개발 연구, 인공지능연구 논문지, 2:1, 1-19.
[24] 김도연, 고영화. (2022). 인공지능기술 윤리성 인식 척도개발 연구, 디지털융복합연구, 20:1, 71-86.
[25] 소순주, 안성진. (2021). 인공지능 윤리원칙 분류 모델에 관한 고찰. 한국컴퓨터교육학회 학술발표대회논문집, 25(2(A)), 111-114.
[26] 소순주, 안성진. (2021). 인공지능 윤리원칙 분류 모형 및 구성요소에 관한 연구. 컴퓨터교육학회 논문지, 24(6), 119-132.
[27] 백창화, 임성욱, 최재호. (2019), 인공지능서비스의 특성분석과 품질평가속성에 대한 연구, J Korean Soc Qual Manag, 47(4), 837-846.
[28] 백창화. (2020), 델파이 기법을 이용한 인공지능 시대의 서비스 품질평가 연구, 서비스경영학회지, 21(3), 1-15.
[29] 백창화. (2020), 인공지능서비스의 품질평가방법을 이용한 인공지능 스피커의 사용자 만족도 사례연구, 서비스경영학회지, 21(5), 157-174.