인공지능 윤리: Difference between revisions
From IT위키
No edit summary |
No edit summary |
||
Line 14: | Line 14: | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 이슈 !! 설명 !! 예시 | ! 이슈 | ||
!! 설명 | |||
!! 예시 | |||
|- | |- | ||
| 인공지능의 설명 불가능성 | | 인공지능의 설명 불가능성 | ||
(Unexplainability) || | (Unexplainability) | ||
|| 인공지능의 판단 근거를 인간이 확인할 수 없음 | |||
|| | |||
* 인공지능이 판단한 근거를 알 수 없는 민감한 결정을 따라야 하는가? | |||
** 인공지능에 의한 정책결정 | |||
** 인공지능에 의한 의료 행위 | |||
|- | |- | ||
| 인공지능 책임 귀속 || 인공지능의 잘못은 누구의 잘못인가? | | 인공지능 책임 귀속 || 인공지능의 잘못은 누구의 잘못인가? |
Revision as of 01:55, 26 August 2019
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용 윤리
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
필요성
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아 우려
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인간의 고정관념(stereotype)에 의한 인공지능의 편향(bias) 사례 증가
주요 이슈
이슈 | ! 설명 | ! 예시 |
---|---|---|
인공지능의 설명 불가능성
(Unexplainability) |
인공지능의 판단 근거를 인간이 확인할 수 없음 |
|
인공지능 책임 귀속 | 인공지능의 잘못은 누구의 잘못인가? |
|
인공지능의 편향 | 인간의 고정관념에 의한 인공지능의 편향된 결과 |
|
인공지능으로 인한 일자리 감소 || 인공지능의 대체로 인한 인간의 일자리 감소 |
|
인공지능 윤리의 구성[1]
- 인공지능 자체의 윤리
- 인공지능 설계자나 제작자의 윤리
- 인공지능 이용자의 윤리
사례
- 유럽로봇연구 네트워크 로봇윤리 로드맵(2006)
- 산업자원부 로봇윤리헌장(2007)
- OECD 권고안과 G20 AI 원칙
- 일본 총무성 가이드라인
- 아실로마 원칙
- 마이크로소프트, 구글, 페이스북 등 사기업의 AI 규범
- ↑ 윤리적 인공지능의 실현과 과제(서울대학교 고학수, 이나래, 박도현)