인공지능 윤리: Difference between revisions
From IT위키
No edit summary |
No edit summary |
||
Line 7: | Line 7: | ||
== 필요성 == | == 필요성 == | ||
* | * 인공지능, 로봇의 급격한 발전으로 인한 디스토피아에 대한 두려움 | ||
* 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | * 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용 | ||
* 인간의 고정관념(stereotype)에 의한 인공지능의 편상(bias) 사례 급증 | * 인간의 고정관념(stereotype)에 의한 인공지능의 편상(bias) 사례 급증 |
Revision as of 23:31, 25 August 2019
- 약 인공지능(ANI)에서 강 인공지능(AGI)을 넘어 초 인공지능(ASI)로 가는데 있어서 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 하는 인공지능의 개발 및 활용 윤리
- 아이작 아시모프 런어라운드(1942년作)의 로봇 3원칙
- 로봇은 인간에게 해를 끼치거나, 어떠한 행동도 하지 않음으로써 해가 가해지도록 하면 안된다.
- 로봇은 1원칙에 위배되지 않는 한 인간의 명령에 복종하여야 한다.
- 로봇은 1원칙과 2원칙에 위배되지 않는 한 자신을 보호하여야 한다.
필요성
- 인공지능, 로봇의 급격한 발전으로 인한 디스토피아에 대한 두려움
- 의료, 법치, 정책, 인사(HR)등 민감한 분야에서의 인공지능 활용
- 인간의 고정관념(stereotype)에 의한 인공지능의 편상(bias) 사례 급증
주요 이슈
- 인공지능의 설명 불가능성(Unexplainable)
- 인공지능의 편향된 판정
- 인공지능과 일자리 감소