본문 바로가기

인공지능

정말 인공지능 로봇에게 3원칙을 적용할 수 있을까?



영화 채피 中


로봇 공학 3원칙

제1조.

로봇은 인간에게 해를 끼치면 안된다. 또한 인간의 위험을 간과함으로써 인간에게 해를 끼쳐서도 안된다.


제2조.

로봇은 인간의 명령에 복종해야 한다. 그러나 주어진 명령이 제1조에 반하는 경우에는 그러하지 아니한다.


제3조.

로봇은 위의 제1조 및 제2조를 어길 우려가 없는 한 자기 자신을 지켜야 한다.


아이작 아시모프

위에 적힌 로봇 공학 3원칙은 SF 작가인 아이작 아시모프가 자신의 소설에 처음 언급했지만 단지 소설속에만 머물지 않고 현실의 로봇 공학에도 영향을 주는 이론이 되었습니다.


로봇 공학 3원칙은 안전(인간에게 위험하지 않은 존재), 편리(인간의 의지를 반영하기 쉬운 존재), 지속성(자신이 망가지지 않도록 하는 존재)으로 요약 될 수 있는데 이것은 일반적인 가전제품에도 적용되는 법칙이라고도 볼 수 있습니다.


실제 로봇이 이 3 원칙을 구현 할 수 있는가하는 문제에 대해서는 인공지능의 중요한 난제중의 하나인 프레임 문제(유한의 정보 처리 능력 밖에없는 로봇은 현실에 일어나는 모든 문제를 해결할 수 없다)가 걸려있습니다. 로봇은 어떤 행동이 인간에게 해를 끼칠 가능성이 있는가를 판단하기 위해 주변 상황과 그 결과를 예측해야만 하는데 그럴려면 인공지능에 탑재할 지식 기반과 생각의 범위가 끝없이 커져 버리게 됩니다.


예를 들어 화재에 휘말린 인간을 발견했을때 로봇은 " 나는 가연성 연료를사용해, 화재 현장은 고온이니까 나는 폭발 할 수 있어 내가 폭발하면 인근에 있는 다른 인간들이 다칠거야" 라는 판단을 바탕으로 자신이 직접 인간을 돕지 않고 구조를 요청하게 될 수 있다는 것입니다.


삼원칙은 로봇이 인간을 살해하거나 반란을 일으키는 사태를 미연에 막기위해서 가상 세계인 소설 속에서 설정된 것이지만 실제로 전장에서 인간의 피해를 막기위해 인간 대신 정찰이나 공격을 맡은 군사용 로봇이 현실화 되었고 무기를 탑재한 무인 항공기가 더 발전되면 자율적으로 적을 식별하고 공격을 가할 가능성도 있기 때문에 많은 로봇 공학자들은 로봇 3원칙을 윤리적 근거로 삼고 로봇 연구를 해야한다고 주장하고 있습니다.


한편 로봇 3원칙에 비판적인 입장을 갖고 있는 학자들은 "로봇이 생물과 동등한 욕망을 가진것을 전제로 삼원칙을 만들어 마치 로봇이 인간을 대상으로 혁명을 일으킬것이라는 우려만 안겨주었다면서 삼원칙이 아니라 어디까지나 기계로서의 행동규칙이 필요할 뿐이라고 주장하고 있기도 합니다. 감사합니다.