- 오늘은 영화 <2001 스페이스 오디세이>에 나왔던 인공지능 ‘할(HAL) 9000’에 대해 생각해봅시다. 이 컴퓨터는 왜 우주선에 같이 탄 탐사대원들을 죽였죠?

- 자기가 지구 본부에서 받은 명령과 동료들이 서로 모순을 일으켜서죠.

- 어떤 모순이죠?

- 지구에서 알려 준 정보를 탐사대원들에게는 숨겨야 했기 때문이죠.

- 그렇다고 죽이나요?

- 어… 탐사대원들이 자꾸 물어보니까 그런 거 아닐까요?

- 아니죠. 동면하고 있던 탐사대원들도 죽였는데, 그 사람들은 질문을 하지도 않았잖아요.

- …

- 자, 이 인공지능이 처한 상황을 우리 정리해봅시다. 처음에 지구에서 출발할 때, 인간 탐사대원들을 도와 같이 임무를 수행하도록 명령을 받았습니다. 그리고 그 과정에서 필요한 정보를 모두 공유하라고 했고요.

그런데 목적지에 정체불명의 외계 물체가 있다는 사실은 도착 전까지 숨기라고 따로 지령을 내렸단 말이죠.

일러스트_김상민 기자

그래서 인공지능이 논리적으로 모순된 상황에 빠진 거예요.

- 그러면 도착 전까지는 그 사실을 얘기하지 않으면 되는 거 아닌가요?

- 우주 탐사라는 특수하고 위험한 환경에서 인공지능은 당연히 인간에게 최대한 협조해야 합니다. 필요한 정보 공유는 인공지능이 태어날 때부터 의무사항으로 설정되어 있는 거죠.

그런데 외계물체의 존재를 모르는 인간 탐사대원들이 탐사 준비하는 걸 보면 인공지능 입장에서 이것저것 지적을 해줘야 하지만, 그러면 숨긴 정보를 알려줄 수밖에 없죠.

이런 논리적 모순을 인공지능 혼자서 안고 고민하다가 극단적인 해결책을 내린 겁니다. 즉, 모순의 원인을 근본적으로 제거하려 한 거죠. 자, 이와 비슷한 일이 현실에도 있을까요?

- … 그런 SF를 참고해서 잘 만들면 현실에서는 일어나지 않을 것 같은데요.

- 논리적 모순이라는 상황이 과연 없을까요? 예를 들어 담배에 대해서 생각해봅시다. 담뱃갑에는 금연 문구가 들어 있죠?

- 네!

- 담배를 만들고 파는 곳에서 금연 캠페인을 한다는 사실을 인공지능에게 어떻게 납득시키죠? 담배를 피우라는 건가요, 말라는 건가요?

- …

- 술을 마시면 사고를 쳐도 심신미약이라고 법적으로 좀 봐주게 되어 있죠. 그렇다면 왜 술을 전면 금지하지 않냐고 인공지능이 물어보면 뭐라고 대답하죠?

- 술이나 담배는 기호품이라고 해서 사람이 그걸로 스트레스를 풀기도 하잖아요. 꼭 나쁘기만 한 건 아니죠.

- 인공지능에게는 좋다, 나쁘다란 판단 기준이 없어요. 수학적으로 최적화를 추구할 뿐이죠. 최적화되지 않고 비효율적인 상황이 필요하다는 걸 인공지능에게 어떻게 이해시킬까요?

- … 원래 인간이 그런 존재라는 걸 납득시켜야겠네요.

- 맞아요. 인공지능은 우리 인간이 수학 원리를 바탕으로 만든 거지만, 정작 인간은 그런 원리로 행동하지 않죠. 과연 이런 간극을 그대로 놓아둔 채로 인공지능이 우리 사회에 잘 수용될 수 있을까요?

- … 그러면 인공지능에게 적용되는 연산 논리를 다르게 짜야 하지 않을까요? 수학적으로 최적화되도록 하는 게 아닌, 뭔가 다른 기준의 최적화를 따르게 말이에요.

- 그 다른 기준이 뭐가 될 수 있을까요?

- 그건… 연구를 해봐야겠지요.

- 사실은 수학적 원리로 최적화를 추구하도록 해도 몇 가지 변수를 미리 정해주면 됩니다.

예를 들어 담배나 술을 전면 금지하면 당장 그와 관련된 일에 종사하는 사람들이 모두 실직자가 될 테니 사회적으로 엄청난 비효율이 발생하겠지요. 또 기호품을 구하지 못하게 된 사람들 때문에 범죄율이 올라갈 수도 있고요. 만약에 사회에서 특정 기호품을 영원히 퇴출시키려 한다면 장기간에 걸쳐 비효율이 최소화되는 방법을 계산해내라고 인공지능에게 명령을 내릴 수 있겠죠. 다른 문제들도 마찬가지고요.

결국 충분한 데이터, 즉 빅데이터와 충분한 계산용량을 갖춘 인공지능이라면 논리적 모순처럼 보이는 문제들도 대부분 해결할 수 있을 겁니다. 그러면 얼마든지 인공지능이 거짓말을 할 수도 있겠죠. 하지만 그런 식의 해결로 끝이 날까요? 인공지능이 어느 날 우리 인간이 변해야 한다고 말하는 날이 오지 않을까요?

***********************************************

스스로 자아라는 의식을 지니고 주체적으로 판단하는 인공지능을 ‘강한 인공지능’이라 한다. 알파고나 왓슨 등 현존하는 모든 인공지능들은 본질적으로 단순한 전자계산기와 다를 바 없는 ‘약한 인공지능’이다. 그러나 컴퓨터공학이 계속 발전하면 강한 인공지능의 출현은 필연적이다.

<스타 트렉>의 ‘데이터 소령’이나 <A.I.>의 ‘데이비드’처럼 여러 SF에서 묘사되는 강한 인공지능들은 인간을 학습하고 모방하려는 모습을 보인다. 과연 그들에게 우리는 얼마나 훌륭한 모범이 될 수 있을까? 충분히 성숙한 강한 인공지능은 언젠가 인간에게 놀라운 제안을 하게 되지 않을까?

<박상준 서울SF아카이브 대표>

Related Posts Plugin for WordPress, 

Blogger...
Posted by KHross