과학(Science)/미래학 (Futurology)

로봇의 의식(Robot Consciousness)

SURPRISER - Tistory 2022. 8. 6. 06:36

 인간의 의식은 지난 수백만 년 동안 진화를 거치면서 다양한 능력이 불완전하게 합쳐진 결과물이다. 로봇에게 물리적 정보, 사회적 정보를 입력해 주면 인간과 비슷하게 미래를 시뮬레이션할 수는 있겠지만, 실리콘으로부터 탄생한 의식은 인간의 의식과 두 가지 면에서 결정적인 차이가 있다. '감정'과 '목적'이 바로 그것이다. 하지만 과거에 인공지능 전문가들은 로봇의 감정을 부차적인 문제로 치부하는 실수를 범했다. 이들의 목적은 오로지 논리적이고 이성적인 로봇을 만드는 것이었고, 주의가 산만하고 충동적인 로봇은 안중에도 없었다. 그래서 1950~1960년대 영화에 등장한 로봇들은 한결같이 논리적이면서 완벽한 두뇌를 가지고 있었다.

 일부 사람들은 '로봇에게 감정이 있어야 주인인 인간이 그들을 돌보고, 유대감을 느끼고, 생산적인 상호작용을 할 수 있다.'고 주장한다. 다시 말해서, 로봇한테 2단계 의식이 있어야 한다는 이야기다. 이를 위해서는 무엇보다 로봇이 인간의 감정을 이해할 수 있어야 한다. 어렵긴 하지만 불가능한 일도 아니다. 사람의 눈썹과 눈꺼풀, 입술, 뺨 등 안면 근육의 미묘한 움직임을 잘 분석하면, 주인의 감정 상태를 어느 정도는 파악할 수 있다.

0. 목차

  1. 감정이 있는 로봇
  2. 로봇에 대한 윤리적 논쟁
  3. 로봇이 느끼거나 이해할 수 있을까?
  4. 자아의식이 있는 로봇
  5. 로봇이 사람을 능가하면 어떻게 될까?
  6. 인간과 기계의 융합

1. 감정이 있는 로봇

1-1. 휴머노이드 로봇 '나오(NAO)'

 프랑스의 휴머노이드 로봇 개발업체 '알데바란 로보틱스(Aldebaran Robotics)'에서는 휴머노이드 로봇 '나오(NAO)'를 출시했다. '나오'는 행복할 때 안아달라는 동작을 취하고, 슬플 때는 고개로 아래로 떨군 채 어깨를 앞으로 늘어뜨린다. 그리고 두려울 때는 몸을 잔뜩 움츠렸다가 누군가가 머리를 쓰다듬어주면 곧 정상으로 들어온다. '나오(NAO)'는 로봇이라는 점만 빼면 한 살짜리 남자아이와 거의 똑같다. 키는 45cm쯤 되고, 겉모습은 '트랜스포머(Transformers)'에 등장하는 꼬마 오토봇처럼 생겼다. '나오'는 행복, 슬픔, 자존심 등 다양한 감정을 표현하도록 프로그램되었다. 다른 로봇들은 간단한 표정과 몇 가지 몸동작으로 감정을 표현하는 게 고작이지만, 나오는 포즈와 몸짓 등 다양한 보디랭귀지를 구사하면서 자신의 감정 상태를 구체적으로 표현할 수 있다. 심지어는 음악에 맞춰 춤까지 추기도 한다. 감정이 이입된 로봇들도 대부분은 사전에 프로그램된 한 가지 감정밖에 표현하지 못한다. 그러나 '나오'는 상황에 따라 다양한 감정을 표현할 수 있다.

  1. 나오는 방문자의 얼굴을 스캔하여 신원을 파악한 후, 그와 나눴던 과거의 대화와 감정을 떠올린다.
  2. 나오는 사람의 행동을 따라할 수도 있다. 예컨대 사람이 꽃을 쳐다보면 '나오'도 그쪽을 응시하면서 "네, 꽃이 참 예쁘군요."라고 말하는 식이다.
  3. 나오는 사람과의 접촉을 통해 그들의 몸짓에 대응하는 방법도 배워나가는 중이다. 예컨대 당신이 나오에게 미소를 지어 보이거나 머리를 쓰다듬어주면, 나오는 그것이 친밀한 행위임을 금방 알아차린다.
  4. 나오는 사람과 교류하면서 자신의 감정을 표현할 수 있다. 물론 나오가 표현하느 감정은 녹음기처럼 사전에 프로그램된 것이지만, 나오는 상황에 따라 적절한 감정을 선택할 수 있다.
  5. 나오는 반복되는 접촉을 통해 상대방을 기분을 파악하고, 접촉이 많을수록 강한 유대감을 느낀다.

  이쯤 되면 '나오(NAO)'는 분명히 성격이 있다고 말할 수 있다. 그것도 하나가 아니라 여러 종류의 성격을 가지고 있다. 이 로봇은 사람과의 접촉을 통해 배우는데, 접촉하는 사람이 여러 명이기 때문에 시간이 지나면서 성격이 다양해질 수밖에 없다. 예컨대 남의 도움에 의존하지 않는 독립적 성격과 남의 도움이 필요한 성격을 동시에 가질 수 있다는 이야기다.

 '나오(NAO)' 제작팀의 리더인 하트퍼드셔 대학교의 컴퓨터 과학자 '롤라 카냐메로(Lola Cañamero)' 박사는 이 프로젝트를 시작할 때 제일 먼저 침팬지의 감정 교환 방식을 분석했다. 그녀의 목적은 한 살짜리 침팬지의 감정적 행동을 가능한 한 비슷하게 구현하는 것이었다. 카냐메로 박사는 침팬지 분석을 끝낸 후 곧바로 '감정이 있는 로봇' 설계에 착수했다. 그녀는 로봇이 새로운 역할을 수행하는 데 주안점을 두었다. 예컨대 병원에서 투병 중인 아이들에게 자신이 어떤 치료를 받게 될지, 그리고 치료를 받으려면 어떤 준비를 해야 하는지 미리 알려주는 식이다. 그리고 그녀는 병원에 있는 아이들에게 정서적으로도 도움을 주는 로봇을 만들고 싶었다고 했다.

 로봇은 요양원에서 성인 환자들의 친구가 되어줄 수도 있다. 나오의 특기를 잘 살리면, 요양원에서 간호사 못지않게 중요한 임무를 수행할 수 있을 것이다. 이처럼 감정이 이입된 로봇들이 아이들의 놀이친구나 가족의 일원이 되어 살아가 날도 멀지 않은 것 같다. 로봇은 사람의 감정 상태를 이해하고, 사람의 언행을 분석하여 적절한 반응을 보여줄 것이다.

반응형

1-2. 감정은 가치 판단에 중요한 역할을 한다.

 최근 들어 인공지능을 연구하는 학자들은 의식의 핵심이 '감정'이라는 사실을 깨닫기 시작했다. 신경과학자 '안토니오 다마시오(Antonio Damasio, 1944~)'는 논리적 생각을 관장하는 부분인 '전전두엽(Prefrontal Cortex)'과 감정 중추인 '대뇌번연계(Limbic System)'의 연결 부위에 손상을 입은 환자들이 가치판단에 혼란을 겪는다는 사실을 알아냈다. 이들에게는 모든 것이 동일한 가치를 갖기 때문에, 아주 단순한 선택을 해야 할 때조차 아무런 결정도 내리지 못한다. 따라서 감정은 절대로 사치품이 아니다. 감정이 없는 로봇은 무엇이 중요하고 무엇이 사소한 일인지 결정할 수 없다. 과거에 감정은 인공지능 분야에서 부차적인 문제로 취급되었지만, 지금은 가장 중요한 테마로 떠오르고 있다.

 로봇이 길을 가다가 화재현장을 목격했다면, 사람보다 컴퓨터 파일을 먼저 구할 것이다. 로봇에 내장된 프로그램이 '일꾼은 다른 사람으로 대체할 수 있지만, 한 번 손상된 파일은 복구할 수 없다.'고 주장할 것이기 때문이다. 로봇이 이런 오류를 범하지 않으려면 '중요한 일'과 '사소한 일'을 구별하도록 프로그램되어야 하는데, 이 과정을 빠르고 정확하게 수행하는 것이 바로 '감정'이다. 그래서 로봇은 '사람의 목숨이 물건보다 중요하고, 비상시에는 어른보다 어린아이를 먼저 구해야 하며, 비싼 물건이 싼 물건보다 귀하다.'는 등 일련의 가치기준이 있어야 한다. 그런데 로봇은 가치를 스스로 판단할 수 없으므로, 방대한 가치 목록을 입력해 줘야 한다.

 로봇에게 감정에게 부여하기란 결코 쉬운 일이 아니다. 감정은 종종 비논리적인데 반해, 로봇은 논리의 최상급인 수학에 의존하기 때문이다. 따라서 실리콘으로 구현된 의식은 인간의 의식과 다를 수밖에 없다. 우리가 느끼는 감정은 아주 빠르게 진행되고, 전전두피질이 아닌 대뇌번연계에서 생성되기 때문에 제어하기가 어려우며, 흔히 한쪽으로 치우쳐 있다. 실험 결과에 의하면, 우리는 잘생긴 사람의 능력을 과대평가하는 경향이 있다. 그래서 외모가 뛰어난 사람은 남들과 능력이 비슷한데도 좋은 직장을 얻고, 승진 속도 역시 남들보다 빠르다.

 실리콘 의식이 탑재된 로봇은 '바디랭귀지(Body Language)'처럼 사람들 사이에 오가는 미묘한 신호를 고려하지 않을 것이다. 사람들이 방안에 들어가면 보통은 젊은 사람들이 연장자를 위해 자리를 양보하고 부하직원은 상사에게 예의를 표한다. 우리는 행동과 말투 그리고 미묘한 몸짓을 통해 상대방에게 복종 의사를 표현하는 데 익숙해져 있다. '보디랭귀지(Body Language)'는 언어보다 역사가 오래되었기 때문에, 두뇌와 밀접하게 연결되어 있다. 로봇이 사회에 진출하여 사람들과 함께 살아가려면, 이 무의식적인 신호를 배워야 한다. 인간의 의식은 오랜 진화 기간 동안 비정상적인 요인에 의해 많은 영향을 받았다. 그러나 로봇에게는 이 부분이 빠져있고 앞으로도 구현이 어려울 것이므로, 로봇의 의식은 사람처럼 허술하거나 변덕스럽지는 않을 것이다.

반응형

1-3. 감정의 메뉴

 로봇의 감정은 외부에서 프로그램되는 것이므로, 설계자는 로봇의 용도에 따라 감정의 종류를 마음대로 선택할 수 있다. 원한다면 본인의 지시만 따르도록 프로그래밍할 수도 있고, 모든 사람에게 호의를 베푸는 관대한 성격으로 프로그래밍할 수도 있다. 하지만 너무 많은 감정을 입력해놓으면 통제하기가 어렵기 때문에, 아마도 상황에 따라 몇 가지 감정만 느끼도록 프로그래밍될 것이다. '필요한 감정'과 '통제되어야 하는 감정'을 잘 구분해야 할 것이다.

감정 필요 여부
충성심 필요한 감정
감정이입 필요한 감정
두려움 필요한 감정
유머(Humor) 필요한 감정
분노(Anger) 통제되어야 하는 감정
우두머리가 되려는 욕망 통제되어야 하는 감정
  1. 충성심: 그러면 로봇에게 어떤 감정을 최우선으로 입력해야 할까? 세부 감정은 용도에 따라 다르겠지만, 어떤 경우이건 가장 중요한 것은 주인에 대한 충성심이다. 로봇은 어떤 명령을 내려도 불만 없이 수행해야 하며, 주인에게 무엇이 필요한지 예측하고 이해할 수 있어야 한다. 이것이 구현된 후에도 여유가 있다면, 약간의 예의범절과 화법, 사람을 비평하는 법, 원한다면 넑두리 기능까지 추가할 수 있다. 또한 누군가가 상충하는 명령을 내리면, 로봇은 주인의 의도를 감안하여 무시할 수도 있어야 한다.
  2. 감정이입: '감정이입(다른 사람의 감정을 읽는 능력)' 역시 또 하나의 감정이다. '감정이입' 기능이 탑재된 로봇은 다른 사람의 문제점을 파악하고 도와줄 수 있다. 로봇이 사람의 표정과 대화 억양을 분석하여 상대가 고민에 빠졌음을 간파하고 도움을 줄 수 있다면, 사람과 어울려 사는 데 큰 도움이 될 것이다.
  3. 두려움: 두려움도 반드시 필요한 감정이다. 오랜 진화를 거쳤음에도 불구하고, 우리에게 두려움이 남아있는 이유는 위험한 상황을 피하는 데 절대적으로 유리하기 때문이다. 로봇은 철로 제작되어서 사람보다 튼튼하지만, 건물에서 떨어지거나 화재현장으로 들어갈 때를 대비하여 어느 정도 두려움을 느낄 필요가 있다. 로봇에게 두려움이 없다면, 임무수행을 위해 자신을 파괴하는 어리석은 짓도 불사할 것이다.
  4. 유머(Humor): 로봇에게 가장 구현하기 어려운 감정은 낯선 사람과 금방 친해지는 '유머 감각'이다. 간단한 농담 한마디는 잔뜩 긴장된 상황을 기적처럼 풀어주기도 한다. 유머의 원리는 간단하다. 적절한 순간에 듣는 사람이 전혀 예상하지 못한 반전, 즉 '펀치라인(punchline)'을 구사하면 된다. 그러나 유머의 미묘함은 정말 흉내 내기 어렵다. 우리는 흔히 농담에 반응하는 태도를 보고 사람을 평가한다. 즉, 농담은 한 사람이 다른 사람을 판단하는 방법 중 한다. 따라서 로봇이 농담의 재미 여부를 판단하기란 결코 쉽지 않다. 또 부적절한 웃음도 문제를 일으킬 수 있다. 로봇은 '누군가와 함께 웃기'와 '누군가를 향해 웃기'의 차이점도 알고 있어야 한다.
  5. 분노(Anger): 분노의 목적은 불만족스러운 상태를 표현하는 것으로, 사실 이 상태는 이성적이고 냉정한 방식으로 얼마든지 표현할 수 있다. 분노와 같이 일부 부정적인 감정은 처음부터 제거하거나 철저하게 통제되어야 한다. 로봇은 사람보다 훨씬 힘이 세기 때문에, 분노를 제어하지 못하면 가정이나 일터에서 심각한 문제를 일으킬 수 있다. 분노는 임무수행에 방해될 뿐만 아니라, 재산에 큰 피해를 줄 수도 있다.
  6. 우두머리가 되려는 욕망: 로봇에게 있어서 안 될 또 하나의 감정은 '우두머리가 되려는 욕망'이다. 로봇이 거만하면 주인의 지시에 번번이 딴지를 걸면서 문제만 일으킬 것이다. 따라서 로봇은 주인의 의도가 최선이 아니라고 해도 무조건 복종해야 한다.

1-4. 감정 프로그래밍 하기

 그러면 감정을 프로그래밍해서 컴퓨터에 업로드할 수 있을까? 만약 가능하다면, 어디서부터 시작해야 할까? 감정은 극도로 복잡한 현상이므로, 단계별로 프로그래밍 되어야 한다. 감정은 기본적으로 '감정 파악하기', '감정에 반응하기', '동기 파악하기'의 단계로 나눌 수 있다.

  1. 감정 파악하기: 가장 쉬운 부분은 사람의 얼굴과 입술, 눈썹, 목소리 톤으로부터 감정을 파악하는 일이다. 현재 사람 얼굴을 인식하는 기술은 감정 사전을 만드는 수준까지 발전했다. 다시 말해서 다양한 표정에는 각기 다른 의미가 담겨 있다는 뜻이다. 진화론의 원조인 '찰스 다윈'도 사람과 동물이 공통으로 갖고 있는 감정 요소를 꽤 오랜 시간 동안 연구했다.
  2. 감정에 반응하기: 로봇은 감정을 파악한 후, 빠르게 반응해야 한다. 이것도 그리 어렵지 않다. 누군가가 웃으면 그와 함께 가볍게 웃어주면 되고, 누군가가 화를 내면 로봇은 그 자리를 피하는 것이 상책이다. 로봇에게는 방대한 감정 사전이 입력되어 있으므로, 상황마다 적절한 항목을 찾아 빠르게 대처할 수 있다.
  3. 동기 파악하기: 사람의 감정을 읽은 후, 그 저변에 깔린 동기를 파악해야 한다. 그런데 우리는 다양한 느낌을 한 가지 감정으로 표현하기 때문에, 로봇에게는 정말 어려운 과제이다. 예컨대 '웃음'은 기쁠 때만 나오는 것이 아니라, 농담을 들었을 때나 누군가가 넘어졌을 때도 터져 나오고, 긴장하거나 걱정스러울 때, 그리고 남에게 모욕을 줄 때에도 얼굴은 미소를 띠고 있다. 이와 마찬가지로 '비명'은 긴급상황에만 지르는 것이 아니라, 크게 기쁠 때나, 놀랐을 때에도 상습적으로 터져 나온다. 따라서 감정의 저변에 숨어 있는 원인을 파악하는 것은 사람에게도 절대 쉬운 일이 아니다. 로봇이 이 일을 성공적으로 해내려면 동일한 감정을 유발할 수 있는 여러 가지 원인을 목록에 저장해놓고, 이들 중 가장 그럴듯한 원인을 찾아야 한다. 즉, 여러 가지 후보 데이터 중에서 가장 잘 부합하는 하나의 원인을 골라내야 한다.
반응형

1-5. 로봇도 거짓말을 할 수 있을까?

 로봇은 워낙 논리적이고 분석적이고 냉정한 기계에서 항상 진실만을 말할 것처럼 생각된다. 하지만 로봇이 사회에 진출하려면 때에 따라 거짓말도 할 줄 알아야 한다. 이것이 어렵다면, 최소한 발언을 자제하는 능력이라도 있어야 한다.

 일상생활을 하다 보면 '악의 없는 거짓말'을 해야 할 때가 있다. 예컨대 누군가 "나 오늘 신경 좀 썼는데, 어때 보여?"라고 물었을 때 대부분의 사람들은 진실을 말하지 않는다. 이처럼 '악의 없는 거짓말'은 사회가 매끄럽게 돌아가도록 하는 윤활제 역할을 하기도 한다. 만약 당신이 거짓말을 할 수 없다면, 당신은 주변 사람들의 마음을 상하게 하는 것은 물론, 만사가 극도로 혼란스러워질 것이다. '너 참 못생겼구나.', '아이가 왜 이렇게 멍청해요?'라고 직언을 날린다면, 듣는 사람은 심한 모욕감을 느낄 수밖에 없다. 직장에서는 파면당하고, 애인에게는 걷어차이고, 친구들 사이에서는 왕따가 될 것이다. 낯선 사람에게 직언을 날렸다가는 뺨을 맞을지도 모른다. 이런 경우에는 거짓말을 하거나 아예 입을 닫는 것이 상책이다.

 마찬가지로 로봇도 때로는 거짓말을 하거나 진실을 숨길 줄 알아야 한다. 그렇지 않으면, 수시로 사람들을 불쾌하게 만들다가, 결국 주인의 손에 이끌려 폐기될 것이다. 주인을 따라 파티에 참석한 로봇이 사람들에게 "당신은 원숭이를 닮았군요."라거나 "헤어스타일이 왜 그 모양이에요?" 라고 하면 로봇뿐만 아니라 주인의 명성도 위태로워진다. 따라서 누군가가 로봇에게 난처한 질문을 하면 로봇은 요점을 피하거나, 접대용 멘트를 날리거나, 재치 있는 대답으로 위기를 모면할 줄 알아야 한다. 가벼운 미소와 함께 묵비권을 행사해도 되고, 대화 주제를 바꾸거나, 진부한 대답을 하거나, 선의의 거짓말을 해도 상관없다. 이처럼 로봇은 '완곡한 대화 목록'을 보관하고 있다가 문제의 소지가 가장 적은 답을 골라서 들려주면 된다.

 하지만 반대로 로봇이 반드시 진실을 말해야 할 때도 있다. 주인이 사실에 기반한 솔직한 대답을 원하거나, 경찰의 심문을 받을 때에는 진실을 말해야 한다.

반응형

2. 로봇에 대한 윤리적 논쟁

2-1. 로봇도 고통을 느낄 수 있을까?

 고통은 위험한 환경에서 살아남기 위해 반드시 필요한 요소다. 그래서 인간은 오랜 진화를 통해 고통을 느끼는 감각기관을 다양하게 발전시켜왔다. 드물긴 하지만, 유전자 결함으로 통각 없이 태어나는 아기들이 있는데, 이런 병을 '무통증(Congenital Analgesia)'이라고 한다. 언뜻 보기에는 신의 축복 같지만, 사실은 이것은 끔찍하다. 무통증 환자들은 신체에 심각한 부상을 당해도 통증을 느끼지 못하기 때문에 그 상황을 피할 수가 없다. 정상인들은 피부에 뜨거운 물체가 닿으면 반사적으로 몸을 피해 화상을 모면할 수 있지만, 무통증 환자는 가만히 있다가 심각한 화상을 입는다. 그뿐만 아니라 자신의 이로 혀나 손가락을 세게 깨물다가 결국 병원에서 절단 수술을 받는 경우도 있다. 고통은 위험을 알리는 적신호다.

 마찬가지로 로봇도 특별한 경우에는 고통을 느끼도록 프로그래밍되어야 한다. 그렇지 않으면 위험을 피할 길이 없다. 로봇에게 필요한 고통에는 어떤 것들이 있을까?

  1. 배고픔: 가장 먼저 느껴야 할 고통은 배고픔이다. 배터리가 위험수위까지 소모되었는데 아무것도 느끼지 못한다면, 중요한 일을 하다가 도중에 회로가 셧다운 되어 일 전체를 망칠 수 있다. 따라서 로봇의 에너지원이 어느 수준 이하로 떨어지면 허기를 느끼도록 만들 필요가 있다. 에너지가 더 떨어질수록 불안감과 공복감도 더욱 커져야 한다.
  2. 압력 감지 센서: 로봇을 제아무리 튼튼하게 만들었다고 해도, 지나치게 무거운 물건을 들려고 애쓰다 보면, 팔이나 다리가 부러질 수도 있다. 이런 경우에 대비하여 '압력감지 센서'를 로봇의 몸에 심어놓으면, 무리하지 않는 선에서 물건을 들 것이다.
  3. 온도 감지 센서: 또 예컨대 제철소에서 고온의 액체금속을 다루거나 소방관을 돕기 위해 화재현장에 들어갔다가 몸이 지나치게 뜨거워질 수도 있다. 이런 경우에 대비하여 '온도감지 센서'를 로봇의 몸에 심어놓으면 자신의 능력을 벗어나는 일에 무모하게 덤벼들지 않을 것이다.

2-2. 로봇이 느끼는 고통에 한계를 두게 될 것이다.

 하지만 로봇의 감정 메뉴에 '고통'이 추가되면 곧바로 윤리적 문제에 직면하게 된다. 요즘은 동물에게 불필요한 고통을 주는 것이 비윤리적이라고 생각하는 사람들이 많다. 이러한 생각은 로봇에 대해서도 크게 다르지 않을 텐데, 그렇다면 로봇에 관해서도 뚜렷한 지침이 있어야 한다. 무엇보다 '로봇이 느끼는 위험과 고통의 강도에 한계를 두는 법안'부터 마련되어야 할 것이다.

 로봇이 위험한 일에 투입되어 고통을 느낀다면, 사람들이 들고일어나 로봇 보호 캠페인을 벌일지도 모른다. 이것은 로봇의 소유주와 윤리학자들 사이에 충돌을 야기할 수 있다. 소유주는 로봇의 고통 한계를 가능한 한 높이고 싶을 것이고 윤리학자들은 고통 한계를 낮춰야 한다고 주장할 것이다. 논쟁이 심화되다 보면 로봇의 다른 '권리(Right)'마저 도마 위에 오를 것이다. 로봇은 개인 재산을 소유할 수 있는가? 로봇이 사고로 사람을 해치면 어떻게 할 것인가? 고소를 해서 처벌해야 하는가? 로봇은 다른 로봇을 소유할 수 있는가? 이런 질문들은 골치 아픈 질문을 낳는다.

2-3. 윤리의식이 있는 로봇

 로봇에게도 윤리의식을 심어줘야 할까? 언뜻 보기에 '윤리적 로봇(윤리의식이 있는 로봇)'이라는 개념은 쓸데없는 개념 같다. 아무리 똑똑해봐야 어차피 기계일 뿐인데, 그들에게 윤리가 무슨 소용이란 말인가? 하지만 로봇이 삶과 죽음을 가르는 결정을 해야 하는 경우라면 이야기가 달라진다. 로봇은 위급한 상황에서는 누구를 먼저 구할지 몇 초 안에 결정해야 한다. 예컨대 어느 도시에 대규모 지진이 발생하여 건물이 무너지고 있는데, 그 안에 여러 명의 어린이가 갇혀 있다면 어디에 주안점을 둬야 할까? 가능한 한 많은 수의 어린이를 구해야 할까? 아니면 그중에서 더 어린 아이를 먼저 구해야 할까? 그것도 아니면 몸이 불편한 아이부터 구해야 할까? '구조 가능한 어린이의 인원수'와 '로봇이 견딜 수 있는 충격의 한계'를 어떻게 조율해야 할까?

 이럴 때 적절한 프로그램이 사전에 입력되어 있지 않으면, 로봇은 사람이 최종 결정을 내려줄 때까지 멍하니 서서 소중한 시간을 낭비할 것이다. 따라서 비상시에 로봇 스스로 올바른 결정을 할 수 있도록 프로그램을 미리 설치해두어야 한다. 윤리적 문제와 관련한 지침은 처음부터 프로그래밍되어 있어야 한다. 하지만 이는 매우 번거로운 작업이다. 사람도 윤리를 배우는 데 거의 평생이 걸린다. 하지만 일단 지침이 확립되면 로봇은 아주 빨리 배울 수 있다. 윤리 프로그램을 탑재하는 일은 오직 사람만이 할 수 있다. 게다가 윤리적 딜레마는 사람조차 헷갈리게 한다.

 그러면 로봇의 윤리 지침은 누가 결정해야 할까? 이는 매우 골치 아픈 문제이긴 하지만, 결국은 법과 시장원리에 따라 결정될 것이다. 하지만 여기에는 윤리 문제가 복잡하게 얽혀 있어서, 미묘한 사항은 시장원리와 상식에 입각하여 결정될 것으로 생각된다.

반응형

3. 로봇이 느끼거나 이해할 수 있을까?

 로봇이 무언가를 느끼거나 이해할 수 있을까? 로봇은 붉은색을 느끼거나 이해할 수 있을까? 하지만 이와 같은 질문은 아무런 의미가 없다. 우리는 사람이 무언가에 대해 이해하고 느낀다고 믿겠지만, 이러한 주장에는 아무런 근거가 없다. 왜냐하면 '느낌(Feeling)'과 '이해(Understanding)'라는 말 자체가 모호하기 때문이다.

  1. 느끼는가?: 로봇이 인간보다 더 붉은색을 더 정확하게 인지할 수 있다면, 로봇이 붉은색을 느끼는지는 별로 중요한 문제가 아니다. 컴퓨터가 이 세상 어떤 사람보다 붉은색을 더 정확하게 인식할 수 있으면 느꼈는지 여부를 따질 필요가 없다. 느낀다는 개념은 애초에 존재하지 않았다. 로봇이 '인간들은 붉은색을 제대로 느끼나요?'라고 물으면 사람은 딱히 할 말이 없을 것이다.
  2. 이해하는가?: 언젠가 로봇은 사람보다 수학을 더 잘하게 되고 한국어를 더 유창하게 구사할 것이다. 이렇게 되면 로봇이 수학을 이해하는지, 한국어를 이해하는지는 별로 중요한 문제가 아니다. 컴퓨터가 이 세상 어떤 사람보다 수학을 잘하고 한국어를 더 잘하면, 이해 여부를 따질 필요가 없다. 이해한다는 개념은 애초에 존재하지 않았다. 수학이나 한국어를 이해하는 사람은 아무도 없으며, 우리는 단지 그것에 익숙해질 수 있을 뿐이다. '인간들은 수학이나 한국어를 제대로 이해하나요?'라고 물으면 사람은 딱히 할 말이 없을 것이다.

 문제는 하드웨어가 아니라 언어의 특성이다. 단어가 명확하게 정의되어 있지 않으면, 사람마다 다른 의미로 받아들일 수 있다. 위대한 물리학자 '닐스 보어(Niels Bohr)'는 '파동-입자의 이중성'을 어떤 식으로 받아들여야 하는가에 대한 질문을 받고 "그 답은 이해라는 단어의 뜻에 따라 다르다."라고 대답했다.

 20세기에 생물학자들은 '생명이란 무엇인가?(What is Life?)'라는 질문을 두고 열띤 토론을 벌였다. 하지만 생물학자들은 '생명(Life)'을 정의하지 못했다. 사실 '생명이란 무엇인가?'에 대한 질문은 아무런 의미가 없다. '느낌(Feeling)'과 '이해(Understanding)'에 관한 질문도 이와 비슷한 수순을 밟게 될 것이다.

4. 자아의식이 있는 로봇

 '자아의식(Self-Consciousness)'이란 주변 환경에 자신을 대입하여 모형을 만들고, 이 모형의 미래를 시뮬레이션하여 목표를 성취하는 능력을 말한다. 이 능력을 발휘하려면, 다양한 사건을 예측할 수 있어야 하면, 이를 위해서는 고도의 상식을 갖추어야 한다. 이 조건이 충족된 로봇은 자기 자신을 포함한 모형을 시뮬레이션하여 자신의 미래를 예측하고 이해할 수 있어야 한다.

4-1. 자아의식이 있는 로봇을 만들었다.

 일본 메이지대학교의 과학자들은 '자아의식이 있는 로봇'을 향한 첫걸음을 내디뎠다. 물론 쉬운 일은 아니겠지만, 이들은 '마음 이론(Mind Theory)'에 근거하여 로봇을 설계하면, 목적을 이룰 수 있다고 굳게 믿고 있다. 처음에 이들은 2대의 로봇을 제작했는데, 첫 번째 로봇은 특정한 '몸 동작을 이행하는 로봇'이고, 두 번째 로봇은 '첫 번째 로봇의 행동을 관찰한 후 그대로 따라하는 로봇'이다. 둘 사이에는 어떤 통신도 교환되지 않고, 두 번째 로봇은 오직 첫 번째 로봇을 바라보기만 할 뿐이다. 이들의 연구는 자아의식이 있는 로봇 제작의 첫 번째 성공사례로 기록되었다. 두 번째 로봇은 다른 로봇을 바라보면서 행동을 똑같이 따라할 수 있으므로, '마음 이론(Mind Theory)'의 산물이라고 할 수 있다.

 2012년에는 '자아의식이 있는 로봇'을 향한 두 번째 걸음을 내디뎠다. 예일대학교에서 제작한 '니코'라는 로봇이 로봇 역사상 처음으로 '거울 테스트'를 통과한 것이다. 니코는 스스로 자신을 관찰하여 자기 몸과 외형을 이해할 수 있다. 이것은 거울 속의 물체가 자신임을 깨닫는 데 반드시 필요한 능력이다. 동물들은 대부분 거울 앞에 서면 거울에 비친 영상을 다른 동물로 인식한다. 거울 영상이 자신임을 알아보는 동물은 단 몇 종류에 불과하다.예일대학교의 과학자들이 만든 로봇 '니코(Nico)'는 가느다란 골격에 전선이 복잡하게 감긴 형태로, 돌출된 두 눈과 세밀하게 움직이는 두 팔을 가지고 있다. 눈앞에 거울을 갖다 놓으면 거울 속의 로봇이 자신임을 알아볼 뿐만 아니라, 거울에 비친 영상으로부터 특정 물건이 놓인 위치까지 정확하게 알아낸다. 사람이 운전할 때 백미러를 보고 뒤에 따라오는 차량의 위치를 파악하듯이, 니코도 그와 비슷한 능력을 가지고 있다.

 '메이지대학교(Meiji University)'와 '예일대학교(Yale University)'에서 제작한 로봇들은 자아의식이 있는 로봇이지만, 사람과 같은 수준의 자아의식을 가지려면 아직 갈 길이 멀다. 앞에서 정의한 자아의식을 완벽하게 구현하려면, 로봇은 거울이나 다른 로봇에게서 입수한 정보를 이용하여 미래를 시뮬레이션할 수 있어야 한다. 지금의 로봇들은 이 수준에 한참 못 미친다.

4-2. 인터넷이 자아의식을 갖게되는 과정

 그러면 컴퓨터가 완벽한 자아의식을 가지려면 어떻게 해야 할까? 영화 '터미네이터(The Terminator)'에서는 인터넷이 어느 날 갑자기 자아의식을 가지면서 모든 사건이 벌어진다. 인터넷은 '상하수도', '전기', '무선통신', '무기 관리 시스템' 등 현대 사회의 모든 기반 시설이 연결되어 있으므로, 인터넷이 자아의식을 갖게 되면 사회 전체를 통제할 수 있다. 이런 상황이 벌어지면 인간은 한없이 무력한 존재로 전락할 것이다. 과학자들이 말하는 '신생 현상(Emergent Phenomenon)'도 이와 비슷한 결과를 초래할 수 있다. '신생 현상'이란 충분히 많은 컴퓨터를 하나로 연결했을 때, 외부에서 새로운 정보를 입력하지 않았는데도 컴퓨터의 위상이 갑자기 높은 단계로 변하는 현상을 말한다.

 이렇게 말하면 모든 것이 설명된 것 같지만, 사실 아무것도 설명하지 못한 것과 같다. 이것은 마치 '고속도로 연결망이 충분히 많아지면, 어느 날 갑자기 고속도로가 자아의식을 가질 수도 있다.'고 말하는 것과 비슷하다. 중간에 거치게 될 중요한 과정이 빠져 있다. 하지만 우리는 '자아의식(Self-Consciousness)'이란 '주변 환경에 자신을 대입하여 모형을 만들고, 이 모형의 미래를 시뮬레이션하여 목표를 성취하는 능력'이라고 정의했으므로, 인터넷이 어떤 단계를 거쳐 자아의식을 갖게 되는지 대충 짐작해 볼 수는 있다.

  1. 첫 번째 단계(모형을 만드는 단계): 첫 번째 단계는 인터넷이 이 세계의 모형을 끊임없이 만들어가는 단계다. 원리적으로 이 정보는 외부에서 프로그래밍될 수 있다. 물론 프로그램에는 '외부 세계를 서술하는 내용(지구와 도시들, 전 세계에 존재하는 모든 컴퓨터의 현황 등)'이 포함되어 있어야 한다.
  2. 두 번째 단계(모형 내에서 자신의 위치·역할을 파악하는 단계): 두 번째 단계는 인터넷이 세계 모형 안에서 자신의 위치와 역할을 파악하는 단계다. 이와 관련된 정보도 쉽게 얻을 수 있다. 여기에는 '인터넷의 모든 특성(컴퓨터의 수, 네트워크의 구조, 전송선 등)' 및 '외부 세계와의 관계'가 포함된다.
  3. 세 번째 단계(목표를 이루는 방향으로 모형을 시뮬레이션 하는 단계): 세 번째 단계는 인터넷이 자신의 목표를 이루는 방향으로 세계 모형을 시뮬레이션하는 단계이다. 이 단계는 '첫 번째 단계'나 '두 번째 단계'보다 훨씬 어렵다. 지금의 인터넷은 미래를 시뮬레이션할 수 없을 뿐만 아니라, 목적도 없기 때문이다. 첨단과학 분야에서도 미래를 시뮬레이션할 때 고려하는 변수는 단 몇 가지뿐이다. 그런데 인터넷을 포함한 세계 모형을 통째로 시뮬레이션하려면 엄청나게 많은 변수가 필요하므로, 지금의 수준으로는 도저히 불가능하다. 이 단계에서는 모든 상식과 물리학, 화학, 생물학 법칙 그리고 인간의 행동과 사회적 습성까지 고려해야 한다.

 그 외에 똑똑한 인터넷은 자신만의 목적이 있어야 한다. 지금의 인터넷은 어떤 방향성이나 목적을 가지고 있지 않다. 물론 누군가가 의도적으로 인터넷에 목적을 부여할 수는 있다. 하지만 그렇게 만들어진 인터넷 스스로가 자신을 보호할 수 있을까? 목적 자체는 간단해 보이지만, 이것을 프로그램으로 구현하는 일은 결코 쉬운 일이 아니다. 예컨대 이런 프로그램은 전원코드를 뽑아서 인터넷을 다운시키는 행위까지 막아야 한다. 하지만 지금의 인터넷은 위협요인은 막기는커녕 그것을 인지하는 능력조차 없다. 예컨대 인터넷이 자신을 스스로 보호하려면 전원을 끄거나 전선을 자르는 행위, 그리고 서버를 파괴하거나 광통신망을 차단하거나 통신위성을 망가뜨리는 등 모든 가해 요인을 사전에 알아차리고 대책을 세울 수 있어야 한다. 뿐만 아니라 24시간 감시체계를 가동하면서, 모든 가능한 시나리오를 시뮬레이션해야 한다. 하지만 세계에서 가장 컴퓨터도 이런 업무를 수행하기에는 턱없이 부족하다. '자아의식이 있는 인터넷'은 언젠가 만들어지겠지만, 아직은 먼 미래의 이야기이다.

반응형

5. 로봇이 사람을 능가하면 어떻게 될까?

5-1. 로봇의 목적과 인간의 목적이 상충하면 위험할 수 있다?

 공상과학영화에서는 인간을 압도하려는 로봇이 자주 등장한다. 그러면 현실에서도 로봇들이 반란을 일으켜 인류를 말살할 가능성은 없을까? 영화 '터미네이터(The Terminator)'에서는 미군이 핵무기를 관리하기 위해 '스카이넷(Skynet)'이라는 슈퍼컴퓨터 네트워크를 만들었는데, 어느 날 이 시스템이 자아의식을 갖게 된다. 미군은 황급히 스카이넷의 전원 차단을 시도하다가 중요한 사실을 깨닫게 된다. 스카이넷은 자신을 보호하도록 프로그램되어 있었던 것이다. 결국 스카이넷은 위험요인을 차단하는 유일한 방법이 인간을 제거하는 것이라고 결론짓고, 의도적으로 적국에 핵무기를 발사하여 핵전쟁을 유발한다. 그리하여 세상은 완전히 잿더미로 변하고, 그 와중에 살아남은 소수의 인간들은 평화로웠던 과거를 되찾기 위해 기계와 치열한 전투를 벌인다.

 로봇이 언제까지나 인간에게 해로운 존재로 돌변하지 않을 거라는 보장은 없다. 로봇이 아무런 오류 없이 완벽하게 작동해도 마음을 놓을 수가 없다. 프로그램 안에서 사소하지만 치명적인 에러가 하나라도 있으면 언제든지 위협적인 존재가 될 수 있기 때문이다. 로봇이 자기 자신을 보호하는 것은 중요한 일이지만, 사람에게 도움을 주는 것도 중요하다. 그런데 이 두 가지 목적이 상충하면 심각한 문제가 발생한다. 이 문제를 해결하는 한 가지 방법은 여러 가지 목적에 우선순위를 두는 것이다. 예컨대 '인간을 도우려는 욕구'가 '자신을 보호하려는 욕구'보다 강하게 만들면 된다. 가장 좋은 해결책은 어떤 경우에도 로봇이 반드시 지켜야 할 수칙을 세우는 것이다. 예컨대 '이전에 받았던 명령과 상충된다고 해도, 로봇은 사람을 해쳐서는 안된다.'고 못을 박아놓는 식이다. 하급 명령에서 모순이 발생해도 최상위 명령을 무조건 지켜야 하도록 만드는 것이다.

5-2. 걱정할 필요가 없다는 주장

 하지만 로봇의 부작용을 전혀 두려워하지 않는 사람들도 있다. 그 대표적 인물이 인디애나 주립대학교에서 인지과학을 연구하는 '더글러스 호프스태터(Douglas Hosfstadter, 1945~)'박사다. 그는 "로봇은 인간이 만들었으므로 우리 아이와 같은 존재다. 그렇다면 아이들처럼 사랑해 줘야 하지 않겠는가? 부모는 아이들이 크면 부모를 능가한다는 사실을 잘 알면서도 아낌없이 사랑을 베풀지 않던가?"

 '카네기 멜론 대학교(Carnegie Mellon University)' 인공지능연구소의 소장을 지냈던 '한스 모라벡(Hans Moravec, 1948~)' 박사도 '더글러스 호프스태터' 박사의 의견에 동의했다. 그는 저서 '로봇(Robot)'에 다음과 같이 적어놨다. "우리 아이들은 굼벵이보다 느리게 진행되는 생물학적 진화의 굴레에서 벗어나 더 큰 우주에 도전하면서 자유롭게 성장할 것이다... 인간은 당분간 로봇의 덕을 보겠지만... 때가 되면 로봇은 진짜 아이들처럼 새로운 기회를 찾아 우리 품을 떠나갈 것이다. 반면에 그들을 만든 부모들은 이 땅에서 조용히 사라져갈 것이다." 여기서 '우리 아이들'은 '미래의 로봇'을 의미한다.

반응형

6. 인간과 기계의 융합

 기계가 인간을 지배하는 날이 올까? 하지만 이를 생각하기 전에, 우리 자신도 기계임을 인정하고 인간이 특별하다는 생각을 버려야 한다. 인간이 특별한 존재가 아니라는 생각을 처음 떠올린 사람은 아마도 '니콜라우스 코페르니쿠스(Nicolaus Copernicus)'일 것이다. 그는 우주의 중심이라고 믿어왔던 지구가 태양 주위를 공전하고 있는 행성 중 하나였음을 깨달았다. 그 후 '찰스 로버트 다윈(Charles Robert Darwin)'은 인간이 다른 동물에서 진화한 존재임을 만천하에 공포함으로써 인간의 지위를 또 한 번 끌어내렸다. 이런 추세는 미래에도 계속될 것이다. 즉, 미래에는 인간이라는 존재가 유기물로 이루어진 기계와 다를 것이 없음을 깨닫게 될 것이다. 인간은 21세기 안에 이 사실을 인정할 수밖에 없을 것이다.

 그러면 인간은 엄청나게 똑똑한 로봇들과 어떻게 공존할 수 있을까? 이에 대한 답은 간단하다. 로봇과 하나가 되면 된다. '로봇 공학(Robotics)'과 '신경 보철 기술(Neuroprosthetics)'이 충분히 발달하면, 우리의 몸속에 인공지능을 직접 이식할 수 있다. 인간이 로봇과 하나가 된다는 사실이 이상하게 느껴질 수도 있겠지만, 이미 이러한 과정은 시작되었다. 예컨대 전 세계적으로 인공 달팽이관을 이식한 사람은 무려 2만 명이 넘는다. '초소형 수신기'가 소리를 감지하면 음파를 전기신호로 바꾸어 곧바로 귀의 청각 신경으로 전달해준다. 인공 달팽이관은 청력을 거의 잃은 사람들에게 새로운 삶을 안겨주었다. 또 '인공 망막'은 맹인들에게 희망을 주고 있다. 안경에 장착된 초소형 비디오카메라가 영상을 찍어서 디지털 신호로 바꾸면, 망막에 이식된 칩에 무선으로 전송된다. 이 칩이 망막의 신경을 활성화하면 영상신호가 뇌의 후두엽으로 전송되어 영상을 볼 수 있게 된다. 이 장치를 사용하면 시력을 상실한 사람도 눈앞에 있는 물체를 볼 수 있다.

 여기서 한 걸음 더 나아가, 보통 사람들의 감각과 능력을 향상시킬 수도 있다. 예컨대 인공 달팽이관을 고주파에 맞춰놓으면 우리가 지금까지 들어보지 못했던 소리를 들을 수 있다. 적외선을 보게 해주는 적외선 안경은 이미 나와 있다. 원래 적외선은 사람의 눈에 보이지 않지만, 이 안경을 쓰면 어둠 속에서도 뜨거운 물체가 발산하는 적외선을 생생하게 볼 수 있다. 또 '인공 외골격'으로 누구나 만화 주인공처럼 초능력을 발휘하는 세상도 올 것이다. 최첨단 기술로 '엄청난 괴력', '엄청난 시력', '엄청난 청력' 등을 갖춘 '슈퍼휴먼(Super Human)'을 충분히 만들 수 있을 것이다.