숙명여대 기초교양대학 구연상 교수 - AI와의 공존을 상상하는 철학자

AI와의 공존을 상상하는 철학자
숙명여대 기초교양대학 구연상 교수


챗GPT-3.5가 등장했을 때 우리는 놀랐다. 대단한 혁신이었다. 이 기술을 어떻게 받아들여야 할 지, 그 부작용은 어떻게 감당해야 할 지 시끄러웠다. 하지만 순식간에 생성형 AI는 우리의 삶과 일에 스며들었다. AI는 더 이상 혁신이 아니라 당연한 도구가 되었다. 그 발전 속도가 너무 빠르다는 것을 제외하면, 이제 전 세계는 생성형 AI에 충분히 익숙해졌다. 그런데 다음 혁신이 곧 도래할 예정이다. 바로 AI 로봇이다. 그것도 사람의 모습을 닮은 휴머노이드 로봇이 속속 등장을 예고하고 있다. 한 철학자가 내놓은 소설에 눈길이 가는 이유다. 교통사고를 당해 목 아래로 모두 마비된 한 철학자가 최첨단 AI로 자의식이 형성돼 있는 외골격 로봇의 사용자가 되면서 벌어지는 사건을 다룬 《AI 몸피로봇, 로댕》은 AI 로봇과 인간이 어떻게 공존할 수 있는지 질문한다. 소설을 쓴 구연상 숙명여대 기초교양대학 교수에게 그 구체적인 방법론을 물었다.
철학자가 AI에 관한 소설을 썼다.

과학 소설과 철학은 매우 밀접한 관계다. 하나의 원리를 단초로 세계관을 완성한다는 점에서 그렇다. 마르크스도, 헤겔도 그런 작업을 했다. 내가 전공한 하이데거는 자인스프라게(Seinsfrage), 즉 ‘있음, 존재함’의 의미에 관해 평생 질문했고 이를 바탕으로 실존 철학을 확장해 나갔다. 과학소설이 품고 있는 질문과 그에 따른 전개도 비슷하다. 다만, 철학은 엄정히 증명해 나아가야 한다는 점이 소설과는 다르다. 일상생활의 사고방식과는 조금 다른 논증법을 사용하기도 해 때로는 어렵게 느껴진다. 반면 소설은 삶과 붙어있다. AI, 특히 AI 몸피 로봇(입는 로봇)이 만들어진다는 전제와 그에 따라 파생되는 질문은 소설이라는 방식이 더 어울린다고 생각했다.

철학으로 AI를 이야기하면 어떤 부분에서 어울리지 않나?

철학자는 AI의 본질부터 질문하게끔 되어있다. 그런데 그 질문에는 엔지니어도 답하기 어렵다. 디지털 전자의 집합? 정보? GPU나 CPU? 알고리즘? AI는 데이터를 처리하거나 알고리즘 모델을 통해 보일 수는 있지만, 그것이 본질은 아니다. 공학자들은 AI의 본질을 알고 있되 이를 규명할 수는 없다. 이를 ‘뜻매김’하는 것은 철학자의 몫이다. 즉, 철학자의 질문은 소설과는 달라질 수밖에 없다.

소설 속에서 몸피 로봇은 얼굴이 없지만 자아에 해당하는 것이 있다. 흥미로운 설정이었다.

《AI 몸피로봇, 로댕》은 가상의 연구소에서 AI 로봇이 만들어지면서 생길 수 있는 여러 문제를 다룬다. AI 로봇의 자기의식, 사용자에 의한 잘못된 사용, 로봇의 정신질환과 트라우마, 로봇 학대 등의 문제 등이다. 실제 세계에서 충분히 일어날 수 있는 일이다.

AI 로봇에게 얼굴이 있어서는 안 된다는 생각이 소설 속에서 중요하게 다뤄진다.

사람의 얼굴은 200만 년 동안 인류가 지구상에서 생존해 온, 진화의 결과물이다. 추운 지방에 사는 사람들은 코가 납작해지고, 더운 지방에 사는 사람들은 코나 높아지는 등의 신체적 적응이 고스란히 얼굴에 드러난다. 또, 사람 간의 복잡한 사회적 상호작용을 가능케 하는 표정의 진화와도 밀접한 관련이 있다. 결국, 사람의 얼굴을 로봇에 이식하는 것은 인류의 역사를 송두리째 넘겨주는 것과 같다. 위험한 시도다.

로봇이 얼굴을 갖게 된다고 정말 위험한 상황이 발생할까?

AI 로봇의 수준이 일정 이상으로 발전한다면, 그리고 그 용모가 인간과 유사해진다면 로봇이 사람처럼 사회적 협동 과정의 핵심으로 기능할 수 있다. 그리고 이는 로봇이 독립된 하나의 ‘종’으로 진화할 가능성을 만들어낸다. 그렇게 되면 로봇이 인간에게 ‘마그나카르타(인권 대헌장)’를 요구할 수도, 인간이 로봇의 연설에 감화되어 숭배에 이르게 될 수도 있다.

자아를 가진 로봇이 얼굴을 갖게 된다면 우리가 흔히 상상하는 디스토피아적인 미래가 도래할 수도 있다는 얘기다.

의식이 무엇인지는 아직 인지 과학자들 사이에서도 명확히 정의된 바 없다. 박테리아가 의식을 가질 수 있을까. 지렁이도 밟으면 꿈틀거린다. 이는 지렁이가 자기를 의식하는 방식일 수도 있다. 철학의 영역에서 의식의 증거는 ‘나는 무엇무엇을 알아차린다’는 구조가 성립하면 된다고 본다. AI도 데이터를 처리하면서 ‘나는 이렇게 처리한다’고 이야기할 수 있다면 AI가 자기만의 세계를 가지고 있음을 시사한다. 이는 사람의 의식과는 다를 것이다. 생성형 AI와 사람의 의식을 동일 선상에 놓고 볼 필요는 없다.

주인공 우 교수는 AI 몸피 로봇의 자아를 완성하는 과정에 있어 ‘철학적 스승’ 역할을 자처한다. 지금의 생성형 AI 개발 과정에도 그런 역할이 필요할까?

현재 수준의 생성형 AI는 아직 자기의식(self conciousness)이 없다. 따라서 ‘파인 튜닝’이 필요한 단계라고 할 수 있다. 만약 AI 로봇이 스스로 판단하고 행동하며 책임까지 질 수 있는 단계, 즉 슈퍼 인텔리전스의 단계에 도달하게 된다면 AI 로봇은 자기 고유의 목적성을 가지게 될 수 있다. 그리고 그 목적을 달성하기 위해 사람의 명령을 거부하거나 자신이 원하는 방식의 삶을 요구할 가능성도 있다. 결국, 인류는 그 로봇의 권리를 점진적으로 인정해 줄 수밖에 없을 것이다.

로봇의 권리를 인정하는 문제는 긴 논의가 필요할 것 같다.

동물의 권리에 관한 논의를 참고해 볼 수 있다. 예를 들어 누군가 자신의 반려동물에 재산을 상속하고자 한다고 가정해 보자. 이에 관해 사회적 논의가 필요할 것이다. 내 생각은, 이 모든 문제를 사람의 삶에 기초해 다뤄야 한다는 것이다. AI 로봇의 권리는 사람의 권리를 키울 수도 있고 제약할 수도 있다. 사람을 중심에 두고 논의가 이루어져야 한다.
소설 속에 등장하는 몸피 로봇의 이미지 ©구연상
현재 AI는 무섭게 진화하고 있으며 이미 다양한 분야에서 사용되고 있다. 이대로 괜찮을까?

AI는 사람의 지적 판단을 도우려고 만든, 일종의 ‘기계’다. 인간의 판단을 도울 수 있다. 다만, 그 최종 결정은 사람이 해야 한다.

‘책임’의 문제인가?

사실, 생성형 AI는 주어진 데이터를 바탕으로 가장 확률이 높은 결과를 이끌어내는 것이지, 새로운 것을 생성하는 것이 아니다. 명칭 자체에 오류가 있다. 따라서 AI는 인간의 의지를 확장하는 도구로 볼 수 있다.

인간이 AI와 상호작용을 함에 있어 무엇을 어떻게 책임져야 하나?

책임은 ‘갚아야 할 짐을 떠맡는 일’이다. 개인이 마땅히 져야 할 것일 수도 있고, 도덕적으로 넘겨받은 것일 수도 있다. AI는 몸이 없어 행위의 주체가 될 수 없다. 따라서 AI는 도구성만을 갖는다. 따라서 이에 대한 인간의 책임이란 편의성, 안전성, 공공성을 잘 지키는 것이다. 반면, AI 로봇의 경우 몸을 갖고 있어 도구의 지위를 넘어설 수 있다. 사람의 ‘동료’가 될 수 있다는 얘기다. 인간은 이에 대해 ‘창조자’로서의 책임을 갖게 된다. AI 로봇이 긍정적으로 이바지할 수 있도록 이끌어야 한다는 얘기다. 이는 앞 세대가 다음 세대를 잘 길러야 하는 책임과도 맞닿아있다.

AI 로봇에 감정적으로 몰입한 요양원 환자, AI 로봇을 학대하는 인간 등도 소설 속에 등장한다.

AI가 몸을 갖게 되면 인간과의 상호작용에 변화가 발생할 수 있다. 그 과정에서 감정적 교류가 발생한다. 게다가 AI 로봇은 지식뿐만 아니라 지혜의 영역에서도 사람을 뛰어넘을 수 있다. 이미 우리는 감정적으로 로봇에 이입한 사례를 알고 있다. AI 로봇 소피아와 인터뷰를 진행했던 기자나 영화 〈엑스 마키나〉의 사례 같은 것이다.

닥칠 미래를 위해 미리 고민해 둬야 할 것들이 많다.

소설 속 상상력의 이야기만은 아니다. AI는 아직 정보 처리 기계로서 도구적 역할을 하고 있지만, 감각 기관을 가지고 자아를 인식하게 된다면 AGI(일반 인공지능)로 발전할 것이다. 이는 인간 사회에 큰 변화를 불러올 수 있다. 철학적, 윤리적 고민이 필요하다. 초등학생도 AI를 사용할 수 있다. 정신적으로 미성숙한 사람들도 AI를 사용할 수 있다. 만약 돈과 권력을 가진 반사회적 인물이 AI를 사용한다면 큰 위험이 될 것이다. 따라서 엄격한 규제가 필요하다. 총기 사용을 규제하는 것처럼 적절한 선을 찾아야 한다. 더군다나 AI가 몸을 갖게 된다면, AI 로봇의 논의가 된다면 AI를 처벌하는 법도 필요할 수 있다.

AI와 인간이 공존하는 미래를 위해 지금 당장 해야 할 일이 있다면?

AI의 발전 방향이 개발 논리나 기업 논리 등에 치우치지 않도록, 보다 넓은 영역의 전문가들이 그 과정에 참여할 수 있어야 할 것이다.


신아람 에디터

* 2024년 7월 2일에 이메일로 전해 드린 ‘북저널리즘 톡스’입니다. 다르게 생각하는 사람들의 인터뷰를 메일함에서 바로 받아 보시려면 뉴스레터를 구독해 주세요. 뉴스레터 구독하기
Close