컴퓨터도 정서적 교감이 가능할까
상태바
이 기사를 공유합니다
컴퓨터도 정서적 교감이 가능할까
  • 2019.12.31 14:00
컴퓨터는 이제 우리 일상 모든 곳에 있다. 연구자들은 이 컴퓨터에 감정과 공감 능력을 불어넣으려 한다. 컴퓨터는 과연 우리 인간처럼 '느낌적 느낌'이 가능할까?

심리학의 a, b, c

감정은 우리 삶에 동기를 부여해 주고 우리의 일상을 이끌어 나가는 원동력이 되어준다. 감정은 때로 우리의 인지 처리 과정을 다양하게 채색하기도 한다. 이렇듯 감정이 우리 삶에서 매우 중요하다는 점에 대해서는 대체로 동의할 수 있음에도 불구하고, 심리학에서 감정에 대한 과학적 연구는 최근까지 생각보다 그리 활발하지 않았다.

심리학 개론의 첫 시간에 들을 수 있는 주요 레퍼토리 중에 심리학의 a, b, c가 있다. affect*(정서), behavior(행동), 그리고 cognition(인지)이 그것이다. 심리학의 역사를 100여 년으로 볼 때, 첫 50년은 '행동과학'이 주를 이루었다. 행동주의 심리학에서는 내부에서 일어나는 심리적 기제에는 괄호를 쳐 둔 채, 사람의 마음을 자극과 반응의 관계로 설명하고자 하였다. 60년대부터 다시 50여년 정도는 '인지과학'의 시대가 되었다. 인지과학에서는 여러 학문분야(철학, 컴퓨터 과학, 신경과학, 심리학, 언어학, 인류학 등)들이 모여 학제적인 연구를 통해 사람 마음의 기제를 연구하기 시작하였고, 컴퓨터 비유를 사용해 사람의 인지과정을 정보 처리 과정으로 보기 시작했다.

그리고 새로운 세기에 들어서고 나서야 '체화된 인지', '체화된 상호작용'의 패러다임이 유행하면서 바야흐로 세 번째 심리학적 요소, '정서'에 대한 관심이 높아지기 시작했다Jeon, 2017. 최근 급속도로 발전하고 있는 인공지능에 대한 관심과 더불어 '정서적 컴퓨팅'Affective Computing에 대한 관심도 뜨거워지고 있다. 정서적 컴퓨팅에 대한 본격적인 연구는 Dr. Rosalind Picard가 90년대 말에 같은 이름의 연구실을 MIT에 열고, 역시 같은 제목의 책을 펴내면서 시작되었다Picard, 1997.

내 마음을 알아주는 컴퓨터

먼저 왜 우리가 정서를 가진 컴퓨터를 디자인하고 싶어하는지에 대한 얘기부터 시작해 보자. 그 이유는 아마도 시스템의 지능이 높아짐에 따라 우리가 컴퓨터를 우리의 협력 상대로 보기 시작했기 때문일 것이다. 다른 사람과의 성공적인 협업을 위한 첫째 조건은 아마 원활한 의사소통일 것이다. 이를 위해서는 정서적인 교감 혹은 사회적 상호작용이 필수적이다. 사람과의 의사소통에서 이러한 요소가 중요하다면 기계와의 의사소통에서도 마찬가지일 것이다. 때문에 우리는 컴퓨터 혹은 로봇과도 정서적인 교감을 하고 싶어하는 것이다. 연구자들은 이런 정서적인 상호작용이 있을 때 사람들이 로봇이나 에이전트를 더욱 잘 받아들이고, 더 좋아하고, 더 신뢰한다는 연구결과를 보여왔다. 

그렇다면 정서적인 컴퓨터 혹은 시스템은 어떤 것일까? 가장 쉬운 첫 단계는 아마 표현적 디스플레이를 만드는 일일 것이다. 우리가 일상생활에서 사용하는 이모티콘이나 구글 자동차의 앞 부분이 웃는 얼굴처럼 생긴 것을 떠올려보면 쉬울 것이다. 하지만, 이를 잘못 디자인하면 좌절감을 주는 인터페이스가 되어 버릴 가능성도 있다. 나이가 조금 든 분들은 마이크로소프트사의 클립피(Clippy, 사용자에게 도움을 주고자 설계된 클립 모양의 어시스턴트)나 밥(Bob, 가상 오피스에서 도움을 주고자 설계된 강아지 어시스턴트)을 기억할 것이다. 인터페이스를 의인화해서 좀더 친근하게 만들어 보려고 시도를 했었지만, 클립피는 크리피creepy했고, 밥은 밥충이 정도로밖에 기억이 되지 않는다. 제대로 된 도움을 주지도 못하면서 친한 척만 하는 것은 오히려 사용자의 반발감만 불러일으킬 수 있음을 기억하자.

컴퓨터의 '느낌적 느낌'

자신의 정서를 표현하는 것만큼이나, 혹은 그보다 더 중요한 다음 단계는 남의 감정을 읽을 줄 아는 능력일 것이다. 사실 Picard의 정서적 컴퓨팅 개념에서는 이 요소가 핵심이다. 다른 사람의 감정상태를 추론해서 적응적으로 상호작용을 변화해 나아가는 능력을 가진 기계를 만드는 것. 이를 위해 다양한 센서와 장비들이 사용되고 있다. 예를 들어, 뇌 활동 이미지를 읽는다거나 심박수나 피부전도성과 같은 생리적인 반응을 측정하기도 하며, 카메라나 마이크를 사용하여 얼굴표정이나 음성정보에서 정서를 읽어내기도 한다.

이 과정은 (요즘 아주 핫한) 기계 학습이라고 불리우는 패턴 인식 과정이다. 많은 데이터를 통해 기계가 몇 가지 정서에 대한 학습을 한 후, 새로운 자극이 입력되었을 때 학습한 알고리즘을 통해 그 자극이 어떤 정서 상태와 유사한지 분류해내는 작업이다. 물론 이를 위해 오랫동안 쌓아온 수많은 심리학적 데이터들이 이용되고 있다. 예를 들어, 얼굴 표정 인식은 얼굴 부분 부분의 거리와 모양의 패턴에 따라 다른 정서로 읽힌다. 그리고 위에 나열한 뇌 혹은 생리학적 센서들은 어떤 이론적 모델을 기반으로 정서를 추론하고자 하는지에 따라 선택되고 사용된다. 예를 들면, 심박동수는 참가자가 얼마만큼의 각성 상태에 있는지를 잘 읽어낼 수 있지만, 사용자가 얼마나 긍정 혹은 부정의 정서를 지니고 있는지를 읽어내는 데에는 적합하지 않다.  

더 어려운 문제는 정서를 판별한 후의 적응적인 개입 부분이다. 만약 나에게 동반자 로봇이 있다면 내가 화가 났을 때, 그 로봇이 어떻게 행동하는 게 좋을까? 농담 따먹기라도 해서 내 주의를 환기시키는 게 좋을까, 아니면 입 다물고 가만히 있는 게 상책일까? 만약, 내 로봇이 일관적인 성격을 가지지 않고 내 감정상태에 따라서 이랬다 저랬다 한다면(예를 들어, 때로는 매우 수다스러웠다가 때로는 과묵했다가) 나는 그 로봇을 더 좋아하고 신뢰할 수 있을까?

사용자의 정서 상태에 따라서 적응적인 반응을 하는 시스템도 중요하겠지만, 그에 못지 않게 사용자의 정서 상태에 이입하고 그 상태를 나눌 수 있는 시스템도 중요할 것이다. 우리는 이를 'Empathic Computing'이라고 부른다Billinghurst, 2017. 시스템이 나의 정서 상태를 함께 공감해 주는 것도 중요하겠지만, 또한 그 정서 상태를 나의 중요한 사람들에게 잘 전달해 주고 함께 나눌 수 있도록 인도해 주는 사회적인 플랫폼을 디자인하는 것도 중요할 것이다.

백남준 白南準, 1932 ~2006. TV 부처, 1974/2002, 가변크기, 부처 조각상+CRT TV+폐쇄회로 카메라+컬러+무성.
텔레비전 속 부처라, 얼마나 경이로운 발상인가. TV나 컴퓨터가 우리와 얼마나 가까운 존재인지를 일깨운 준 이가 백남준이다. 백남준 (1932 ~2006). 'TV 부처', 1974/2002, 가변크기, 백남준아트센터 소장. 

결국은 의식의 문제

자, 그럼 이쯤에서 이야기를 마무리하고 다시 첫 번째 질문으로 돌아가 보자. 과연 우리는 우리들처럼 '느낌적 느낌'을 가질 수 있는 컴퓨터를 설계할 수 있을까? 믿음을 주고, 공정하며, 공손하고, 솔직하고, 심지어 유머까지 겸비한 컴퓨터를 만들 수 있을까? 물론 이를 위해 연구자들이 열심히 연구를 진행하고 있지만, 아직은 요원한 이야기다. 우리의 정서 상태에 관한 데이터를 모아서 분석하고 정서 상태를 분류하여 그에 맞게 상호작용을 변화시킬 수 있는 컴퓨터를 만드는 것은 가능할지 모르지만, 그게 우리가 느끼는 것 같은 느낌을 컴퓨터가 느끼는 것은 아니다. 컴퓨터는 아직 의식이 없기 때문이다.

양자 컴퓨팅과 같은 새로운 기술이 인간의 의식과 같은 상태를 창발적으로 만들어낼 지 모른다는 주장도 있지만, 그런 주장이 최근에 제기된 것은 아니다. Roger Penrose 가 <황제의 새 마음>이란 책에서 비슷한 이야기를 한 것이 벌써 30년 전의 일이다Pensorse, 1989. 양자 컴퓨팅이 최근 급속도로 발전하고 있는 것은 사실이지만, 그것이 인간의 의식과 같은 결과물을 조만간 만들어낼 수 있을지는 두고 볼 일이다. mind

* 용어에 대한 다른 정의와 견해가 있을 수 있다. 이 글에서는 일상 용어인 느낌feeling과 감정emotion으로 시작하였지만, 뒷부분에서는 학문적으로 가장 포괄적 단어인 affect(정서)를 쓰기로 하였다. 물론 번역에 대해서도 다른 의견이 있을 수 있음을 밝혀둔다.   

   <참고문헌>

  • Billinghurst, M. (2017). The Coming Age of Empathic Computing, https://medium.com/@marknb00/the-coming-age-of-empathiccomputing-617caefc7016, Retrieved on 12/25/2019
  • Jeon, M. (2017). Emotions and Affect in Human Factors and Human-Computer Interaction, San Diego, CA: Academic Press.
  • Pensorse, R. (1989). The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford, UK: Oxford University Press.
  • Picard, R. (1997). Affective Computing. Boston, MA: MIT Press.
전명훈 버지니아공대 산업공학과/컴퓨터과학과 교수 공학심리 Ph.D.
가수의 꿈을 접고 전자회사에서 사운드 디자인을 하다가 영화 음악을 공부했다. 영화 음악가의 꿈을 접고 청각 디스플레이로 박사 학위를 받았다. 현재 버지니아공대 산업공학과와 컴퓨터과학과에서 Mind Music Machine Lab을 운영하고 있다. 사람과 기계(컴퓨터, 자동차, 로봇) 사이의 더 나은 상호작용을 디자인하기 위해 소리와 정서에 대한 연구를 하고 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.