‘매너가 로봇을 만든다’

로봇과 미래 기술(5) 로봇 에티켓

‘매너가 사람을 만든다(Manners Maketh Man)’

최근 속편 <킹스맨: 골든서클> 개봉으로 더 많이 회자되고 있지만 최근 몇 년새 이 문장만큼 깊은 인상을 남긴 대사도 없을 것이다. 수트를 완벽하게 차려입은 킹스맨 해리하트(콜린퍼스 분)가 무례한 동네 깡패들을 혼내주기 전 가게 문을 철컹철컹 잠그며 날린 이 대사는 매너없는 사회에 날리는 통쾌한 어퍼컷이었다.

로봇과 인간이 공존하는 시대, 이 명대사를 이렇게 바꿔도 좋을 것 같다.

‘매너가 로봇을 만든다(Manners Maketh Robot)’.

인간이 사회 구성원으로 다른 사람과 어울려 살기 위해 매너와 예절이 필요하듯 로봇 역시 인간과 공존하기 위해서는 개발 단계부터 인간 사회의 습관과 예절을 학습시키는 윤리 알고리즘이 필요하다는 의미이다.

그동안 로봇에 대한 기본 윤리는 SF 거장 아이작 아시모프가 오래전 제시한 3원칙이 오늘날까지 바이블처럼 받아들여진다. ‘로봇은 인간을 해쳐서는 안된다(1원칙)’, ‘1원칙에 상충되는 경우를 제외하고는 인간의 명령에 따라야 한다(2원칙)’, ‘1, 2원칙을 어기지 않으면서 로봇은 스스로를 보호해야 한다(3원칙)’ 등으로 70여년 전 인간과 로봇과 함께 살아갈 ‘먼 미래’를 내다본 거대 담론인 셈이다.

인간-로봇 공존 시대, 매너를 갖춰야 할 것은 인간만이 아니다. 로봇에게도 에티켓이 필요하다. 사진은  포스터.  ⓒ 20세기폭스

인간-로봇 공존 시대, 매너를 갖춰야 할 것은 인간만이 아니다. 로봇에게도 에티켓이 필요하다. 사진은 <킹스맨: 시크릿 서비스> 포스터. ⓒ 20세기폭스

이제 로봇과 살아갈 미래는 아주 가깝다. 세계 최초 소셜 로봇으로 이름을 날린 지보가 드디어 북미 시장에서 출시돼 각 가정에 들어가고 있으며 미국과 유럽 일부 지역에서는 일반 도로에 배송 로봇이 돌아다니고 있다. 2020년 이후에는 1가정 1로봇 시대가 열린다.

조만간 집에서, 거리에서, 마트에서, 주차장에서 로봇은 늘 마주치는 존재가 될 것이다. 이런 일상이 오면 살인금지나 인종차별 등 심각한 윤리보다는 어쩌면 아주 작고 사소한 매너와 에티켓이 더 중요할 수도 있다.

가령 자율 배송 로봇이 혼잡한 거리에서 양해를 구하지 않고 좁은 틈 사이로 지나간다거나, 로봇이 사람을 툭 치고도 미안하다는 얘기를 안한다거나, 아이와 노인들의 도우미 역할을 하는 홈 로봇이 상처주는 말을 아무렇지도 않게 한다면 로봇과 함께 살고 싶다는 생각이 없어질 것이다.

뉴질랜드 캔터베리 대학의 최근 연구에 따르면 로봇에게 거절을 당하면 기분이 다운되거나 슬퍼지며 심지어는 분노하는 것으로 나타났다. 147명의 자원자들이 로봇과 게임을 하도록 했는데 게임 후 1그룹에게는 ‘재밌었어. 다음에 또 놀자’라고 말하고 2그룹에게는 그냥 간단한 인사만 하도록 했으며 3그룹에게는 ‘지루했어. 다시는 안놀고 싶어’라고 로봇이 말하도록 했다. 그 결과 3그룹만 유독 자존감이 현저하게 떨어졌으며 심지어는 분노에 차 욕설까지 하는 경우도 있었던 것으로 알려진다.

소셜 로봇을 개발할 때 인간 심리를 헤아리거나 사회적인 매너를 갖추도록 프로그래밍하는 것은 무엇보다 중요하다는 것을 보여준다. 최근 이 부분에 주목해 지상 로봇, 소셜 로봇, 자율주행차 등에 에티켓을 가르치는 다양한 연구개발이 진행되고 있다. 복잡한 도로에서 양보하거나 순서대로 지나가고 옆으로 비껴서는 등의 행동이 가능하며 실수를 했을 때 양해를 구하는 언어를 구사하는 것등이 포함된다.

일상생활에서 인간과 로봇이 큰 탈없이 공존하기 위해서는 로봇 개발 단계에서 매너와 에티켓을 학습시시키는 것이 필요하다.  ⓒ Topic/Corbis

일상생활에서 인간과 로봇이 큰 탈없이 공존하기 위해서는 로봇 개발 단계에서 매너와 에티켓을 학습시시키는 것이 필요하다. ⓒ Topic/Corbis

미 국방부 산하 DARPA는 올 여름부터 로봇에게 매너를 가르치는 연구를 시작했다. 로봇이 인간 데이터를 통해 매너를 학습할 수 있도록 머신러닝 알고리즘을 설계 중이며 사람들처럼 특정 상황에서 행동하는 방법을 직관적으로 파악하도록 하는 것이 개발의 목표다.

DARPA의 프로그램 매니저인 레자 가나단(Reza Ghanadan)은 “현재 AI 전화응답시스템(ARS)은 도서관 같은 조용한 곳에서 전화벨이 울리지 않도록 하는 기능은 없다”며 “우리가 미래에 로봇, 자율주행차, 홈 디지털 비서 등과 상호소통해야 한다면 그들 역시 우리와 동일한 규범을 준수하는 것이 필요하다”고 말했다.

MIT 과학자들은 강화학습 방식을 이용해 유동인구가 많은 곳에서 사람이나 물건과 충돌하지 않고 자율 주행할 수 있는 로봇 기술을 개발 중이다. 사회적으로 인지된 내비게이션(Socially aware navigation)으로 명명된 이 기술은 기존 연구 방법론인 궤적 기반 접근법(trajectory-based approach)이나 반응 기반 접근법(reactive-based approach)이 아닌 사회 규범에 맞게 행동하도록 설계된 것이 특징이다.

물론 위치확인이나 주변환경인지, 동작계획 및 제어 기술은 공통적으로 필요하다. MIT 내에 있는 복잡한 빌딩 안에서 테스트한 결과 원하는 결과를 얻었다고 한다.

'사회적으로 인지된 내비게이션' 기술을 접목한 MIT의 로봇 보행 테스트

‘사회적으로 인지된 내비게이션’ 기술을 접목한 MIT의 로봇 보행 테스트 ⓒ MIT

프랑스 툴루즈 대학에서도 인간의 매너를 흉내내 차례로 지나가거나 그룹에게 순서를 양보하는 등 사적인 공간 영역을 존중하는 로봇을 개발하고 있다. 상대방이 무엇을 하려고 하는지를 추론해 로봇 행동을 결정하는 방식이다. 복잡한 거리, 건물 복도, 주차장, 쇼핑몰 등에서는 사람이 많을 뿐 아니라 사전에 정해진 경로대로 움직이지 않기 때문에 상황 인식이 중요하다.

그동안 로봇은 충돌을 피하기 위해 물체가 나타나면 멈춰서는 식이었지만 툴루즈 대학 연구원들은 0.1초마다 변경사항을 파악해 다음 예상치와 궤도를 업데이트함으로써 자연스럽게 보행하도록 했다. 테스트 결과 누군가가 복도쪽으로 걸어오거나 두 사람이 양쪽 벽 가까이에 지나가고 있을 때 모두 로봇은 충돌을 피하고 양보하는 등의 매끄러운 행동을 한 것으로 알려진다.

구글은 자율주행차를 위한 경적 시스템을 준비 중인데 매우 조심스럽게 접근하고 있다. 이 시스템은 만약 갑자기 자동차 진행 방향으로 사람이 나타나거나 다른 자동차가 진입했을 때 알아서 경적을 울리는 역할을 하는데 주변에 불쾌한 느낌을 주지 않도록 하는 것이 중요하기 때문이다.

인간 운전자 사이에 신경질적으로, 여러번 반복해서 울리는 경적이 불필요한 오해와 충돌을 일으키는 사례를 감안하면 당연한 접근이다. 구글은 “자동차 경적을 예의바르게, 조심스럽게 울리는 방법을 가르치는 게 최종 목표”라며 “오로지 안전상 필요한 경우에만 울리는 것은 물론이다”고 설명했다.

프랑스 툴루즈대학이 개발 중인 로봇 에티켓 기술 ⓒ 툴루즈 대학

프랑스 툴루즈대학에서 에티켓 기술을 접목한 로봇을 복도에서 테스트하고 있다.  ⓒ 툴루즈 대학

로봇신문에 따르면 조지아텍의 엔터테인먼트지능연구소는 로봇이 사람처럼 동화를 읽으면서 사회규범과 윤리를 배울 수 있는 인공지능 기술을 개발했다. 키호테(Quixote)라는 이름의 인공지능 시스템은 동화를 바탕으로 선악과 예절을 배우며 교육을 위해 보상과 처벌 개념도 도입했다. 키호테가 사회적으로 권장되는 행동을 하면 보상 신호를 제공하고 사회적으로 용인되지 않은 행동을 하면 처벌 신호를 보내는 식이다.

일례로 약국에 가서 약을 사오는 명령을 받은 로봇은 몇가지 선택을 할 수 있다. 줄을 서서 기다리는 방법, 약국에서 훔쳐오는 방법, 다른 사람에게 부탁하는 방법 등. 이 중에서 별도의 지침이 없으면 로봇은 규범이나 매너보다는 가장 빠르게 약을 구할 수 있는 방법을 취할 것이다.

그러나 이를 부도덕한 행위로 인식하도록 처벌 신호를 주고 줄을 서서 기다리는 방법에 대해 보상 신호를 준다면 사회적인 행동을 준수하게 되는 식이다. 조지아텍의 마크 리틀 소장은 “이런 규범을 가르치지 않는다면 로봇은 불쾌감을 주는 것은 물론 사이코패스가 되거나 인간에게 충분히 해를 끼칠 수 있다”고 말한다.

우리나라에서도 로봇 윤리에 대한 논의가 진행되고 있다. 지난 8월 부산 동아대학교에서는 제1회 윤리적 인공지능/로봇 워크샵이 열렸다. 이 행사에서는 동아대와 서울교대가 2016년부터 공동 개발 중인 인공윤리 에이전트(Artificial Moral Agent, AMA)가 소개됐다. 5차년도에 걸쳐 진행되는 이 프로젝트는 인간의 지능, 감정과 함께 10세 수준의 윤리의식을 갖춘 AMA를 개발하고 이를 소셜 로봇과 간호 로봇에 적용하는 것이 목표다.

(2060)

뉴스레터 구독신청
태그(Tag)

전체 댓글 (0)

과학백과사전