HOME>Focus Story> Issue
인공지능로봇이 인간과
공존하기 위한 방법
s_double.jpg

최근 인공지능 관련 기술을 개발하는 연구자들이 기술의 잠재적 위험 가능성과 윤리적 규제의 필요성을 제기하고 있다.

최근 오픈AI가 개발한 대화 전문 인공지능 챗GPT에 사람들의 관심이 집중되고 구글의 바드Bard를 비롯해 마이크로소프트에서도 유사한 기술을 탑재한 빙Bing을 출시하면서 생성형 인공지능 간의 경쟁이 첨예해지고 있다. 이와 동시에 딥러닝의 아버지로 불리는 제프리 힌턴Geoffrey Hinton은 구글을 떠나면서 “AI챗봇의 위험이 매우 심각해질 것이며, 지금은 인공지능이 인간보다 지능적이지 못하지만, 조만간 인간을 초월할 수 있다”고 경고했다.

그런가 하면 챗GPT를 만들어낸 오픈AI의 CEO인 샘 알트만Sam Altman은 미 의회 청문회에서 새로운 AI 시스템을 규제해야 한다고 주장했다.
디지털 휴머니티란 무엇인가?
전통적 휴머니즘의 의미에 포함되기 어려운 새로운 인간성 요소가 속속 등장하고 있다. 예를 들어 인간과 기계의 결합을 통해 인간 능력 향상human enhancement을 외치는 트랜스 휴먼 현상이 나타나는가 하면, 딥페이크나 음성 및 표정 관련 기술의 발달로 인해 디지털 휴먼이 등장하고, 인간과 인간처럼 이야기를 나눌 수 있고 더 나아가 감정적 소통까지 이뤄내는 챗봇이 우리의 휴대폰에 탑재되고 있다. 이에 따라 디지털 시대에 요청되는 새로운 휴머니티 혹은 디지털 휴머니티가 과연 무엇인지 생각해봐야 한다.
로봇에게 새로운 윤리를 가르쳐야 할 때
생성형 인공지능은 인간과 유사하거나 인간을 뛰어넘는 지적 능력을 갖게 될 것이다. 그렇다면 인간은 왜 생성형 인공지능을 필요로 할까? 어째서 한쪽에서는 두려워하는 것을 다른 한쪽에서는 계속 업그레이드하는 것일까? 생성형 인공지능이 로봇에 탑재되어 우리 삶에 밀접하게 링크된다면 삶의 많은 부분이 지금과는 매우 다른 방식으로 나타날 것이다. 웨어러블로봇, 카봇, 티칭봇, 군사봇, 수술로봇, 돌봄로봇 등의 등장을 염두에 둔다면 앞으로 인간과 공존할 새로운 ‘인간 아닌 행위 주체Non-person Agent’와의 관계 설정에 대한 고려가 필요해진다.
인공지능과 로봇 기술이 발전하면서 인간과 유사하거나 인간의 지능을 뛰어넘을 만큼 자율성을 갖춘 인공지능로봇이 등장하고 있다. 이러한 인공지능로봇이 인간과 같은 자유의지를 지닌 자율적 존재로 자리매김하지는 않겠지만, 적어도 현상적 차원에서 자율적 주체처럼 행동할 수 있을 것이다. 이런 맥락에서 ‘위임된 자율성’ 혹은 ‘준자율성quasi-autonomy’이라는 개념이 도출되기도 한다. 이러한 자율성은 인공지능로봇에게 윤리적 사고나 판단 시스템을 부여하려는 시도가 이뤄지면서 보다 강조되고 있다. 로봇이 윤리 추론 능력을 갖추면 로봇이 새로운 윤리를 학습하고 로봇의 도덕심을 개발하고, 심지어 자신만의 윤리 시스템을 진화시킬 수 있다고 생각할 수도 있다.

인공지능로봇이 인간과 공존하기 위해서 가장 중요한 것은 인공지능로봇의 윤리적 원칙을 설정하는 것이다. 그래서 인간의 존엄성과 인류의 공공선을 가장 중요한 핵심 가치로 제시하고, 이에 근거해 로봇의 행위 원칙과 그에 따르는 책임의 규정을 포괄하는 인공지능로봇의 윤리 4원칙을 제안하고자 한다.
s1_4_1.jpg
딥러닝의 아버지로 불리는 제프리 힌튼Geoffrey Hinton은 구글을 떠나면서 “AI챗봇의 위험이 매우 심각해질 것이며, 지금은 인공지능이 인간보다 지능적이지 못하지만, 조만간 인간을 초월할 수 있다”고 경고했다.
인간의 존엄성 존중과 공공선 실현
s1_4_2.jpg
인간의 존엄성은 결코 상실될 수 없는 절대 가치이며, 인간과 인간이 아닌 존재를 구분하는 중요한 기준이다. 인공지능로봇이 지켜야 할 가장 최고의 원칙은 바로 인간의 존엄성을 존중하는 것이다. 이는 인공지능로봇이 인간의 존엄성을 해하거나 해할 가능성이 있다고 판단되는 명령은 거부할 수 있도록 설계되어야 함을 의미한다.

또한 로봇은 인간과의 관계에서 목적적인 지위보다 수단적 혹은 도구적 지위를 가진다는 것을 의미한다. 인공지능로봇에게 허용된 ‘준자율성’에 근거해 로봇에게 목적적 지위를 부여해야 한다고 주장하면 인간의 존엄성과 상충되는 경우가 발생할 위험성이 있다. 인공지능로봇에 대한 수단적 대우와 목적적 대우의 문제는 군사용 로봇이나 수술용 로봇, 개인 서비스 로봇(소셜로봇, 케어로봇, 반려로봇 등)이 도입되면서 AI 킬러로봇의 선제적 금지의 문제, 수술로봇의 의학적 대리인과 도덕적 대리인의 지위의 충돌 문제, 로봇과의 결혼 문제 등으로 실제로 나타나고 있는 실정이다. 또한 인공지능로봇은 인간을 목적적 존재로 대우해야 하며, 인간을 수단화하거나 도구화할 수 없다는 것을 의미한다.

인간의 존엄성 못지않게 중요한 가치는 바로 공공선이다. 인간의 존엄성을 위해 공공선을 해치는 경우가 발생한다면, 이는 차별적이고 폐쇄적인 존엄성이 될 것이다. 물론 역으로 공공선을 위해 인간의 존엄성이 침해되는 경우에는 집단주의 내지 전체주의적 공공선이 되어버리는 문제가 발생한다. 결국 인간의 존엄성을 존중하며 인류의 공공선을 침해하지 않는 범위에서 추구해야 하며, 물론 그 역도 마찬가지다. 즉, 인류의 공공선을 추구하되, 이것이 인간의 존엄성을 침해하지 않아야 한다. 공공선은 개인의 이익보다 국가와 사회 그리고 인류 전체를 위한 선의 개념인 것이다. 따라서 공공의 복지 혹은 공공의 이익을 뜻하며, 결과적으로 개인적인 선과 이익을 동시에 고려해 사회 전체의 공공복리와 복지를 실현하는 것이 공공선이다.
s1_4_3.jpg
챗GPT를 만들어낸 오픈AI의 CEO인 샘 알트만Sam Altman은 미 의회 청문회에서 새로운 AI 시스템을 규제해야 한다고 주장했다.
인간의 행복 실현에 기여하는 로봇
제2원칙은 인공지능로봇이 인간의 행복 실현의 수단이라는 도구적 존재로서의 지위를 설명하고 있다. 인공지능로봇과 같은 비인간 행위자Non-person Agent를 도구적 존재가 아닌 본래적 목적을 지닌 존재로 간주해서는 안 된다는 것이다. 인공지능로봇은 인간의 행복을 실현하기 위한 수단적 존재여야 하며, 이러한 의미를 넘어서서는 안 된다.

로봇이 사용자의 명령을 수행해야 한다는 제3원칙은 제1원칙과 제2원칙을 전제로 한다. 사용자의 명령이 사용자 자신이나 타인의 존엄성을 해치거나 공공선에 위배되는 명령일 경우 로봇은 이를 거부하거나 명령 수행을 중지해야 한다. 물론 여기서 존엄성과 공공선이라는 추상적인 개념은 구체화 작업을 필요로 한다. 예를 들어 킬러로봇과 케어로봇의 경우 인간의 존엄성은 각각 다르게 조작적으로 정의되어야 한다. 전자의 경우 적군의 살상 정도와 민간인에 대한 조치라는 측면에서 구체적으로 명시되어야 한다면, 후자의 경우에는 개인의 프라이버시나 개인의 인권보호라는 측면에서 구체화될 수 있을 것이다.
로봇 제작 목적에 맞게 사용해야 하는 책임
제4원칙은 로봇의 행위와 그에 대한 1차적인 책임을 규정하고, 로봇의 설계 및 제작자들이 져야 할 책임을 명시한다. 인간의 존엄성과 인류의 공공선을 해치지 않는 범위 내에서 인간의 명령을 수행하도록 로봇이 설계·제작되어야 한다. 현재의 기술적인 상황에서 보면 설계자와 제작자를 구분하지 않아도 되겠지만, 인공지능로봇의 활용이 일반화되면 설계자와 제작자를 구분해야 할 필요성이 제기되며, 이에 대해서는 보다 구체적인 윤리 원칙이 필요하다. 그리고 이 원칙에서는 로봇 사용자의 책임을 두 가지로 구분하고 있는데, 로봇의 제작 목적에 부합해 사용해야 할 책임과 목적 외 사용에 대한 책임이다. 최근에 드러나는 드론이나 자율주행자동차의 부작용에 대한 문제(몰카용 드론의 등장이나 자율주행차량의 폭탄테러 이용)를 고려해보면 사용자의 책임을 규정할 필요성이 정당화된다. 로봇이 인간 행위의 대리자로서의 성격을 갖는다 하더라도 책임 주체의 대리자가 될 수 없기에, 로봇의 설계 및 제작 그리고 사용과 관리에 대한 법적 책임을 명시해야 할 필요성이 있다.
사람에게 미치는 영향이 큰 분야의 가이드라인 우선적 필요
인공지능로봇의 윤리 4원칙은 가장 기본적이며, 가장 상위에 있는 인공지능로봇의 윤리적 가이드라인으로 작용할 것이고, 이를 토대로 로봇의 분야별·기능별 하부 원칙이 체계화될 수 있을 것이다. 인공지능로봇의 윤리 원칙을 실제로 적용하려면 우선 윤리 원칙이 구체적인 개별 판단으로 이어질 수 있도록 이를 매개해줄 수 있는 중간 수준의 원칙이 필요하다. 이를 위해서는 일반적인 원리와 규칙으로부터 행위의 옳은 과정을 연역해내거나 도출해내는 응용application, 특정 상황에서 우선성을 결정하기 위해 서로 상충하는 원칙 간의 조정balancing, 그리고 상황적 맥락을 고려해 원칙의 의미, 영역 그리고 범위를 상세화specification하는 작업이 요청된다.

이러한 응용, 조정 그리고 상세화 작업을 위해서 우선적으로 인공지능로봇의 분야를 구분하고 분야별 특성에 적합한 가이드라인을 설정할 필요가 있다. 용도에 따라 산업용 로봇과 서비스 로봇(개인용 서비스와 전문 서비스 로봇)으로 구분될 수도 있겠지만, 자율주행자동차 분야나 의료·보건용 로봇 분야, 소셜로봇 분야 등과 같이 일반인에게 미치는 영향이 큰 분야별로 개발과 사용을 위한 가이드라인을 법적, 윤리적, 사회적 합의를 통해 마련하는 것이 시급하다.
s1_4_4.jpg
s1_4_writer.jpg
변순용 서울교육대학교 윤리교육과 교수
현재 인공지능윤리 표준화포럼 의장, AI 윤리 센터 센터장, 한국인공지능윤리학회 회장직을 맡고있다. 주요 저서로는 <로봇윤리란 무엇인가>, <인공지능 윤리하다> 등이 있다.
 이번 호 PDF 다운로드