[조선비즈] [전문가 칼럼] 챗GPT와 AI의 책임 – 손용민 변호사

손용민 변호사. /법무법인 충정 제공

요즘 챗GPT(ChatGPT) 이야기로 뜨겁다. 챗GPT는 일종의 인공지능(AI) 챗봇으로, 일론머스크가 초기에 투자한 오픈AI(OpenAI)에서 만든 자연 언어 처리 모델이다. AI 챗봇은 이전에도 여럿 존재하였지만, 챗GPT는 간단한 대답을 하는 것을 넘어서 장문의 소설이나 논문도 작성하고, 실수를 인정할 뿐만 아니라 부적절한 요청은 거절하기도 하는 등, 기존의 AI 챗봇에서 느낄 수 없었던 ‘진짜 지능의 향기’를 느끼게 해준다. 챗GPT는 미국 펜실베이니아대 와튼스쿨 MBA(경영대학원) 기말시험에서 B를 받는가 하면, 미국 법학전문대학원 시험과 의사면허 시험도 통과했다고 한다. 챗GPT의 제작사인 오픈AI는 챗GPT를 이용한 대필, 표절이 학계 등에서 문제가 되자, 최근에 AI가 작성한 텍스트를 탐지하는 서비스를 내놓기까지 했다. AI를 이용해서 AI가 작성한 글을 잡아내고 있는 것을 보고 있으면 정말 인간시대의 끝이 도래한 것인가 싶은 생각이 든다.

​사실 세간의 인기에도 불구하고, 챗GPT가 사회에 녹아들기 위해서는 넘어야 할 벽이 아직 몇가지 남아있다. 우선, 대량의 데이터를 학습하는 AI에 항상 등장하는 문제인 지식재산권 침해와 개인정보 보호의 문제를 해결할 필요가 있다. 많은 양의 데이터를 학습해야 하는 AI는, 학습 데이터를 긁어오는 과정에서 타인의 저작권을 침해하거나 동의 없이 타인의 개인정보를 수집·이용 가능성이 매우 높다. 실제로 최근 미국에서는 오픈AI의 인공지능 모델에 기반하여 출시된 서비스 코파일럿(Copilot)이 오픈소스 데이터를 학습하면서도 필수적인 표시사항을 생략하였다는 등의 이유로 집단소송이 제기된 바 있다. 또한 과거 AI 챗봇 서비스 ‘이루다’가 ‘연애의 과학’ 서비스 이용자의 동의 없이 카카오톡 대화를 수집한 것이 문제되었던 것과 같이, 챗GPT에게도 정보주체 동의 없는 개인정보 수집·이용 문제가 발생할 가능성이 있다고 보인다.

​지식재산권 침해와 개인정보 보호 이슈를 해결하였다고 하더라도, AI를 상용화하기 위해서는 AI의 책임이라는 문제도 함께 해결할 필요가 있다. AI로 인하여 발생하는 사고를 누가, 어떻게 책임을 질 것인가라는 문제는 오래되었지만 현재까지도 명확한 해결방안이 마련되지 않은 문제다. 이는 2016년 테슬라 모델S가 자율주행을 하던 중 충돌사고로 인해 탑승자가 사망하면서 현실적인 문제로 대두되었고, 이를 해결하기 위해 AI 시스템의 수준에 따라 책임을 달리하는 방안, AI에게 법인격을 부여하는 방안, 제조사에게 고지의무를 부여하는 방안 등 다양한 방안들이 논의되었다.

​챗GPT의 경우, 만약 이용자들이 챗GPT를 통해 얻은 정보로 인하여 큰 손해를 입는다면(예컨대, 챗GPT로부터 특정 질환에 대해 잘못된 조언을 받아 상해를 입는 경우, 챗GPT를 통해 가짜 뉴스나 왜곡된 정보를 습득하여 잘못된 의사 결정을 하는 경우 등), 이로 인한 책임을 누가 져야 하는지 문제가 될 수 있다. 특히 챗GPT는 구글과 같은 검색엔진보다 정보에 대한 검증 가능성이 떨어지고, 언어 모델의 특성 상 ‘확신에 찬 헛소리’를 생산하는 것을 완전히 방지하는 것은 어렵기 때문에, 가짜 뉴스로 인하여 피해를 입는 것과 유사한 문제가 자주 발생할 수 있다. 마이크로소프트는 이러한 가능성을 인지한 듯 챗GPT의 기술을 장착한 자사의 검색엔진 빙(Bing)에서 답변의 출처를 표시하여주고 있지만, 언어 모델인 챗GPT가 취합한 정보를 나름의 알고리즘으로 가공하는 한, 거짓 정보 생산으로 인한 책임으로부터 완전히 자유로워지기는 어렵다고 보인다.

​AI의 책임과 관련하여 한 가지 재미있는 주장은, AI에게 직접적으로 법인격(法人格)을 부여하자는 주장이다. 법인(法人)이란 자연인이 아니지만 법률 상 권리 또는 의무의 주체가 되는 대상을 말하는 것으로, AI에게 법인격을 부여한다는 것은 AI가 법률에 의하여 AI를 만든 회사나 프로그래머와는 별도로 권리 또는 의무의 주체가 된다는 것을 의미한다.

​AI에게 법인격을 부여하자는 주장은, AI가 보편적으로 사용되고 사회적인 효용성이 인정되는 경우에는, 계약 책임 또는 불법행위책임에서의 공백을 해소하기 위하여 AI에게 법인격을 부여할 필요가 있다고 강조한다. 자연인의 법적 책임과 회사의 법적 책임을 분리하고, 관련인들의 법률 관계를 간명하게 처리하기 위해서 법인이라는 제도를 만든 취지를 응용하여, AI와 관련된 복잡한 법률 관계를 법인격 부여라는 형태로 해결하자는 것이다. 나아가 이들은 AI에 대한 형사 처벌의 방식으로 리프로그래밍(Reprogramming)이라는 방법을 제안하기도 한다. AI가 어떠한 잘못을 저질러 형사 책임이 있는 경우, 처벌로서 리프로그래밍, 즉 알고리즘 재편성 및 데이터 재학습을 강제하는 것이다.

​AI에게 법인격을 부여하자는 입장과 관련하여, 현재 단계에서 AI에게 법인 격을 부여한다고 해서 법적인 편의성을 가져다 줄 것이라는 근거가 불충분하고, AI에게 법인 격을 부여하는 것은 인간의 존엄과 가치를 훼손할 수 있다는 반론도 존재한다. 그러나 파급력이 막대하고 발전 속도가 빠른 AI의 특징을 고려할 때, 기존과 같이 회사나 프로그래머에게 책임을 지우는 방식으로는 각종 문제가 합리적으로 해결되기 어려울 것으로 보이고, 어떤 방식으로든 AI 자체에 대해 제재가 이루어져야 효율적인 해결 방안이 마련될 수 있을 것이라고 생각된다. 다만, AI가 징역을 살거나 벌금을 낼 수는 없을 것이므로, 적절한 제재 방안이 무엇 인지에 대해서는 논의가 필요할 것이다.

​마이크로소프트는 최근 자사 검색엔진 빙(Bing)에 챗GPT를 장착하며 본격적으로 시장장악에 나섰으며, 구글도 이에 대항하여 바드(Bard)를 내놓는 등, 빅테크사들의 AI 경쟁이 다시 본격화될 것으로 보인다. 이와 같은 흐름에 발맞춰, AI의 책임을 비롯한 각종 법률 쟁점에 대해서도 많은 논의가 이루어져야 할 것으로 생각된다.

[전문가 칼럼] 챗GPT와 AI의 책임 – 조선비즈 (chosun.com)

Leave a Reply