“국힘 챗GPT 도입 규정 위반 논란, 국정원 답변 안해”
“책임 지는 AI 활용 위한 국회 차원의 사용 강령 필요”
국민의힘이 생성형 인공지능(AI)인 챗GPT 등을 국정감사 같은 국회 업무에 보조도구로 쓰겠다는 계획을 밝혀 논란이 일고 있다. 대화 내역이 학습 데이터로 활용되지 않는 유료서비스를 도입하겠다지만, 외산 클라우드(가상서버)에 국가 정보 데이터가 넘어가게 돼 보안 우려가 나온다.
국민의힘은 공공업무를 하는 곳이 생성형 AI 도입 전 거쳐야 할 국가정보원의 ‘사전 보안성 검토’ 등의규정을 지키지 않았다는 주장도 나왔다. 국정원은 국민의힘의 ‘규정 위반 여부’와 ‘국회가 규정의 적용을 받는지’ 등을 묻는 주간경향 질의에 “확인하는 데 절차가 필요해 시간이 걸린다”고만 답했다.
AI 업계에서는 시대 흐름에 맞춰 도입하려는 취지는 좋지만 방법이 잘못됐다고 입을 모은다. 공공기관을 비롯해 국가 운영에 대한 정보가 모이는 곳인 만큼 책임감을 갖고 AI 도구를 쓸 수 있도록 국회 차원의 활용 가이드라인 등을 먼저 만들었어야 한다고 지적한다.
논란의 시작은 지난 9월 8일 한국일보 보도에서 시작됐다. 한국일보는 국민의힘 디지털정당위원회(이재영 위원장)가 오는 10월 7일부터 열리는 22대 국회 첫 국감을 앞두고 의원들과 사무처 당직자들에게 챗GPT 유료 계정을 도입할 예정이라고 전했다. 업무 효율성과 AI에 대한 이해도를 높여 AI 관련 정책을 선도하기 위해서다. 국민의힘은 대화 내역이 챗GPT의 학습 데이터로 활용되지 않는 유료서비스 ‘팀 플랜’을 이용해 보안 문제에 대비한다고 설명했다.
국회에서는 갑론을박이 벌어졌다. 이준석 개혁신당 의원은 “챗GPT가 인풋(입력값)을 학습하는 시스템인데 국감 자료를 집어넣겠다는 발상은 위험하다”고 했다. 김한규 더불어민주당 의원은 챗GPT에 ‘국민의힘이 너를 이용해 국정감사를 대비한다고 하는데 도와줄 생각이 있느냐’고 물은 대화 내용을 공개했다. 챗GPT는 “국정감사 준비나 정치적인 조언에 대한 도움을 제공하는 것은 제 역할이 아니다”고 답했다.
공공기관 못 쓰는 챗GPT 국회는 도입?
이재영 국민의힘 디지털정당위원회 위원장은 지난 9월 23일 기자와 통화에서 “정보 검색과 이슈 체킹 등의 기초적인 업무를 보조하는 용도로 쓸 예정”이라고 말했다. 외산 클라우드에 데이터가 남는다는 우려에 대해선 “그 논리라면 구글과 텔레그램도 사용하지 말라는 것과 같다. 이것(오픈AI)만 걱정하는 것은 말이 안 된다”고 했다. 이어 “국감 자료 등도 상당수가 퍼블릭한(공공연한) 공간에 공개된 정보로 기밀 같은 민감한 정보를 다루지 않는다”며 “정보 분류에 대한 판단은 (보좌진들) 상식의 영역으로, 민감한 정보를 입력하지 못하게 교육을 하고 향후 단계적으로 기술적인 보안 정치를 마련하겠다”고 말했다. 영어권에 특화된 챗GPT를 쓰는 부분에 대해선 “챗GPT가 성능 면에서 가장 앞서 있고, 내부 조사를 해보니 챗GPT를 쓰고자 하는 수요가 많았다”고 답했다.
기자와 통화한 날 오후 국민의힘 디지털정당위원회는 보도자료를 통해 한국 정당 최초로 AI 플랫폼을 정당 업무에 활용하는 ‘AI 국민의힘’ 구축 사업을 추진하겠다고 밝혔다. 사무처 부서별로 수요 조사를 해 부서 특성에 맞는 AI 플랫폼(챗GPT·구글 제미나이 등)을 제공할 예정이다. AI는 정책 자료 수집·비교 분석과 통계·데이터 조사, 문서·홍보 메시지 작성 지원, 해외 정책 분석 등에 쓰인다.
AI 업계에선 국회가 정부 규정을 어겼다는 주장이 나왔다. 현재 민감 정보를 취급하는 공공·금융기관 등은 보안을 이유로 망 분리 제도(외부 인터넷망과 내부 업무방 분리)에 따라 업무용 PC로 챗GPT 같은 외산 AI·클라우드를 사용할 수 없다.
국정원이 지난해 5월 발표한 규정에 따르면 공공부처가 AI를 도입하려면 국가정보원법과 국가정보보안기본지침 등에 근거해 사전 보안성 검토 절차를 준수해야 한다. 같은해 6월 국정원은 보안 가이드라인을 추가 발표해 데이터 유출을 막기 위한 데이터 등급 지정·점검, 보안 대책 마련 등을 재차 권고했다. 그러나 국민의힘은 사전 보안성 검토와 권고사항도 준수하지 않았다.
AI 보안 업계 관계자는 “모든 공공기관이 AI 도입 전 거쳐야 하는 사전 보안성 검토를 하지 않은 것도 이해가 되지 않지만, ‘법’에 따라 정해야 할 정보 등급 기준을 ‘상식’이라는 자의적 판단에 맡기겠다는 것은 데이터 유출에 책임을 지지 않겠다는 것이어서 더 큰 문제”라고 지적했다. 또 “기본적으로 AI 모델이 해외에 있어 외산 클라우드에 국가 운영에 대한 데이터를 내보내야 한다. 클라우드 보안 가이드라인에 따르면, 국회에서 다루는 정보가 국가망 자체에서 나가는 것만으로도 불법 소지가 있다”며 “힘이 없는 일반 공공기관에서는 상상도 못 하는 일”이라고 주장했다.
또 다른 관계자는 “AI 발전으로 각국이 데이터에 장벽을 쌓으며 안보 전쟁을 벌이고 있다. 상임위에 따라 국방업무나 기업 영업 비밀 등에 대한 정보를 다루는 곳이 있는데, 관련 데이터가 얼마나 저장되고 어떻게 가공될지도 모르는 외산 클라우드에 국회가 정보를 주는 것은 스스로 총알(데이터)을 바치는 것”이라며 “대중에 공개된 정보를 활용하는 수준이면 챗GPT를 써야할 이유가 없어 세금을 들여 공당 차원에서 도입해야 하는지 의문”이라고 했다.
소버린 AI 시대 속 국회 역할 중요
국회가 독립적인 헌법기관인 만큼 이번 기회에 별도의 ‘자체 가이드라인’을 만들어야 한다는 주문도 나왔다. 인공지능법학회 회장인 최경진 가천대 법학과 교수는 “AI 산업 발달에 따른 데이터 이슈는 국가 안보 측면에서 신중히 접근해야 한다”며 “데이터 활용·공개 등에 대한 명확한 절차와 기준을 정해 국회 차원에서 책임을 지고 AI를 쓸 수 있도록 사용 강령 등을 스스로 만들어야 한다”고 말했다.
국회에 도입되는 AI가 국내 법안, 정책 업무 등을 돕는 데 활용되는 만큼 한국문화에 특화된 국내 AI 모델을 쓰는 게 더 적합하다는 지적도 나온다. 소수의 빅테크 기업이나 국가에 종속되지 않는 소버린(sovereign·주권) AI에 대한 중요성이 높아져 산업 육성 측면에서 국회가 역할을 해줘야 한다는 제안이다. 김덕진 IT커뮤니케이션연구소장은 “국내 법규와 정책, 이슈 등을 실시간 학습하는 국내 AI 모델이 외산 모델보다 국회·행정 업무에 더 최적화돼 환각 현상이 덜하다”며 “소버린 AI가 화두가 되면서 타 국가는 자국 AI 모델을 부처에 도입하고 있다. 정당이라는 상징적 공간에 AI를 처음 도입하는 만큼 산업 육성 측면에서도 마중물 역할을 했으면 한다”고 말했다.
<김은성 기자 kes@kyunghyang.com>