AI, 디지털 재앙이 될 것인가?
  • 인쇄
  • |
  • 목록
  • |
  • 복사하기
  • 페이스북
  • 트위터
  • 밴드
일러스트 김상민 기자

일러스트 김상민 기자

지난 5월 에릭 슈미트 전 구글 최고경영자(CEO)가 AI 기술에 수많은 사람을 죽거나 다치게 할 수 있는 잠재적인 위험이 있다고 주장해 다시 한번 ‘AI의 실존적 위험’이 화제가 됐다. AI의 실존적 위험이란 고도로 발전된 AI가 인간의 생존을 위협하는 상황을 뜻한다.

기술의 진보가 항상 긍정적인 결과만을 낳는 것은 아니다. AI 기술의 급속한 발전은 인류에게 전례 없는 위협을 가할 수 있는 잠재력을 지니고 있다. 이는 단순히 기술적 문제를 넘어서 윤리적·사회적·경제적 차원의 복합적인 문제를 초래한다.

AI로 인해 발생할 수 있는 대표적인 위험 시나리오 3가지를 살펴보자. 첫째, 악의적인 AI 사용이다. 이는 테러리스트나 적대 국가 등 악한 사람들이 AI를 무기로 사용할 때 발생한다. 둘째, 의도하지 않은 결과다. 이는 AI가 주어진 목표를 달성하는 과정에서 예상치 못한 방식으로 작동해 부작용이나 피해를 일으킬 때 발생한다. 셋째, 통제 불능의 초지능(superintelligence)이다. 이는 인간의 통제를 벗어나 자체적으로 목표를 설정하고 행동하는 AI에 의해 발생한다.

이중에서 악의적인 AI 사용은 상상이 아니라 당면한 현실이다. 슈미트는 악한 사람들이 머지않아 AI를 사용해 사이버 보안 취약점이나 새로운 종류의 생물학적 위협을 발견하고 이를 악용할 수 있다고 경고했다. 또한 자율무기 시스템의 발전은 전쟁의 양상을 근본적으로 바꾸고, 의도치 않은 군사 충돌의 위험을 증가시킬 수 있다.

이러한 위협들은 개별적으로도 심각하지만, 서로 연결돼 있다는 점에서 더욱 위험하다. 예를 들어 AI를 이용한 사이버 공격으로 자율무기 시스템을 해킹해 통제권을 빼앗거나, 생물학적 무기 시설의 보안을 무력화시킬 수 있다. 이는 단일 공격으로 다중의 위협을 만들어낼 수 있음을 의미한다.

AI 기술의 확산이 핵기술보다 통제하기 어렵다는 점은 이 문제에 복잡성을 더한다. 핵기술의 경우, 고도로 농축된 우라늄이 필요한데 이를 구하기 어렵기 때문에 그나마 확산이 통제될 수 있었다. 그러나 AI 기술은 디지털 형태로 쉽게 복제되고 전파될 수 있어서 확산을 막기 어렵다.

AI 기술의 민주화로 인해 위협의 주체 또한 다양화되고 있다. 과거에는 국가 수준의 행위자들만이 가능했던 고도의 사이버 공격이나 생물학적 무기 개발이, 이제는 소규모 테러 집단이나 심지어 개인에 의해서도 가능해질 수 있다. 이는 전통적인 안보 패러다임으로는 대응하기 어려운 새로운 형태의 위협을 만들어낸다.

이러한 AI의 실존적 위험은 그 가능성과 결과의 심각성 때문에 매우 중요하게 다뤄져야 한다. 이에 대비하기 위해서는 국제적 협력과 규제 체계의 구축, AI 안전성 연구에 대한 투자 확대, 윤리적 가이드라인의 수립이 필수적이다. 동시에 AI의 긍정적 잠재력을 최대한 활용하면서도 위험을 최소화할 수 있는 균형 잡힌 접근이 요구된다.

결국 AI의 실존적 위험 문제는 기술의 발전과 인류의 안전을 어떻게 조화롭게 만들어갈 것인가에 대한 근본적인 질문을 제기한다. 이는 현세대뿐만 아니라 미래세대의 운명을 좌우할 수 있는 중대한 과제로, 지속적인 연구와 논의 그리고 국제사회의 협력이 필요한 시급한 문제다.

<류한석 IT 칼럼니스트>

IT 칼럼바로가기

이미지