탄소배출 부추기는 언어AI
  • 인쇄
  • |
  • 목록
  • |
  • 복사하기
  • 페이스북
  • 트위터
  • 밴드

인류 역사상 가장 뛰어난 언어 인공지능(AI)이라는 별칭이 붙은 언어모델은 얼마나 많은 탄소를 배출할까? 이 뜬금없는 물음을 AI에 익숙해질수록 던지고 또 던져야 한다. 지구를 보호하기 위해 어쩌면 AI의 개발속도를 조정하거나 보다 친환경적인 개발 프레임워크, 알고리즘을 지속적으로 고안해야 할지도 몰라서다. 구글 내 AI 윤리 리더, 팀닛 게브루를 해고하는 과정에서 확인된 명징한 팩트 중 하나다.

기후위기비상행동의 기후 재난 관련 퍼포먼스 / 우철훈 선임기자

기후위기비상행동의 기후 재난 관련 퍼포먼스 / 우철훈 선임기자

능력치에서 인간을 넘어서건 혹은 준하건 언어모델이라 불리는 언어AI는 상상하는 것 이상의 탄소를 배출한다. 팀닛의 해고로 끝내 학술지에 공식 게재되지 못했던 논문을 보면, 구글이 개발한 언어모델 ‘트렌스포머 2억1300만개 파라미터 버전’의 경우, 학습 과정에서 62만6155lbs의 이산화탄소를 발생시킨 것으로 확인됐다. 우리에게 익숙한 방식으로 변환하면 약 284톤에 해당하는 규모다. 1대의 자동차가 평생 배출하는 탄소흔적(12만6000lbs)의 약 5배에 이르는 수치다. 많다면 많고 적다면 적을 수 있으나, 해당 언어AI의 학습이 업데이트를 위해 반복적으로 진행된다는 점까지 감안하면 쉽게 간과해선 안 되는 수준이다.

전 세계적으로는 규모가 큰 언어모델, 즉 언어AI 경쟁이 격화되고 있다. 구글의 트렌스포머, 오픈AI의 GPT-3. 최근 네이버도 대규모 언어모델 개발을 위해 적극 도전할 것이라고 선언했다. AI 부문에서 2017년 이후 급격하게 탄소배출량이 늘어난 배경도 이 맥락에서 살필 필요가 있다. 문제는 더 큰 규모의 언어AI는 더 많은 데이터의 학습을 필요로 하고, 그에 비례해 더 많은 탄소를 배출할 수밖에 없다는 사실이다. 이 논문의 공동 저자였던 게브루 박사는 “대규모 언어AI 모델은 부유한 조직에 이익을 줄지언정 소외된 지역에는 피해를 주게 될 것”이라고 경고했다.

AI 개발 과정에서 발생하는 탄소배출량에 대한 문제는 아직 공론화하지는 않고 있다. 격화하는 경쟁으로 에너지 효율적인 AI 개발은 뒷전으로 밀리는 형국이다. 더 큰 문제는 환경에 미치는 부정적 효과에 대해 AI 개발자들이 인지하지 못하고 있는 경우가 다반사라는 점이다.

‘그린 AI’라는 운동은 이런 점에서 희망의 신호다. 이 운동은 알고리즘마다 에너지 효율이 다르다는 사실에 착안해 친환경적 알고리즘의 사용량을 늘리는 방향을 제안한다. 또한 대규모 데이터 학습 때 친환경 재생에너지를 공급받는 서버의 위치에서 진행하자는 내용도 포함돼 있다. 이 운동을 이끌고 있는 스탠포드 대학의 한 연구팀은 실험의 환경영향 측정기를 개발해 활용할 것도 권장하고 있다.

인간을 넘어서려는 AI 개발자들의 욕망은 기술 자본의 경쟁 구도와 맞물려 탄소배출의 위험신호에 눈을 감으려는 관성을 만들어내고 있다. 분명 상황은 더 나아지겠지만, 엔지니어의 윤리적 감수성, 친환경적 철학의 배양을 위해 사회는 끊임없이 감시하고 그들을 설득해야 한다. 2050년 탄소중립을 선언한 우리도 디지털 뉴딜이 가져올 환경 위험신호에 대해 진지하게 접근할 여유와 시간이 필요하다.

<이성규 전 메디아티 미디어테크 랩장>

IT칼럼바로가기

이미지