생각이라는 착각, 인공지능은 버블인가?
  • 인쇄
  • |
  • 목록
  • |
  • 복사하기
  • 페이스북
  • 트위터
  • 밴드
IT 기업 애플 로고 / 애플

IT 기업 애플 로고 / 애플

빅테크 기업의 개발자 행사는 자신들의 신기술을 뽐내는 자리다. 봄맞이처럼 시작하는 이 자기 자랑 행진에는 구글, 마이크로소프트 등 온갖 빅테크가 출연하는 데 마지막 주자 애플의 연례개발자행사(WWDC)로 여름의 시작을 알리며 마무리된다.

올해 애플 행사의 관심사는 인공지능에서 뒤처진 애플이 얼마나 만회할지였는데, 뉴스는 없었다. 대신 이 행사와 관련 없이 발표된 애플 연구진의 논문 한 편만이 파장을 불렀다.

‘생각이라는 착각(The Illusion of Thinking)’이라는 논문인데, 이 논문은 최신 AI 모델, 특히 대규모 추론 모델(LRM)의 ‘추론’ 능력에 의문을 던진다. ‘추론 모델’이라 하면 보통 대규모 언어 모델(LLM)보다 한 단계 더 나아간, 마치 사람처럼 문제를 단계별로 쪼개고 순서대로 생각해서 답을 찾아낸다는 모델. 구글이나 앤트로픽, 오픈AI 같은 회사들은 AI가 이제 ‘생각’할 수 있게 됐다는 식으로 넌지시 홍보하기도 했다.

그런데 애플의 논문은 이 주장에 찬물을 끼얹는다. 자세한 사고 과정을 생성해 보여주는 추론 모델의 풍광은 정말 기계가 생각하고 있는 것 같은 느낌을 주긴 하지만, 이런 AI 모델들의 ‘추론 능력’은 사실은 ‘생각이라는 착각’에 가깝다는 것.

대규모 언어 모델 LLM의 L(Language·언어)이 R(Reasoning·추론)로 바뀌더라도, 패턴 기억 및 매칭이라는 현재의 기술에서 크게 벗어날 리 없다는 건 다들 내심 알고는 있다. 근본적인 방식에서 달라진 건 없었다. 데이터와 반도체의 물량 공세라는 군비 확장이 AI 업계의 유일한 성공 공식이었다.

애플은 그래서 다들 정말 성공하고 있는지, 지금의 AI 평가 방식을 저격한다. 수학이나 코딩조차 훈련 데이터에 답이 포함된 데이터 오염의 결과물이라는 것. 대신에 이들이 논리적 추론을 하는지를 다른 방식으로 테스트해 보기로 한다. 복잡도를 개별 조절할 수 있고, 문제 풀이 과정을 살펴볼 수 있는 ‘하노이 탑’ 같은 퍼즐을 시켰더니, 복잡성이 어느 특정 수준을 넘어서면 정확도가 완전히 붕괴해버렸다. 하노이 탑 같은 경우 원반 3개 정도면 잘 풀지만, 개수가 어느 수준을 넘어서면 전혀 풀지 못하는 현상이 나타난 것. 심지어 문제가 점점 어려워질수록 추론하는 노력마저 줄여버렸다. 어려운 문제일수록 더 열심히 생각하기는커녕, 심지어 토큰 예산(AI가 추론에 쓸 수 있는 컴퓨팅 자원)을 넉넉히 잡아도, 애쓰지 않고 그냥 포기해버린다.

더 큰 문제는 포기 상황에서 문제의 알고리즘을 명확히 힌트로 줘도 풀지 못한다는 것. 패턴만 보고 비슷하게 따라 하는 거지, 진짜 논리나 규칙을 이해한 적은 없었다고 해석되는 부분이다.

매번 일관성 없이 답을 내는 경향이 나타나는 것도 생각이란 것이 애초에 없어서니 이제 이해가 간다. 그렇다면 이는 생각하는 AI라는 애초의 주장이 과장이었다는 결론으로 이어질 수밖에 없다. 현재의 접근 방식으로는 초지능은커녕 생각이라는 걸 하는 AI를 만드는 일도 본질적 한계에 다다를 것이라 애플은 주장하는 셈이었다.

AI에서 완전히 밀린 애플이 상대를 깎아내리려는 무모한 시도일 뿐이라 평할 수도 있겠지만, 더 많은 데이터와 더 많은 칩을 쏟아붓는 현재의 방법으로 모두 내달리는 것이 정녕 최선인지, 마치 버블 붕괴의 예언서라도 된 듯 이 논문은 묻고 있다.

<김국현 IT칼럼니스트>

IT 칼럼바로가기

이미지