S
연구 동향
Concept Guide

현대 AI의 민낯:
라이트 형제의 비행기와 '거대 조류 사육'의 비유

스튜어트 러셀 교수의 통찰을 통해 본 현재 인공지능 기술의 본질적 한계와 미래 방향성


01. 서론: 우리는 정말 인공지능(AGI)을 완성했는가?

인류는 지금 인공지능(AI)이라는 거대한 전환점 앞에 서 있습니다. 버클리 대학의 스튜어트 러셀(Stuart Russell) 교수는 인공 일반 지능(AGI)의 완성이 인류 역사상 가장 중대한 사건이 될 것이라고 단언합니다. 구글 딥마인드의 데미스 허사비스 역시 "먼저 AI를 해결하고, 그 후 다른 모든 것을 해결하라"며 그 잠재력을 강조한 바 있습니다.

현재의 거대 언어 모델(LLM)은 종종 1903년 라이트 형제의 첫 비행에 비유되곤 합니다. 비록 지금은 조잡하지만 비행의 근본 원리를 이해했으므로, 앞으로는 더 크고 빠른 비행기를 만드는 일만 남았다는 낙관론입니다.

AGI의 잠재적 경제 가치

Net Present Value: $15 Quadrillion+

인간의 모든 지적 능력을 넘어서는 AGI가 실현될 경우, 인류 전체가 중산층 이상의 삶을 영위할 수 있는 경제적 토대가 마련될 것으로 추정됩니다.

하지만 우리가 타고 있는 이 '비행기'가 정말 설계된 원리에 기반한 것인지, 아니면 우연의 산물인지 면밀히 검토해야 할 시점입니다.

02. 설계된 비행기 vs 사육된 거대 조류

러셀 교수는 현대 AI를 라이트 형제의 비행기에 비유하는 것은 심각한 오류라고 지적하며, '거대 조류 사육(Breeding Giant Birds)'이라는 강렬한 비유를 제시합니다.

구분 라이트 형제의 비행기 (전통적 설계) 현대적 딥러닝 (거대 조류 사육)
핵심 원리 엔진 출력, 양력, 항력의 정밀한 계산과 물리 법칙의 이해 방대한 데이터와 무작위 변이를 통한 통계적 최적화
제어 가능성 작동 원리 파악을 통한 예측 및 제어 가능 '블랙박스' 특성으로 인해 내부 작동 원리 파악 난해
안전 인증 기계적 한계와 결함을 사전에 검증 가능 (FAA 인증 등) 돌발적인 공격성 등 예측 불가능한 행동 차단 불가

현대 AI는 마치 "사람을 태울 수 있는 거대한 새를 교배를 통해 만들어낸 것"과 같습니다. 만약 이 거대 조류가 비행 중 승객을 공격하거나 추락한다면, 우리는 그 원리를 모르기에 결코 안전을 보장할 수 없습니다. 원리에 대한 이해 없이 덩치만 키운 시스템은 겉보기에 완벽해 보일지라도 결정적인 순간에 치명적인 결함을 드러낼 수 있습니다.

03. 지능의 환상: AI가 가진 결정적 결함

현재의 AI는 개념을 학습하는 것이 아니라, 방대한 데이터 속에서 정답을 조합하는 '조회 테이블(Lookup Table)'처럼 작동합니다. 이는 다음의 두 가지 사례에서 극명하게 드러납니다.

1. 산술 연산의 비효율성

ChatGPT와 같은 모델은 수백만 개의 산술 예제를 학습했음에도, 자릿수가 늘어날수록 정확도가 급격히 떨어집니다. 이는 '받아올림'의 원리를 이해한 것이 아니라, 더 큰 조회 테이블에서 답을 확률적으로 찾고 있을 뿐임을 시사합니다.

2. 바둑 지능의 허구

알파고는 인간을 압도했지만, 최근 연구에 따르면 '연결된 돌'이라는 기본 개념조차 제대로 이해하지 못하고 있음이 밝혀졌습니다. 아마추어 수준의 특정 전략(순환 공격)에 속수무책으로 패배하며 그 한계를 드러냈습니다.

AI '가짜 지능'의 특징

  • 비효율적 학습: 원리 이해가 없어 인간보다 수백만 배 많은 데이터가 필요함
  • 취약한 강건성: 학습 데이터 범위를 조금만 벗어나도 시스템이 즉시 붕괴됨
  • 원리 없는 통계: 논리적 추론이 아닌 통계적 확률에 의존하는 '거대 조회 테이블'

04. 규모의 한계와 새로운 혁신의 필요성

모델의 크기만 키우면 모든 것이 해결될 것이라는 업계의 믿음은 곧 장벽에 부딪힐 것입니다. 러셀 교수는 다음과 같은 이유로 경고를 보냅니다.

"인간은 1~10개의 예시만으로도 원리를 파악하지만, 현재의 AI는 조 단위의 반복 학습을 필요로 합니다. 이는 지능의 본질에서 벗어나 있습니다."

우주에 존재하는 텍스트 데이터의 양은 한정되어 있으며, 현재보다 100배 더 큰 모델을 학습시키기에는 데이터가 턱없이 부족합니다. 만약 '거거익선(Bigger is Better)'의 거품이 꺼진다면, 1980년대의 AI 겨울보다 훨씬 더 혹독한 '대빙하기'가 찾아올 수 있습니다.

05. 결론: 미래 AI 설계자를 위한 제언

AI가 진정한 AGI로 거듭나기 위해서는 '사육'에서 '설계'로 패러다임을 전환해야 합니다. 핵심은 "이해""증명 가능한 제어 가능성"에 있습니다.

1. 인간 중심의 목표

기계의 유일한 목적은 인간의 선호를 실현하는 것이어야 합니다.

2. 겸손한 불확실성

기계는 자신의 인간 의도 이해가 완벽하지 않음을 스스로 인지해야 합니다.

AI가 인간의 의도에 대해 '불확실성'을 가질 때, 기계는 함부로 위험한 행동을 하지 않고 끊임없이 인간의 피드백을 구하게 됩니다. 이것이 바로 '증명 가능하게 안전한' AI의 핵심입니다.

미래의 연구자들은 단순한 조류 사육사가 아닌, 비행의 원리를 이해하고 통제하는 진정한 설계자가 되어야 합니다.