AWL(Adapting While Learning) 기술은 인공지능이 마치 숙련된 과학자처럼 문제의 난이도를 스스로 판단하여 외부 도구 사용 여부를 결정하고, 이로써 효율성과 정확도 사이의 최적의 균형을 찾는 지능적 메커니즘을 제공한다. 기존 대규모 언어 모델(LLM)의 도구 과의존 문제는 불필요한 계산 비용과 환각 현상을 야기하며 비효율을 초래하였으나, AWL은 이러한 한계를 극복하고자 Llama-3.1-8B 모델을 기반으로 두 가지 핵심 단계를 설계하였다.
첫째, WKL(World Knowledge Learning)은 모델이 외부 도구로부터 얻은 정답 원리를 내재화하여 스스로 지식을 쌓는 과정이다. 이는 정교한 수치 시뮬레이터를 통해 데이터를 수집하고, 미세 조정을 거쳐 기초 체력을 기르며, 선호도 최적화를 통해 다양한 제안 중 최적의 답변을 선택하는 능력을 학습한다. 이 과정에서 '혼합 손실' 전략을 통해 지식의 일관성을 유지하는 것이 중요하다고 언급된다.
둘째, TUA(Tool Usage Adaptation)는 AI가 문제 난이도를 측정하여 직접 답변할지, 외부 도구를 호출할지를 결정하는 지능적 의사결정 방식이다. 쉬운 문제에는 내재화된 지식으로 직접 추론하여 비용을 절감하고, 어려운 문제에는 외부 도구를 호출하여 정확도를 확보하며 환각을 방지한다. 이는 사용자의 동일한 지시에도 모델의 사고 흐름이 난이도에 따라 자동으로 결정되는 '암묵적 의사결정'으로 구현된다.
AWL 방식을 적용한 모델은 비약적인 학습 성과를 보여주었다. 기초 모델 대비 전체 답변 정확도가 29.11%, 도구 사용 판단 정확도가 12.72% 향상되었고, 도구 호출 빈도가 획기적으로 감소하여 압도적인 효율성을 입증하였다. 특히 Mujoco(역학), PDE(편미분 방정식), Climate(기후학), Epidemiology(전염병학) 등 4대 전문 과학 분야 데이터셋에서 GPT-4o 및 Claude-3.5와 같은 거대 모델의 성능을 능가하는 결과를 달성하였다.
결론적으로 AWL의 철학은 도구의 지식을 내 것으로 만들면서도 자신의 한계를 인지하고 필요할 때만 도구를 사용하는 지능에 있다. 이는 AI가 단순한 계산 보조 도구를 넘어 스스로 판단하고 학습하는 진정한 'AI 과학자'로 진화하는 중요한 이정표가 될 것이다.