효율적 성능 AI 위한 MoE 기법 혁신

이미지

MoE 기법으로 비용 효율적인 AI 구현

텍사스 대학교 오스틴과 엔비디아의 연구진은 MoE(Mixture-of-Experts) 아키텍처를 이용해 효율적인 AI 모델 개발에 성공했습니다. 기존의 Llama 3-8B 구조를 활용하여 일반적인 사전 학습에 필요한 계산의 1% 미만만 사용해 8-Expert Top-2 MoE 모델을 개발했습니다.

  • MoE 아키텍처는 각각의 '전문가'들이 특정 입력에 대해 전문 지식을 적용하여 필요없는 계산을 줄입니다.
  • 연구진은 MoE 모델로 일반적인 사전 학습에 비해 약 50배의 효율성을 달성했습니다.

자연어 처리와 컴퓨터 비전 혁신

Transformer 모델은 자연어 처리(NLP)와 컴퓨터 비전(CV)에 혁신을 가져왔습니다. 그러나 모델의 복잡성이 증가함에 따라 계산 비용도 급증하는 문제를 낳았습니다. 이를 해결하기 위해 MoE 아키텍처가 주목받고 있습니다. 이 구조는 모델 용량을 증가시키는 동시에 계산 증가를 억제합니다.

  • MoE는 각 레이어에서 선택적으로 전문가를 활성화하여 입력별 처리량을 조절합니다.
  • 이러한 기술은 NLP와 CV 모두에 적용하여 비용 절감과 성능 향상을 도모합니다.

Llama 3-8B 기반의 효율적 MoE 트레이닝

이번 연구에서는 Llama 3-8B 아키텍처를 기반으로 데이터를 혼합하여 E8T2 MoE 모델을 학습하는 새로운 프레임워크를 제안했습니다. 이는 전통적인 사전 학습 방식에 비해 계산 요구량이 매우 적습니다.

  • E8T2 모델은 여러 전문가 모델을 동시에 활성화하여 정보를 종합적으로 처리합니다.
  • 이 모델은 계산 비용을 현저히 줄이면서도 높은 정확도를 유지합니다.

다양한 평가에서 향상된 성능 입증

이 모델은 MMLU(Common Reasoning and Knowledge Benchmarks)와 같은 평가에서 뛰어난 성능을 보였습니다. 이러한 결과는 다양한 실험을 통해 MoE 모델의 용량 요소와 라우팅 알고리즘 선택을 검증했음을 보여줍니다.

  • MoE 모델은 복수의 전문가가 협력하여 문제를 해결하도록 라우팅 메커니즘을 최적화했습니다.
  • 실험 결과, MoE는 실제 응용 범위에서 우수한 확장성을 보여주었습니다.

NeMo에서의 온라인 업사이클링 통합

이 방법은 NeMo 프레임워크에 통합되어 사전 학습된 모델의 가중치를 활용, MoE 모델 초기화와 학습을 보다 효율적으로 수행 가능합니다. 이는 모델의 용량을 높여 성능을 강화하는 동시에 계산 비용을 절감해줍니다.

  • NeMo 프레임워크는 다양한 AI 모델을 쉽게 구축하고 확장할 수 있도록 지원합니다.
  • online upcycling 기능은 리소스 절약과 빠른 프로토타입화를 가능하게 만듭니다.

대규모 언어 모델에서의 업사이클링 도전 극복

대규모 언어 모델(LLM)에서 업사이클링을 구현하는 과정에서는 메모리 용량 문제를 해결해야 합니다. 연구팀은 장치를 초과하지 않도록 체크포인트를 분산 배치 방법으로 고안하여 각 노드에서 독립적으로 가중치를 업사이클링할 수 있게 했습니다.

  • 체크포인트 분산 배치는 데이터 일관성 문제를 최소화하며 네트워크 부하를 줄입니다.
  • 이러한 구조는 대규모 언어 모델의 효율적 재활용과 빠른 재학습을 가능하게 합니다.

MoE 모델의 효율적인 학습 방법

이러한 접근법 덕분에 MoE 모델은 기존의 방법보다 우수한 정확도를 달성했습니다. MMLU 벤치마크에서 2%의 향상된 정확도를 보였으며, 교육 중 모델 FLOPs 활용도가 46.8%에 달했습니다. 이러한 개선은 MoE 아키텍처를 보다 비용 효율적이고 확장 가능한 AI 모델로 만들었습니다.

  • MoE 모델은 선택적 계산을 통해 불필요한 프로세스를 줄여 성능을 극대화했습니다.
  • FLOPs 효율성은 특히 대규모 데이터 세트에서 중요한 역할을 합니다.

혁신적인 접근이 AI 모델 발전에 기여

이 연구는 사전 학습된 모델을 변환하여 높은 용량의 MoE 아키텍처로 전환한 혁신적 사례로, 계산과 메모리 문제를 해결하는 데 중요한 기여를 했습니다. 이러한 기술 발전은 효율적이고 확장 가능한 AI 모델 개발에 중요한 전환점이 될 것입니다.

  • 연구는 AI 모델의 적응형 학습과 최적화를 위한 새로운 길을 제시합니다.
  • 이 발전은 다양한 AI 응용 분야에 있어 더 나은 솔루션을 가능하게 할 전망입니다.

출처 : 원문 보러가기