더이노베이터스

Meta, 차세대 오픈소스 AI 모델 ‘Llama 4’ 공개

지난 4월 5일, Meta는 자사의 최신 인공지능 모델인 Llama 4 시리즈를 오픈소스로 공개했습니다.

이번 공개는 단순한 성능 향상을 넘어, 멀티모달 처리 능력과 **효율적인 연산 아키텍처(MoE)**를 갖춘 차세대 AI로서 주목받고 있습니다.

Llama 4, 어떤 모델인가요?


Llama 4는 텍스트뿐 아니라 이미지, 음성, 영상 등 다양한 데이터를 처리할 수 있는 멀티모달 AI 모델입니다. 특히, 연산 효율을 높이기 위해 ‘Mixture-of-Experts (MoE)’ 구조를 적용했으며, 이 구조는 입력마다 필요한 전문가 모듈만 활성화하여 성능 대비 자원 효율을 높일 수 있습니다.

Llama 4 시리즈 구성


Meta는 Llama 4 시리즈를 아래와 같이 세 가지 버전으로 나누어 발표했습니다.

모델명특징 및 용도
Llama 4 Scout– 상대적으로 가벼운 모델- 단일 NVIDIA H100 GPU에서도 실행 가능- 1,000만 토큰까지 컨텍스트 지원
Llama 4 Maverick– 성능 중심 모델- GPT-4o와 유사한 수준의 코딩/추론 성능- 1M 컨텍스트 토큰 처리
Llama 4 Behemoth– 현재 훈련 중- 총 2조 파라미터 수준의 초대형 모델- STEM 분야에서 GPT-4.5를 넘는 성능을 목표로 함

각 모델은 사용 목적에 따라 경량화부터 고성능까지 유연하게 활용될 수 있도록 설계되었습니다.

기술적 특징


  • Mixture-of-Experts (MoE): 여러 전문가 모듈 중 일부만 선택적으로 활성화하여 연산을 분산 처리
  • 멀티모달 지원: 텍스트뿐 아니라 이미지, 음성, 영상까지 복합적인 입력 처리 가능
  • 고성능 컨텍스트 윈도우: 최대 수백만 토큰 이상의 문맥을 유지하며 장문의 입력을 자연스럽게 처리
  • 오픈소스 라이선스: 누구나 모델을 자유롭게 연구·활용 가능

오픈소스 공개와 기대 효과


Meta는 이번 Llama 4 Scout와 Maverick 모델을 오픈소스로 제공하며, 개발자와 연구자들이 자유롭게 활용할 수 있도록 지원하고 있습니다.

이러한 공개는 단순한 기술 경쟁을 넘어서, AI 기술의 확산과 접근성 개선을 위한 전략적 선택으로 해석됩니다.

TI Tech Lab 김준수 연구원

Source

Avatar

theinnovators

Add comment