지난 4월 5일, Meta는 자사의 최신 인공지능 모델인 Llama 4 시리즈를 오픈소스로 공개했습니다.
이번 공개는 단순한 성능 향상을 넘어, 멀티모달 처리 능력과 **효율적인 연산 아키텍처(MoE)**를 갖춘 차세대 AI로서 주목받고 있습니다.
Llama 4, 어떤 모델인가요?
Llama 4는 텍스트뿐 아니라 이미지, 음성, 영상 등 다양한 데이터를 처리할 수 있는 멀티모달 AI 모델입니다. 특히, 연산 효율을 높이기 위해 ‘Mixture-of-Experts (MoE)’ 구조를 적용했으며, 이 구조는 입력마다 필요한 전문가 모듈만 활성화하여 성능 대비 자원 효율을 높일 수 있습니다.
Llama 4 시리즈 구성
Meta는 Llama 4 시리즈를 아래와 같이 세 가지 버전으로 나누어 발표했습니다.
모델명 | 특징 및 용도 |
---|---|
Llama 4 Scout | – 상대적으로 가벼운 모델- 단일 NVIDIA H100 GPU에서도 실행 가능- 1,000만 토큰까지 컨텍스트 지원 |
Llama 4 Maverick | – 성능 중심 모델- GPT-4o와 유사한 수준의 코딩/추론 성능- 1M 컨텍스트 토큰 처리 |
Llama 4 Behemoth | – 현재 훈련 중- 총 2조 파라미터 수준의 초대형 모델- STEM 분야에서 GPT-4.5를 넘는 성능을 목표로 함 |
각 모델은 사용 목적에 따라 경량화부터 고성능까지 유연하게 활용될 수 있도록 설계되었습니다.
기술적 특징
- Mixture-of-Experts (MoE): 여러 전문가 모듈 중 일부만 선택적으로 활성화하여 연산을 분산 처리
- 멀티모달 지원: 텍스트뿐 아니라 이미지, 음성, 영상까지 복합적인 입력 처리 가능
- 고성능 컨텍스트 윈도우: 최대 수백만 토큰 이상의 문맥을 유지하며 장문의 입력을 자연스럽게 처리
- 오픈소스 라이선스: 누구나 모델을 자유롭게 연구·활용 가능
오픈소스 공개와 기대 효과
Meta는 이번 Llama 4 Scout와 Maverick 모델을 오픈소스로 제공하며, 개발자와 연구자들이 자유롭게 활용할 수 있도록 지원하고 있습니다.
이러한 공개는 단순한 기술 경쟁을 넘어서, AI 기술의 확산과 접근성 개선을 위한 전략적 선택으로 해석됩니다.
TI Tech Lab 김준수 연구원
Source
- https://ai.meta.com/blog/llama-4-multimodal-intelligence/
- https://developer.nvidia.com/blog/nvidia-accelerates-inference-on-meta-llama-4-scout-and-maverick/
- https://www.reuters.com/technology/meta-releases-new-ai-model-llama-4-2025-04-05/
- https://techcrunch.com/2025/04/05/meta-releases-llama-4-a-new-crop-of-flagship-ai-models/
Add comment