Meta의 강력한 신규 Llama 4 모델이 지난 주 Azure에 출시되었으며, Azure AI Foundry와 Azure Databricks에서 3가지 모델이 먼저 공개되었습니다. 오늘은 두 개의 새로운 170억 매개변수 Instruction-Tuned 모델을 추가하여 Llama 4 모델을 확장합니다. 이 모델들은 현재 Azure AI Foundry 모델 카탈로그에서 MaaS(Models as a Service) 엔드포인트로 사용 가능합니다.
새로운 모델
- Llama-4-Scout-17B-16E-Instruct
빠른 속도와 낮은 지연 시간을 제공하는 170억 매개변수 모델이며, 16개의 전문가(expert)로 구성되어 있습니다. 강력한 명령어 추론 능력을 기반으로 일반적인 용도에 최적화되어 있습니다. - Llama-4-Maverick-17B-128E-Instruct-FP8
더 크고 표현력이 풍부한 모델로, 128개의 전문가(expert)와 FP8 정밀도를 갖추고 있습니다. 제한된 컴퓨팅 환경에서 더 무겁고 높은 품질의 추론을 수행하도록 설계되었습니다.
두 모델 모두 다음과 같은 특징을 가지고 있습니다.
- 서버리스 MaaS 엔드포인트로 호스팅되므로 인프라 설정이 필요하지 않습니다.
- GitHub 모델 및 플레이그라운드에서 사용 가능합니다.
이 Llama 4 모델이 특별한 이유
이 모델들은 Meta의 MoE(mixture-of-experts) 계열 Llama 4 모델의 일부입니다. 덴스(dense) 모델과는 달리, MoE 아키텍처는 토큰당 모델 매개변수(전문가)의 하위 집합만 선택적으로 활성화하여 출력 품질 저하 없이 효율성을 향상시킵니다.
- Scout-17B-16E는 요약, 질의응답, 구조화된 출력 작업과 같은 일반적인 엔터프라이즈 워크로드에 빠른 추론을 제공합니다.
- Maverick-17B-128E-FP8는 공격적인 전문가 확장 및 FP8 정밀도를 도입하여 향상된 에너지 효율성으로 높은 처리량의 추론을 가능하게 합니다.
시작하는 방법
Azure AI Foundry 모델 카탈로그에서 이러한 모델을 찾을 수 있습니다. "Llama-4"를 검색하거나 Meta 모델 패밀리로 이동하십시오. 몇 번의 클릭만으로 다음을 수행할 수 있습니다.
- 모델을 서버리스 엔드포인트로 배포
- Azure AI Foundry 플레이그라운드를 통해 호출
- Azure OpenAI 호환 REST API 또는 Python SDK를 사용하여 통합
사용 사례
이 170억 매개변수 모델은 다음과 같은 용도에 적합합니다.
- 지식 어시스턴트 코파일럿
- 장문 요약
- 표-텍스트 변환
- 대화형 에이전트
- 내부 개발자 도구
더 알아보기
80억 및 700억 매개변수 모델을 포함하여 지난 주에 출시된 Llama 4 모델에 대한 자세한 내용은 공식 Azure 블로그를 확인하십시오: Azure AI Foundry 및 Azure Databricks의 Llama 4 모델 소개
지금 Azure AI Foundry에서 이러한 모델을 사용해보고 어떤 것을 개발했는지 알려주세요!