목록으로

Programming Notes

Llama 4 모델 확장: Azure AI Foundry에서 새로운 모델 사용 가능

Meta의 강력한 신규 Llama 4 모델이 지난 주 Azure에 출시되었으며, Azure AI Foundry와 Azure Databricks에서 3가지 모델이 먼저 공개되었습니다. 오늘은 두 개의 새로운 170억 매개변수 Instruction-Tuned 모델을 추가하여...

Meta의 강력한 신규 Llama 4 모델이 지난 주 Azure에 출시되었으며, Azure AI Foundry와 Azure Databricks에서 3가지 모델이 먼저 공개되었습니다. 오늘은 두 개의 새로운 170억 매개변수 Instruction-Tuned 모델을 추가하여 Llama 4 모델을 확장합니다. 이 모델들은 현재 Azure AI Foundry 모델 카탈로그에서 MaaS(Models as a Service) 엔드포인트로 사용 가능합니다.

새로운 모델

  1. Llama-4-Scout-17B-16E-Instruct
    빠른 속도와 낮은 지연 시간을 제공하는 170억 매개변수 모델이며, 16개의 전문가(expert)로 구성되어 있습니다. 강력한 명령어 추론 능력을 기반으로 일반적인 용도에 최적화되어 있습니다.
  2. Llama-4-Maverick-17B-128E-Instruct-FP8
    더 크고 표현력이 풍부한 모델로, 128개의 전문가(expert)와 FP8 정밀도를 갖추고 있습니다. 제한된 컴퓨팅 환경에서 더 무겁고 높은 품질의 추론을 수행하도록 설계되었습니다.

두 모델 모두 다음과 같은 특징을 가지고 있습니다.

  • 서버리스 MaaS 엔드포인트로 호스팅되므로 인프라 설정이 필요하지 않습니다.
  • GitHub 모델 및 플레이그라운드에서 사용 가능합니다.

이 Llama 4 모델이 특별한 이유

이 모델들은 Meta의 MoE(mixture-of-experts) 계열 Llama 4 모델의 일부입니다. 덴스(dense) 모델과는 달리, MoE 아키텍처는 토큰당 모델 매개변수(전문가)의 하위 집합만 선택적으로 활성화하여 출력 품질 저하 없이 효율성을 향상시킵니다.

  • Scout-17B-16E는 요약, 질의응답, 구조화된 출력 작업과 같은 일반적인 엔터프라이즈 워크로드에 빠른 추론을 제공합니다.
  • Maverick-17B-128E-FP8는 공격적인 전문가 확장 및 FP8 정밀도를 도입하여 향상된 에너지 효율성으로 높은 처리량의 추론을 가능하게 합니다.

시작하는 방법

Azure AI Foundry 모델 카탈로그에서 이러한 모델을 찾을 수 있습니다. "Llama-4"를 검색하거나 Meta 모델 패밀리로 이동하십시오. 몇 번의 클릭만으로 다음을 수행할 수 있습니다.

  • 모델을 서버리스 엔드포인트로 배포
  • Azure AI Foundry 플레이그라운드를 통해 호출
  • Azure OpenAI 호환 REST API 또는 Python SDK를 사용하여 통합

사용 사례

이 170억 매개변수 모델은 다음과 같은 용도에 적합합니다.

  • 지식 어시스턴트 코파일럿
  • 장문 요약
  • 표-텍스트 변환
  • 대화형 에이전트
  • 내부 개발자 도구

더 알아보기

80억 및 700억 매개변수 모델을 포함하여 지난 주에 출시된 Llama 4 모델에 대한 자세한 내용은 공식 Azure 블로그를 확인하십시오: Azure AI Foundry 및 Azure Databricks의 Llama 4 모델 소개

지금 Azure AI Foundry에서 이러한 모델을 사용해보고 어떤 것을 개발했는지 알려주세요!