기업과 정부가 AI 실험에서 생산 단계로 전환하면서 여러 구조적 문제에 직면하고 있습니다. 다양한 환경에 분산된 AI 스택, 모델 맞춤화의 운영 복잡성, 그리고 독점 모델의 사용을 제한하는 데이터 주권, 개인 정보 보호 및 보안에 대한 엄격한 요구 사항 등이 그것입니다. 이러한 문제들은 종종 긴 개발 주기, 중복된 엔지니어링 노력, 그리고 AI 도입의 정체로 이어집니다.
Microsoft Foundry는 환경 전반에서 AI 혁신을 구축하고, 최적화하며, 거버넌스할 수 있는 통합적이고 상호 운용 가능한 플랫폼을 제공하여 이러한 문제들을 해결하도록 설계되었습니다. 파운드리를 통해 개발자들은 엔터프라이즈 보안, 거버넌스 및 수명 주기 관리를 지원하는 단일 플랫폼에서 선도적인 모델, 인프라 및 AI 개발 도구에 접근할 수 있습니다.
오늘, 마이크로소프트와 NVIDIA는 NVIDIA의 오픈 모델, 가속 컴퓨팅 및 AI 개발 프레임워크를 파운드리 생태계에 통합하는 더 깊은 협력을 통해 이 플랫폼을 확장하고 있습니다. 마이크로소프트 파운드리의 AI 플랫폼과 NVIDIA의 최적화된 추론 프레임워크 및 가속 컴퓨팅을 결합함으로써, 개발자들은 전문화된 AI 시스템을 한 번 구축하여 클라우드, 하이브리드, 주권 환경 전반에 배포할 수 있습니다.
GTC 2026에서 마이크로소프트와 NVIDIA는 이 협력의 첫 번째 결과물을 발표합니다. 주요 내용은 다음과 같습니다:
- Nemotron 모델로 구동되는 전문 에이전트 시스템
- Foundry Local을 통한 주권 및 온프레미스 AI 배포
- Azure 및 NVIDIA AI 플랫폼 기반의 프로덕션 수준 물리 AI 워크플로
파운드리에서 Nemotron으로 전문 에이전트 구축
개발자들은 마이크로소프트 파운드리 내에서 NVIDIA Nemotron 모델을 사용하여 전문 AI 에이전트를 구축하고 배포할 수 있습니다. 파운드리의 관리형 컴퓨팅 환경을 통해 팀은 NVIDIA GPU로 가속화되는 Azure 인프라에 Nemotron 모델을 배포하고 맞춤 설정할 수 있습니다.
마이크로소프트 파운드리는 NVIDIA NIM 마이크로서비스를 통해 여러 NVIDIA Nemotron 모델을 제공하여 오픈 모델 카탈로그를 확장하고 있으며, 기업에게 통합 플랫폼을 통해 접근 가능한 프로덕션 준비가 된 오픈 가중치 추론 모델을 제공합니다.
이러한 모델들은 다음과 같습니다:
NVIDIA Nemotron Nano 9B v2, Llama 3.1 Nemotron Nano VL 8B, Llama 3.3 Nemotron Super 49B v1.5 및 NVIDIA Nemotron Super 3.
향후 몇 분기 동안 마이크로소프트 파운드리의 Nemotron 라인업은 다음과 같이 확장될 예정입니다:
Nemotron 3 제품군
- Nano – 낮은 지연 시간과 비용 효율적인 타겟 에이전트 작업에 최적화
- Super – 심층 연구 및 고정확도 추론을 위해 설계 (현재 이용 가능)
- Ultra – 최고의 추론 성능을 요구하는 대규모 멀티 에이전트 엔터프라이즈 애플리케이션을 위해 설계
추가 계획된 모델은 다음과 같습니다:
- Nemotron Speech – 낮은 지연 시간의 음성 에이전트를 위한 엔터프라이즈급 오픈 음성 모델
- Nemotron Vision – 문서 인텔리전스 및 비디오 이해를 위한 비전-언어 모델
- Nemotron AI Safety models – 유해 콘텐츠, 탈옥 시도 및 민감 데이터 노출을 감지하도록 설계된 가드레일 모델
올해 말, Azure는 인프라 관리 없이 간단한 API를 통해 개발자들이 배포할 수 있도록 서버리스 종량제 API를 통해 Nemotron 모델을 제공할 예정입니다.
또한, 최근 Fireworks AI와의 발표를 통해 개발자들은 곧 Microsoft Foundry에서 BYOW(bring-your-own)를 사용하여 Azure에 다른 곳에서 훈련하거나 미세 조정한 오픈 가중치 모델을 배포할 수 있게 됩니다. NVIDIA Nemotron 모델은 완전한 오픈 가중치 모델이며 이러한 개발자 주도 맞춤화를 위해 설계되었습니다.
Foundry Local로 주권 AI 확장
많은 조직, 특히 정부 및 규제 산업은 데이터 및 인프라에 대한 완전한 통제를 유지하면서 주권 환경 내에서 작동하는 AI 시스템을 필요로 합니다.
Foundry Local은 이러한 환경으로 Microsoft Foundry의 기능을 확장하여, 조직이 온프레미스 데이터 센터, 엣지 위치 및 주권 프라이빗 클라우드 인프라 전반에 걸쳐 데이터에 더 가까이 AI 모델 및 워크로드를 실행할 수 있도록 합니다.
NVIDIA 가속 컴퓨팅 플랫폼과의 통합을 통해 고객은 NVIDIA RTX PRO 6000 Blackwell Server Edition과 같은 GPU로 구동되는 고급 AI 시스템을 실행할 수 있으며, 향후 NVIDIA Rubin을 포함한 차세대 플랫폼에 대한 지원도 제공됩니다.
Azure는 Azure Local 인프라를 통해 이러한 주권 환경으로 확장되며, Azure Arc와 같은 도구는 엣지 컴퓨팅을 단일 포털 관리 레이어로 통합합니다. Azure Kubernetes Service (AKS) 및 Foundry Local과 같은 스택은 조직이 엔터프라이즈급 거버넌스, 보안 및 운영 제어를 유지하면서 해당 주권 환경 내에서 직접 고급 AI 모델을 배포, 운영 및 확장할 수 있도록 합니다.
이를 통해 정부 및 규제 산업은 주권 요구 사항을 침해하지 않고 민감한 워크로드에 강력한 AI 기능을 도입할 수 있습니다. Azure Arc 블로그: MTC, Local, Sovereign
Azure에서 물리 AI 구동
마이크로소프트는 또한 차세대 물리 AI 및 로봇 시스템을 지원하기 위해 NVIDIA와 협력하고 있습니다.
GTC에서 마이크로소프트는 NVIDIA 물리 AI 데이터 팩토리 청사진을 다음과 같은 Azure 서비스와 통합하는 오픈 Azure 물리 AI 툴체인을 소개합니다:
- Azure IoT Operations
- Microsoft Fabric Real-Time Intelligence
- Microsoft Foundry
- GitHub Copilot
이 툴체인은 로봇 공학 및 물리 AI 개발자들이 인식, 이동성, 모방 학습 및 강화 학습 파이프라인 전반에 걸쳐 데이터 큐레이션, 증강 및 평가를 자동화하고 확장할 수 있도록 합니다.
개발자들은 또한 비디오 분석 AI 에이전트 개발을 가속화하도록 설계된 NVIDIA Metropolis VSS Blueprint를 활용할 수 있습니다. 이러한 청사진은 NVIDIA Cosmos 세계 기반 모델에 의해 구동되며, Azure에서 가속화된 추론에 최적화된 합성 세계 생성 및 대규모 물리 AI 추론을 가능하게 합니다.
또한, 곧 출시될 NVIDIA Alpamayo 오픈 모델은 자율 주행 시스템을 위한 데이터 처리, 폐쇄 루프 시뮬레이션 및 평가 워크플로를 위한 고급 추론 기능을 지원할 것입니다.
파운드리: 모든 환경의 AI
오늘 발표는 Microsoft Foundry의 더 넓은 비전을 향한 중요한 단계를 나타냅니다.
마이크로소프트는 Foundry를 다음과 같은 모든 배포 환경을 아우르는 통합 AI 플랫폼으로 구축하고 있습니다:
- 글로벌 공용 클라우드
- 하이브리드 인프라
- 주권 공용 클라우드
- 주권 사설 환경
NVIDIA 가속 컴퓨팅 및 인프라와의 통합을 통해 Foundry는 조직이 통합된 개발 및 운영 플랫폼을 유지하면서 환경 전반에 걸쳐 AI 시스템을 일관되게 배포할 수 있도록 합니다.
이러한 접근 방식을 통해 기업은 전문화된 AI 시스템을 한 번 구축하여 워크로드와 데이터가 있는 모든 곳에 배포할 수 있습니다.
이 로드맵에 대한 자세한 내용은 Microsoft Build 2026에서 공유될 예정입니다.
지금 시작하세요
모델 탐색 AI 모델 카탈로그 | Microsoft Foundry 모델에서 NVIDIA Nemotron 모델에 액세스하세요.
주권 AI 배포 NVIDIA 가속 인프라를 사용한 Foundry Local 배포에 대해 자세히 알아보세요.
물리 AI 시스템 구축 Azure 물리 AI 툴체인 및 NVIDIA 물리 AI 데이터 팩토리를 탐색하세요.
GTC에서 라이브로 보기 마이크로소프트 부스를 방문하여 에이전트 및 물리 AI 워크플로의 엔드투엔드 데모를 경험하세요.