정의
코어 오디오(Core Audio)는 애플(Apple)사가 macOS, iOS, iPadOS, watchOS, tvOS 등 자사 운영체제에서 제공하는 저수준 오디오 프로그래밍 인터페이스(API)이다. 실시간 오디오 입출력, 오디오 데이터 처리, 디지털 신호 처리(DSP) 등을 고성능으로 수행할 수 있도록 설계되어 있다.
개요
코어 오디오는 2005년 처음 도입된 이후, macOS와 iOS 플랫폼의 오디오 처리 기반을 담당하고 있다. 개발자는 코어 오디오를 통해 오디오 디바이스와 직접 통신하거나, 오디오 파일을 읽고 쓰는 작업, 오디오 스트리밍, 오디오 효과 적용 등을 프로그래밍적으로 제어할 수 있다. 코어 오디오는 여러 하위 프레임워크와 모듈(예: Audio Unit, Audio Queue, Audio File, Audio Converter 등)로 구성되어 있으며, 각 모듈은 특정 기능을 담당한다. 이 API는 실시간 오디오 처리에 필요한 낮은 지연시간(Latency)과 높은 정확성을 제공한다.
어원/유래
‘코어 오디오’라는 명칭은 영어 “Core Audio”를 한글 표기법에 따라 음역한 것으로, ‘핵심(core)’이라는 의미와 ‘오디오(audio)’를 결합한 용어이다. 애플이 2000년대 초반부터 자체 오디오 프레임워크를 개발하면서 사용된 공식 명칭이다.
특징
| 구분 | 주요 특징 |
|---|---|
| 저수준 접근 | 하드웨어 오디오 디바이스와 직접 인터페이스할 수 있는 API 제공 |
| 실시간 처리 | 낮은 지연시간을 요구하는 음악 제작, 게임, 방송 등에서 실시간 오디오 처리 지원 |
| 모듈화 | Audio Unit(플러그인 형태의 오디오 처리), Audio Queue(스트리밍), Audio File(파일 입출력) 등으로 구성 |
| 다중 포맷 지원 | PCM, AAC, MP3, ALAC 등 다양한 오디오 코덱 및 포맷을 지원 |
| 멀티채널 | 스테레오 및 서라운드 사운드 등 다채널 오디오 처리를 지원 |
| 보안·권한 관리 | iOS 환경에서 마이크 접근 등 사용자 권한 관리와 연동 |
| 통합 개발 환경 | Xcode와 연동하여 Swift, Objective‑C 등으로 손쉽게 개발 가능 |
관련 항목
- Audio Unit – 코어 오디오의 플러그인 기반 오디오 처리 모듈
- AVFoundation – 애플이 제공하는 고수준 멀티미디어 프레임워크(코어 오디오와 연동)
- Soundflower, Jack Audio Connection Kit – macOS에서 오디오 라우팅을 위한 서드파티 툴 (코어 오디오 기반)
- ALSA, PulseAudio – 리눅스 환경의 오디오 시스템(개념적으로 유사)
- DirectSound, WASAPI – 윈도우즈 플랫폼의 저수준 오디오 API
※ 본 항목은 코어 오디오에 대한 객관적인 정보를 기반으로 작성되었으며, 최신 버전의 애플 개발자 문서 등을 참고한다.