분야/Settop

오디오 포맷, 기술적 특징들 + 추가 설명

w우주z 2013. 5. 16. 17:37

audioformat_01.jpg

아날로그 시대에는 오늘날과 같은 오디오 포맷이란게 딱히 없었다. 정확히 말하면 그 당시에는 미디어라고 불리우던 매체의 존재가 있을 뿐이었다. 초창기 원통, 원반에서 나온 디스크는 SP를 거쳐 흔히 일반인들에게 레코드라고 알려진 LP 원반이 있었고, 테이프는 릴 테이프에서 소형 카세트 테이프로 이어지는 테이프가 있었다. 하지만 디지털 시대의 등장과 함께 CD, DVD 같은 디지털 매체로 바뀌면서 말 그대로 자연적인 아날로그 신호의 기록에서 디지털 신호로 기록이 되며 포맷이라는 단어가 등장했다.
 
아날로그를 어떤 방식으로 기록할 것인가에 대한 기술적 방법이 여러 가지 등장하면서 각 업체나 협회, 국제 기구, 단체 등에서 내놓은 표준안이 바로 이 디지털 오디오 포맷이다. 녹음된 음원 자체는 동일한 소스지만 이것을 기록하는 포맷에 따라 제각기 데이터의 크기나 재생 방법 등이 달라지고 이에 따라 음질적 논란을 불러 일으키게 된 것이다. 따라서, 현재 사용되고 있는 음원에 대한 디지털 오디오 포맷에 대해 간단히 정리해보았다.
 
 
압축 vs 무압축
 
현재 사용되고 있는 다양한 음악 파일 및 디지털 오디오 포맷은 크게 압축(Compression)과 무압축(혹은 비압축, Non-compression)으로 나눌 수 있다. 먼저 무압축 혹은 비압축이라 함은 말 그대로 녹음된 원본 상태의 디지털 오디오 신호를 의미한다. 연주 현장에서 마이크롤 통해 디지털로 저장되는 하드디스크 속의 파일 내지는 디지털 오디오 테이프에 녹음된 오리지널 녹음 데이터가 바로 비압축 녹음 원본이다.
 
이러한 녹음 원본이 되는 디지털 오디오 신호는 현재 크게 2가지 종류가 사용되고 있다. CD를 비롯하여 DVD, 블루레이 등에서 사용되고 있는 16비트, 24비트 등의 신호가 PCM이다(또는 LPCM이라고 부르기도 한다). 또 하나의 디지털 오디오 신호는 DSD 라는 싱글비트 방식의 디지털 오디오 포맷으로 SACD 등에서 사용된 디지털 오디오 신호가 있다. PCM 이나 DSD 는 모두 녹음 원본으로 일체의 압축이나 신호에 대한 가감처리가 없는 오리지널 디지털 오디오 녹음 신호다.
 
이와 달리 압축 포맷은 앞서 설명한 PCM 이나 DSD 같은 오리지널 녹음 데이터의 크기를 줄여서 사용하는 것을 의미한다. CD를 기준으로 볼 때, 1분 정도의 소리를 저장하려면 약 10MB의 용량이 필요하지만 이를 1/8~1/10 정도의 크기로 줄일 수 있는 것이 바로 압축 오디오 포맷들이다. 가장 잘 알려진 오디오 압축 포맷으로는 MP3, AAC, MP4 등과 같은 소위 음악 파일의 시대를 연 파일 포맷들이 있다.
 
 
 
손실 압축 vs 무손실 압축
 
하지만, 디지털 기술의 성장과 함께 오디오 압축 기술은 진화를 하게 되면서 압축 기술은 다시 손실 압축(Lossy Compression)과 무손실 압축(Lossless Compression)의 2가지 부류로 나뉘게 된다. 앞서 언급한 약 1/8~1/10 정도 수준으로 용량을 줄일 수 있는 MP3 류의 포맷은 손실 압축 방식이다. 손실 압축보다는 압축률은 떨어져 약 오리지널 녹음 용량의 절반 정도 크기로 줄일 수 있지만(50% 정도의 압축률이 되는) 오리지널 녹음 데이터를 전혀 잃지 않고 복원해내는 방법이 무손실 압축 방식이다. 무손실 압축에 해당하는 포맷들로는 FLAC, APE, ALAC 등이 있다. 
 
 
1. (무압축 PCM) WAV, AIFF
 
무압축 PCM 신호는 앞서 언급한 대로 디지털 녹음의 원본 데이터이다. 디지털화한 신호에 대해 일체의 가감이 없이 수록한 오리지널 녹음 데이터인 셈이다. 통상적으로 멀티비트(16bit ~ 24bit)가 사용되며, 샘플링 레이트는 CD 수준의 44.1kHz/48kHz에서 고음질의 시발점이 되는 88.2kHz/96kHz가 있으며 아주 하이비트레이트로 176.4kHz/192kHz까지 가능하다. 현재 판매되는 CD에 수록되어 있는 데이터가 바로 이 PCM 신호이며 이것을 리핑(추출)하여 저장한 것이 바로 WAV 또는 AIFF 파일이다. 
 
사실상 WAV 와 AIFF 파일은 모두 동일한 데이터를 갖는 같은 포맷의 파일이라 할 수 있다. 다만 차이가 있는 것은 WAV는 PC 계열의 컴퓨터에서 주로 사용한다(PC 뿐만 아니라 다른 컴퓨터에서도 모두 사용이 가능한 포맷이긴 하다). IBM과 마이크로소프트가 PC에서 디지털 오디오 스트림의 저장/사용을 위해 지정한 파일 표준이다. 이와 달리 AIFF는 애플이 자사의 컴퓨터에서 사용하는 표준 오디오 포맷으로 만든 것이 AIFF다.
 
정확한 용어의 의미는 Apple Interchange File Format 의 이니셜로, 1988년 만들어진 애플의 오디오 표준 포맷이다. WAV 나 AIFF는 사실상 오디오 데이터는 갖지만, 데이터를 제외한 파일의 구조 그리고 데이터의 비트 배치 순서 등이 다소 다를 뿐이다. WAV 나 AIFF는 실제 CD를 리핑할 경우 또는 스튜디오 마스터와 같은 오리지널 녹음 마스터 데이터일 경우에 자주 사용되는 포맷이다. 일체의 압축이나 특정 처리가 이루어지지 않은 포맷이므로 대부분의 오디오 기기 및 소프트웨어에서 재생 가능하다.
 
단, 오디오 데이터 이외에 특정 부가 데이터가 없기 때문에 흔히 파일 재생할 경우에 필요한 곡명, 가수명, 자켓 사진, 작곡가 명 등등의 부가 메타 정보는 저장되지 않는다. 따라서, 파일 재생시 파일명 이외에 데이터에 대한 정보를 알 수 없다. 최근에는 WAV 파일에 메타 정보를 붙여 저장하는 프로그램들도 있지만 표준은 아니기 때문에 모든 소프트웨어 및 오디오 기기와 호환되지는 않는다. WAV 파일 사용시에는 파일 관리에 부가적인 데이터 관리가 필수적으로 요구된다는 것이 단점일 수 있다.
 
 
2. (무압축 DSD) DFF, DSF
 
DSD는 PCM의 반대편에 존재하는 무압축 디지털 오디오 포맷이다. PCM이 16비트, 24비트 등의 멀티비트 포맷인데 반해 DSD는 1비트 방식의 디지털 오디오 신호를 사용한다. 대신 PCM이 통상 44.1kHz 및 96kH 또는 최대 192kHz 등의 샘플링 레이트를 같는 것과 달리 2.8MHz라는 훨씬 빠른 초고속으로 신호를 저장한다. 비트수가 적은 만큼 샘플링 레이트를 높여 고해상도 녹음을 구현한 방식이다. 
 
본래 DSD는 소니와 필립스가 Sony Classical 과 Philips의 과거 녹음들을 디지털화하기 위해 개발된 기술로, DVD-Audio의 표준 포맷으로 주장했다가 나중에 SACD라는 독자적인 포맷으로 등장하게 된 것 기술이다. 
 
audioformat_02.jpg
 
PCM과의 결정적인 차이라면, 둘 다 디지털이긴 하지만, DSD는 아날로그를 전류 흐름의 양으로 디지털화한 것이고 PCM 아날로그를 전압의 크기로 디지털화한 것이다. 따라서, PCM는 파형의 수치적인 표현이라면 DSD는 파형의 크기를 전류량의 양적인 개념으로 나타낸 것이다. 즉, LP 레코드를 바늘이 긁으면서 떨리는 신호를 디지털화하는 데에는 DSD가 좀 더 아날로그적인 개념에 가까운 편이다. 게다가 DSD는 CD 보다는 훨씬 높은 차원의 정보량을 갖고 있기 때문에 음질적으로도 PCM에 비해 더 자연스럽고 매끄러운, 아날로그적인 사운드를 들려준다는 것이 대체적인 평가다.

DSD는 크게 두가지 포맷이 존재한다. 하나는 .DFF 파일이고 다른 하나는 .DSF 파일이다. 두 파일에 담긴 음원 데이터는 똑같다. 다만, 차이는 메타 정보의 유무다. '.DFF' 파일은 PCM의 WAV 파일 처럼 순수하게 디지털 오디오 신호만 저장된 파일이라면 .DSF 파일은 .DFF 파일에 곡명, 가수명, 자켓 등의 부가 정보를 추가한 포맷이다. 
DSD 파일은 데이터 레이트가 높고 PCM과는 데이터 구조가 다르기 때문에 일반 광, 동축 같은 디지털 오디오 입출력 단자로는 전송이 불가능하다. DSD 전용 디지털 단자가 장착된 기기에서만 재생이 가능한데, 최근에는 USB를 통해 DSD 파일의 재생이 가능해지면서 USB DAC들 사이에서 DSD 재생 기능이 확대되고 있는 추세다. 음질적으로는 CD 보다는 한 단계위의 월등한 사운드를 선사한다.
 
 
3. (무손실 압축) MLP vs DST
 
흔히 압축하면 MP3 같은 압축 파일을 떠올리겠지만 90년대 중반부터 무손실 파일 압축 기술들이 등장하기 시작했다. DVD-Video가 성공적으로 런칭된 이후 음악용 디스크로 DVD-Audio에 대한 규격 표준안 개발이 시작되었다. 당시 PCM 진영에서는 CD의 44.1kHz/16비트를 뛰어넘는 96kHz/24bit 규격이 대두되었고, 여기에 한 술 더떠서 한국의 삼성전자가 제안하는 192kHz/24bit 규격까지 등장하게 되었다.
 
도시바-삼성 등의 진영에 맞서 소니-필립스는 앞서 소개한 DSD 기술을 갖고 규격 싸움을 벌였다. 하지만, 10Mbps 라는 대역폭과 4.7GB라는 디스크 용량을 지닌 DVD 규격 안에서 그러한 고해상도 오디오를 저장하기엔 대역폭이나 저장 용량의 한계가 있기 때문에 이를 압축해야할 필요가 있었다. 하지만, MP3 같은 손실형 압축이 아닌 오리지널 데이터를 완벽히 복원해낼 수 있는 무손실 방식의 압축 기술이 필요했다. 이때 등장한 것이 PCM 진영에서는 영국의 메리디언이 제시한 MLP(Meridian Lossless Packing)이고 DSD 진영에서 등장한 것이 DST(Digital Stream Transfer) 였다. 
 
MLP와 DST는 오디오 신호가 갖는 신호의 유사성, 즉 이전 신호와 다음 신호의 정보가 조금씩 변한다는 점과 좌/우 채널이 갖는 정보의 유사성에 착안하여 데이터의 양을 줄이는 방법을 택했다. 특히 디지털 코드화 시키는 과정에서 반복되는 1과 0을 최대한 줄이는 방법을 고안하여 데이터를 압축시키는 기법을 사용했다. 덕분에 MLP나 DST로 압축된 신호는 디코딩하게 되면 다시 오리지널 디지털 데이터로 완벽히 복원될 수 있었다. 
 
하지만 두 기술은 DVD-Audio와 SACD에 국한되는 기술이었기에, 파일 재생 방식이 대중화되기 전이라 결국 DVD-Audio, SACD와 함께 별다른 주목이나 사용이 되지 못했다. 다만, 최근에 일본의 온쿄가 MLP 기술을 사용하여 확장자 .MLP 라는 파일을 내놓으면서 스테레오 음원이 아니라 5.1채널 음원을 서비스하기 시작했다. 96kHz/192kHz의 5.1채널은 상당한 대용량 대역폭과 저장 용량이 필요하므로, 멀티채널 음원 서비스 용도로 MLP 기술을 채택한 것이다. 다만, 이 MLP 음원을 재생하려면 현재로서는 온쿄의 A/V 리시버에서만 들을 수 있다.
 
 
4. (무손실 압축) FLAC, APE
 
audioformat_04.jpg

200년대 중반에 접어들면서 대중화된 MP3에 대항할 만한 고음질 음원에 대한 기술들이 등장하기 시작했다. 이때부터는 인터넷을 통해 MP3 파일이 유통이 폭발적으로 늘어나던 시기였는데, 손실형 압축을 쓰는 MP3와 달리 CD 음원 자체를 파일로 유통시키기를 원하는 욕구와 맞아떨어져 MP3에 대응하는 무손실 압축 기술들이 나오게 된 것이다. 2004년 등장한 FLAC은 Free Lossless Audio Coding의 약어로, 이름이 의미하듯 무료로 사용할 수 있는 무손실 오디오 압축 기술이었다.
 
비슷한 시기에 함께 등장한 것이 Monkey Audio 라는 업체에서 내놓은 APE 라는 포맷의 파일이었다. 이 두가지 압축 기술은 상당히 유사한 오디오 압축 기술을 구사했는데, 사람의 청각 감응 능력을 고려하여 들리는 소리만 찾아내서 인코딩하는 MP3류와는 다르게 오디오 신호를 데이터적으로만 분석하여 디지털 코드를 압축하는 기법을 사용했다. 즉, 좌/우 채널들이 갖는 신호의 유사성을 수학적으로 찾아내, 같은 부분은 공동적인 데이터로 쓰고 차이나는 부분을 디지털화하되, 그 디지털 코딩 과정에서 생기는 0과 1의 반복을 최대한 줄이는 기법을 적용했다. 따라서 수학적으로 인코딩/디코딩 과정을 거쳐도 압축된 파일을 오리지널 파일로 완벽히 복원해낼 수 있게 되었다. 이는 컴퓨터에서 Zip 이나 Rar 등의 파일 압축 기술을 사용한 것과 유사한 기술을 오디오 신호에 적용한 방식이다.
 
다만, 세부적인 코딩 방식과 룰에 있어서 FLAC과 APE 간에 차이가 있는데 연산량이나 대중적인 호환성 부분에 있어서 FLAC이 훨씬 대중적이고 보편화되면서 사실상 무손실 파일 압축 기술의 표준이 되었다. 이들보다 후발주자로 Wav Pack 이라는 기술도 무손실 파일 압축 기술로 등장했으나 변방의 포맷으로 머무르고 말았다.
 
 
5. (손실 압축) MP3
 
손실 압축 포맷으로 가장 대표적인 것이 MP3 다. 파일 확장자로 ‘.mp3’로 표시되는 MP3 파일은 본래 VCD 와 DVD 등의 디지털 비디오 디스크의 개발 당시에 영상 압축과 함께 수록한 음성 압축 기술로 탄생된 포맷이다. 보다 정확히 말하면 MPEG-1, Audio Layer 3가 정확한 표현이지만 현재는 가장 대표적인 오디오 파일 포맷이 되면서 MP3가 고유 명사가 되어 버렸다.
 
90년대 초에 개발된 기술로 1993년, 95년에 국제 표준화 기구를 통해 표준 포맷으로 공식화되었고, 90년대 중반부터 인코더/디코더의 소스 알고리듬이 널리 퍼지기 시작하면서 컴퓨터용 오디오 재생 프로그램이 등장하기 시작했다. 이후 컴퓨터 상에서 음악을 MP3 파일로 공유가 되면서 오늘날 스마트폰이나 포터블 미디어 플레이어의 소스로 폭발적인 성장을 하게 되었다. 또한 MP3는 오디오 압축 포맷들의 뿌리가 되어 이와 유사한 여러 가지의 오디오 압축용 포맷 및 프로그램을 탄생시키는 근원지가 되었다. 
 
MP3의 가장 큰 기술적 특징은 인지 지각 코딩(Perceptual Coding)이라는 개념이다. 조금 말이 어렵지만 간단히 풀어서 설명하자면 사람이 알아듣는 소리만 골라 코딩(기록)한다는 것이다. 좀 더 쉽게 설명을 하기 위해 아래 그림을 참고하자. 그다지 어려운 내용은 아니니 편하게 읽으면 쉽게 이해가 가능하다.
 
 
Plack2005_6-1.jpg

[그림 1] 심리음향 모델
 
 
위의 그림은 소리 크기에 따라 사람의 귀가 인식하는 소리의 주파수 곡선이다. 먼저 가로축은 주파수를 의미한다. 최저 0.01Hz에서 최대 20Hz까지의 주파수 대역을 의미한다. 세로축은 소리의 크기인 음압 레벨을 나타낸 것으로 단위는 데시벨(dB)이며 무음 상태인 0dB부터 고막이 터질 정도로 시끄러운 140dB 까지를 한계로 잡아놓았다. 그리고 중앙에 있는 총 11개의 곡선은 볼륨값을 나타낸 것이다. 맨 아래 10이라고 표기한 곡선이 볼륨 10dB 정도의 소리를 의미하며, 그 위로 20dB부터 최대 100dB 까지 다양한 볼륨 값의 곡선을 그려놓았다. 마지막으로 가장 아래의 굵은 선이 볼륨의 절대 한계 값(Absolute Threshold)이다. 
 
그래프를 보는 법은 이렇다. 사람의 귀가 소리를 들을 수 있으려면 저 그래프 중 가장 아래 절대 한계 값보다 볼륨 레벨이 더 커야 들을 수 있다는 것이다. 일례로 20Hz(그림 상에서는 0.02kHz)는 볼륨이 최소 80dB 이상은 되야 사람이 들을 수 있다는 뜻이다. 또한 1kHz 에서는 대략 0dB 만 넘으면 사람이 금방 알 수 있다는 뜻이다. 한마디로 저음은 소리가 커야 제대로 알아들을 수 있고, 1kHz~5kHz 정도 대역은 0dB 보다 크기만 하면(즉, 소리가 나기만 하면) 소리를 금방 알아듣는다는 것이다. 쉽게 말해서 사람은 저역에는 둔감하고 중역에는 민감하고 고역은 중역보다는 조금 덜 민감하지만 저역보다는 훨씬 쉽게 알아듣는다는 것을 알 수 있다. 이렇게 주파수, 음량 크기에 따라 소리를 이해하는 사람 귀의 특성이 바로 심리음향(Psycoacoustics) 모델이다.
 
MP3는 이 심리음향 모델부터 시작이 된다. 간단히 말하자면, 심리음향 모델에서 굵은 까만 곡선 위로 올라온 신호들만 데이터로 저장한다는 개념이다. 즉, 각 주파수 구간을 나눠놓고 각 구간마다 기준 레벨을 정해, 기준 레벨보다 큰 소리만을 데이터로 수록한다는 것이다. 그렇게 되면, 사람이 들을 수 있는 소리와 잘 듣지 못하는 소리를 나눠서 들리는 소리만 저장하게 되므로 저장하는 디지털 오디오 데이터 용량을 획기적으로 줄일 수 있게 되는 것이다. 
 
이것 뿐 만이 아니다. 이번에는 영화 <라이언 일병 구하기> 의 전투 장면 같은 것을 보면 폭탄이 마구 터지는 가운데 사람들이 대화하며 전투하는 장면들이 있다. 이때, 폭탄의 폭발음이 아주 크면 다른 소리들은 묻혀 들리지 않는다. 즉 소리가 상대적으로 묻혀 들리지 않게 되는 경우에도 지배적인 소리를 저장하고 이로 인해 상대적으로 들리지 않게 되는 소리는 저장하지 않거나 아주 적은 비트로 조금만 저장하는 방법도 함께 사용한다.  
 
이렇게 주파수적인 인지 능력과 시간적으로 음량의 크고 작음을 동시에 사용하여 소리를 압축함으로써 MP3의 압축률은 1/8에서 1/10까지 오디오 데이터 용량을 줄일 수 있게 되었다. 
하지만, 단점이라면 이렇게 MP3로 압축이 된 오디오 신호는 디코딩하여 다시 복원하더라도 오리지널 오디오 데이터로는 복원되지 않는다는 점이다. 용량은 상당히 줄어들지만 원래 음원이 지니고 있던 정보의 상당 부분이 압축 과정에서 사라지기 때문에(즉, 들리는 부분의 소리만 살아남기 때문에) 음질적으로 무손실 원본에 비해는 다소 가볍고 압축률이 심할 경우에는 녹음 원본과 다른 디지털적인 노이즈들이 발생되기도 한다. 
 
따라서, 디지털 노이즈가 거슬리게 들렸던 초기 MP3와 달리 최근에 사용되고 있는 MP3 인코더/디코더는 사람의 청각 인지 모델이나 마스킹 효과를 더 세밀하게 분석한, 고도의 알고리듬을 사용하여 음질을 대폭 개선했다. 특히 256kbps나 최대 320kbps 같은 비트레이트를 제공하는 Lame MP3 인코더를 사용할 경우 오리지널 CD 원본과 차이없는 수준의 고음질 구현이 가능해졌다.
 
 
6. (손실 압축) AAC
 
MP3가 보급된 것은 90년대 후반~2000년대 초반에 시작되었지만, MP3 기술이 등장했던 것은 90년대 초였다. 앞서도 언급했지만 VCD, DVD의 개발과 디지털 라디오 방송과 같은 초창기 디지털 오디오 압축 기술의 결과물들의 총체적 집합체가 MP3 였던 것이다. DVD 등장 이후 MPEG 기술이 급격히 대중화되기 시작하면서 단순히 방송과 DVD 같은 패키지 미디어에 머무르지 않고 MPEG 기술을 인터넷, 화상 통신 같은 분야로 확장시키려는 노력이 시작되었다. 그 결과물로 등장한 것이 MPEG-4 였고 이때가 90년대 중반부터 기술들이 제안되면서 상용화되기 시작했다.
 
MPEG-4의 용도는 분명 스트리밍이나 통신 같은 분야에 알맞은 초저비트레이트의 영상/음향 압축 기술의 구현이었다. 하지만, MP3나 MPEG-2와는 거의 10년 정도 차이가 나는 시간 덕분에 기술이 비약적으로 발전하면서 높은 압축률에도 불구하고 화질이나 음질은 전혀 떨어지지 않았다. 따라서, MPEG-4 기술을 일반 영상과 음향에도 사용하여 오디오 파일 포맷으로 확장시켰는데, 영상에서는 블루레이의 MPEG-4 AVC 였고 오디오에서는 애플의 iTunes에서 기본으로 사용되고 있는 AAC다. 
 
AAC는 Advanced Audio Coding의 약어로 이전의 MP3보다 음질을 비약적으로 개선시키면서도 비트레이트는 더 낮거나 같은 수준을 유지했다. MP3에 사용된 기술과 개념적으로는 동일한 사람의 청각 심리 모델을 기반으로 하는 손실형 압축 기술을 사용하고 있지만, 실제 구현 방법에 있어서는 보다 정밀한 디지털 압축 기술이 적용되었다. 쉽게 말해서 사람이 잘 알아듣는 대역은 좀 더 세밀하게 대역을 나누어 보다 정밀하게 비트 할당을 해주는 식의 기법을 취한 것이다. 이를 위해 더 고차원적인 디지털 필터 기술들이 사용되었다. 또한 MP3가 2채널로 국한된 것과 달리 멀티채널에도 대응할 뿐만 아니라(최대 48개 채널을 지원) CD 수준의 48kHz까지만 가능했던 MP3와 달리 AAC는 최대 96kHz까지도 지원하게 되었다. 
 
사용되는 확장자로는 .m4a, .m4b, .m4p, .m4v, .m4r, .3gp, .mp4, .aac 등이 있으며 주로 iTunes의 메인 포맷으로 사용되고 있다.
 
 
7. (손실 압축) WMA, Windows Media Audio
 
Windows Media Audio (WMA)는 마이크로소프트가 개발한 오디오 압축 기술이다. 이름이 의미하듯이 이 포맷은 PC의 윈도우즈 OS에서 기본으로 지원되는 오디오 압축 포맷이기도 하다. 본래 WMA는 MP3 파일과 Real Audio 라는 인터넷 기반의 오디오 코덱에 대응하기 위해 개발된 기술에서 출발하여 꾸준히 버전업이 이루어지면서 WMA Pro, 무손실 압축의 WMA Lossless 그리고 고해상도 샘플링 레이트와 멀티채널에도 대응하는 규격이 등장했다. 
 
기술적으로는 MP3나 AAC와 마찬가지로 청각 심리 모델과 MDCT라는 주파수 분리 필터를 사용하고 있다. 하지만, 압축 과정시의 디지털 샘플의 개수나 코딩 방법에서의 데이터 압축 등 세세한 기술에서 차별된 기술을 사용하고 있다.
 
 
audioformat_03.jpg

 
정리
 
이 외에도 오디오 압축 포맷과 오디오 파일 포맷은 상당히 많다. 하지만 무압축을 제외하면 대부분의 오디오 파일들은 압축 기술을 사용하고 있다. 그것이 손실형 압축이냐 무손실 압축이냐 하는 점에서 차이가 생긴다. 손실형 압축은 데이터를 어느 정도 잃게 되지만 훨씬 줄어든 용량 대비 음질의 효율에서 좋은 장점이 있다. 이 때문에 주로 포터블에서 많이 사용이 되지만 하이파이 유저들에게는 절대 파일의 가치 기준에 부합하지 못하는 파일에 불과하다. 아무래도 고역의 디테일이나 저음의 명료도에서 차이가 나기 때문이다.
 
MP3류의 손실형 압축과 달리 FLAC 이나 APE 같은 무손실 파일은 원래 녹음된 데이터가 완벽히 보존되고 재생시 다시 100% 복원되어 오리지널 데이터로 재생된다는 점에서 컴퓨터 기반의 하이파이 대중화에 큰 요인이 되었다. 하지만, 흥미로운 점은 이러한 무손실 압축도 무압축의 리지널 WAV 파일과 비교하면 음질적인 차이가 있다는 점이다. 물론 듣는 이에 따라 차이가 있다 없다 논란의 여지가 있지만, 재생 결과를 보면 같은 데이터라고는 하지만 실제 음악 파일이 재생되는 과정을 보면 중간에 디코딩 과정을 거치게 되므로 WAV와 완벽히 100% 같은 재생 루틴을 거치지는 않기 때문에 음질적인 차이의 이유가 있다고 주장하는 이들도 있다.
 
아무튼 현재 존재하는 종류는 많지만 결국 자신이 선택하는 파일 포맷은 자신이 어떤 시스템을 사용하는가에 따라 달라지게 된다. 윈도우 기반의 PC 오디오를 할 지, 맥 기반의 컴퓨터 오디오를 할 지 아니면 포터블 플레이어 위주의 음악 감상을 즐길 지에 따라 해당 시스템의 플랫폼에 맞는 포맷을 선택하여 사용하게 되는 것이다. 음질적인 차이는 물론 소스 파일에서도 차이가 없다고는 할 수 없지만, 보다 근본적인 음질의 차이는 이 파일을 재생하는 시스템에서 훨씬 큰 차이가 발생한다. 아무리 좋은 녹음이라 할지라도 녹음에 걸맞은, 가장 투명한 재생이 이루어지지 않는다면 포맷의 우수함도 무의미해질 수 있기 때문이다.
 
 

tinman_notice.jpg 

 

 

 여기서 추가

 

 

 

 

 

 

 

디지털 레코딩에서 사용되는 각종 포맷 

이번에는 디지털 레코딩에 사용되는 관련 포맷들에 대해서 하나씩 알아보도록 하겠습니다. 


*녹음 포맷과 파일 포맷 

보존 포맷이란, 순수 오디오 데이터(샘플음)를 보존하는 껍질과 같은 것입니다. 

보존하는 대상이 테이프라면 녹음 포맷, 하드 디스크라면 파일 포맷이라고 부르는 것이지요. 

 ADAT포맷(TYPR-Ⅰ/Ⅱ) 

ADAT시리즈는, 8트랙의 디지털 오디오 데이터를 S-VHS카세트에 기록하는 것입니다. 

일반적인 비디오 플레이어의 3배의 테이프속도를 가지고 있어, 

120분의 S-VHS테이프라면, 40분의 8트랙 오디오를 녹음할 수 있는 것입니다. 

S-VHS테이프를 사용하기 위해서는, 먼저 포맷작업을 해야만 합니다. 

포맷 프로세스에서는, 맨 처음 타임 코드가 테이프에 기록됩니다. 

이 전용 타임 코드 덕분에 여러 대의 ADAT레코더의 정밀한 동기가 가능하게 되는것입니다. 

전용타임 코드는 확실한 오토 로케이트, 치밀한 편집작업을 하기 위해서도 필수적인 것입니다. 

또한 디스플레이에 표시되는 테이프 관련정보도 이 타임 코드에 의해서 표시되는것입니다. 

포맷된 테이프에는 처음 15초간의 공백에 이어 2분간의 데이터정보 에이리어가 기록됩니다. 

데이터정보 에이리어에는 ALESIS의 ADAT리모트 컨트롤규격인 BRC(빅 리모트 컨트롤)에 관계된 명령 이외에, 

SMPTE오프세트 정보, 펀치 인/아웃 포인트, 스타트 시간 등, 갖가지 관리정보가 기록됩니다. 

오리지널의 ADAT포맷은 16비트의 양자화 비트수, 48㎑의 샘플링 레이트라는 사양이었지만, 

ADAT XT 이후에서는 44.1㎑와 48㎑의 샘플링 레이트를 선택할 수 있게 되었습니다. 

새로운 ADAT 들이 채용하고 있는 TYPE-Ⅱ포맷은 양자화 비트수가 20비트로 확대되어, 더욱 폭 넓은 다이나믹 레인지를 제공하고 있습니다. 

아쉽게도 TYPE-Ⅱ는 현재, 16비트의 오리지널 ADAT와는 직접적인 호환성이 없습니다. 

TYPE-Ⅱ 포맷의 데이터를 TYPE-Ⅰ 포맷에서 재생하기 위해서는, 

디더 알고리즘으로 20비트를 16비트로 변환하면서, ADAT인터페이스 경유로 레코딩을 해주어야 합니다. 

*TASCAM포맷(DTRS/DTRS HR) 

TASCAM의 디지털MTR이 채용하고 있는 DTRS포맷도 ADAT와 마찬가지로 8트랙의 오디오 데이터를 비디오 테이프에 기록하는 것입니다. 

이쪽은 S-VHS보다 콤팩트하면서 기록밀도가 높은 Hi-8비디오를 기록매체로 사용하고 있으며, 

120분 카세트라면 108분 길이의 8트랙 오디오녹음이 가능합니다. 

레코더에서 미리 포맷된 테이프가 아니면 사용할 수 없는 것은 ADAT의 경우와 같으며, 

포맷 프로세스로 여러 대를 동기시켜 사용하기 위한 전용타임 코드가 기록되는 점도 같습니다. 

DTES포맷(8트랙의 경우)에서는 16비트의 양자화 비트수, 48㎑와 44.1㎑의 샘플링 레이트가 표준이며, 

또한 4트랙에서는 88.2/96㎑, 

2트랙에서는 176.4/192㎑에 대응할 수도 있습니다. 

또한 DTRS HR포맷에서는 24비트의 양자화 비트수로 레코딩도 가능하게 되었습니다. 

*WAV파일 포맷 

WAV포맷(.wav)은, 하드 디스크에 보존하는 오디오 파일의 한 가지 형식입니다. 

개발한 것은 MICROSOFT와 IBM으로 현재에는 PC의 표준적인 오디오 포맷이입니다. 

PC용의 오디오 어플리케이션이라면, 사실상 모든 것이 이 포맷을 읽고 쓸 수 있다고 생각해도 될것입니다. 

최근에는 Macintosh 상의 어플리케이션에서도, 이 포맷을 사용할 수 있게 되었다. 

대표적으로 프로툴스도 HD가 되면서 WAV가 기본 포맷입니다. 

WAV파일의 경우, 채널수, 양자화 비트수, 샘플링 레이트는 한 가지로 정해져 있지 않으며, 사용자가 설정하는 것입니다. 

그렇기 때문에 WAV파일에서는, 모노부터 멀티채널까지, 갖가지 채널수의 오디오정보를 다룰 수 있는데, 일반적으로 볼 수 있는 WAV파일의 대부분은 모노 또는 스테레오 파일입니다. 

멀티채널의 파일에서는 개별트랙이나 그것에 녹음된 프레이즈를 독립해서 에디트할 수 없기 때문에, 

전체를 모노 또는 스테레오의 복수 파일로 분할해 배포하는 경우가 많기 때문이니다. 

그 밖의 특징으로는 일부 소프트웨어 전용데이터 정보(예를 들면 루프 포인트정보 등)를 다룰 수 있다는 점, 파일 사이즈를 작게 만드는 갖가지 데이터 압축방식에 대응하고 있다는 점 등을 들 수 있을것입니다. 

*AIFF파일 포맷 

AIFF는 다른 어플리케이션 사이에서 음성데이터의 호환성을 높이는 것을 염두에 두고 APPLE이 개발한 포맷이며, 

OS고유의 포맷이기도 하기 때문에, 어떤 Macintosh에서든 AIFF파일의 작성/재생이 반드시 가능하게 되어있습니다. 

WAV파일과는 반대로 PC의 세계에서도 많은 어플리케이션이 AIFF파일을 다룰 수 있도록 되어있습니다. 

다만, Macintosh에서는 AIFF라는 정보가 시스템의 데이터 정보 블록에 기록되어있기 때문에, 

파일명에 확장자를 달지 않아도 자동적으로 인식할 수 있지만, 

PC에서는 .aif라는 확장자가 없으면 인식되지 않으므로 주의가 필요합니다. 

AIFF는 유연성이 높은 포맷으로, 채널수, 양자화 비트수, 샘플링 레이트를 자유롭게 설정할 수 있으며, 

마커, 피치, 루프, 포인트 등의 특정 어플리케이션 소프트정보를 기록할 수도 있습니다. 

실제로는 멀티채널 포맷에 대응한 어플리케이션이 거의 없기 때문에, 일반적으로 모노나 스테레오의 파일인 경우가 많습니다 

또한 AIFF파일에도 압축을 걸 수는 있습니다. 

하지만 그 경우에는 신호손실과 음질열화를 각오해야 합니다. 

참고로 압축된 AIFF파일은, AIFF-C(C는 compressed의 머리글자)라 불리며 구별되게 됩니다. 

이 AIFF와 뒤에 나오는 SoundDesignerⅡ는, Macintosh를 사용한 하드 디스크 레코딩 시스템에서는 표준적으로 사용되고 있는 기본포맷입니다. 

그 때문에 Macintosh용 소프트웨어의 대부분은 이들 2포맷을 똑같이 다루는 경우가 많습니다. 

그와 같은 소프트웨어 상에서는, 같은 샘플링 레이트의 파일이라면, 2가지의 포맷의 파일을 섞어 작업을 해도 문제가 없게됩니다. 


*SoundDesignerⅡ(SDⅡ)는, DIGIDESIGN에 의해 개발된 보존 포맷입니다. 

 Ⅱ라고 하니 Ⅰ도 있었다는 것인데, 오리지널은 모노에만 대응했으며, 또한 DIGIDESIGN의 소프트웨어용으로 개발된 전용포맷이었기 때문에, 범용성이 낮은 편이었습니다. 

참고로 오리지널 포맷은 16비트의 양자화 비트수와 44.1㎑의 샘플링 레이트라는 규격으로 데이터 압축에는 대응하지 않았습니다. 

이 오리지널을 대폭적으로 개선한 것이 SoundDesignerⅡ 파일 포맷입니다. 

샘플링 레이트와 양자화 비트수를 자유롭게 설정할 수 있게 되었으며, 또한 모노 뿐만 아니라 스테레오에도 대응하도록 되어있습니다. 

SoundDesignerⅡ파일에는 순수 오디오 데이터 이외에도 갖가지 정보를 기록할 수 있어, 

예를 들면 재생용의 각종 정보를 오디오 파일의 특정섹터에 기록시킬 수 있습니다. 

이런 각종 정보를 보존하는 영역을, 

DIGIDESIGN은 리전이라고 부르고 있는데, 리전은 Macintosh 상의 어플리케이션 사이의 확실하고 간편한 데이터 교환을 실현시키고 있습니다. 


*MPEG파일 포맷 

MPEG오디오 파일에는, .mp?라는 확장자가 붙어있으므로 금방 알 수 있을 것이입니(“?”의 부분에는 레이어 단계를 나타내는 숫자가 들어갑니다). 

MPEG는 특정 메이커가 고안한 포맷이 아니라, ISO(국제표준화 기구)와 IEC(국제전기표준회의)라는 두 곳의 표준화 조직이 제창하고, 그 지원을 받아, ISO의 하부위원회인 MPEG=Moving Picture Experts Group(동영상 전문위원회)이 실제적인 개발을 한 포맷입니다. 

동영상 전문위원회가 개발한 만큼, 사실 MPEG는 처음에 오디오 데이터를 염두에 두고 개발한 포맷은 아니었습니다. 

원래는 동영상 데이터와 그것에 대응하는 음성데이터의 압축을 목적으로 한 포맷이었습니다. 

MPEG에는 많은 규격이 있으며, 용도에 따라 구별해 사용하도록 되어있습니다. 


■MPEG-1 

1992년 11월에 실용화된 규격으로 막대한 데이터량의 영상 및 음성파일을, CD-ROM에 들어갈 수 있는 사이즈까지 슬림화하는 것을 염두에 두고 개발된 것입니다. 

마침 인터넷이 급속히 보급되기 시작했던 때이기도 해서, WEB컨텐츠의 데이터 압축에 이용할 수 있는 우수한 규격을 원하는 목소리가 유저나 WEB디자이너 사이에서 높아지면서, 

MPEG는 일약 각광을 받게 되었습니다. 

MPEG-1은 퍼세프추얼 코딩이라는 음향심리학을 베이스로 한, 매우 고도의 데이터 압축규격으로 주로 영상과 음성데이터의 압축에 사용되고 있습니다. 


■MPEG-2 

MPEG-1에서 파생된 규격. 일반적인 TV나 HDTV(고품위 텔레비전) 등의 제작현장 등, 데이터량의 삭감이 화질이나 음질을 심하게 악화시키면 안 되는 경우에 사용되고 있습니다. 

따라서 화질은 MPEG-1과 비교하면 엄청난 차이가 있습니다. 

5.1서라운드에 대응하고도 있어, DVD의 동영상 데이터 압축포맷으로도 채용되어있습니다. 

물론 DVD의 음성데이터의 압축방식은 지역에 따라 다르게 되어이습니다. 

예를 들면 유럽에서는 MPEG-2가, 미국에서는 AC-3라는 DOLBY의 디지털 멀티채널규격이 채용되어있습니다. 


■MPEG-3 

현실에는 MPEG-3라는 규격은 존재하지 않습니다. 

MPEG-2를 베이스로 한 HDTV용 데이터 압축규격으로 연구가 진행되었는데, MPEG-4에 흡수되는 형태로 개발은 중단되었습니다. 


■MPEG-4 

전화회선 등에 의한 저속동영상통신을 위해 제정된 규격. 

1999년 8월에 표준화되었는데, 현재에는 이 규격에 따른 제품도 등장하고 있습니다. 

또한 MPEG-1과 MPEG-2에서는 레이어라 불리는 오디오 데이터의 압축단계를 선택할 수 있습니다. 

단계가 올라갈수록, 부호화와 복호화의 프로세스가 복잡해지며, 더욱 높은 비율의 데이터 압축을 할 수 있게 됩니다. 

현재에는 아래의 3단계가 있습니다. 


■레이어Ⅰ 

비교적 오리지널 사운드에 가깝지만, 그만큼 데이터 스루풋도 많다(스테레오로 384kbps. bps는 bit per second=1초간에 전송하는 비트수). 음원의 녹음 등, 주로 제작현장에서 사용하는 것을 염두에 두고 개발되었습니다. 


■레이어Ⅱ 

더욱 복잡한 기호압축 프로세스이지만, 그 이외의 점에서는 레이어Ⅰ과 비슷합니다. 

또한 특수한 스테레오 모드(레이어ⅡA)라면 비트수를 더욱 삭감할 수 있습니다. 

채널당 데이터 스루풋은 모노 모드에서 96~128kbps, 스테레오 모드에서는 128~192kbps. 

■레이어Ⅲ 

레이어Ⅰ이나 Ⅱ와는 완전히 다른 컨셉으로 개발된 신호압축 프로세스이며, 

모노 채널 당 64kbps라는 저데이터 스루풋을 실현한, 가장 압축률이 높은 레이어입니다. 

그만큼 오리지널 사운드에 가장 충실하지 못한 사운드이지만, 같은 데이터 레이트라면, 레이어Ⅰ이나 Ⅱ보다 사운드열화 정도는 적은편입니다. 

이런 특징 때문에 인터넷 용도의 오디오 파일을 압축할 때에 최적의 선택이 되고 있습니다. 

부호화/복호화 소프트는 세어웨어로 나와있으며, PC판, Macintosh판 모두 간단히 구할 수 있는 편입니다. 

또한 MP3는 MPEG-1의 레이어Ⅲ의 속칭입니다. 

MPEG에 의한 데이터압축의 우수한 점은 다른 부호화 프로세스로 데이터를 압축해도 종래의 복호화 툴로 문제없이 재생할 수 있다는 점입니다. 

음질이 개량된 새로운 부호화 프로세스로 압축한 파일을 종래의 복호화툴로 재생해도, 향상된 음질을 그대로 즐길 수 있는 것이지요. 

MPEG의 음질이 부호화 프로세스에 의해 결정되는 비율이 높으며, 복호화툴의 성능에 그다지 의존하지 않기 때문입니다. 

MPEG-2의 오디오 데이터규격은 MPEG-1과 거의 같으며, 차이는 5.1서라운드 포맷(왼쪽, 센터, 오른쪽, 왼쪽 서라운드, 오른쪽 서라운드, 서브 우퍼)을 서포트하고 있는가 아닌가라는 점에 지나지 않습니다. 

서라운드의 경우에는 레이어Ⅱ방식에 의해 압축되어있습니다. 

이것이라면, 2채널을 동시에 압축하는 ⅡA 스테레오 포맷처럼 6채널을 동시에 압축할 수 있습니다. 

또한 6채널 전부를 압축한 파일의 비트 레이트는 384kbps정도입니다. 

5.1오디오신호를 MPEG-2로 압축한 파일도 하위호환성을 가지고 있기 때문에, MPEG-1의 복호화툴로 재생할 수 있습니다. 

다만, 그때에 재생되는 것은 스테레오정보(왼쪽과 오른쪽 채널)뿐입니다. 


그 외의 파일 포맷 

디지털 레코딩의 세계에는 대표적인 포맷만도 이상과 같이 갖가지 종류가 존재재합니다. 

물론 그들이 전부는 아닐것입니다. 

특정 컴퓨터 시스템 전용의 보존 포맷, 또는 특정 어플리케이션 전용의 보존 포맷 등, 천차만별의 포맷이 존재하겠지요. 

모두 그때의 상황에 따라 개발된 것으로, 예를 들면 Amiga IFF나 Sun/NeXt-ulaw(인터넷계에서는 아직도 사용되고 있는 데이터용으로 최적화된 포맷), Ircam.sf, Psion sound 등, 과거에 융성했던 것도 셀 수 없을 정도로 많습니다. 

또한 한편으로 미래를 내다본 새로운 포맷도 속속 등장하고 있으며, 그 수는 계속 늘어나고 있습니다. 

2. 전송 포맷 

전송 포맷이란 디지털 오디오 시스템 간의 리얼 타임 데이터 전송의 룰을 정하는 것으로, 보존 포맷과는 다른 것입니다. 

아날로그회로의 오디오신호는 전압이라는 형태를 취하고 있어, 전압을 증폭시켜 스피커로 보내면, 

신호가 인간의 귀에 들리는 음이 됩니다. 

아날로그 회로에는 많은 종류의 케이블이나 커넥터가 사용되고 있는데, 기본적으로 전류가 통과하면 작동하기 때문에, 

예를 들면 플러그의 모양이 소켓에 안 맞아도, 전기인두를 사용해 직접 플러그를 교환하거나 어댑터 케이블을 만들면, 비교적 간단히 문제를 해결할 수 있습니다. 

디지털 회로에도 갖가지 종류의 케이블이나 커넥터가 존재하는 것은 마찬가지지만, 

이쪽은 아날로그처럼 간단히 개조할 수는 없습니다. 

디지털 케이블로 전송되는 것은 오디오신호 그 자체가 아니라, 

오디오신호를 수치화한 오디오 데이터이기 때문입니다. 

그렇기 때문에 아날로그처럼, 험이나 케이블에 들어오는 간섭신호 등의 전기적 노이즈로 음질이 열화되지는 않습니다. 

실제로는 저품질의 커넥터를 사용하면 디지털 신호의 데이터 손실이 발생해, 귀로 인식할 수 있는 클릭음이나 드롭아웃의 발생으로 연결되는 경우도 있습니다. 

그러나 이것은 노이즈라고 부를 수 있는 것이 아니라, 접속불량에 의한 것입니다. 

데이터 전송은 소프트웨어쪽의 전송프로토콜(통신규약)에 따라 실행되고 있습니다. 

즉, 송신쪽과 수신쪽의 쌍방의 장치가 이 프로토콜을 인식할 수 없으면, 데이터의 전송은 이루어지지 않게됩니다. 

달리 말하면, 쌍방이 이해할 수 있는 프로토콜이라는 공통의 언어를 사용하지 않으면, 

데이터를 보내도 아무런 일도 일어나지 않는다는것입니다. 

디지털의 경우, 아무리 케이블이 물리적으로 접속되어있더라도, 쌍방의 장치가 이해할 수 있는 전송포맷이 사용되지 않았다면 데이터 전송을 할 수 없습니다. 

그런 경우가 발생했을 때에는, 한쪽 장치의 전송포맷을 다른 장치가 이해할 수 있는 전송포맷으로 변환하는 포맷 컨버터를 사용할 필요가 있을것입니다. 


* AES/EBU 포맷 

AES/EBU는 AES/EBU(음향공학협회/유럽방송연합)라는 동명의 표준화 조직에 의해 개발된 전송포맷입니다. 

특정 메이커의 것이 아니라는 점도 있어, 널리 일반에게 보급되어있습니다. 

특히 프로 오디오의 세계에서는 전송 포맷의 표준이 되고 있습니다. 

AES/EBU포맷에서는 최장 100미터까지의 케이블 1개로 2채널의 오디오 데이터(와 동시에 워드 클럭 정보)를 전송할 수 있습니다(사용할 수 있는 케이블은 XLR커넥터를 채용한 밸런스드 케이블). 

또한 샘플링 레이트를 자유롭게 설정할 수 있는데, 일반적으로는 32㎑, 44.1㎑, 48㎑가 사용되는 경우가 많으며, 

양자화 비트수는 최대 24비트까지 대응하고 있습니다. 

2채널 이상의 데이터를 전송하고 싶은 경우에는 여러 개의 케이블을 사용하면 됩니다. 


*S/PDIF 포맷 

S/P DIF는 SONY와 PHILIPS가 개발한 포맷으로 Sony/Philips Digital Interface Format의 약자입니다. 

AES/EBU와 비슷한 포맷이지만, 

커넥터에 RCA핀, 언밸런스드 케이블을 채용하는 등, 일반소비자에게 더욱 친숙한 포맷으로 되어있다는 점에 특징이 있습니다. 

또한 커넥터에는 RCA핀 뿐만 아니라 광학식의 Toslink를 사용하는 것도 가능합니다. 

참고로 카탈로그에 S/PDIF(코액셜)이라고 표시되어있는 경우는 RCA핀 접속이며, 

S/PDIF(옵티컬)라 표시되어있는 경우에는 Toslink커넥터 접속입니다. 

아주 드문 경우이지만 S/PDIF 케이블을 어댑터에 접속해서 AES/EBU의 케이블로 사용하는 경우도 있습니다. 

물론 이 특수한 방법은 100퍼센트 유효한 것은 아닙니다. 

비슷하긴 하지만, S/PDIF와 AES/EBU의 데이터 프로토콜에는 나름대로 차이가 있어, 완전한 호환성은 없기 때문입니다. 

S/PDIF는 1개의 케이블로 2채널의 오디오 데이터를 전송할 수 있으며, 사용할 수 있는 케이블의 길이는 최장 10미터까지 입니다. 

전송의 규격은 AES/EBU와 거의 같지만, 신호의 상태정보 등에는 차이가 있습니. 

예를 들면, S/PDIF에는 SCMS라는 카피 방지 시스템의 정보가 포함되어있습니다. 

SCMS란, DAT레코더 등의 디지털녹음장비 사이에서 디지털 카피를 할 때에, 하나의 오디오 데이터의 카피 횟수를 제한하는 것입니다. 


* SDIF-2 포맷 

SDIF-2(Sony Digital Interface Format)는 SONY가 개발한 포맷으로 주로 PCM-1610이나 PCM-1630 등, 이 회사의 CD마스터링 레코더에서 사용되고 있으며, 

이런 이유에서 1610포맷이라 불리는 경우도 있습니다. 

최근에는 PCM-1610이라는 모델 자체는 보기 힘들어졌지만, 포맷명으로는 여전히 건재하다고 볼 수 있습니다. 

데이터의 전송에는 3개의 BNC케이블이 사용되어, 

스테레오 각 채널의 오디오 정보에 1개씩, 워드 클럭 정보에 남은 1개를 사용하는 배분입니다. 

이론적으로는 어떤 샘플링 레이트에도 대응하지만, 실제로는 32㎑, 44.1㎑, 48㎑ 중 어느 한가지만 선택할 수 있다. 

최대 양자화 비트수는 20비트입니다. 


*ADI(ADAT)포맷 

ADI란 정식으로는 Alesis Digital Interface의 약자이지만, 일반적으로는 ADAT옵티컬이라고 불리는 경우가 습니다. 

그 이름대로 ALESIS가 이 회사의 레코더 사이의 멀티채널 데이터 전송 포맷으로 개발한 것이지만, 

그 후, 믹서, 오디오 인터페이스, 신디사이저 등, 각 메이커 제품을 포함한 갖가지 제품에 채용되어, 

단순한 ADAT레코더의 전송포맷의 틀을 뛰어넘어 급속히 보급되었습니다. 

현재, 가장 많이 보급되어있는 멀티채널전송 포맷이며, 

사실상 표준전송포맷이라 생각해도 될것입니다. 

ADI는 S/PDIF옵티컬에서도 사용되는 광학식 Toslink 케이블 하나로 8채널의 오디오정보를 전송합니다. 

샘플링 레이트는 48㎑(ADAT레코더와 같은 레이트)이지만, 다른 레이트로 변경하는 것이 가능해, 

일반적으로는 44.1㎑라는 CD규격에 맞춘 샘플링 레이트가 채용되는 경우가 많습니. 

최대 양자화 비트수는 24비트로, 워드 클럭정보는 오디오 데이터와 함께 송신됩니다. 

*TDIF 포맷 

TDIF(Tascam Digital Inter Face)는 ADI와 아주 비슷한 TASCAM의 전송포맷입니다. 

이 회사의 디지털MTR용의 포맷으로 개발되어, 그 후 오디오 인터페이스나 믹서에서 채용되었다는 배경도 ADAT인터페이스와 비슷합니다. 

다만, TDIF는 1개의 케이블로 8트랙의 채널정보를 쌍방향으로 전송합니다. 

즉 1개의 케이블로 데이터의 송수신이 가능한것입니다. 

또한 TDIF의 케이블로 채용되는 케이블은 컴퓨터의 세계에서 흔히 사용되는 D-Sub25라는 전기케이블의 일종으로 ADI처럼 광학 케이블이 아닙니다. 

*FireWire(IEEE1394) 포맷 

디지털 레코딩 관련기기 중에서는 다른 것보다 먼저 오디오 인터페이스인 MOTU 828이 채용했는데, 

디지털 비디오의 세계에서는 이미 채용되어 인기를 누리고 있으며, 

대응 비디오 카메라와 전용보드를 구입하면 카메라와 컴퓨터 간에 동영상 데이터를 주고 받을 수 있습니다. 

또한 현재 Macintosh에서는 FireWire보드는 표준장비인데다. 본디 FireWire는 원래 APPLE이 개발한 포맷이기 때문입니다. 

현재는 400Mbps의 전송레이트를 실현하고 있는 FireWire인데, 

케이블은 6개의 심선으로 구성되어, 4개가 데이터전송(2개 페어로 2쌍), 남은 2개가 주변장치로 전원공급을 담당합니다. 

권장 최대 케이블 길이는 4.5미터 이하이지만, 400Mbps의 전송레이트를 고집하지 않는다면 그 이상의 길이의 케이블을 사용해도 문제는 없습니다. 

FireWire는 그 장래가 유망한 전송포맷으로 볼 수 있습니다. 

SCSI와 맞먹는 고속 시리얼 인터페이스이기 때문에, 앞으로는 더욱 보급될 가능성이 높은편입니다. 

사용이 간편하고, 무조건으로 빠른 데이터 전송이 가능한 등, 오디오 데이터 전송 프로토콜의 통일을 계속 모색하고 있는 표준화 조직에게 있어 최고의 조건을 갖추고 있습니다. 

FireWire의 최대 메리트는 레코더, 컴퓨터, 하드 디스크, 비디오장치 등, 갖가지 디지털 장치를 같은 케이블로 접속할 수 있는 점에 있습니다. 

이점에 주목한 YAMAHA에서는 이미 FireWire에 대응하는 전자음악악기의 사양으로 mLan이 나와있습니다. 

이 사양은 미래지향이 아주 강하며, CD음질로 100채널분량의 오디오 데이터나 수백채널분량의 MIDI데이터를 전송할 수 있습니다. 

*USB 포맷 

USB(Universal Sirial Bus)는 INTEL이 기초부분을 개발하고, IBM, MICROSOFT, NEC 등에 의해 표준화된 오픈 포맷으로, 

개발에 관련된 메이커이름을 보면 알 수 있듯이 원래는 PC용의 규격이었지만, 

현재에는 Macintosh를 포함해 현재 모델 모두에 USB보드가 탑재되어있다고 해도 과언이 아닐 정도로 일반화 되어있습니다. 

USB의 특징은 데이터전송속도가 용도에 따라 몇 종류로 나뉘어져 있어, 키보드나 마우스의 접속에는 최고 1.5Mbps의 인터럽트 전송이, 

오디오 인터페이스 등의 대량이면서 리얼 타임성이 중요시되는 경우에는 규격 성능의 한계인 12Mbps에 의한 아이소크로너스 전송이, 

논 리얼 타임이라도 상관없지만 확실성이 높은 전송이 필요한 때(모뎀이나 프린터와의 접속 등)에는 12Mbps의 벌크 전송이 사용되고 있습니다. 

디지털 레코딩 관련기기에서는, MIDI인터페이스나 오디오 인터페이스와 컴퓨터와의 접속을 이 포맷으로 하는 제품이 다수 존재합니다.

또한 전송속도를 480Mbps까지 끌어올린 USB2.0포맷이 등장함으로써, 앞으로의 디지털 오디오 관련기기에 대한 전개가 흥미롭게 되었습니다. 

출처 : http://audioguy.co.kr/board/bbs/board.php?bo_table=c_audioguy&wr_id=203&sfl=&stx=&sst=wr_good&sod=desc&sop=and&page=1