사용자 도구

사이트 도구


사이드바


Waves 플러그인 구매 10% 할인
홈레코딩 필독서 "모두의 홈레코딩" 구매 링크
모두의 홈레코딩 책 구매


커뮤니티

카테고리




리버사이드 재즈 스튜디오


태그 클라우드

Online

현재 11 명이 보는 중



음향:digital:latency

레이턴시

Latency : 시간 지연

디지털 세상에서는 아날로그의 소리를 디지털로 바꾸거나, 디지털를 아날로그로 변환할 때 시간이 걸리고, 사운드를 처리하는 데에 모두 시간이 걸린다. 그 시간을 레이턴시라고 한다.1)

Roundtrip Latency

우리가 소리를 듣는 데에는 위 그림처럼, A/D(analog to digital converting) 과정에서 걸리는 시간, 하드웨어적으로 그 변환된 디지털 신호를 CPU에서 계산할 수 있도록 메인 메모리에 기록하는데 드는 시간 (Bus input buffer latency) , ASIO 에서 소리를 처리하는데 걸리는 시간(ASIO input latency)을 거쳐서 다시 ASIO에서 소리를 내보내고 (ASIO Output Latency) , 그 계산 처리 결과물을 메모리에서 기기로 다시 이동시키고(bus Output Buffer Latency), 그 디지털 신호를 다시 아날로그 신호로 출력하는 D/A(Digital to Analog Converting)의 시간이 걸린다.

우리가 DAW오디오 인터페이스 설정 등에서 볼 수 있는 Input, Ouput Latency는 이러한 Bus LatencyASIO Latency값만을 합산해서 보여준다.그리고 이러한 Input/Output 레이턴시의 총합을 Roundtrip Latency라고 한다. 2) 여기에 A/D, D/A 과정에 따른 레이턴시까지 합산한 값은, 실질적으로 측정 프로그램으로 측정해야 하며 Realworld Latency라고 한다.

만약, PCI 방식이나 , PCIe 방식, Thunderbolt , Ethernet 또는, 일부 USB 방식 등에서 DMA (Direct Memory Access) 가 지원되는 방식으로 CPU와 메모리에 직접적으로 디지털 신호를 보내고 받을 수 있는 오디오 인터페이스라면, Bus Input, Output Latency 는 없거나 매우 짧은 시간이다.3) 이러한 DMA 기능을 가진 오디오 인터페이스를 비동기식(Asynchronous)라고 부르기도 한다. DAWASIO 데이터를 CPU 처리하는 동일한 시간에 작동하지 않고, 입출력에 입력되고, 나가는 오디오 데이터를 메모리에 미리미리 전달하여 처리하기 때문이다.

PCIE 방식이나, 썬더볼트의 경우 태생이 PCIe 방식에서 왔기 때문에, 이러한 비동기식, DMA 동작을 네이티브로 수행할 수 있는 경우가 많고4), USB 의 경우는 오디오 인터페이스 자체에 DMA 를 처리해주는 전용 칩셋이 들어가 있으면 DMA 동작을 수행할 수 있다.5) 이더넷의 경우에는 이더넷 오디오 프로토콜을 연결하는 인터페이스 카드에서 DMA 지원 여부가 결정된다.


단테 전용 칩으로 DMA 동작을 수행하기 때문에 엄청나게 낮은 레이턴시를 보장하는 Dante accel card

대역폭과 레이턴시

많은 사람들이 썬더볼트 같은 대역폭이 높은 연결 방식 당연히 레이턴시가 짧을 것이라고 생각하는 경우가 많다. 하지만 대역폭은 어디까지나 대역폭일 뿐이고 오디오 처리 속도와는 관련이 없다.

UA apollo 썬더볼트 레이턴시
48kHz 128sample
Scarlett 2i2 USB 레이턴시
48kHz 128samples

8차선 도로를 달리는 최고 속도 100km/h 차와, 2차선 도로를 달리는 최고 속도 100km/h 의 차를 생각하면 된다. 대역폭은 도로의 차선에 해당하고, 레이턴시는 최고 속도에 해당한다. 여전히 속도는 100km/h로 동일할 뿐이다.


Near zero latency

거의 0ms 에 가까운 레이턴시

보통 2ms 이하를 말한다.

보통 오디오 인터페이스DSP Mixer 에서 많이 사용하는 용어로, DSP Mixer 는 완벽한 0ms 로 동작하지 않기 때문에 Zero latency 라는 말보단 Near zero latency 라는 말을 사용한다. DSP칩을 무엇을 쓰느냐에 따라 달라질 수 있고, DSP mixer 소프트웨어에 따라서도 달리질 수 있으나 보통 2ms 이내로 동작하도록 만든다.

가상악기의 레이턴시와 실제 오디오 녹음 시의 레이턴시

우리가 VSTi 등의 가상악기를 연주할 경우, MIDI 입력에 따르는 대기시간은 없거나 거의 없다. 또한, 오디오 입력 레이턴시에 대한 부분은 관계가 없다. 이 과정에서는 ASIO Output Latency ,D/A 레이턴시만이 악기의 소리 출력에 관여하기 때문에, MIDI 시퀀싱이나 VSTi 연주 등에서는 ASIO Ouput Latency 만 고려하면 된다. 대부분 악기 연주 시에 레이턴시는 크게 문제 없는 수준이 대부분이다.

(하지만 실제 목소리나, 기타 , 베이스 등의 악기를 오디오 입력으로 받아서 , DAW 가 처리하여 오디오 아웃으로 소리를 출력하는 경우에는, ASIO Input/Ouput, A/D, D/A 레이턴시 등이 모두 고려되야 한다.)

실제 피아노의 경우에도 건반을 끝까지 누르고 나서 해머가 현을 때릴 때 까지의 약 15ms 정도의 레이턴시가 있다.6) 아마도 어느 정도 존재하는 ASIO output latency 는 이와 비슷할 것이다.

ASIO Buffer 만을 고려한 이론적인 레이턴시

ASIO 처리가 실시간7)으로 이루어지고, 칩셋에 의한 아무런 추가 레이턴시가 없는 이상적인 오디오 인터페이스라고 가정 했을 때,

레이턴시

44.1kHz 512samples 일 때, 512samples/ 44.1kHz = 약 11ms .
이고, Input/ Ouput 동시에 고려하면 ASIO 레이턴시만으로 총합 22ms 가 나오게 된다.

따라서, 이것은 상당한 지연시간(레이턴시)를 발생시키고, 실제로 연주를 DAW소프트웨어 모니터링하여 녹음하는 데에는 문제가 크다.

96kHz, 512samples =512/96 = 5.3ms
96kHz, 128samples =128/96 = 1.3ms8)

위의 계산에서 보면 ASIO Latency 말고 추가로 레이턴시가 존재하지 않는 이상적인 오디오 인터페이스의 경우라도 128Samples 96kHz에서 최소한 Roundtrip Latency9) 가 2.6ms 가 됨을 알 수 있다.

보통 디지털 믹서DSP 믹서들에서 Near zero latency 라고 할때 레이턴시를 2.0ms 이하로 만들기 때문에, 2.6ms 정도면 실시간으로 오디오를 소프트웨어 모니터링으로 들으면서 사용하는 데는 무리는 없을 것 같다. 하지만, 이 이상의 레이턴시라면, 아마도 민감한 연주자나 보컬은 소리가 살짝 늦게 나오는 것 같다며 불평 할 수 있다. 보통 인/아웃 전체 레이턴시가 5ms 정도 이상이 되면 불편하게 된다. 10)

실제 연주와 레이턴시의 관계

음악은 생각보다 정밀하다.
탬포 180을 예시로 든다면 1분에 4분음표가 180개 즉 1초에 4분음표가 3개 4분음표 1개= 0.3 초

따라서

16분음표 1개= 0.07초 = 70ms
그래서 7ms 의 레이턴시만 있어도 연주자에게는 10% 의 오차이다.
14ms의 경우에는 20%의 오차
20ms의 경우에는 30%의 오차 이것은 연주에 심각한 문제를 가져올 수 있는 수치이다.
DAW를 통한 소프트웨어 모니터링의 문제점은 바로 여기에 있다고 볼 수 있다.

사람이 인식할 수 있는 레이턴시 한계는 15ms?다?

립 씽크

보통 인터넷 등지에서 15ms, 20ms 에 대한 이야기가 많이 돌고 있는데, 이것은 화면의 프레임을 60fps 로 계산 할 때, 1 초를 60으로 나누면 1000/60 = 16.6ms(50fps 의 경우는 20ms)를 기반으로 하는 이야기 이다. 컴퓨터 게임이나 모니터 화면의 주사율이 60fps 이기 때문에, 게임을 구동하거나 마우스 커서 등은 16.6ms 안쪽에서 연산이 마무리 되면 화면에는 60fps 의 프레임에 맞춰 표현하는데 아무런 문제가 없기 때문에 하는 이야기 이다.

오디오에서는 절대 적용되지 않는 이야기 이다.
오디오에서는 16.6ms 만 되도 소리가 늦게 나오거나 소리가 많이 이상함을 당연하게도 느낄 수 있다.

소프트웨어 모니터링 VS 하드웨어 모니터링

소프트웨어 모니터링

DAW 등을 통해 ASIO Buffer 를 사용하며 소프트웨어 모니터링하는 경우는 ,DAW믹서 시스템을 이용할 수 있고, 플러그인 이팩터 등을 적용한 소리로 들리는 장점이 있으나,
위의 항목들처럼 Buffer를 작게 설정해도 2ms 이하의 레이턴시는 기대하기 힘들다. 물론 컴퓨터 성능이 더 발전하여 더 작은 Buffer 에서도 안정적으로 동작할 수 있게 되면, 가능해 질 수 있지만, 플러그인이나 악기를 사용하게 되면 작은 Buffer에서는 사용할 수 있는 플러그인이나 악기의 갯수에 제한을 받게 되므로,11) Buffer를 점점 늘려서 사용하게 되고, 그러다 보면 Roundtrip Latency는 점점 늘어가게 된다.12) 따라서 소프트웨어 모니터링을 통한 Near zero latency의 실현은 현실적으로는 아직은 매우 힘들다고 볼 수 있다.

하드웨어 모니터링

콘솔 모니터링, 다이렉트 모니터링

그에 비해 아예 아날로그 믹서 를 통해서 모니터링하고 녹음오디오 인터페이스로 한다던지, 오디오 인터페이스의 자체 Direct monitoring 기능이나, 자체 내장된 DSP mixer를 이용한, 모니터링의 경우는 어떠한 경우에도 실시간(Zero Latency 또는 Near zero latency) 를 보장하기 때문에, 연주 녹음이나 보컬 녹음을 하는 경우에 가급적 소프트웨어 모니터링은 끄고 이러한 하드웨어 모니터링을 하는 것이, 녹음 퀄리티 향상에 도움이 된다.13)

다만 하드웨어 모니터링은 오디오 인터페이스에서 자체적으로 들어오는 오디오 신호를 바로 모니터링으로 보내주는 것 이므로, DAW에서 사용되는 믹서나, 플러그인 등과는 상관 없이 원래의 오디오 인터페이스에서 처리된 소리로만 들리게 된다. 14)

가급적, 녹음 시에는 소프트웨어 모니터링은 보다는, 다이렉트 모니터링, 또는 콘솔 모니터링을 사용하는 것을 추천한다.

retronica 2019/09/19 07:21

1)
쉽게 말해서 소리가 지연된다.
2)
A/D D/A 에 따른 레이턴시는 합산 되지 않는다.
3)
특정 오디오 인터페이스들이 아주 짧은 레이턴시가 가능한 이유, 또한 저가형 USB 오디오인터페이스들이 긴 레이턴시를 가지는 이유이기도 하다. DMA를 가능하게 하는 별도의 Chipset 이나 기능이 없기 때문.
4)
따라서 대부분의 PCIe, 썬더볼트 방식들은 매우 낮은 레이턴시를 보여준다.
5)
USB 방식에도 불구하고 매우 낮은 레이턴시를 보여주는 제품들이 있다.
6)
다만 피아노 제조사들도 이 레이턴시를 더 줄이기 위해 해머 액션을 계속 발전시켜왔다.
7)
플러그인이나 DSP 계산이 아무런 레이턴시를 추가 하지 않는 경우
8)
Input, 또는 Ouput 한 경로에서만
9)
Input + Output Latency
10)
실제로 민감한 연주자나 보컬은 불평한다.
11)
버퍼가 작을수록 CPU부하가 커진다.
12)
어떤 플러그인들은 자체적으로 처리 시간이 있어서 레이턴시를 더 추가 하기도 한다.
13)
DAW 에서 모니터링을 켜고, 하드웨어 모니터링도 같이 하면 소리가 겹쳐 들리게 된다.
14)
오디오 인터페이스DSP 믹서의 자체적인 이팩터플러그인이 있으면 이것은 작동한다. 그래서 오디오 인터페이스의 자체 DSP mixer에 추가로 컴프레서이퀄라이저가 있거나 전용 플러그인을 걸 수 있는 제품들이 선호되기도 한다.




음향/digital/latency.txt · 마지막으로 수정됨: 2022/12/26 저자 정승환