Latencja i Sposoby Jej Minimalizowania

Poznaliśmy już większość terminologii w teorii cyfrowego dźwięku. W dzisiejszym artykule przyjrzymy się bliżej bardzo popularnemu zjawisku latencji i poznamy kilka sposobów na poradzenie sobie z nią podczas nagrań i w trakcie miksowania. Jest to nieodłączny element pracy z dźwiękiem w środowisku DAW i musimy być świadomi tego, w jaki sposób jej obecność wpływa na nasz komfort pracy oraz jak obejść generowane przez nią ograniczenia.

LATENCJA

Wspomniałem o niej krótko w pierwszej części tej serii, tutaj tylko „lekko” temat rozwinę.

Jak doskonale wiemy, sygnały elektryczne poruszają się z prędkością światła, ale mimo to, obserwujemy pewne opóźnienie pomiędzy tym, kiedy audio dostaje się do komputera, a tym, kiedy je opuszcza. Pisałem, że głównym winowajcą tego zjawiska są konwertery zamontowane w karcie muzycznej/interfejsie, ale chciałem tą informację uzupełnić o to, że dokładniej chodzi o proces, który zachodzi w ich buforze. A żeby być jeszcze bardziej precyzyjnym, to rozmiar tego bufora i częstotliwość próbkowania (im wyższa – tym mniejsza latencja), w której pracujemy, ostatecznie determinuje długość opóźnienia, które ma miejsce od momentu wygenerowania brzmienia (czy to przez szarpnięcie struny w gitarze, czy przez wymawianą lub wyśpiewywaną frazę, czy też przez naciśniecie pada lub innego klawisza w sterowniku MIDI) do momentu, aż usłyszymy dźwięk wydobywający się z monitorów lub słuchawek (co przedstawia obrazek na górze wpisu).

Czym dokładnie jest i jak działa bufor?

Bufor to nic innego, jak wydzielony obszar pamięci, który przechowuje grupami zdigitalizowane próbki audio w drodze DO komputera (podczas nagrywania) i z powrotem NA ZEWNĄTRZ komputera (podczas odtwarzania). Zasada jego działania jest dość prosta – każda wchodząca próbka sygnału jest odczytywana i zamieniana na postać cyfrową, po czym przekazywana do bufora za pomocą konwertera A/C. Kiedy bufor się napełni, program DAW pobiera zawartość bufora jedną serią i zapisuje ją na dysku. Jednocześnie, próbki audio już zapisane w sesji i te nowo zapisywane na dysku, trafiają ponownie do bufora, gdzie po jego wypełnieniu są pobierane „jednym rzutem” przez konwerter C/A, który następnie zamienia je z powrotem na sygnał elektryczny, dzięki czemu możemy słyszeć to, co nagrywamy i to, co wcześniej już zostało nagrane.

Jak widzicie, jest to proces kilkuetapowy, ale ponieważ działanie bufora jest bardzo szybkie, zazwyczaj nie odczuwamy tej złożoności podczas normalnej pracy. Jednakże to, na co akurat mamy tutaj wpływ, to rozmiar bufora (wyrażany w samplach). Ten może się zwykle rozciągać od 32 do 4096 sampli – w zależności od sprzętu, jaki używamy i napisanych do niego sterowników. Większość dostępnych kart czy interfejsów korzysta z protokołu ASIO, który zwykle daje nam możliwość ustawienia rozmiaru bufora między 64 a 2048 sampli, ale niektóre interfejsy potrzebują dedykowanych sterowników, które umożliwiają szerszą regulację tych wartości.

Nietrudno się więc domyślić, że im większy ustawimy rozmiar bufora, tym więcej próbek będzie musiało się w nim znaleźć, zanim zostaną pobrane przez konwerter, co oczywiście skutkuje wydłużonym czasem oczekiwania na odtworzenie dźwięku. Z tego właśnie względu, zaleca się stosowanie możliwie najniższych rozmiarów bufora podczas nagrywania. Próbek audio jest wtedy pobieranych mniej i są częściej przechwytywane przez konwertery, co oznacza niższą latencję. Problem jednak polega na tym, że wymusza to większe obciążenie na komputerze i jeśli rozmiar bufora będzie za mały, nasza maszyna może sobie z tym nie poradzić i poczęstuje nas wtedy tzw. dropami – czyli urywającym się, przeskakującym audio. Jest to znak, że należy lekko zwiększyć rozmiar bufora, aż sygnał przestanie się zacinać. Minus jest jednak taki, że zwiększanie bufora spowoduje wzrost latencji, dlatego musimy się starać znaleźć „złoty środek”, kompromis wśród dostępnych wartości.

Warto też zwrócić uwagę na fakt, że im bardziej sesja rozrasta nam się w ścieżki, tym trudniej komputerowi nadążać za wykonywaniem tych moco-żernych zadań i bywa tak, że z czasem trzeba zwiększyć bufor do nagrań w ramach tej samej sesji – szczególnie, jeśli mamy już pozapinane kilka wtyczek czy instrumentów wirtualnych. Dlatego kolejna moja rada jest taka, żebyście starali się najpierw wszystko nagrywać, a dopiero potem łapali się za plug-iny.

Metody radzenia sobie z latencją

Latencja jest nieunikniona, gdy pracujemy w domenie cyfrowej, nie ma siły. Ale są sposoby na to, aby nie uprzykrzała nam ona zbytnio życia. Mianowicie:

    • Monitoring Bezpośredni. Niektóre interfejsy są wyposażone w funkcję direct monitoring, albo aktywowaną przez wciśnięcie odpowiedniego guzika na panelu, albo wewnątrz dedykowanego do interfejsu panelu sterowania. Sygnał, który podajemy do interfejsu jest wtedy oczywiście kierowany do DAW w celu nagrania, ale jego kopia, tuż po przejściu przez etap wzmocnienia, zanim trafi do konwerterów, jest przesyłana od razu do słuchawek. Dzięki temu, słyszymy to, co nagrywamy właściwie z zerową latencją – bo jest to surowy sygnał, który wychodzi z interfejsu do słuchawek/głośników prosto po przedwzmacniaczu. Musimy tylko pamiętać, aby wyciszyć w DAW ścieżkę, na której ten sygnał nagrywamy, bo ta nałoży się na nasz odsłuch bezpośredni niwecząc założony cel. Minusem stosowania monitoringu bezpośredniego jest to, że jeśli na danym śladzie mamy zapiętą jakąś wtyczkę (lub ślad wysyła do kanału pomocniczego z wtyczką efektową, np. pogłosem), to nie będziemy oczywiście słyszeć efektów działania tej wtyczki.

Niektórzy śpiewacy lubią nagrywać swój wokal słysząc jakiś pogłos w słuchawkach. Niestety, direct monitoring nie pozwala nam na odsłuchiwanie nagrywanego śladu z efektem wtyczkowym (bo przecież do słuchawek trafia nam dźwięk bezpośrednio po preampie, czyli zanim dotrze do DAW, a ten, który już dotarł do DAW – jest wyciszony). Na szczęście producenci interfejsów wpadli na genialne rozwiązanie i w niektórych interfejsach zaczęto montować proste moduły DSP, które pozwalają nam dodawać efekty, które będą słyszalne podczas nagrywania z opcją odsłuchu bezpośredniego. I zazwyczaj będą to jakieś proste pogłosy czy delaye.

Problem natomiast staje się nieco większy, jeśli jesteśmy gitarzystami i chcielibyśmy nagrywać sygnał bezpośrednio kablem przez wejście instrumentalne w interfejsie i zapiąć na dany ślad symulator jakiegoś wzmacniacza. Nie dość, że direct monitoring uniemożliwia nam odsłuch sygnału po przejściu przez ten wzmacniacz, to jeszcze może negatywnie wpłynąć na artykulację grającego, bo zapewne każdy gitarzysta wie, że trzeba lekko dostosować technikę gry do tego, jak reaguje wzmacniacz (czy symulacja, w tym przypadku). A naprawdę mało inspirujące jest nagrywanie suchego brzmienia gitary…

A więc drodzy gitarzyści, jeśli nie mamy możliwości skorzystania z zewnętrznych symulatorów wzmacniaczy lub prawdziwych pieców, a chcemy słyszeć efekty naszego szarpania strun podczas nagrań, direct monitoring na nic się nam nie przyda. Dobra wiadomość jest jednak taka, że nawet przy wielkości bufora rzędu 128 czy 256 sampli (przy wymagających symulacjach) nadal możemy jako-tako nagrywać, bez wytrącającego z rytmu opóźnienia.

    • Wyłączenie wszystkich wtyczek podczas nagrań. Wspomniałem nieco wyżej, że na czas nagrania warto dezaktywować używane w sesji plug-iny, bo to pozwoli komputerowi przeznaczyć więcej mocy na nagrywanie z niższym rozmiarem bufora.
    • Zamrażanie” (freeze) lub zgrywanie śladów. Częściej spotykane już podczas miksu, żeby zaoszczędzić moc obliczeniową komputera, ale nikt nie powiedział, że nie możemy tego wykonać przed nagrywaniem kolejnych śladów. Jeśli chcemy przykładowo dodać kolejne ścieżki wokalu, ale zależy nam na tym, aby słyszeć pozostałe ślady z efektami lub konkretne brzmienia instrumentów wirtualnych, możemy dane ścieżki „zamrozić” z efektami lub po prostu nagrać je na nowe ślady audio razem z przypisanymi im efektami (nadrukować). To zwolni sporo zasobów komputera i podczas nagrań umożliwi używanie niższego bufora, a podczas miksu pozwoli na zapinanie kolejnych wtyczek. Musicie mieć bowiem na uwadze, że niektóre procesory (jak wtyczki usuwające szumy, pogłosy splotowe czy niektóre symulacje wzmacniaczy gitarowych) potrafią zabrać horrendalne ilości mocy obliczeniowej…
    • Praca w wyższej częstotliwości próbkowania. Mimo iż latencja się nieznacznie zmniejszy, musimy mieć świadomość ceny, jaką trzeba zapłacić za ten komfort, czyli większe rozmiary plików i więszke wymagania ze strony CPU. Choć w dzisiejszych czasach nie stanowi to większego problemu 🙂

Czy latencja przy miksowaniu stanowi problem?

W zasadzie nie. Nie nagrywamy już przecież nowych śladów, więc opóźnienia wynikające z samego odtwarzania wszystkich śladów nie mają już znaczenia – bo wszystkie są opóźnione. To, że po wciśnięciu Play, DAW zacznie odtwarzać materiał z 1/10 sekundy opóźnienia, nie stanowi przecież żadnego kłopotu.

Problem możemy za to napotkać wtedy, gdy na niektórych śladach zapniemy wymagające wtyczki, bo wtedy czas, jaki minie od przeprocesowania takiej ścieżki do jej odtworzenia, będzie dłuższy niż dla śladów bez wymagających pluginów. Na szczęście i na to wynaleziono sposób i proces ten nazywa się automatyczną kompensacją latencji lub opóźnienia. Jego działanie polega na tym, że identyfikuje, który ślad będzie najbardziej opóźniony (z uwagi na zapięte na nim plug-iny) i na tej podstawie opóźnia odtwarzanie pozostałych o takie wartości, aby wszystkie zostały odegrane dokładnie w tym samym czasie.

Obecnie chyba każdy już program DAW posiada taką funkcję, ale niektóre, starsze wersje stacji roboczych wymagały od użytkowników albo używania zewnętrznych plug-inów, albo przeliczania wartości opóźnienia i ręcznego przesuwania śladów – tak, aby wszystkie były ze sobą idealnie zsynchronizowane podczas odtwarzania. Warte zauważenia jest również to, że w większości DAW-ów, automatyczna kompensacja latencji działa również wtedy, gdy używamy do miksu zewnętrznych procesorów (outboard), jak korektory, kompresory lub pogłosy (czy to na insertach, czy jako wysyłki). O ile oczywiście DAW pozwala nam na stosowanie tego typu urządzeń.

Podsumowanie

Współcześnie tworzone interfejsy i pisane do nich sterowniki oraz komputery, dzięki coraz większej mocy obliczeniowej – są w stanie osiągać latencję rzędu kilku milisekund. W praktyce jest ona właściwie nieodczuwalna, a nawet, jeśli zetkniemy się z nią w sporych ilościach podczas miksu, to automatyczna kompensacja opóźnienia pozwala nam zapomnieć o jej istnieniu i możemy skupić się na esencji produkcji, czyli samej muzyce, a nie elementach nas rozpraszających. Warto więc zastosować się do tych kilku prostych porad i wyeliminować te małe chochliki próbujące nam za wszelką cenę zepsuć dobrą zabawę 😉

Zostawić komentarz ?

49 Komentarze.

  1. A jak wszystko zawiedzie zmieniamy kompa na szybszą maszynę lub na lepszy interfejs 🙂

    • Mniej więcej 🙂

    • wojciech.kuk

      Prędkość kompa nic nie zmieni – no chyba, że nie wyrabia przy liczeniu skomplikowanych efektów 🙂

      wspomnę pewną ciekawostkę:

      Dawne karty SoundBlaster można było programować tak, że dawało się zczytać (lub wysłać na przetwornik) dokładnie JEDEN SAMPEL. Oczywiście od zawsze istniała też “docelowa” możliwość buforowania danych w pamięci (szło to kanałami DMA, a karta wysyłała do programu 2x przerwanie IRQ – gdy osiągała połowę bufora, oraz jego koniec – co było sygnałem dla oprogramowania, że można czytać/pisać w pamięci – pierwszą, lub drugą połówkę bufora).

      Miałem taki kombajn do efektów:
      – pecet (386 dx 🙂 )
      – dwa soundblastery (jeden jako A/D drugi jako D/A)
      – własne skrypty – czytające/zapisujące po jednym samplu
      dało się zrobić prawie wszystko… “prawie”, ponieważ niektóre efekty (np. pitch shifter) po prostu potrzebują pewnej porcji danych, aby cokolwiek sensownie obliczyć – wtedy latencja jest nieunikniona…

      dopiero, gdy weszły na dobre Windowsy, producenci kart muzycznych z rodziny SoundBlaster przestali dawać tą możliwość bezpośredniego czytania, umożliwiając dostęp jedynie poprzez bufor.

  2. remaztered

    Co ogranicza wielkosc bufora ? Czemu nie mozna ustawic np 8192 ?

    • Zgodnie z tym, co jest w tekście – sprzęt audio i sterowniki. Czasem też możliwości samego komputera i ograniczenia DAW (np. w PT możesz mieć szerszy wachlarz opcji, gdyu używasz dedykowanego interfejsu od Avid).

  3. Witam
    Pytanko troche z innej beczki..czy spotkał sie ktoś z Was z tym, by przy instalacji nowo zakupinego programu -numer seryjny- widniał jako juz zarejestrowany? Zakupiłem niedawno Stylus RMX firmy spectrasonis i po próbie instlacji i wpisaniu “serial number” pojawiła sie informacja “this serial you entered has already been registred”. Oczywiście niezwołcznie zgłosiłem to do punktu w którym zamówiłem ten program jak i do głównego dysrtybutora spectrasonicsa na Polskę. Jednak cały czas się to rozstrzyga więc na razie nic nie wiem…stad jednak moje pytanie- czy taka sytłacja miała u kogoś miejsce i jak została sfinalizowana. Opakowanie programu było nienaruszone, zabezpieczenia typowe dla spectrasonics nietknięte (mam juz od jakiegos czasu Omnisphere- więc zasada bezpieczeństwa ta sama) Co może być tego przyczyną…..

    • Prawdopodobnie jakiś błąd u którejś ze stron na dordze producent-dystrybutor. Poczekaj cierpliwie 🙂

  4. Wszystko się zgadza, szkoda, że nie poruszyłeś, dla porządku, kwestii korzystania z zewnętrznego miksera, ale to już chyba pieśń przeszłośći. 🙂

    • Jeśli mówisz o zewnętrznym mikserze, który podłączasz do karty zintegrowanej, to latencja będzie większa, bo karty w komputerze nie są zbyt dobrze przystosowane do pracy z dźwiękiem. Jeśli mówisz o mikserach z wbudowanym interfejsem USB, to obowiązują te same zasady, co przy pracy z interfejsem audio.

  5. Pytanie odnośnie “latencji”, ale trochę innej. Załóżmy,ze nagrywamy wokal, a że mamy ciekawe pomieszczenie, to chcemy dostawić dodatkowy mikrofon ambientowy. Czy w takim wypadku musimy jakoś skompensować opóźnienie dotarcia wokalu do tego drugiego mikrofonu i wyrównać sygnał do sygnału w głównym mikrofonie, czy zostawiamy te opuźnienie w spokoju? Jeśli wyrównujemy, to skąd dokładnie mam wiedzieć o ile milisekund?

    • Jeśli są to niewielkie odległości (kilka m), to nie trzeba nic wyrównywać. Poza tym, jednym z czynników, który decyduje o tym, że słuchacz odbiera sygnał, jako ambientowy, jest właśnie to opóźnienie. Jeśli bardzo chcesz wyrównać, to zrób to wizualnie, patrząc na wykresy fal, żeby się pokrywały i wtedy sobie porównaj, jak się to różni od tego nieprzesuniętego. Ale stawiam, że ciekawiej będzie brzmiało bez wyrównywania.

    • Wylicza się to ze wzoru. Musiał byś poszukać w Lekturach z dziedziny realizacji dźwięku.

    • Wojciech Kuk

      czasami nie tylko nie warto wyrównywać tych sygnałów w czasie, ale nawet wręcz trochę opóźnić ten dodatkowy.

  6. Sebastian

    Siema mam takie pytanie odbiegajace od temat robię rap i w jakiej jakośći i formacie wrzucać na yt żeby nie psuło jakośći i była najlepsza jakość.Pozdrówki

    • W najlepszej, jakiej możesz. YT i tak kompresuje dane, więc trochę stracisz siłą rzeczy.

  7. Rzecz jasna mówię o mikserze i wykorzystaniu podgrup.

  8. A ja radzę sobie z latencją tak: Przed nagraniem wokalu zgrywam całą muzykę do jednego pliku Wave i wokal nagrywam na nowym projekcie w którym jest tylko ten jeden wave z całą muzyką.Potem ten wokal po wstępnym oczyszczeniu i podstrojeniu, jeśli potrzeba, wstawiam do pierwotnego projektu. Daje to po pierwsze porządek wizualny (jest tylko jeden ślad z muzyką- a reszta to wokale) no i oszczędzam dużo mocy kompa na wszelkiego rodzaju wtyczki strojące wokal.

  9. Witam. A jak zminimalizować latencję przy synchronizacji MIDI? Mam taki problem, otóż po zsynchronizowaniu MPC z DAW’em za pomocą MTC, w tym przypadku REAPER, mam 1,5 sekundową latencję po wciśnięciu play na MPC. Nie wiem do końca jak to zminimalizować. I czy w ogóle da się jakoś to zrobić?
    Używam wejścia midi w karcie Juli@. Korzystam z interface’u firewire w mikserze MAckie onyx 1620 do odtwarzania dźwięku podczas sesji. Z góry dzięki za wskazówki.

    • To o czym mówisz, to jest bardziej problem synchronizacji, a nie latencji i na obejście tego akurat nie znam sposobu. Druga rzecz, to opóźnienia, które u Ciebie występują mogą mieć związek z tym, że używasz dwóch różnych kart (Julia i Mackie). Próbowałeś podłączyć MPC przez USB, żeby pominąć Julię?

    • niestety nie mam żadnego interface’u midi USB. Ale jak uda mi się zdobyć takowy, to podzielę się wnioskami.

    • A Twoje MPC nie ma portu USB?

  10. kolega_z_pracy

    A co z taktowaniem przetwornika? Próbkowanie 48kHz znacznie zmniejsza latencję.

    • Latencja się nieznacznie zmniejsza przy większych częstotliwościach próbkowania.

  11. AdThinZad

    Nagrywam gitary po zbójnickiemu. Na dwie ścieżyny. W jedną podpinam jakiegoś niewymagającego amp’a (żeby, circa, mieć rozeznanie jak to ma brmieć) a na drugą (ścieżynę…) suchy sygnał. Ale później jak mu wepnę… tooo… :p

  12. I dodam, że oprócz problemów z mocą komputera występują też inne o jakich mało się mówi.
    1. Sterowniki kart graficznych – zwłaszcza NVIDII – procesy tych sterowników są najczęstszym problemem latencji – zwłaszcza w laptopach (niestety).
    Rada: wyłączyć sterowniki karty graficznej.
    2. nieprecyzyjnie napisane/opracowane sterowniki producenta interfejsu audio – np., Presonus z Audioboxem na czele. Choć setki klientów im o tym mówi, oni twierdzą, że sterowniki są ok a nasze komputery/systemy złe…
    3. Czasami ogromne kłopoty z latencją wynikają z powodu podłączonych urządzeń pod usb. Zwłaszcza gdy nasz interfejs audio korzysta z jednego z takich połączeń z komputerem. Niekiedy wymogiem jest ponowna REINSTALACJA systemu.

    Na koniec – przetestujcie swój komputer programem Latency monitor (optimizer czy DPC Latency).

    Pozdrawiam

  13. Witam serdecznie,

    Pierwszy raz się tutaj udzielam, więc przede wszystkim dziękuję Panie Igorze, że zainteresował się Pan takimi osobami jak ja i za to w jak przystępny sposób o wszystkim Pan pisze 🙂

    Korzystam z Reapera i interfejsu Alesis I/O2.

    Mam dosyć dziwny problem. Czasami gdy odtwarzam sesję to słychać te tak zwane dropy (do tej pory nie miałem pojęcia o co chodzi – dziękuję za wyjaśnienie). Kiedy chcę się ich pozbyć wystarczy, że otworzę okno ASIO Configuration i je wyłączę bez zmiany bufora i już odtwarza normalnie.

    Rozumie to ktokolwiek ?

    I jeszcze: W oknie ASIO Configuration oprócz bufora istnieje opcja ‘Latency Compensation’ gdzie ustawiam bufor dla IN i dla OUT.

    Czym się różni od ogólnego bufora i jakie powiązania istnieją między nimi ?

    Kiedy właściwie powinienem użyć tych suwaków ?

    Czekam cierpliwie na odpowiedź 🙂

    • Sytuacja z buforem może być kwestią sterowników. Korzystasz z tych Alesisa czy ASIO4ALL?
      Co do ustawień latencji, to masz je po prostu rozbite na etap wejścia (In) i wyjścia (Out). Suma tych opóźnień to Twoja latencja. Zazwyczaj jednak podaje się jedną, ogólną wartość będącą sumą tych dwóch wartości.

    • Korzystam z ASIO4ALL.

      Czyli jeżeli ustawię IN = x, OUT = y i ogólny bufor = z to łącznie bufor w programie wynosi x + y + z ?

      No bo mam trzy osobne suwaki.

    • Nie używam tych sterowników, więc Ci dokładnie nie powiem. Ale zmieniając bufor powinny Ci się same uaktualniać wartości latencji, bo są ze sobą ściśle połączone.

    • Teraz spojrzałem na instrukcję od A4A i na moje oko te wartości dla In i Out nie dotyczą bufora, a konpensacji za latencję – a to dwie różne rzeczy 🙂 Więc tak, jak mówiłem – bufor sobie ustaw w miarę nisko do nagrywania (ale nie za nisko, żebyś nie miał dropów).

    • Ok, dziękuję 🙂

    • Ja używałem sterów od Line 6 i miałem wyższą latencję niż na A4A. Teraz na tych drugich ustawiłem sumaryczną latencję na niecałe 4ms. Poniżej już nie bardzo się daje bo pojawiają się dropy, ale nie wiem czy nawet jej ciut nie podwyższyć na wszelki wypadek bo tych 2-3 ms więcej i tak się nie usłyszy (1ms to czas w którym dźwięk pokonuje drogę 34 cm więc większy wpływ na “latencję” ma to czy się pochylimy nad biurkiem czy oprzemy na krześle) a komputer mniej się zmęczy

    • Różnica w latencji rzędu 1 czy 2 ms to bardzo niewiele i nie wiem czy ktoś byłby w stanie to poczuć. Na Twoim miejscu bym po prostu poeksperymentował i zobaczył co się najlepiej sprawdzi.

  14. Cześć !

    Mam problem z klawiaturą sterującą USB. A mianowicie jest to Miditech i2-61 i mam strasznie wysoką latencję. Dodatkowo używam interfacu Focusrite Scarllet 2i2, a komputer ma procka i5, 2,5ghz, 4gb ramu. Latencja na Cubase 5 na Inpucie jest ok. 300 ms, a na outpucie ok. 40 ms. Co dziwne na laptopie dużo słabszym mam dokładnie tak samo. Co mogę zrobić, aby obniżyć tą latencje ? “Grzebałem” już w ustawieniach karty dźwiękowej, Cubasa i nic. Oczywiście wszystkie dodatkowe programy mam wyłączone.

  15. Hej,

    mam pytanie o bezpośredni monitoring. Mam sesję w określonym tempie. Podczas nagrywania pierwszego śladu nie ma problemu. Odpalam metronom i muzyk nagrywa swoją ścieżkę. Problem pojawia się gdy już do tej ścieżki dogrywam kolejne ponieważ każda kolejna jest już opóźniona względem poprzedniej o latencję wejścia.

    Pytanie zatem jest takie czy istnieje lepszy sposób synchronizacji ścieżek niż obcinanie każdej o latencję wejścia?

    • A każda kolejna jest opóźniana względem kolejnej tylko podczas nagrywania czy też podczas odsłuchu po nagraniu? Nie do końca rozumiem, co masz na myśli mówiąc o “obcinaniu ścieżki o latencję wejścia”… Spróbuj włączyć lub wyłączyć kompensację latencji w swoim DAW i zobacz, czy coś się zmieniło.

  16. Problem jest prosty. Nagrywam loopy w Live, odpalam metronom i rejestruje jedną ścieżkę. Po odsłuchaniu okazuje się, że ścieżka nie zgrywa się z metronomem, a ścieżka jest przesunięta względem metronomu o czas latencji na wejściu. Zatem edytuję ścieżkę, ucinam z niej na początku kawałek audio o długości mojej latencji wejścia. Zapisuję ścieżkę i ładuję znowu do DAW. Teraz ścieżka odgrywana jest równo z metronomem.

    Cały proces nie jest skomplikowany, aczkolwiek uciążliwy przy większej ilości takich nagrań. Stąd pytanie czy istnieje prostszy sposób?

  17. No właśnie i tu jest problem, bo nie pomaga. Kondensacja ma znaczenie podczas gdy na ścieżkach znajdują się dodatkowe efekty ale podczas nagrania zarejestrowana ścieżka jest fizycznie opóźniona o latencję wejścia.

    • W niektórych przypadkach kompensacja (a nie “kondensacja”) jest również odpowiedzialna za odpowiednie przesunięcie nagranego śladu automatycznie po zatrzymaniu nagrywania – tak, żeby nadrobić za opóźnienia na wejściu.

  18. Sebastian

    Witam

    W jaki sposob mozna grać pod nagraną uprzednio sciezke bez wyciszania jej w cubase 5?
    Dziekuję za odpowiedź

    • Zwyczajnie utworzyć nową ścieżkę, uzbroić do nagrywania i zacząć nagrywać ? Jeśli nie masz MUTE na innych ścieżkach to normalnie powinny grać w trakcie nagrywania kolejnej.

  19. fajny artykuł jak zawsze 🙂
    szukam info jakie wtyczki są w Pro Tools np wersji 9 albo cała seria VST lub RTAS które niwelują latencję przy wpiętym hardware 😉 ?

    • Zniwelować latencji to się raczej nie da. Sam PT ma po prostu wbudowaną kompensację latencji, która opóźnia pozostałe ścieżki w stosunku do tej, na której zapięta jest jakaś procesożerna wtyka lub harwdare. A z zewnętrznych pluginów jest ATA od Mellowmuse.

  20. Ja korzystam z ASIO4ALL i na moim kompie dopiero przy 256 samplach jest OK. Przy niższych słychać taki mały systematyczny ‘pierd’ i podkład w DAWie nie chce się normalnie odtworzyć bo cofa go po sekundzie na start 😉

  21. Dimatheus

    Hej,

    No i dzięki kolejnemu artykułowi, kolejne nieścisłości w mojej głowie zostały rozwiane. Wielkie dzięki! 🙂

    Pozdrawiam,
    Dimatheus

Zostaw komentarz