Jak Zostać Lepszym Realizatorem Dźwięku – Dzień 15 (Edycja)

Wczoraj rozmawialiśmy o ręcznym ustawianiu śladów względem siatki (a właściwie ustawianiem śladów w kieszeni), a dzisiaj poznamy kilka technik, które pozwolą nam przyspieszyć trochę ten proces. Kluczem do ich używania jest dobre poznanie możliwości swojej stacji roboczej, bo każda z nich będzie miała te narzędzia lekko inne, będą one nosiły inne nazwy i prawdopodobnie będą też nieznacznie różniły się funkcjonalnością.

Dzień 15 – Poznaj narzędzia edycji w swoim DAW.

Jeżeli ktoś jeszcze nie zauważył, na co dzień pracuję w Pro Tools i z tego względu opiszę działanie konkretnych narzędzi w tej właśnie stacji. Ci z Was, którzy używają innych programów, nie powinni się oczywiście martwić, bo bardziej skupię się na ogólnej koncepcji używania tych narzędzi niż na konkretnych nazwach. Sprawdzenie dostępności i funkcjonalności narzędzi edycji w Waszych stacjach roboczych należy rzecz jasna do obowiązków ich właścicieli – zróbcie więc to koniecznie, podziękujecie mi kiedy indziej.

Dwie koncepcje „przesuwania” audio.

Niezależnie od programu, jego wersji, czy czegokolwiek innego, edycji timingu audio zawsze możemy dokonywać na dwa sposoby – poprzez przesuwanie fragmentów na linii czasu i „zalepianie” powstałych dziur lub poprzez rozciąganie i zacieśnianie (kompresowanie – nie mylić z typową kompresją). Zwykle najlepiej sprawdza się kombinacja tych dwóch koncepcji w zależności od sytuacji – to miałem na myśli pisząc wczoraj o ręcznym pocketingu. Spójrzmy bliżej na te dwie koncepcje i poznajmy narzędzia Pro Tools, które nam w tym pomogą:

    • Beat Detective – świetne narzędzie, które z niewielką pomocą z naszej strony wykonuje serię skomplikowanych procesów. W wielkim skrócie, Beat Detective analizuje ścieżkę (wykrywa transjenty), tnie ją na setki malutkich regionów/klipów (każde uderzenie staje się oddzielnym fragmentem), dostawia te klipy do siatki, zalepia powstałe dziury korzystając z audio pozostałego po lewej lub prawej stronie od miejsca ucięcia i kompleksowo wygładza audio, czyli robi fade’y wszędzie tam, gdzie potrzeba. Wszystko to odbywa się w ciągu kilkunastu sekund. Na niemal identycznej zasadzie będą działały tego typu narzędzia w innych DAW-ach. Zróbcie sobie przysługę i doczytajcie w instrukcji, czym dysponuje Wasz program. Tu tylko dodam, że wielką zaletą BD jest możliwość pracy w trybie ‘multitrack’, co jest mega-przydatne podczas równania bębnów, które oczywiście trzeba traktować, jak jeden instrument, nawet jeśli nagrane były na 14 śladów. Beat Detective jest niewątpliwie wielkim ułatwieniem, ale nie zawsze działa według naszych planów, często trzeba mu trochę dopomóc w analizie, dołożyć lub odebrać kilka punktów wykrywających transjenty, sprawdzać, czy nie namieszał podczas zaklejania dziur (nakładanie się dwóch transjentów w sąsiadujących klipach), etc. Niemniej jednak, pozwala on na zautomatyzowanie do pewnego stopnia mozolnych działań i nie wpływa jakoś drastycznie na jakość audio (o ile wykona swoje zadanie, jak należy).
    • Elastic Audio – wtyczka, która jest jeszcze prostsza w użyciu, dokładniejsza w analizie, ale niestety ma ona nieco destrukcyjny charakter. Nie każdy jej algorytm brzmi naturalnie, szczególnie jeśli dość mocno musimy na nasze audio wpłynąć. Ale po kolei, Elastic Audio nie tnie ścieżek na fragmenty, nie zostawia za sobą setek malutkich klipów jak BD, proces jest bardzo szybki i „czysty”. W momencie, gdy odpalimy wtyczkę EA na danym śladzie (mamy do wyboru 4 różne algorytmy), audio zostanie poddane analizie i wtedy wchodzimy my. Możemy albo je kwantyzować (z dowolnym natężeniem) albo możemy ręcznie poprzestawiać każdą nutę. Różnica między EA, a resztą metod (ręczną czy BD) polega na tym, że audio jest rozciągane (time-stretching) lub kompresowane w czasie (time-compressing), ale bez zmiany tempa czy wysokości dźwięku. Wszystko to dzieje się wewnątrz ścieżki, która nie jest oczywiście cięta na żadne fragmenty. Najprościej to wytłumaczyć w ten sposób, że w przypadku EA, procesowi poddana jest fala znajdująca się wewnątrz klipu, a w przypadku BD, procesowi poddany jest klip, bez dotykania leżącej w niej fali. Jeśli chodzi o jakość takiego zabiegu (rozciągania i kompresowania w czasie), to wszystko uzależnione jest od jakości zaimplementowanych w programie/wtyczce algorytmów. Te w Pro Tools mogłyby być trochę lepsze (spróbujcie Elastic Audio na gitarze akustycznej, to zobaczycie, o czym mówię), ale na szczęście jest zawsze algorytm X-Form. On wprawdzie działa w PT tylko w trybie offline (musimy najpierw zrenderować audio z tym algorytmem – coś jak funkcja freeze), ale brzmi o wiele lepiej niż te fabryczne algorytmy. Są oczywiście dodatkowe opcje, które można rozważyć – np. wtyczka Serato Pitch N Time, która bije avidowskie algorytmy na głowę.

Podsumowanie

Pamiętam, jak wychodził Record od Propellerheads i jedną z głównych zalet, którą posiadał, były algorytmy do rozciągania audio. Testowałem wersję beta tego programu przed premierą i muszę powiedzieć, że to było coś. Jakby Avid wziął lekcję od chłopaków ze Szwecji, to mielibyśmy w PT naprawdę algorytm-giganta. Może kiedyś…

I ponownie, sprawdźcie, jak Wasze DAW radzi sobie z przeciąganiem i zacieśnianiem audio – poznajcie zasadę działania swoich narzędzi, nauczcie się jej dobrze, bo inaczej wyrównywanie jednego śladu zajmie Wam 4 godziny zamiast 20 minut, a z rezultatów i tak nie będziecie zadowoleni. I pamiętajcie, że to słuch jest zawsze najlepszym sędzią, dlatego zawsze się upewniajcie, że nie przesadziliście z edycją. Jej nadmiar naprawdę szkodzi…

Zostawić komentarz ?

24 Komentarze.

  1. Metdą elastic czasem wystarczy dwa punkty naciągnąć i cały fragment się dopasowuje. Mniej zero ingerencji słychać a w zasadzie to w ogóle. Kolejny konkretny artykuł :D. No i tym razem przestroga przed nadużyciem edycji też cenna wskazówka bo naprawdę często jak słucham kawałków ze studiów małych(ale uchodzących za pro) to za czyste są kawałki, pozbawione płci i charakteru:D. No ale edycja to akurat ziarenko w morzu spraw:).

  2. szczerze, to takiego czegoś w Sonarze nie znalazłem, bo nie potrzebowałem jak naraziie… ale z chęcią poszukam, bo brzmi kusząco 😉

  3. W samplitude mam taka funkcje i urzywam do dostrojenia(eliminacja drobnych niedociagniec) czy tak?..Mam inne pytanie w jakiej rozdzielczosci nagrywacie vocal i wedlug was ktora brzmi najlepiej…dlaczego pytam bedzie pozniej..Mam rowniez nadzieje ze do dyskusji wlaczy sie wiecej ludzi bo jak narazie to jest tylko czterech….ludzie posiadajacy nieco mniejsza wiedze chcieli by sie tez czegos nauczyc.Jak narazie czytajac mam wrazenie popisow wiedzy, dlaczego jesli uzywacie jakiegos slowa nie wytlumaczycie tym ktorzy moga nie wiedziec.Sa to sugestkie moich kolegow – ja rowniez sie ucze, przez wiele lat zajmowalem sie tylko graniem moze wicej spiewaniem bo jestem vokalista – Ale od 3 lat zafascynowalo mnie nagrywanie i tyle…i bede dalej to robil….Mogbym wiele napisac o roznych ciekawych studiach nagraniowych bo mam ogromny dostep – mieszkam od 20 lat w niemczech – sprzet o jakim nie ktorzy nawet marzyc nie moga….ale liczy sie czlowiek..Ale o tym kiedys bo mam pare dpswiadczen….pozdrawiam wszystkich dyskutantow…i do roboty

    • “Jak narazie czytajac mam wrazenie popisow wiedzy, dlaczego jesli uzywacie jakiegos slowa nie wytlumaczycie tym ktorzy moga nie wiedziec”

      Jak stosujesz coś od lat to zaczynasz traktować to jak coś oczywistego, i przestajesz zauważać, że to wcale oczywiste być nie musi. Uwierz, to nie jest zła intencja, po prostu tak już jest. A jeżeli ktoś ma problem ze zrozumieniem treści z powodu trudnego słownictwa, to przecież zawsze może zapytać o konkretne zagadnienia, których nie rozumie. Na tym polega nauka. My też nie od razu wszystko wiedzieliśmy.
      I to nie jest żaden popis wiedzy, tylko normalna, aczkolwiek techniczna dyskusja. Ktoś kto się spotyka pierwszy raz z danymi pojęciami zawsze będzie skołowany. Przejdź się na zajęcia na polibudę, dopiero zobaczysz co to znaczy popis wiedzy/słownictwa :mrgreen:

    • Dokładnie tak.

  4. “w jakiej rozdzielczosci nagrywacie vocal i wedlug was ktora brzmi najlepiej”

    zapewne większość z nas nagrywa w 24 bitach i próbkowaniu 44,1kHz. 24 bity dlatego, że jest większa dynamika sygnału, większy odstęp “użytecznego” sygnału od szumu oraz teoretycznie nagranie jest 256 razy dokładniejsze w porównaniu do 16 bitów. 44,1kHz dlatego, że przy takim próbkowaniu grają mp3, płyty CD. można teoretycznie nagrywać w większym próbkowaniu, ale i tak utwór wyląduje w 44,1kHz, a sam downsampling (zmniejszenie częstotliwości próbkowania) bywa kłopotliwy

    • 24bit i 44.1kHz spokojnie wystarcza i nie ma sensu się pchac wyżej przy typowych produkcjach.

    • A jakie byłyby nietypowe w których warto? A gdybysmy nawet chcieli poprawic to lepiej 32 bity dac czy Hz? Tzn. i tak zostaje przy 24 i 44.1 ale ciekawy jestem po co to jeżeli średnio przydatne dla nas.

    • Myślę, że jak masz rig HD i nagrywasz orkiestrę symfoniczną, to wtedy możesz się bawić w maksymalne wartości. 32 bity floating point dają Ci tyle, że masz przeogromny headroom i teoretycznie nie grozi Ci clipping (w sensie jest usuwalny – coś czego w 24 czy 16 nie zrobisz). Co do rozdzielczości to proponuję poczytać o teorii próbkowania Nyquista-Shannona. Różnice w wyższych rozdzielczościach są i tak minimalne i potrzeba świetnego słuchu i odsłuchu, żeby je usłyszeć. Inna rzecz, że materiał i tak kończy zwykle jako 16bit i 44.1kHz. Nagrywając w 24bit dajesz sobie wystarczająco dużo zapasu zarówno od góry (max peak), jak i od dołu (S/N Ratio). Wystarczy dbać o dobry gain-stageing oraz poziomy i nie ma sensu sobie dalej głowy tym zawracać. Podczas masteringu robisz dithering z 24 do 16 i masz z głowy. Inna sprawa, że przy maksymalnych wartościach długości słowa cyfrowego i częstotliwości próbkowania pliki audio robią się przeogromne – może nie jest to wielki problem z punktu widzenia miejsca na dysku, bo te już są tanie jak barszcz, ale zmorą jest płynność odtwarzania. No chyba, że możesz załadować sesję do RAM-u, jak w PT 10 HD.

    • Dzięki za odpowiedź:).

    • Anytime.

  5. remaztered

    Dodam jeszcze, ze trzeba unikac dzielenia czestotliwosc probkowania gdzie wynik jest “z reszta”, np:96kHz nie da sie podzielic “bez reszty” do 44.1 kHz.
    Pozdr

    • Sam się ostatnio dowiedziałem, że to jest mit. Przynajmniej we współczesnych urządzeniach. Niezależnie, czy robisz downsampling z 96 czy z 88.2 do 44.1.

    • A czemu tak lepiej? A z dzieleniem w sensie, że wybierając wyższa wybrać tak by móc dobrze(calosci) podzielić do 44,1 jak będzie downupgrade – jak 88,2 tak? A w ogóle może być mniej niż 44,1?

    • Roberto, chyba nic nie zrozumiałem z tego, co napisałeś… 🙂 Chodzi Ci o wielokrotności 44.1, jak 88.2 i 176.4, tak?

    • No pytałem czemu tak wybierać a nie inaczej. Po Twoim poście i tak już wątpliwości nie miałem ale przeczytałem po wysłaniu.

      A chciałem się dowiedzieć po poście remaztered’a w 100% o które dzielnie chodzi. Ale teraz już jestem pewien, że chodzi o dzielnie przy downsamplingu. Czyli, że jak bede miał końcową czestotliwość Y to przy nagrywaniu użyć czestotliwości = Y*X gdzie X nalezy do liczb naturalnych :D.

      Ale jeżeli to mit to i tak nie istotne:D.

    • Był cały wątek o tym na dzwiek.org i okazało się, że mało kto jest w stanie usłyszeć jakiekolwiek różnice (bo są one mikroskopijne). Z punktu widzenia zwykłego słuchacza nie ma najmniejszego znaczenia w jakiej rozdzielczości nagrywasz i czy robisz downsampling z 96 czy 176.4 czy jeszcze innej częstotliwości próbkowania.

    • remaztered

      A to ciekawe. Niby ucho tego nie wychwyci, ale chyba przy decymacji “z resztą” bardziej musi zadzialac dithering. Niemniej jednak wole zeby liczby sie zgadzaly 🙂

    • remaztered

      Nie czytac powyzszego posta.

  6. Moze slysze inaczej ale 24 bity 88,2 kHz gra mi najlepiej,slysze te niuanse porownywalem z 44,1 kHz…..czytalem duzo artykulow gdzie wypowiadali sie swiatowej slawy realizatorzy i wielu z nich tak wlasnie nagrywa …..moze ja czytam zupelnie cos innego,ale to prasa wydawana w Polsce w Niemczech,Ameryce….Powiem jedno bardzo czesto sugestje potrafia zdzialac cuda…Kiedys puscilem pare kawalkow mojej produkcji moim przemadrzalym kolegom i wszyscy dyskutowali co w nich mozna byloby poprawic …..Po trzech miesiacach te same kawalki,troche przerobione….powiedzialem tylko ze nagralem w profi studio…. bylo do przewidzenia….No wreszcie brzmi to jak nalezy,wszyscy orzekli…..To wszystko na dzisiaj…przyjemnej nocy zycze

    • Jedni słyszą, inni udają, że słyszą, jeszcze inni otwarcie mówią, że różnice są mikroskopijne i nie warte zachodu. A prawda jest taka, że słuch potrafi płatać takie figle, że nic nie jest pewne…

  7. Masz racje Igor,dlatego pisalem o moim eksperymencie…pozdrawiam

  8. Witam Igor

    Jak w przypadku ręcznej edycji w prawą stronę siatki zalepiać dziury? Gdy rozciągam element z lewej strony to zmienia się wysokość dźwięku i momentami pojawiają się niestroje. Robię oczywiście co mogę aby grać równo, ale zdarza się że w naprawdę dobrze zagranej partii pojawiają się 20-30 milisekundowe nierówności, które przeszkadzają (bo czasami ich nie słychać, albo słychać to jako szeroką panoramę – wtedy zostawiam tak jak jest)

    • Wysokość dźwięku nie powinna się zmieniać przy rozciąganiu, możliwe że używasz nie takiego algorytmu jak trzeba.

Zostaw komentarz