Co to jest faza i dlaczego jest tak ważna?

Jeden z czytelników bloga przesłał mi ostatnio prośbę o napisanie artykułu traktującego o tym, czym jest „faza” w świecie audio i jak radzić sobie z problemami, które może ona wywoływać.

Na wstępie chcę podziękować Tomkowi za zadanie tego pytania, bo to bardzo dobre pytanie. Każdemu, kto nie słyszał wcześniej o fazie lub nie do końca rozumie, o co w tym naprawdę chodzi, proponuję zapoznać się z poniższym wpisem. Mam nadzieję, że uda mi się rozwiać wątpliwości dotyczące tego zjawiska.

Czym jest faza?

Fale dźwiękowe są cykliczne, co oznacza, że składają się z serii regularnych powtórzeń. Faza określa, w jakim miejscu (punkcie) cyklu znajduje się dana fala. Fazę mierzymy w stopniach, gdzie 360 stopni określa jeden pełny cykl, 180 stopni – połowę cyklu, itd.

Kiedy pojawiają się problemy z fazą?

Naszym głównym zmartwieniem będą sytuacje, kiedy chcemy zmiksować ze sobą dwie fale (dwa sygnały, dwie ścieżki). W momencie, jeśli nasze dwie fale są przesunięte w czasie względem siebie (czyt. ich cykle nie nakładają się na siebie), mamy do czynienia ze znoszeniem się niektórych częstotliwości. Często prowadzi to do „pustego”, cienkiego oraz sprawiającego wrażenie „poruszania się” – dźwięku. Jak duży będzie stopień znoszenia się częstotliwości, zależy od charakteru sygnału i skali przesunięcia fal względem siebie.

Najbardziej ekstremalny przypadek obserwujemy wtedy, gdy dwie identyczne fale są przesunięte względem siebie o 180 stopni. Odtwarzając obie te ścieżki jednocześnie, na takim samym poziomie głośności, usłyszymy… ciszę, czyli pełne zniesienie się wszystkich częstotliwości.

Chcę tutaj podkreślić jedną, bardzo istotną rzecz – istnieje spora różnica między fazą, a biegunowością sygnału. O czym mówię? Otóż, jak zapewne większość z Was zauważyła, producenci interfejsów czy przedwzmacniaczy mikrofonowych lub innego sprzętu, często umieszczają na panelach swoich urządzeń guzik oznaczony symbolem (Ø) albo podpisany ‘phase invert’, ‘phase reverse’ lub po prostu ‘phase’. Nie służy on jednak do korekcji fazy, a do odwrócenia biegunowości sygnału i jego wciśnięcie sprawi, że fragmenty pozytywne(+) fali zamienią się na negatywne(-) i vice-versa. Stworzy on tylko lustrzane odbicie naszej fali i nie ma to nic wspólnego z kwestią przesunięcia czasowego, o którym mówimy w przypadku fazy. Faza dotyczy przesunięć w czasie!

Jak wygląda faza w praktyce?

Zróbcie prosty test – otwórzcie sobie nową sesję w Waszym DAW i zaimportujcie dowolną ścieżkę – może to być partia wokalu, miks bębnów czy nawet miks stereo całego utworu. Następnie stwórzcie na kolejnej ścieżce kopię zaimportowanego śladu i przesuńcie ją o kilka milisekund względem pierwszej ścieżki i odtwórzcie całość. Rezultat – dziwny, „pustawy” dźwięk, jakby ze studni… Gitarzystom może się on jednak wydać dość znajomy – jednym z popularnych efektów gitarowych jest phaser, który robi z sygnałem dokładnie to, o czym tu rozmawiamy – tworzy kopię podanego sygnału i przesuwa ją delikatnie w czasie.

Kolejny przykład „fazowania się” sygnału zaobserwujemy, kiedy odtworzymy jakiś utwór przez monitory i założone słuchawki i ustawimy tak poziomy, aby słyszeć z obu tych źródeł – przedziwne uczucie…

Dzieje się tak, ponieważ źródło dźwięku dociera do nas w pewnym odstępie czasowym – najpierw słyszymy dźwięk ze słuchawek, bo są bliżej naszych uszu, a potem, dosłownie milisekundy później – z monitorów – oto najprostszy przykład przesunięcia fazowego.

Tak, jak wspomniałem, przesunięcia fazowe są kwestią silnie związaną z czasem docierania sygnału do naszych uszu i dlatego nasz mózg postrzega te niespójności w ten, a nie inny sposób.

Jakie zastosowanie w studiu nagrań ma wiedza o fazie?

Załóżmy, że chcemy nagrać gitarę akustyczną na dwa mikrofony. Cierpliwie je pozycjonujemy, sprawdzamy, czy każdy z nich brzmi zadowalająco w danej pozycji i zaczynamy nagrywanie. Potem odtwarzamy sygnał z obu mikrofonów i nagle słyszymy znajomy nam, pusty i „wędrujący dźwięk”, który w niczym nie przypomina tego, który słyszeliśmy z poszczególnych mikrofonów przed nagraniem. Co się stało? Otóż zapomnieliśmy o kwestii fazy. Jeśli pierwszy mikrofon ustawiony był, powiedzmy w odległości 30cm od gitary, a drugi – 50cm, dźwięk instrumentu dotarł do obu mikrofonów w różnym czasie – najpierw do tego ustawionego bliżej, rzecz jasna. Oto kwestia fazy podczas nagrań.

Nie tylko na tym etapie doświadczymy problemów z fazą – oprócz nagrywania, napotkamy na problemy fazowe podczas miksu. A czasem nawet nieprawidłowo zlutowane kable potrafią przysporzyć nam podobnych problemów. Poniżej umieszczam kilka wskazówek, dzięki którym powinniście być w stanie zażegnać takim kryzysom.

Jak radzić sobie z fazą?

1. Prawidłowe ustawienie mikrofonów

Jeśli nagrywamy na więcej niż jeden mikrofon, musimy upewnić się przed nagraniem, że dobraliśmy odpowiednie pozycje dla obu (pod względem fazy oczywiście). Jak najłatwiej to zrobić? Ustawiamy pierwszy tam, gdzie wydaje nam się, że brzmi dobrze. Dodajemy drugi mikrofon (na przykład dalej od instrumentu niż pierwszy i celujący w inną część instrumentu). Dopracowujemy pozycję drugiego mikrofonu odsłuchując w słuchawkach lub na monitorach sygnał z OBU mikrofonów. Aby łatwiej wyłapać słyszalne przesunięcia, odsłuchujemy w mono.

Tu mała sztuczka – odwracamy chwilowo biegunowość na jednym z mikrofonów (z poziomu pre-ampa lub za pomocą wtyczki w DAW) i tak optymalizujemy pozycję drugiego mikrofonu, aż usłyszymy maksymalne znoszenie się częstotliwości. Następnie dezaktywujemy odwrócenie biegunowości i powinniśmy „być w domu”.

Podobne czynności musimy wykonać z każdym z mikrofonów podczas rejestracji perkusji, gdzie mikrofonów będzie zdecydowanie więcej niż 2. Z reguły sprawdzamy pojedyncze mikrofony punktowe względem overhaedów. Zachowanie względnej zgodności fazowej pozwoli nam na lepiej zdefiniowany i skupiony dźwięk zestawu perkusyjnego i zaoszczędzi kłopotow podczas miksu.

2. Opanowanie latencji wywołanej aplikowaniem wtyczek

Podczas miksu używamy różnych plug-inów. Niektóre z nich muszą opóźniać sygnał, aby zdążyć wykonać wszystkie potrzebne obliczenia i odtworzyć przetworzony sygnał. Jedne wtyczki nie wprowadzają żadnej latencji (bo wykonują mało intensywne operacje), a inne potrafią dodać nawet 4 tysiące sampli opóźnienia. Posłużmy się przykładem naszej gitary akustycznej nagranej dwoma mikrofonami – jeśli na jedną ze ścieżek nałożymy kompresor, który opóźnia sygnał o 128 sampli, wtedy druga ścieżka będzie niezgodna fazowo z pierwszą i usłyszymy fazowanie w pięknym stylu. Aby temu zapobiec, możemy zaaplikować identyczną wtyczkę na drugim śladzie i problem zniknie (możemy wcisnąć „bypass” na drugiej wtyczce, jeśli nie chcemy kompresować drugiej ścieżki – sygnał i tak będzie odpowiednio opóźniony).

Możemy również skorzystać z wtyczek, które są tworzone do czystego opóźniania sygnału – nie mówię to o wtyczkach typu delay, a o czymś typu „time adjuster”, który jedynie „przetrzymuje” ścieżkę przez określony przez nas czas (zazwyczaj w samplach), ale nie dodaje odbić, ech, i tym podobnych.

Istnieją także ręczne metody na korekcję problemów fazowych – na linii czasu, przesuwamy tą pierwszą, opóźnioną przez kompresor ścieżkę o daną ilość sampli wcześniej. Korzystając z tej metody należy pamiętać albo zanotować, że tak zrobiliśmy, bo jeśli potem zdecydujemy się pozbyć tego kompresora, to ścieżkę trzeba będzie z powrotem ręcznie przesunąć na jej pierwotną pozycję.

Podsumowanie

W dzisiejszych czasach prawie każde DAW dysponuje jednak jakąś formą kompensacji za tego typu opóźnienia (wywołane wtyczkami) i nie stanowi to dla nas żadnego problemu, ale jako ciekawostkę podam, że na przykład Pro Tools dopiero w wersji 9 wprowadził taką funkcję dla użytkowników wersji natywnych.

Tak długo, jak będziecie trzymać się tych kilku wytycznych – nie powinniście mieć problemów z fazą. Jakie są Wasze spostrzeżenia w tym temacie? Spotkaliście się wcześniej z podobnymi problemami? Potrzebuję kilku komentarzy, aby opublikować uzupełnienie tego artykułu.

Zostawić komentarz ?

55 Komentarze.

  1. Anonymous

    Bardzo dobry artykuł 🙂 Mógłbyś zrobić jeszcze coś na temat instrumentów w mono i stereo, bo wielu początkujących realizatorów(np ja) nie wie o co w tym chodzi. Lub też inne pojęcia typu 'zmonofonizować zakres od 60 do 120 hz' , albo czym rożni się stereofoniczny chorus od monofonicznego, jakie instrumenty powinny być w mono? Gdybyś znalazł kiedyś czas to prosiłbym o wytłumaczenie tych zagadnień 🙂 Dziękuje i pozdrawiam.

    Ps. Czy zjawisko odwrócenia fazy można wykorzystać np. w uzyskaniu lepszej przestrzeni ?

  2. witaj Igor, bardzo dziekuję za ten artykuł, po tym jak wytłumaczyłeś kwestie fazy sprawdziółem u siebie sesje nagrana niedawno, z jedną gitara cos mi nie grało , była nagrywana na dwa wzmacniacze jednocześnie, co ciekawe w ten sam sposób były nagrywane jeszcze dwa inne slady gitary w trakcie sesji, i wyobraź sobie , że tylko ta jedna gitara była przesunięta w fazie , idealnie kiedy prawy kanał szedł do góry lewy miał identyczną krzywą tylko w dół , po korekcji fazy gitara zabrzmiała zupełnie inaczej niż przedtem, zaczynam łapać o co w tym chodzi, ciekawa ta sztuczka, którą opisujesz, postaram sie ja wykorzystać przy najbliższej okazji. Pozdrawiam serdecznie
    Tomek

  3. dodam jeszcze , że kiedyś na dzwięk.org prosiłem o pomoc ponieważ miałem problem z gitarą brzmiała jak przez phaser podejrzewam , że był tam problem z fazą , teraz jestem już duzo mądrzejszy dzieki Zakamarkom Audio, dzięki Igor.Pozdrawiam

  4. Panie Anonimowy, dopisuję kwestię mono vs. stereo do listy. Co do odwracania fazy, znalazłoby się kilka przykładów, gdzie może to pomóc poszerzyć obraz stereo.
    Tom, bardzo proszę.
    Po skorygowaniu fazy instrumenty nabierają głębi i energii. Cieszę się, że artykuł się przydał.
    Pozdrawiam

  5. Rozumiem, że problemy z fazą również mogą wystawić miksując np. dwie różne stopy, werble itp.?

  6. Jak najbardziej. Musisz się upewnić, że oba ślady są ze sobą zgodne fazowo, inaczej tracisz moc, energię i dużo, tak potrzebnego w przypadku bębnów – dołu.

  7. TeO TeOeMeS - NbH - Sieah - Michał :D

    Wczoraj rozmawiałem z realizatorem z Filharmonii Rzeszowskiej i mi mówił, że w dniu koncertów pracuje cały dzień nad ustawianiem mikrofonów. Teraz już wiem, czemu tak długo – sprawdzanie tych mikrofonów doprowadziłoby mnie do totalnego wkurwienia. Ale mają tam teraz cyfrowy świat – wszystko na wi-fi, więc to jest pomocne…

    Nie wiem po co to piszę. Pewnie wszystko i tak pomieszałem.

  8. To, co piszesz, ma jak najbardziej sens. Dowodzi tylko teorii, że liczy się źródło sygnału. Taką samą praktykę powinniśmy przyjmować w domowym studiu, czyli upewniać się, że nasz instrument lub wokal, brzmi możliwie najlepiej zanim zdecydujemy się go nagrać. Ułatwia to później pracę przy miksie.
    Prosiłbym tylko o nieużywanie wulgaryzmów 🙂
    Dzięki

  9. Anonymous

    A ja mam problem z prawidłowym ze względu na fazę, przylutowaniem końcówek do wkładek słuchawek dousznych. Mam bardzo dobre słuchawki Sony MDR-E575, w których końcówki zostały urwane i chciałbym je prawidłowo podłączyć. O ile z fazowaniem głośników nie ma kłopotu bo wystarczy bateryjka i obserwacja wychyleń membrany o tyle w mini słuchawkach nie mam dostępu do membran i jest problem. Czy jest jakaś metoda by go rozwiązać?

  10. Jedyna znana mi metoda, to "na słuch", ale muszę podkreślić, że elektrykiem, to ja nie jestem.
    Puść przez te słuchawki jakiś sygnał o niskich częstotliwościach (np. bas) w mono i złóż słuchawki do siebie. Jak usłyszysz wyraźny i mocny bas, to jest duża szansa, że fazy są ok. Jeśli usłyszysz dziwnie falujący, cienki dźwięk lub ciszę, to lutujesz na odwrót.
    Pozdrawiam

  11. Bardzo dobry artykuł! Cieszę się, że zasubskrybowałem Twojego bloga! Pozdrawiam,
    Mateusz

  12. Dzięki, Mateusz. Też się cieszę.
    Pozdrawiam

  13. Igor swietny artykuł ale powiedz mi jak wygladaja problemy fazowe np w systemach nagłosnieniowych ? jest to przesuniecie w czasie HI MID LOW ? chodzi mi o to ze glosniki (magnesy) w kolumnach nie sa ustawione w tej samej odleglosci od krawedzi ? tak? to o to chodzi ?:)

    • W wielkim skrócie, w systemach nagłośnieniowych tzw. “rozfazowania” powstają kiedy głośniki są ustawione w różnych miejscach. Opóźnienia (a stąd przesunięcia fazowe) mogą wynikać z wielu powodów. Przy większych eventach używa się różnego rodzaju sprzętu, oprogramowania i obliczeń, żeby wszystko grało, jak należy. To jest bardzo zawiły temat, a ja nie czuję się kompetentny do jego objaśnienia. Dlatego prowadzę bloga o domowym studiu, a nie o nagłośnieniu imprez 🙂

    • hehe oka Dzieki 🙂

    • Gwoli ścisłośni problem fazy nie dotyczy jedynie systemów nagłośnieniowych ale wszystkich zestawów głośnikowych, które mają więcej niż jeden głośnik (właśnie mnie olśniło, to piszę :D). Mianowicie chodzi o to, że praktycznie nigdzie nie masz takiej sytuacji, że x-over pomiędzy głośnikami dzieli pasmo dokładnie w punkt. Zawsze jest zakładka. Czyli np. głośnik średnio-niskotonowy gra po części w tym samym paśmie co wysokotonowy. Jeżeli zwrotnica i cały zestaw głośnikowy (w sensie fizycznego umieszczenia głośników w obudowie) są źle zaprojektowane to w pewnym paśmie w okolicach częstotliwości podziału oba głośniki grają troszeczkę niezsynchronizowane co skutkuje powstaniem w tym zakresie filtru grzebieniowego i ogólnie zjawiskiem określanym kolokwialnie “zamułem” w średnicy. Czyli najczęściej brakiem selektywności panoramy.

      AVE ;].

    • Oka dzieki wielkie ..:) ale mam teraz pytanie bo myslalem (tak mi tez powiedziano) ze zjawisko filtru grzebieniowego powstaje na skutek “pietrowania” lub wieszania paczek i dzwiek powiedzmy z 2 paczek sie sumuje i potrafi podbic mocniej wychodzące do “przodu” czestotliwosci tworząc grzebień cos takiego .. i prosze o poprawe mnie jesli sie myle albo osoba informujaca mnie sie pomylila 🙂

  14. Zabrakło mi guzika REPLY przy wpisie Adama to piszę normalnie :P.

    Adamie, przykład który podałeś jest po części trafny, chociaż jeżeli w tych słowach osoba Ci tłumacząca to zagadnienie je ujęła to znaczy, że prawdopodobnie nie za bardzo czuje temat. Piętrowanie czy wieszanie paczek nagłośnienia to nie są jedyne przypadki, w których występuje filtr grzebieniowy (powstaje na skutek różnicy dróg pokonywanych przez dźwięk wydobywający się z głośników, do których doprowadzono ten sam sygnał, np. gdy zestawy głośnikowe systemu liniowego łączy się równolegle). Ba, nawet nie musisz mieć głośników żeby sobie taki wytworzyć. Wystarczy, że wrzucisz do DAWa jakikolwiek dźwięk, skopiujesz go i opóźnisz tą kopię o chociażby 1ms, a na sumie zapniesz analizator widma i od razu zobaczysz różnicę. Wracając do nagłośnienia koncertowego to między innymi właśnie dlatego jest ono lepsze lub gorsze (i tańsze lub droższe), że inżynierowie włożyli naprawdę mnustwo pracy żeby tak zaprojektować pojedyncze moduły żeby po powieszeniu zestawu efekt grzebieniowy nie występował (chociaż to też zależy od inżyniera systemu, który oblicza banan przed połączeniem modułów).

    • oka wielkie dzieki 🙂 teraz rozumiem 🙂 a co do tej osoby ktora mi o tym mowila to mowila o systemie na koncercie akurat taki temat sytuacyjny sie pojawił a jak to bywa na takich imprezach nie zawsze jest czas na rozmowe 🙂 na pytania itp dlatego zadaje je tutaj 😛 Jeszcze raz Wielkie Dzieki 🙂

    • Ja jeszcze dodam, ze jesli chcesz dokladniej zapoznac sie z rozwiazywaniem takich kwestii, to poczytaj o systemach naglosnieniowych firmy Meyer Sound.

    • …i Electro-Voice ;]. Na stronie mają bardzo dużo materiałów teoretycznych na temat systemów nagłośnieniowych, świetnie podanych, jak dla amerykanina :D. Nieskromnie powiem, że sam gram na ich sprzęcie i jestem naprawdę bardzo zadowolony, chociaż system jest świeży i jeszcze nie został w pełni zestrojony jak należy, ale ma ogromny potencjał. Szczególnie polecam artykuł na temat kierunkowego basu. To NAPRAWDĘ działa :).

  15. Hej! przede wszystkim ogromne dzieki za tę strone.
    To cos czego szukalem juz od jakiegos czasu.
    Jesli chodzi o latencje wynikajace z korzystania z wtyczek. Nagrywajac git elektryczna, chcemy po prostu slyszec podczas nagrywania jak faktycznie brzmi.
    Jesli nagrywamy przy uzyciu metronomu, warto zwyczajnie uderzyc rowno z metro w gitare. Dzieki temu łatwo wyrównac to pozniej do siatki a samo uderzeniu nastepnie wyciac.
    Takie słowo od amatora.
    Jeszcze raz dzieki za strone, super robota!

    • O ile zdołamy uderzyć idealnie równo z metronomem 🙂
      To ja dziękuję za odwiedziny!
      Pozdrawiam

  16. Ja mam straszną latencje przy Triggerze Slate, wstepnie przesunalem slady, ale to wielce amatorskie ;). Nie sadzilem ze kompensacja odpowiada za wszystkie problemy zwiazne z latencją. Właczę to dziś w Pro Tools 9 wlasnie i sprawdze jak sie zachowa.
    Dzieki 🙂
    Szukam jeszcze artykułu o rownaniu bębnów audio. Jest do tego chyba dobry program Elastic Audio. Tu chyba nie było nic w tym temacie, prawda ?

    • Koniecznie włącz ADC, życie stanie się znowu piękne 😉 Jako takiego artykułu o równaniu bębnów na blogu jeszcze nie ma. Wtyczka Elastic Audio w PT to tylko jeden ze sposobów równania bębnów.

  17. ADC, przypomni cóż to ?:)
    Wczoraj skompensowałem ślady i wyrównało się, latencja zniknęła. Chyba to za sprawą tego wlasnie 😉

    • Automatic Delay Compensation – to, o czym cały czas rozmawiamy 🙂

  18. Miałem wrażenie że Pro Tools jakby przetworzył ślady, pytając mnie o to. Czy tak to wygląda przy tej funkcji tutaj, czy może włacza się i pracuje jakby w stanie rzeczywistym ?

    • Jeśli pracujesz w sesji bez ADC i postanowisz to nagle włączyć, to PT musi przeładować sesję – zamknąć i uruchomić ponownie. PT nie przetwarza wtedy żadnych śladów, tylko oblicza, z jakim opóźnieniem będzie musiał odtwarzać każdą ścieżkę, żeby wszystkie grały równo.

  19. Jaka właczasz opcje buforowania ( jeśli dobrze doczytałem ) ?

    • To zależy do czego… Przy nagrywaniu – jak najniższy, który komputer pociągnie bez droppów, a przy miksie – maksymalny.

    • A jezeli nagranie idzie na mikrofon nie przez kompa (lub direct monitoring) to juz nie jest potrzebny niski buffer, czy jakiegos problemu moze nie widze? Bo nawet jak puszczamy slad, z kompa z kompa do tla to DAW wszystko odpowiednio oblicza opoznia dostawia etc. Cubase robi to bezblednie i default’owo ale pewnie inne DAWy tez.

      Oczywiscie jak nagrywajac uzywamy programu, pluginu na sciezce ktora nagrywamy to ma znaczenie.

      Pytam bo jak nagrywam ustawiam dosc bezpieczny buffer 256-512 i problemu z czasem nie miałem. Ale moze cos mi istotnego umyka? A jak nie to w tej sytuacji dac sobie wiekszy.

    • A generalnie jeden z gorszych scenariuszy przy nagrywaniu: Ktos daje zyciowy take a nagle drop, albo na sete caly numer click leci z DAW drop:D.

      Potem tez glupio sie tlumaczyc. Fajny bylby artykul o nagraniach z mniej technicznej strony. Np. jak zadbac o komfort pracy etc. Ale nie wiem czy lezy to w zakresie Zakamarkow.

    • Myślę, że można by coś na ten temat spłodzić.

  20. Dziś sprawdzę na większy bufor jak tak.

  21. Mam pytanie dotyczące radzenia sobie z przeunięciami fazy już na poziomie DAW. Mam Pro Tools 8 i niestety nie stać mnie teraz na upgrade, więc nie posiadam Automatycznej Kompensacji Latancji. Pisałeś, że jeśli np mamy dwie gitary i jedną kompresujemy jakąś pamięciożerną wtyczką, to żeby poradzić sobie z fazą zapinamy na drugą gitarę taki sam kompresor. Czy jeśli mamy jeszcze 5 innych śladów, to na każdy z nich musimy teraz wpiąć taką wtyczkę z baypassem ? Czy mają znaczenie ustawienia takiego zbypassowanego kompresora ? Ten baypass całkowicie wyeliminuje wtyczkę z obciążania procesora ? Czy jest jakaś metoda oprócz ręcznego przesuwania ścieżek by sprawdzić o ile sampli opóźnienia wprowadza dana wtyczka ? Słyszałem o jakiejś płatnej wtyczce która po zapięciu na każdym śladzie (niestety) niweluje problemy z fazą – wiesz może co to za wtyczka bo mi wypadło z głowy ? Fajny artykuł 🙂

    • Nie, nie musisz na każdą ścieżkę wpinać tego kompresora, bo opoźnienie prawdopodobnie nie jest na tyle duże, żebyś stracił synchronizację z pozostałymi śladami. Ale jest za to na tyle krótkie, by tracić relację fazową z drugim śladem gitary. Bypass nie eliminuje całkowicie wtyczki z obciążenia procesora, bo gdyby tak robił, to nie powodowałaby ta wtyczka latencji 🙂
      Wtyczka, o której mówisz to Mellowmuse ATA:
      http://www.mellowmuse.com/ATA.html

  22. Cześć. Ja mam inny problem – nagrywam w warunkach blokowych (kawalerka) gitarę przez mikrofon z pieca. Jednak aby nie zbierać mikrofonem podkładu lub metronomu puszczonego w DAW, słucham ich (podkład/metronom) przez słuchawki, w których także słyszę gitarę zbieraną majkiem. I tu właśnie chyba mam do czynienia ze znoszeniem się faz (fala bezpośrednio z pieca – tłumiona dodatkowo przez zamknięte słuchawki, z falą zbieraną mikrofonem i słyszaną w słuchawkach). Piszę chyba, bo nie słyszę efektu typu phazer, ale dźwięk jest taki jakby cienki, a to mocno przeszkadza we wczuciu się w grę. Czy jest na to jakiś sposób? Słuchawki półotwarte może?

    • Wycisz ścieżkę w DAW, na którą nagrywasz gitarę (nie będzie Ci się nakładać na dźwięk z pieca) i odsłoń sobie jedno ucho.

    • No tak-rozwiązanie niby oczywiste, ale wciąż mało komfortowe. Tak czy inaczej dzięki za odp.

    • Za wielu innych opcji niestety nie masz w takiej sytuacji. Dla pełnego komfortu musiałbyś mieć wzmacniacz w innym pomieszczeniu…

  23. Igor, a jak odwrócić fazę o równe 180 stopni ? Da się coś takiego zrobić na Cubase na przykład ? Zależy mi na tym, żeby było to równe 180

    • Fazy się nie odwraca. Odwraca się biegunowość, fazę można co najwyżej przesunąć 🙂 W każdym DAW można to zrobić z reguły jednym kliknięciem. Nie używam Cubase, ale wydaje mi się, że na każdym kanale miksera znajdziesz guzik do odwracania biegunowości (czyli zamieniasz + na – i odwrotnie. To zawsze będzie “do góry nogami”, czyli tak jakby o 180 stopni).
      Szukaj takiego znaczka: ø
      Ewentualnie możesz podświetlić klip audio, który chcesz odwrócić i zastosować proces o nazwie ‘phase invert’, ‘polarity invert’ czy coś w tym guście.

  24. Interesujące jest zjawisko manipulowania fazą do poszerzenia bazy stereo. Taki efekt zaaplikowany oczywiście nie na cały miks tylko na jakieś przeszkadzajki na śladzie stereo potrafi sprawić że odsłuchując na jamniku słyszymy dzwięki jakby głośniki były rozstawione na kilka metrów.
    Igorze…parę słów na ten jakże interesujący temat?

  25. Igor, a jak to jest z fazą w przypadku nagrywania dwóch ścieżek gitary? Jeżeli gitarzysta ręcznie nagrywa najpierw jeden ślad, potem drugi to siłą rzeczy ten drugi będzie różnie poprzesuwany w różnych miejscach a same wychylenia będą miały różną siłę

    • W przypadku nagrywania śladów oddzielnie problem nie występuje. Na fazę trzeba zwracać szczególną uwagę rejestrując jakieś źródło więcej niż jednym mikrofonem jednocześnie.

  26. Blackberie

    Igor ratuj. Nie potrafię zrozumieć tej całej fazy i jak z nią sobie radzić w praktyce.. no tak pełny cykl ma 360 stopni, 180 to połowa cyklu.. ale czy faza jest tak bardzo ważną kwestią podczas miksowania? niby podczas korekcji “robi się” właśnie opóźnienie związane z fazą.. jak mogę sprawdzić, że podczas np. korekcji jakiegoś syntezatora typu sylenth1,massive czy nexus albo elementów perkusyjnych/różnych sampli nie pojawi się problem z fazą? podobno można FAZE wyrównać przez własoręczne przesunięcie ścieżki.. i to nawiązuje do tego sprawdzenia.. czyli co mam renderowac wszystkie ślady żeby zobaczyc czy nie ma tego przesunięcia fazowego?

    a kolejna sprawa to po co się stosuje odwrócenie fazy? FL Studio posiada np. wtyczkę phase invert – kiedy ją stosować?

    • Faza jest ważna np. wtedy, gdy odtwarzasz dwa ślady nagrane jednocześnie dwoma mikrofonami. Albo jak odtwarzasz powiedzmy perkusję nagraną kilkoma mikrofonami. Wtedy mogą zachodzić problemy. Ale jak zapinasz korektor na jakimś jednym śladzie w miksie, to nie masz się czym martwić. To jest tak minimalne przesunięcie, że niewyczuwalne. To własnoręczne przesuwanie ścieżki odnosi się właśnie do sytuacji, gdy np. jakiś instrument nagrywałeś dwoma mikrofonami. I z powodu różnic w odległości tych mikrofonów od instrumentu mogą wystąpić problemy z fazą, gdy odtworzysz potem takie dwa ślady jednocześnie. Jak poddajesz korekcji jakieś pojedyncze ślady (np. z syntezatora), to problem nie zachodzi. Nic nie musisz renderować 🙂 Odwrócenie biegunowości stosuje się wtedy, jak np. jakieś dwa nagrane jednocześnie ślady mają przeciwległe kierunki wykresów fal – sztandarowy przykład – werbel zebrany jednym mikrofonem od góry, a drugim od dołu.

    • Blackberie

      zrozumiałem, dziękuję 😀 !

  27. track stereo rozbijam na dwa ślady mono i w jednym odwracam fazę, wówczas nie słyszę informacji zapisanych w mono, czy istnieje jakaś wtyczka która pozwalałaby usłyszeć tylko te częstotliwości które zostały zniesione?

Zostaw komentarz