Jak Osiągnąć Separację w Miksie, Cz. 2

W poprzednim artykule przyjrzeliśmy się dwóm kluczowym metodom osiągania separacji w miksie, a dziś poznamy dwie następne. Niektóre z nich będą się tyczyły typowego etapu miksu, inne będą z pogranicza miksu i nagrywania. Jak już bowiem dowiodłem w poprzedniej części wpisu, miks w pewnym sensie rozpoczyna się już w momencie chwycenia pierwszego instrumentu, znalezienia brzmienia czy zagrania inicjujących dźwięków. Ten artykuł dodatkowo to potwierdzi, szczególnie jak zaczniemy rozmawiać o aranżacji, ale po kolei…

III. Korekcja

To najpopularniejszy proces, któremu poddajemy ślady podczas miksu. Co bardziej wprawieni, doświadczeni i wyposażeni w zewnętrzne procesory realizatorzy, stosują czasem korekcję nawet już na etapie nagrywania. Zanim sygnał trafi do DAW i na dysk, przechodzi przez zewnętrzny korektor i w zmienionej postaci zapisuje się w komputerze. Jest to dość przydatna metoda, która ułatwia późniejszą pracę z utworem, ale jak mówiłem – wymaga pewnego doświadczenia i dobrego słuchu, bo są to zmiany, które trwale zapiszą się w nagrywanym pliku.

Jeżeli ktoś nie jest pewny, czy ucinać lub podbijać jakieś częstotliwości na etapie nagrania, to polecam zostawić to na później i pokręcić wtyczkami, bo te działają w czasie rzeczywistym i możemy nimi manipulować, aż osiągniemy zamierzony efekt, a żadna ze zmian nie zapisuje się bezpośrednio w pliku audio, więc nawet pod koniec miksu możemy zmienić ustawienia danego korektora (jeśli oczywiście zajdzie taka potrzeba).

Jak używać korekcji do poprawy separacji?

Istnieją dwa główne zastosowania korekcji, które wpływają na poprawę czytelności ścieżek względem siebie:

    • stosowanie filtrów (HPF i LPF)
    • naprzemienne EQ (ja to nazywam “slalomem”)

Zobaczmy po kolei, jak to wygląda w praktyce:

Filtr górno-przepustowy (HPF)

Pozwala na wycięcie zbędnych częstotliwości dołu spektrum na tych śladach, które zbyt wiele tego dołu nie potrzebują (zazwyczaj wszystko oprócz basu i stopy). Ciąć możemy w różnych miejscach z różnym nachyleniem filtra i wszystko zależy od śladu, z jakim mamy do czynienia.

Dla przykładu – wokal męski możemy uciąć w okolicach 80-120Hz i w zasadzie obejdzie się to bez zmian brzmieniowych na tej ścieżce, ale dzięki temu usuniemy wszelkie brudy, które mogły się tam znaleźć podczas nagrania – wibracje, tupnięcia stopą o podłogę, szum klimatyzatorów czy inne kosmiczne odgłosy…

Dla porównania – wokal żeński możemy ograniczyć jeszcze bardziej, tnąc nawet w okolicach 150-250Hz. Liczby zawsze będą zależne od rodzaju głosu, z jakim mamy do czynienia, więc nie traktujcie tych tutaj przeze mnie podanych, jak jakieś wyrocznie. Czasem trzeba będzie zastosować zupełnie inne wartości. O dokładnym odcięciu zawsze powinien decydować nasz słuch.

Jest też jedna bardzo skuteczna metoda na odnalezienie tego punktu odcięcia, która polega na tym, że aktywujemy filtr (powiedzmy z odcięciem 12db/oct) na danej ścieżce w trybie solo i zaczynamy nim powoli operować podnosząc punkt odcięcia, aż dotrzemy do miejsca, w którym zaczniemy słyszeć, że zmienia się barwa, ślad zaczyna stawać się cieńszy. To znak, że pojechaliśmy za daleko – należy wtedy lekko wycofać punkt odcięcia. Choć jest to technika całkiem prosta i przyjazna, nie zawsze jednak okazuje się skuteczna – bo co innego operować korekcją w trybie solo, a co innego w kontekście reszty śladów.

To drugie jest oczywiście sto razy bardziej istotne, bo często okazuje się, że w zderzeniu z resztą śladów, wokal, na którym odcięliśmy przykładowo 113,5Hz nadal brzmi bardzo masywnie. Dlatego moja rada jest taka, żeby po zastosowaniu tego odcięcia w solo, posłuchać całego miksu i zobaczyć, czy możemy zastosować ten filtr jeszcze głębiej, bez straty ciężaru wokalu. Rzeczywistość jest bowiem taka, że obecność informacji w dolnych i niskich-średnich pasmach pochodzących z innych śladów, zamaskuje dość skutecznie to odcięcie na wokalu i w ferworze całego miksu w ogóle nie poczujemy, że został on tak mocno odfiltrowany.

Nie mówię, żeby ciąć na potęgę, bo szybko możemy stracić całą „masę” utworu, ale jeżeli możemy sobie pozwolić na te kilka czy kilkanaście hertzów więcej odcięcia, to jak najbardziej polecam spróbować, bo raz, że będzie czyściej, a dwa, że odzyskamy trochę miejsca, które będziemy mogli zapełnić innymi ścieżkami.

Są inżynierowie, którzy tną bezlitośnie overheady perkusji (np. na 800Hz), bo używają tych śladów wyłącznie do wyciągnięcia blach – i też jest to jakiś sposób. Podobnie można zrobić z hi-hatem czy innymi grzechotkami. Te instrumenty w zasadzie nie posiadają informacji w dolnych rejestrach, więc można zapobiegawczo sporo na nich odfiltrować. Tym bardziej, że podczas nagrania mogło się tam dostać jakieś niepotrzebne badziewie. Nie zaszkodzi.

Tnijcie więc, jeśli trzeba, ale nie dajcie się zbytnio ponieść, bo czasem odcięcia na dwóch śladach za dużo (bądź za głębokie) mogą momentalnie odebrać odpowiedni ciężar całemu kawałkowi.

Filtr dolno-przepustowy (LPF)

Tutaj sytuacja jest nieco inna, bo z reguły (a szczególnie w dzisiejszych czasach) nie chcemy zbyt wielu informacji z górnego skraju spektrum usuwać. Słuchacze przyzwyczaili się do bardzo jaskrawych i szorstkich miksów, ale mimo to, nadal zdarzają się sytuacje, jak np. zbyt ostry hi-hat czy inne dzwoneczki, które po prostu za mocno w nas uderzają w tamtych rejonach i można wtedy sięgnąć po filtr i nieco te pasma odfiltrować.

Kolejny przykład może mieć miejsce wtedy, gdy po prostu ogólnie celujemy w nieco ciemniejsze, „klasyczne” (z braku lepszego słowa) brzmienie – nie chodzi mi o muzykę klasyczną, tylko przeciwieństwo słowa „współczesne”. I czasem możemy to uzyskać stosując właśnie lekkie odcięcie góry, czasem stosując symulację taśmy, a czasem używając kombinacji obu tych technik.

A jeżeli chodzi o separację, to możemy chociażby jedną z dwóch ścieżek o sporej zawartości wysokich częstotliwości odfiltrować znacznie mocniej niż drugą i już w prosty sposób osiągniemy znaczną różnicę brzmieniową, która pomoże separacji śladów. Nie będę się silił na dodatkowe przykłady, bo wierzę, że złapaliście już koncepcję. Reszta pracy należy do Was. Trzeba skupiać słuch i podejmować decyzje – tutaj nie ma sztywnych reguł.

Korekcja naprzemienna

Trzeci przypadek stosowania korektorów do zwiększania separacji miedzy śladami, to stosowanie odmiennych/przeciwstawnych wartości na dwóch ścieżkach walczących ze sobą o miejsce w miksie. Działa to w bardzo prosty sposób – co podcinamy na jednym śladzie, możemy lekko podbić na innym i vice-versa. Tym sposobem przydzielamy niejako miejsce w danym paśmie jednej ścieżce, a zabieramy innej.

Może podam prosty przykład – mamy wokal i gitarę akustyczną. Oba te ślady mają większość informacji w środku spektrum i przyjmijmy, że sposób, w jaki zostały nagrane, nie bardzo sprzyjał separacji tych dwóch śladów i musimy wkroczyć z naszymi narzędziami. Zapinamy korektor zarówno na akustyku, jak i na wokalu i słuchamy. Załóżmy, że górny-środek jest przeważający na akustyku, ale tak się składa, że akurat tam nasz wokalista brzmi najwyraźniej – możemy więc chwycić np. okolice 3-4kHz na gitarze i lekko je podciąć, żeby zrobić miejsce wokalowi, a wokal w tym samym miejscu delikatnie podbić na korektorze.

Inna możliwość – powiedzmy, że ktoś nagrywając wokal ustawił mikrofon za blisko wokalisty i tak nagrana ścieżka trochę „dudni” i „muli”. Nasz śpiewak nie ma masywnego barytonu, więc tym bardziej jego głos brzmi bardzo nienaturalnie i te pasma w niskim środku zasłaniają także wybrzmiewanie basowych strun na gitarze. Co więc robimy? Podcinamy ostrożnie te najbardziej newralgiczne częstotliwości na wokalu (powiedzmy gdzieś w okolicach 200-300Hz), a podbijamy je nieznacznie na akustyku. I tak dalej…

Jeśli ktoś z Was chciałby jeszcze bardziej zagłębić się w meandry korekcji i poznać więcej zastosowań dla tego narzędzia, to polecam rzucić okiem na jeden z moich kursów, który w całości poświęciłem korekcji. Wyłożyłem tam i zaprezentowałem na przykładach właściwie wszystko, co wiem o tym procesie. Skromnie marketingowo powiem tylko, że jest to najszybciej sprzedający się kurs do tej pory – za co oczywiście bardzo wszystkim nabywcom dziękuję 🙂

Blok reklamowy minął, wracamy do separacji.

IV. Więcej nie oznacza lepiej

„Arranging is a bitch…”, jak mawia mój znajomy. Trudno się z nim nie zgodzić, ale warto polemizować. Sztuka aranżowania do prostych nie należy, bo podjęcie odpowiednich decyzji dotyczących tego aspektu utworu w zasadzie decyduje o jego powodzeniu lub porażce. Wielu, a w szczególności młodych ludzi zaczynających stawiać swoje pierwsze kroki w produkowaniu muzyki jest przekonanych, że o sukcesie utworu decyduje jego brzmienie, czy studio, gdzie go realizowano. Jest to niestety najbzdurniejsza bzdura. Przynajmniej połowa sukcesu, jeśli nie więcej, to dobrze napisany, zorganizowany, przemyślany, zaaranżowany utwór. Co do tego nie ma wątpliwości – wierzę, że z czasem każdy dopuści tę myśl do siebie, bo wtedy dopiero będziemy mieli eksplozję utworów z domowych pracowni 🙂

Ale wróćmy do tematu.

Napisałem w nagłówku, że więcej nie oznacza lepiej, czyli inaczej – im mniej, tym lepiej. Jest to złota zasada aranżowania piosenek i niedowiarkom proponuję powiesić sobie takie hasło nad łóżkiem czy na suficie. Jasne, że nie chodzi o to, by każdy utwór składał się tylko z 3 czy 5 ścieżek. Mówimy o sytuacji, gdzie mamy powiedzmy „pełny” utwór z sekcją rytmiczną, basem, jakimś klawiszem czy gitarami, innymi instrumentami i wokalami – głównym i chórkami czy czymkolwiek jeszcze. Czujemy, że jest już bardzo gęsto i zmagamy się, żeby to wszystko jakoś sensownie ze sobą pomieścić i wpadamy na pomysł… żeby dodać nowy instrument. Spotkałem się z tym za dużo razy i mówię „Basta!”. Jeżeli 20 ścieżek nie brzmi przejrzyście i klarownie, to czy naprawdę ktoś może sądzić, że dodanie kolejnych dziesięciu poprawi sytuację??

Jak w takiej sytuacji postąpić?

Pierwszą rzeczą, jaką proponuję zrobić, to odchudzić (lub „odtłuścić” – jak kto woli) taki utwór. Przysiąść i na spokojnie pomyśleć, co nie jest niezbędne i to wyciszyć. Zobaczyć, czy nie jest lepiej i czyściej. Nikt nie lubi pozbywać się partii, szczególnie własnych – to zrozumiałe, ale czasem jest to najlepsze, co możemy zrobić dla danego kawałka. Możemy nawet pójść w bardziej ekstremalnym kierunku i zrobić w ten sposób – wyciszyć na początek wszystkie ślady, ustawić kursor w miejscu, gdzie mamy najwięcej instrumentów grających w danym czasie (prawdopodobnie jakiś refren), zapętlić odtwarzanie i zacząć po kolei wprowadzać pojedyncze instrumenty, zaczynając od tych najbardziej istotnych i niezbędnych. Jeżeli myślicie poważnie o swojej muzyce i macie na względzie dobro danego kawałka, to gwarantuję Wam, że łatwo się przekonacie do tego, iż w tym właśnie fragmencie warto niektóre ścieżki pominąć. Do Was oczywiście należy decyzja, ile i jak bardzo odchudzicie swoje utwory, ja chcę tylko zasygnalizować, że według mnie jest to jeden z lepszych sposobów, bo zazwyczaj mamy po prostu w miksie ZA DUŻO RÓŻNYCH ŚLADÓW!

Inna rzecz, to takie rozplanowanie pojawiania się konkretnych partii na przestrzeni utworu, żeby ich za dużo nigdy nie grało na raz. Bo wierzcie mi – można zrobić utwór, w którym będzie nawet 120 śladów, a każdy z nich będzie wyraźnie słyszalny. Tajemnica tkwi w tym, że one nigdy nie grają wszystkie razem. Raz się pojawia to, raz tamto, raz jeszcze coś innego.

Utwory, w których wszystkie ślady grają non-stop to zazwyczaj znak rozpoznawczy amatorskiego aranżowania. Róbcie więc wariacje w aranżacji i instrumentarium planując swoje kawałki, nawet jak mają multum ścieżek (choć i tak nadal radzę zrobić wcześniej odchudzanie). Niech smyki grają tylko w refrenach, niech syntezator gra pomiędzy frazami wokalu w zwrotce, a nie cały czas, niech druga zwrotka rozpocznie się bez bębnów i niech wejdą w połowie taktu z sekcją dętą. Tego typu rzeczy, nie dość, że pozwalają świetnie odseparować elementy miksu, to jeszcze urozmaicają całą piosenkę i utrzymują słuchacza w skupieniu.

Tylko głupiec nie chciałby skorzystać z takich plusów…

Kolejna istotna rzecz z kategorii aranżowania to sposoby odgrywania partii, czyli techniki gry, metody wyzwalania dźwięków, artykulacje. Pisałem o tym całkiem niedawno osobne artykuły i proponuję je przejrzeć (zaczynając TUTAJ), bo jest tam mnóstwo wskazówek, które powinniście sobie wziąć do serca. W tym akapicie nakreślę tylko, że aby dopomóc separacji, musimy zawsze starać się różnicować swoje partie, bo kontrast między sposobami grania poszczególnych instrumentów zawsze zbliży nas do większej klarowności niż jakiekolwiek tajne sztuczki-magiczki…

Podsumowanie

Niby rozmawiamy o prostych rzeczach, ale jak sobie to dokładniej przeanalizujemy, to możemy dojść do wniosku, że jest to właściwie esencja produkcji – szczególnie, gdy na językach pojawi się aranżacja. Nie lekceważcie więc tego tematu, bo zawsze będzie się to na Was odgrywało i ciężko będzie się takim kawałkom przebić, czy po prostu być interesującymi i takimi, do których słuchacz chciałby wracać.

W ostatniej odsłonie tej serii porozmawiamy o trochę bardziej przyziemnym, ostatnim aspekcie separacji w miksie. Do rychłego.

Zostawić komentarz ?

31 Komentarze.

  1. Dobry artykuł! Warto tez dodać ze dynamika ma duzy wplyw na separacje, sam się przekonałem o tym nakładając za duży kompresor na bębny, to przy momentach gdzie było dużo tomów, wszystko się rozlało.
    A i jeszcze jedno, wyskoczył mi błąd przy wejsciu do artykułu “korekcja od a do z”.

    Ta strona internetowa zawiera pętlę przekierowań
    Strona internetowa https://zakamarkiaudio.pl/korekcja-od-A-do-Z/ spowodowała zbyt wiele przekierowań

    • Link był z błędem – już poprawiłem. A co do dynamiki – jak najbardziej się zgadzam!

  2. Witam serdecznie!

    Świetny artykuł, po którego lekturze przypomniałem sobie to niesamowite uczucie towarzyszące odkryciu Zakamarków! Wspaniała wiedza od człowieka, za którego każdym słowem stoi ogrom doświadczenia.

    Najwspanialsze jest to, że kiedy teraz otwieram projekt w swoim DAW i przyjdzie mi na myśl podgłośnienie jednej ze ścieżek o np. 2db to od razu pojawia się głos typu: “Halo Halo! Przecież “dając” tej ścieżce “więcej” zabierasz jakiejś innej!”. To wspaniałe, analityczne, ale jednak nie przepełnione perfekcjonizmem myślenie, pojawiło się po lekturze tej wspaniałej strony.

    Igorze! Dziękuję!

    • Dzięki za dobre słowo. Cieszę się, że mogłem się w jakimś stopniu przyczynić do Twojego analitycznego podejścia. Ale z tym “ogromem” doświadczenia to bym nie przesadzał… 🙂

  3. Filtry są dla mnie bardzo pomocne :).

    Np: jak wiem jakie miejsce ma być danego tracka ale nie chce tracić flow przy tworzeniu. Tnę np. górę ostro a po 2-3 dniach jak kawałek jest już całkiem kompletny mogę wycofać LPF i kombinować :D. Lubię takie rozwiązanie bo jest proste i całkiem wyraźnie definiuje sobie wygląd piosenki. Mniej rozterek, mogę tworzyć dalej póki czuje piosenkę i pomaga przy aranżowaniu, które faktycznie jest fundamentalną sprawą przy tworzeniu.

    Z resztą syntezatory czasem mi wariują na skrajach lub są za obszerne brzmieniowo i tylko dane pasmo ma coś ciekawego w sobie. Wtedy ostre ścięcie z jednej lub drugiej strony to miłe rozwiązanie :D.

    Btw. świetny artykuł i najciekawsza tematyka jak dla mnie jeżeli chodzi o mix i muzę. Tak więc po raz n’ty dzięki Igor za wysiłek i dzielnie się wiedzą :)!

    • Po raz n-ty też dziękuję za miłe słowa. Filtry to podstawa. Mało kto z domowych amatorów dopuszcza do siebie myśl, że miks to przede wszystkim ODEJMOWANIE różnych rzeczy, a nie na siłę ich DODAWANIE 🙂

    • No bo zawsze serce boli jak się wywali coś co jest “moje”, coś co przecież miało być i tworzyć ten utwór. Trochę też strach, że wena kiedyś się wypali i trzeba wykorzystać każdy pomysł.

      Na szczęście po wywaleniu robi się lekko na sumieniu i w piosence :D. Mam tak przy każdym utworze.

    • Trudno bowiem być wobec siebie obiektywnym. Dlatego tak bardzo przydają się szczere opinie innych ludzi, które trzeba wziąć na klatę i się nie cackać z pozbywaniem się czegoś, czego jest za dużo 🙂

  4. Igor, świetny artykuł. Każdy początkujący realizator i “Mikser” 😉 powinien sobie wziąć do serca to co tu napisałeś. Szczególnie zaplanowanie aranżacji i odpowiedni dobór instrumentów są kluczowe dla końcowego efektu. Kilkanaście lat temu, na początku swojej pracy z piosenkami, popełniałem błąd z wykorzystywaniem zbyt wielu instrumentów grających jednocześnie. Ale na szczęście zrozumiałem, że nie tędy droga.
    Warto również oszczędzać z kompresorami 🙂 W niewprawnych rękach mogą zamulić nawet dobrze zaaranżowany kawałek.

    • Zgadza się. Każde nieumiejętnie użyte narzędzie potrafi zepsuć nawet najlepszą kompozycję 🙂

  5. Igor Ja po prostu uwielbiam Cie czytać:)
    separacja to jest to coś z czym sie mierze i mierze mimo dosyć ubogiego instrumantarium jakiego używam do swoich kaałków:)

  6. korekcja to mój ulubiony proces, niemalże lek na wszystko jeśli chodzi o brzmienie 😀

  7. Korekcja korekcją ale jest jeszcze jedna rzecz, na którą trzeba szalenie zwracać uwagę. Filmik od FabFilter świetnie to pokazuje na przykładach:

    https://www.youtube.com/watch?v=efKabAQQsPQ

    Pozdrawiam

    • Z tym ‘szalenie’, to bym nie przesadzal 🙂 Czesto korekcja o liniowej fazie jest gorszym wyborem od zwyklej, co nawet lektor w przytoczonym filmiku potwierdza. Dokladnie ta kwestie poruszam w oddzielnym filmie na kursie korekcji, bo uwazam, ze warto to naprostowac zamiast wciskac ludziom bajki, ze bez takiego korektora ich miksy beda nieprzejrzyste i zamulone, tak jak to zwykle czynia tworcy takowych plug-inow 🙂

  8. Oczywiście kolejny świetny artykuł.

    Mam jeszcze rok nauki w technikum.
    I już powoli myślę o studiach.Walka toczy się pomiędzy informatyką a realizacją.

    • Tak podpowiem, że mało jest programistów audio:D. Chyba Brian Schmidt mówił aby on kogoś zatrudnił np. w M$ to sama realizacja, czy sound design jest świetny ale jednak za mało :D.

      Po za tym jak dla mnie silniki audio w grach są jeszcze bardzo niedoskonałe pogłosy, kompresje itd. czyli sporo można osiągnąć na tym polu! (Np. w naszym Wiedźminie 2 bardzo nienatrualne rzeczy się zdarzały- wersja na konsole. A tam nie trzeba było używac skomplikowanych procesów). A gry, ich realizm i rynek rosną w siłę! 😀 Np. okulary wirtualne itd. itd. 😀

    • Aha no i nie jest tak, że marudzę po prostu jest dużo ograniczeń i potrzeba jeszcze wielu lat i genialnych ludzi by było coraz lepiej. Tak samo jak teraz jest lepiej niż 10 lat temu! 😀 Też dzięki ciężkiej pracy :D.

    • Silniki audio w grach są tworzone przez profesjonalistów, często licencjonowany jest FMOD. Ma trochę niedoskonałości, ale weź pod uwagę że musi być tutaj równowaga i optymalizacja, nie mogą dążyć do jakości kosztem wydajności. Wszystko w takim silniku jest w czasie rzeczywistym, wyobraź sobie ile procesów zajmowałby skomplikowany pogłos który używasz na codzień w produkcji – a to tylko pogłos i tylko sekcja audio, musi być jeszcze miejsce na inne procesy w grze. Tutaj wszystko rządzi się innymi prawami, kompromis jest konieczny, taka jakość a nie inna wynika z tego, że nie mogą zrobić inaczej, nie dlatego że ktoś nie potrafi.

    • Zgadza się są takie graniczenia tak samo jak masa innych rzeczy o których wiemy i nie wiemy.

      Ale nie mogę się zgodzić z ostatnim zdaniem bo nie wszystko zależy od tych ograniczeń, tylko dużo od tego co dany programista czy zespół potrafi. Bo przecież to ludzie zrobili tego FMOD’a, który nie jest taki sam jak każdy inny soft i nie zużywa tyle samo pamięci. Postęp od np. Amigi jest niesamowity, no i by iść dalej potrzebny jest nie tylko lepszy sprzęt i więcej mega ale również kolejni ludzie co będą potrafić więcej:)!

      Dlatego uważam, że ścieżka programisty w audio może być bardzo ciekawa:). Nawet i za sto lat jak ludzie będą się podczepiać pod mózg :D.

  9. Moim sposobem na dobrą separację jest myślenie o niej już na etapie aranżacji właśnie czy nawet kompozycji. Odpowiedni dobór instrumentów i ich użycie pozwala uniknąć konfliktów. Pod tym względem wiele możliwości zostawiają syntezatory które można zaprogramować odpowiednio do sytuacji i wypełnić pasmo tak jak chcemy. Presety wszelakie brzmią świetnie solo, są masywne i efektowne ale nie efektywne, bardzo ciężko je dopasować do miksu. Rozplanowując wcześniej co gdzie powinno się znaleźć i programując pod to brzmienia można zaoszczędzić sobie dużo roboty. Lepiej spędzić godzinę nad jednym brzmieniem niż godzinę nad zastanawianiem się gdzie tu obciąć ten preset żeby zabrzmiało w miksie. 🙂

  10. Pytanie do Igora – Na tytułowym obrazku widać zrzut ekranu z wtyczki ToneBoosters Equalizer, jest to czysty przypadek czy może korzystasz z tego narzędzia lub innych tego producenta? Po pierwszych testach widzę, że cały pakiet Track Essentials działa całkiem sprawnie i mimo bardzo niskiej ceny dalej się zastanawiam nad zakupem, głównie przez względy ekonomiczne muszę korzystać głównie z narzędzi z mniejszym zapotrzebowaniem na procesy, nie wiem jak te wtyczki sprawdzą się w większym projekcie. Jeżeli mógłbys krótko coś na ten temat odpisać to byłoby super. 🙂

  11. Jedno pytanie, na które nie mogę znaleźć odpowiedzi!
    Produkcje muzyczne wykonane przez polskich profesjonalnych inżynierów dźwięku, mających dostęp do najnowszych i najlepszych narzędzi w super wyposażonych studiach; nijak się mają do brzmień osiąganych np. w stanach czy w Anglii. Dlaczego?

    • Zależy w jakim gatunku, jeżeli chodzi o elektronikę (Trance, Techno, D’n’B) to nieraz jakością i masteringiem bijemy na głowę resztę świata. 😛

  12. takie akustyczne motywy to prosto mixowac, jak dobrze nagrane sa sciezki to minimalnymi cieciami mozna wszystko ogarnac i panorama, problem pojawia sie w skomplikowanych elektronicznych kawalach gdzie kazdy syntezator zajmuje prawie cale pasmo a minimalne ciecia powoduja ze ten slad brzmi jak kupa. to jest dopiero filozofia, wiec o mixowaniu za pomoca EQ nie ma prawie w ogole mowy, w takim momencie trzeba dobrze napisac utwor tak jak igor wspomnial, najlepsze utwory z ukf maja idealnie dbrane barwy, czesto zmieniaja sie bassy pady i leady lecz one nigdy nie graja wszystkie w jednym momencie co powoduje fajny movement, an dodatek dobry layer z bassem ktory idzie srodkiem + pad ktory idzie mega szeroko potem znow jakis bass ktory jest bardzo waski a potem znow inny syntezator z mega szeroka melodia, to powoduje ze tworzy sie swoisty movement dla sluchacza , zazwyczaj robia tak w dubstepowych kawalkach, jakby caly czas wszystko szlo mega szeroko pad +bass +lead to w ogole by nie bylo movementu 🙂 dlugo sie borykalem z tym problemem lecz trzeba wlasnie sie wsluchac w komercyjne traczki 🙂 slyszalem tez ze slynny skrillex dodaje kanal send ktory poszerza panorame i ustawia na nim side chain z kicka i snara co powoduje mega movement 🙂 polecam lecz trzeba uwazac bo bardzo latwo o problemy z faza

  13. WItam mam pytanie czy znacie jakas wtyczke vst porządnie obsłującą filtry górno i dolnoprzepustowe ??

  14. Ja ostatnio przeżyłem wielkie zaskoczenie, w trakcie zmagań z własnym coverem jednego kawałka Blue Oyster Cult. Nagrałem gitary, bębny miałem z abbey road drums, klawisze z db-33 w PT. Zbliżałem się do końca, nie mając nagranej gitary prowadzącej, bo nie umiałem grać tej partii na tyle dobrze, aby ją nagrać na raz. Wszystko brzmiało słabo, nic się do siebie nie kleiło, wręcz działało bardzo drażniąco. Oczywiście wpadłem na pomysł dodania kolejnych instrumentów grających mniej więcej to samo. Oczywiście ścieżki po zmarnowanych 2 godzinach wyleciały przez okno, bo nic to nie dało. W końcu dograłem gitarę prowadzącą. Nic się nie zmieniło. Kolejna melodia odstająca od reszty. Zmieniłem brzmienie gitar rytmicznych i gitary prowadzącej i popracowałem trochę nad brzmieniem hammonda. Zostawiłem to wszystko na chwilę, poszedłem coś zjeść, obejrzeć odcinek jakiegoś durnego serialu. Wracam i EUREKA, jakieś elfy sprawiły że kawałek JAKOŚ brzmiał. Te same nagranie, kilka drobnych zmian i wszystko nabrało zupełnie innego wymiaru. Dodałem do tego jeszcze flet i kompletnie mnie to powaliło. Jak nie moje nagranie. Oczywiście teraz po jakimś czasie słyszę jak bardzo słabo to wszystko brzmi, ale wtedy to i tak był wielki przeskok. Przyjemnie było by pracować świadomie, a nie jak dziecko po omacku.

    • Przerwa i odpoczynek od kawałka potrafią zdziałać cuda. Nabieramy dystansu i świeżej perspektywy. W tym właśnie czasie Elfy zabierają się za robotę… 🙂

Zostaw komentarz