Zasady Prawidłowej Korekcji – Pytania Od Czytelników

Co jakiś czas na blogu będą pojawiać się wpisy inspirowane pytaniami zadawanymi przez Was w mailach. Muszę przyznać, że niektóre z nich poruszają ciekawe i ważne kwestie, dlatego uznałem, że od czasu do czasu odpowiem na nie na łamach bloga, aby każdy mógł dowiedzieć się czegoś nowego czy ewentualnie uzupełnić posiadane już informacje.

Kilka dni temu zostałem spytany przez Grzegorza o kwestię korekcji poszczególnych śladów w miksie:

Witaj Igorze. Wciąż borykam się z tym samym problemem. EQ poszczególnych ścieżek w miksie. Nie wiem za bardzo, co i jak podbijać w praktyce.

Szukając więcej informacji w sieci Grzegorz natrafił na opracowanie, w którym wspomniano o trzech rejonach, które są kluczowe dla każdego instrumentu – podstawa, wyróżnienie i prezencja. Na tej podstawie zadał mi następujące pytanie:

Czy każdy ślad należy podbijać w tych trzech miejscach?

Nie, nie i jeszcze raz nie.

Dlaczego?

Bo nie tędy droga i nie powinniśmy w ogóle myśleć o korekcji w ten sposób.

Zanim jednak odpowiem na to pytanie bardziej szczegółowo, pozwólcie, że szybko nakreślę, o jakich pasmach jest tu mowa:

  • Podstawa (częstotliwości fundamentalne) – tu znajduje się energia, waga i ciężar brzmienia danego śladu. Głównie dzięki tym pasmom jesteśmy w stanie określić wysokość granego dźwięku. Można przyjąć, że są to okolice od ok. 120Hz do 400Hz.
  • Wyróżnienie – okolice 800 – 2000Hz. Manipulacja tym pasmem może spowodować znaczną zmianę charakteru brzmienia danej ścieżki i przez to pomóc w rozróżnianiu poszczególnych śladów w miksie. Jest szczególnie przydatna, jeśli mamy do czynienia z dwoma instrumentami zajmującymi podobne pasma. Możemy wtedy na jednym z nich podbić powiedzmy okolice 1kHz robiąc jednocześnie ujęcie tego samego pasma na drugim instrumencie. Zmodyfikujemy lekko charakter, ale uzyskamy lekko lepszą separację między tymi dwoma ścieżkami.
  • Prezencja – okolice 3 – 5kHz. Ten zakres odpowiada za wyrazistość, czytelność i bliskość danego śladu. Dzięki podbiciu tych pasm możemy odnieść wrażenie, że ścieżka jest jakby bliżej słuchacza, jest jasna i klarowna. Z kolei, ujęcie informacji w tych rejonach odsunie ścieżkę na dalszy plan i spowoduje jej nieznaczne zmatowienie – co też czasem bywa pożądane.

Te wszystkie cyferki są oczywiście umowne, bo po raz kolejny chcę podkreślić, że jak ktoś szuka sztywnych zasad i dokładnych liczb, to minął się z powołaniem i powinien zająć się matematyką.

Dlaczego nie należy podbijać tych wszystkich trzech miejsc na każdej ścieżce ?

  1. Jeżeli podbijesz każde z tych pasm (oczywiście w zależności od ilości wzmocnienia i dobroci filtra), to nie zrobisz generalnie nic, co pomoże danemu instrumentowi. Jeżeli podbijesz podstawę o 3dB, wyróżnienie o 3dB i prezencję o 3dB, to charakter brzmienia się prawie nie zmieni, a tylko podniesiesz poziom tej ścieżki, co czyni cały proces bezsensownym. Równie dobrze mógłbyś podnieść suwak o te kilka dB i osiągnąłbyś lepszy rezultat, bo obyłoby się to bez zniekształceń, które wprowadza EQ. Możesz sobie tylko wyobrazić, co by się stało, gdybyś postąpił tak z każdym śladem…
  2. Korekcji używa się m.in. po to, żeby uzyskać spójność i balans między wszystkimi śladami w miksie. Jeżeli podbijesz na każdym z nich podstawę, to zanim się obejrzysz, będziesz miał muł, błoto i jedno wielkie dudnienie w niskim środku. Nie bez powodu, odcina się najniższe pasma w ścieżkach innych niż bas i stopa, bo zostawia się im miejsce do lśnienia w tym właśnie przedziale. Gdybyś np. nie odfiltrował dołu ze ścieżki gitary akustycznej, to maskowałaby ona rejony 100Hz, czyniąc bas mało słyszalnym i wyraźnym. Bas przenosi mnóstwo energii w tym paśmie i zasłanianie go innymi instrumentami spowoduje, że żaden z nich nie będzie wyraźny, a Ty będziesz słyszał jedną wielką zmieloną pulpę zamiast dobrego punktowego i skupionego dołu.
  3. Podbijanie fundamentalnych pasm ma sens tylko wtedy, gdy nam ich brakuje, a to się rzadko zdarza. O wiele częściej trzeba tych pasm instrumentom ujmować, bo są to rejony bardzo podatne na kumulowanie się nieprzyjemnych rezonansów i niemożliwe jest, aby w miksie każdy ślad zachował tu multum informacji. Jeżeli przykładowo podbijesz podstawę na ścieżce pianina, bo chcesz, żeby wiodło prym i było solidne, to raczej słabym pomysłem będzie podbijanie tego samego rejonu na gitarze akustycznej w tym miksie. Oba instrumenty się zamaskują, szybko wytracisz headroom, miks zaleje się błotem i żaden z tych instrumentów nie będzie słyszalny. O wiele lepiej byłoby podciąć delikatnie podstawę gitary akustycznej (żeby odseparować ją od pianina) i na przykład popróbować znaleźć inne miejsce, wyżej na skali i je zaakcentować. Jeśli podbiłbyś delikatnie np. okolice 4kHz i jednocześnie zaaplikował filtr dolnoprzepustowy na pianinie ustawiony na kilku kHz, uzyskałbyś o wiele lepszą spójność, balans i klej oraz rozróżnienie, bo każdy z instrumentów będzie miał swoje małe podwórko i nikt nikomu nie będzie wchodził w drogę.
  4. Z tym wiąże się też kolejna zasada – kontrast. Nigdy nie uda Ci się zrobić tak, aby każdy instrument był super jasny (jak i przestrzenny, szeroki, czy bliski ucha). Jeżeli chcesz, aby jakiś ślad był wyraźnie jasny, to musisz to zrobić w kontekście pozostałych ścieżek. Jeżeli podbiłbyś prezencję na każdym śladzie, bo chciałbyś uzyskać efekt „prosto w twarz” z każdej ścieżki, to tak się niestety nie uda. Uzyskasz to tylko dzięki upewnieniu się, że inne ślady nie mają zbyt zaakcentowanego tego zakresu. Może się nawet okazać, że będziesz musiał na kilku tych innych śladach tą prezencję przyciąć, żeby jeszcze bardziej skontrastować te ślady z tym, który ma się wybijać.
  5. Podbijanie jest o wiele gorszym pomysłem od podcinania. Pisałem już o tym kiedyś, dlatego tylko zrobię tu szybkie przypomnienie. Przy podcinaniu jakichś częstotliwości nie ingerujemy aż tak mocno w przesunięcia fazowe, jakie mają miejsce podczas używania niemal każdego korektora. Podcinając pasma uzyskujemy bardziej naturalny charakter. Np. zamiast podbijać skraje pasma, czyli najniższe i najwyższe częstotliwości, spróbuj podciąć trochę środka i podnieść lekko poziom wyjścia po equalizacji. Nawet na logikę – jest to dokładnie to samo, ale zabrzmi naturalniej.
  6. Inna rzecz – nie da się podbić i wyciągnąć czegoś, czego nie ma w nagranej ścieżce. Jeżeli ktoś się słabo spisał podczas nagrania i powiedzmy, że wokalowi brakuje góry pasma, bo nagranie to miało miejsce w zamkniętym i małym pomieszczeniu wyłożonym jakąś piramidką, to nie oczekujmy, że podbicie góry EQ magicznie naprawi całą sytuację. Jedyne, co podbijemy, to hałas, szum preampa czy mikrofonu, czy inne rzeczy, których nie chcemy. Wszystko dlatego, że EQ samo z siebie, nie dodaje do ścieżki czegoś, czego tam oryginalnie nie było. Znacznie lepiej byłoby tu postarać się odciąć wszystko to, co nie jest dobrze brzmiącym wokalem, czyli najniższe częstotliwości i wszelkie rezonanse wynikające z nagrania w jakiejś fatalnej kabinie. To zabrzmi o wiele lepiej. Jeśli tego będzie mało, to zamiast podbijania góry korektorem, można spróbować wygenerowania trochę harmonicznych, które pozwolą rozjaśnić wokal bez akcentowania tych wszystkich szumów. Opcji jest kilka…
  7. Nie da się określić, jak dużo danego pasma na danej ścieżce jest potrzebne, jeżeli używamy korekcji tylko w trybie solo. To bardzo popularny błąd wśród początkujących – możecie starać się dążyć do tego, aby każdy ślad brzmiał fantastycznie, gdy odsłuchiwany indywidualnie – solidny dół, wyraźny środek i dużo powietrza w górze. Możecie tak przejść przez wszystkie ślady w miksie i zrobić korekcję pojedynczych ścieżek bez odsłuchiwania w kontekście. Problem polega na tym, że jak odpalicie teraz cały miks, to ŻADNA ze ścieżek nie będzie brzmiała tak dobrze, jak brzmiała w solo. Dlaczego? Otóż dlatego, że mamy w miksie tylko 100% miejsca, a nie możemy wykorzystać 100% dla basu, 100% dla bębnów, 100% dla wokalu, etc. Podbijanie każdego pasma i na każdym śladzie szybko zajmie nam całe dostępne miejsce, a miks i tak będzie brzmiał fatalnie. Należy tak żonglować dostępnymi pasmami, aby zapełnić te nasze 100%, ale z głową. Należy zdecydować, które instrumenty będą „ciągnęły ciężar miksu”, które będą przodowały w środku, a które będą stanowiły o oddechu czy powietrzu w miksie. I często będzie na przykład tak, że odetniemy trochę najniższych częstotliwości z wokalu, bo trzeba zrobić miejsce na bas i może podbijemy trochę okolice 3-4kHz na gitarze akustycznej, bo za mało się przebija w miksie, a przy okazji odfiltrujemy wszystko powyżej kilku kHz na ścieżce basu, bo nic tam oprócz świstu nie słychać, a potrzebujemy trochę miejsca na lekkość i powietrze w wokalu i tym podobne… Tego typu decyzje należy podejmować podczas korekcji.

Podsumowanie

Mam nadzieję, że udało mi się choć w pewnym stopniu rozwiać wątpliwości związane z podejściem do korekcji instrumentów w miksie. Warto zaznajomić się również z tym, w których rejonach leżą te pasma dla poszczególnych instrumentów. Są nawet w sieci specjalne tabelki, które obrazują nam, co konkretnie znajdziemy w poszczególnych pasmach na różnych instrumentach. To mogą być bardzo dobre drogowskazy (przynajmniej na początek), bo przyspieszą nam zapoznawanie się z charakterystyką brzmień poszczególnych instrumentów. Potem będziemy robić to odruchowo i bazując na własnym słuchu, bo o to właśnie chodzi w korekcji…

Grzegorz, dziękuję Ci za dobre pytanie i mam nadzieję, że uzyskałeś zadowalającą odpowiedź. Jeśli coś jeszcze byłoby w tej kwestii dla Was niejasne – komentujcie poniżej, a ja w miarę możliwości uzupełnię, co trzeba.
Zostawić komentarz ?

59 Komentarze.

  1. 100% true 😀 dodatkowo chciałbym coś dorzucić :D.

    Polecam myśleć:D i nie ruszać niczego(ale naprawdę niczego nie oszukiwać siebie samego) póki nie zrozumiemy w 100% co chcemy danym ruchem zrobić. Niech te cele będą bardzo konkretne a nie ogólnikowe. Wsłuchać się w muzykę, miks to dla mnie bezapelacyjnie sztuka piękna. A jak zrobimy coś czego nie potrafimy wytłumaczyć to strzelić sobie po palcach:). Ze strzelaniem można poczekać, bo po pierwszym dniu już nikt nie miałby palców:).

    • Świadome decyzje i próba realizacji założonych celów to podstawy osiągnięcia dobrych rezultatów. Bez strzelania 😉

    • No właśnie podstawa… ale myślę, że nie jest wcale tak oczywista jak być powinna. Szczególnie na początku.

      (P.S. Mała sprawa ale myślę, że większość osób jest z Polski więc może warto przestawić zegarek na blogu o godzinę w przód? Chyba, że coś u mnie źle ale juz od daaaawna o tej godzinie myślę:P.)

    • Bo ludzie zwykle zaczynają od złej strony… Godzina przestawiona.

    • Ej ta godzina od miesięcy mi w oku tkwiła. A tu hokuspokus:D.

      Co do EQ to niby większość czasu powinno miksować się w mono. Ja tak spędzam maksymalnie 1/3 czasu nie lubię więcej. A Wy jak często działacie w mono stereo?

    • Ja lubię czasem na początku miksu poziomy i EQ ustawiać w mono. Potem pod koniec miksu robię czasem szybkie sprawdzenie, czy mi się faza zgadza, czy nic nie znika, etc.

    • No to ja podobnie. Plus kontrolnie wracam, upewniam się.

    • U mnie proporcje to jakieś 4:1 (stereo/mono). Głównie stereo ale i tak co chwilę robię odsłuch w mono a na zakończenie na różnych dziwnych sprzętach AGD.

    • Hahaha AGD 😀 tez takie mam :D.

    • np na lodówce ? pralce ?:D

    • Mlynek do kawy dobre bity daje :D.

      Btw. to fajny nowy baner ! 😀 Bardziej pro 😀 ale stary i tak zachowam na zakladce strony :D.

    • Preferuję odkurzacz bezworkowy 😯

    • R.O. Możesz podać link do swoich prac, bo piszesz fajnie 🙂

  2. ja mam może bardzo banalne ale nurtujące mnie pytanie – Na czym polega realna różnica w brzmieniu Equalizerów wtyczkowych? No bo wydaje się że to tylko “matematycznie” podbicie konkretnej częstotliwości o konkretną ilość decybeli. Ile jest prawdy w stwierdzeniu że jakiś kompresor (wtyczkowy) brzmi świetnie, a inny tandetnie?

    • Różnica polega na tym, co słyszysz.

    • Zrobiłem małe “badania” w tym kontekście bo zaciekawiło mnie zupełnie odmienne brzmienie wtyczek z tej samej “stajni” i okazało się, że nie tylko to słychać ale i widać na wykresach. Jutro – mam nadzieję – opublikuję wpis na swoim blogu, który rozjaśni co nieco.

  3. Jak zawsze przyjemnie i przejrzyście wyjaśniony temat. 🙂

    Czy mógłbyś krótko wyjasnić czym jest headroom? Spotykam się z tym czasem a na dobrą sprawę nie wiem co oznacza.

  4. Super artykuł. Dzięki !! 🙂
    Gdy zaczynałem, to osłuchiwałem i mixowałem ścieżki w solo…oj ale potem muł wychodził !! :D:D do teraz śmieję się z tamtych mixów ;p

    • Tak długo, jak jakaś ścieżka nie będzie w utworze występowała solo, nie ma sensu sobie głowy zawracać np. tym, jak dużo obetniemy z niej dołu czy coś – to całość ma mieć sens, jako jeden twór.

  5. Witam. A czy możesz (możecie) podać jakiś link do takiej tabelki o której piszesz w tekście? Pozdrawiam.

  6. Mam pytanie co do generowania harmonicznych w wokalu – jakie narzędzie może temu posłużyć?

    • Np. Sonnox Inflator, DaD Valve, Antares Tube czy miliard innych. Nawet delikatnym przesterem możesz to osiągnąć.

  7. mnie np zdarza się robić eq w solo ale klikam solo jak chce przyglądnąć się ścieżce dogłębniej, czyli czy nie zostawiłem jakiś brzydkich rezonansów, albo jakiś dziwnych rzeczy które nie zawsze wychwycę przy słuchaniu całego mixu. Miewam tak ze w pewnym momencie po ustawieniu eq dawno temu w tyle wychwycę gdzieś coś co mnie drażni, wtedy sięgam po solo i szukam gdzie to dokładnie się znajduje. Kilka razy miałem tak, że nie wiedziałem w której ścieżce mi coś brudzi, solo bebnow .. pozniej z bassem i dokładam aż znajde na ktorej to jest ścieżce, nie wiem czy to dobry tok myślenia ale tak mi się zdarza pracować

  8. Dzięki Igor za artykuł. Jako początkująca osoba nie wiedziałem o podcinaniu częstotliwości na podobnych zakresach.Wciąż tylko coś podbijałem 😳 Wiele wyjaśnił mi artykuł i kieruję słowa uznania.
    Myślę że teraz może być już tylko lepiej 😉

  9. Dzięki za kolejny świetny wpis, Igorze. I tak w ogóle to witam, bo Zakamarki śledzę niemalże od początku, ale to dopiero mój pierwszy wpis :mrgreen:
    Artykuł bardzo pomocny, jednak jestem zdania, że nie należy do końca rezygnować z funkcji solo. Podobnie jak Adam, odsłuchuje pojedyncze ścieżki aby wychwycić brudzące rezonanse, jednak często zdarza mi się kreować całe brzmienie w trybie solo, ciągle podsłuchując sumę i regularnie korzystając z bypassu na wtyczkach do porównania efektów. Robię tak zawsze z bębnami (od których przeważnie zaczynam miks utworu) i, o dziwo, wychodzą mi one najlepsze – tłuste, pełne, głębokie. Kiedy dopasowuję do nich pozostałe instrumenty, nie mają już tyle mocy, perkusja natomiast zachowuje swą energię, mimo że była equalizowana w trybie solo. Nieco dziwna sprawa, jednak jestem zdania, że gdy ma się od początku koncepcję i wyobraźnię odnośnie brzmienia całości to dopuszczalne są również manewry na poszczególnych trackach.
    Co natomiast nurtuje mnie bardziej od EQ to balans przestrzenny. O ile od niedawna zacząłem sprawnie panować nad mułem i innymi nieprzyjemnymi zjawiskami w pasmach, to nie umiem tak operować szerokością stereo, pogłosami i resztą efektów przestrzennych aby osiągnąć satysfakcjonującą separację. Ciągle wszystko rozlewa się na wszystkie plany i w efekcie dostajemy jedną wielką plamę dźwiękową. Byłoby naprawdę super, gdybyś mógł poświęcić temu aspektowi trochę uwagi w nadchodzących wpisach 😀
    Jeszcze raz dzięki i pozdrawiam!

    • dołączam się do prośby ;]

    • I dobrze robisz, bo nikt nie powiedział, że praca w trybie SOLO jest zła. Zła jest praca wyłącznie w trybie SOLO na poszczególnych trackach bez przesłuchu na brzmienie całości – i o tym Łukasz tutaj pisał. Co innego zrobić sobie bębny i później w trybie solo dołączać kolejne instrumenty, ale po każdej ingerencji w brzmienie przesłuchiwać ślad w kontekście całego miksu, a co innego zrobić bębny w solo, później piano w solo, później bass w solo itd, nie przełączając się pomiędzy tymi krokami na kontekst całości.

      Tak jak piszesz – używasz trybu SOLO przy kreowaniu brzmienia ścieżki, ale jednak w trakcie tego przełączasz się na sumę i słuchasz śladu w kontekście całości. Czyli robisz tak jak powinno się robić 🙂

      Jeżeli chodzi o przestrzeń w miksie to przede wszystkim najważniejszym elementem przy budowie przestrzeni stereo jest bardzo dokładne rozłożenie instrumentów w panoramie miksu. Jeżeli tutaj spieprzymy proporcje, to żaden reverb, żaden kompresor, czy delay nie sklei nam miksu w dobrze, szeroko brzmiącą całość…

    • Dokładnie ‘rozny’. Przecież ja nigdzie nie napisałem, że SOLO jest zabronione… Trzeba tylko wiedzieć, żeby na nim za bardzo nie polegać. Co do przestrzeni, to też ‘rozny’ krótko podsumował, skąd się ona bierze. Bo kolejny mit wałkowany przez początkujących to przeklęte wtyczki typu stereo enhancery i im podobne. Jak przestrzeń w samym miksie kuleje, to żadne magiczne narzędzia tego cudownie nie poprawią.

    • POSZCZEGÓLNE ŚLADY MAJĄ GRAĆ RAZEM DOBRZE JAKO MIKS, a co wam przyjdzie z tego że każda ze ścieżek będzie grała solo dobrze.
      Ja często działam tak że szukam jakiś niepokojących mnie dźwięków w trybie solo a po chwili włączam cały mix (nie wyłączając narzędzia którym aplikowałem jakiekolwiek zmiany) i słucham co to wniosło do mixu. Podczas odsłuchiwania dokonuje cały czas zmian jeśli nadal nie jestem zadowolony z dźwięku.

      Pamiętajmy również o tym że są momenty w miksie gdy instrumenty grają często same (czyli solo), mam na myśli intra czy różnego rodzaju mostki. Może sie zdarzyć że w kluczowym momencie naszego miksu wszystko będzie grało wyśmienicie ale gdy jeden z instrumentów zagra samodzielnie (np. gitara) w jakieś wstawce może okazać sie ze zbyt agresywnie odfiltrowaliśmy dół lub górę lub inne pasma. To co sprawdzało sie w miksie w momencie gdy ilość instrumentów była skumulowana może nie sprawdzić sie w innych momentach. Wtedy można lekko przywrócić “życie” takiemu instrumentu ale również z głową aby w obu fragmentach utworu brzmiał nadal dobrze.

      nie lubie kompromisów ale z racji tego że wiele instrumentów w naszych miksach zajmuje zbliżone do siebie pasma trzeba często wybierać pomiędzy tym co zagra bliżej a tym dobrze będzie oblegało nam dół i środek miksu.

    • Dziękujemy za powtórzenie wszystkiego co zostało napisane powyżej 🙂

    • rufinmusic

      Jak człowiek coś napisze, lub przepisze, to lepiej zapamiętuje :mrgreen:

    • Tyż prawda 🙂

  10. Z EQ wiąże się jeszcze jedno, bardzo ciekawe dla mnie zagadnienie i chętnie się dowiem jak sobie z tym radzicie. Okej, mamy gęsty miks, instrumenty ładnie umocowane w swoich pasmach, jest klarownie i dynamicznie. Załóżmy teraz, że chcemy dodać kontrastowy fragment, gdzie dla odmiany grają tylko 2 instrumenty. Przy tak skromnej aranżacji tę korekcję siłą rzeczy będzie słychać. Jak sobie z tym radzicie? Ja najczęściej robię automatykę equalizacji i w tych ascetycznych fragmentach oddaję instrumentom to, co im wcześniej zabrałem, ale oczywiście staram się to robić ostrożnie; tak żeby rezultat był bardziej odczuwalny niż słyszalny. Ale bywa to trudne. Zwłaszcza kiedy aranż gęsty i korekcja konkretna…

    • Automatyzacja poraz kolejny pomaga:D.

      Czesciowo problem sam sie rozwiazuje naturalnie, bo jak inne instrumenty znikaja to odslaniaja te co zostaly. Moze wystarczyc lekka automatyzacja volume, panoramy. Nie bedzie korekcji slychac, a jezeli bedzie to moze cos jednak zle poszlo w korekcji czy nagraniu.

    • No ale jak zawsze zalezy od styuacjii :D, czasem tez zmieniam poziom wysylek(np. reverbu, czy rownoleglych itp. itd.).

    • Generalnie tego typu przejścia robi się przy pomocy automatyzacji. Innym sposobem jest spreparowanie sobie dodatkowych śladów, które maja zagrać “solo”, podzielenie całego pasma względem tych śladów i płynne przejście na te ścieżki przez fade in/fade out.

  11. Igor- czy moglbys sie odniesc do plugina Har Bal 2.
    Jest to tez pewien rodzaj korekcji ale czysto wizualnej. Nie wiem czy gra warta swieczki. Wyglada bardzo interesujaco ale czy taka korekcja ma sens?
    http://streamworksaudio.com/products/harbal-complete

    • Spróbuj, to się przekonasz. Jedno, co pewne, to to, że niczego oprócz rysowania się nie nauczysz 🙂

    • remaztered

      Jest to ciekawa sprawa. Za 5$ raczej nie jest to wysokiej klasy narzedzie. To samo, w lepszy sposób, potrafi ozone4.

    • remaztered to co kosztuje $5 to aplikacja na iPhona lub iPada.
      Na PC to koszt $99…

    • remaztered

      Dzieki za info.

  12. Adrian2610

    Ja trochę z innej beczki. POMOCY!
    Mam problem polegający na tym, że zmiksowany utwór wewnątrz daw przed zrobieniem mixdown brzmi inaczej niż po zrobieniu mixdown, kiedy odsłuchuję go w windowsie. Zrozumiałbym jakieś drobne różnice wynikające z odtwarzania dźwięku w innym odtwarzaczu ale różnica jest naprawdę duża. Używam Studio One, miksdown robię do do WAVE.

  13. Igorze, a jak to jest z umiejscawianiem instrumentów w pionie (wysoko, nisko). Wiem, jak ustawić lewa/prawa, bliżej/dalej ale za nic nie umiem wysoko/nisko, np. dwie gitary, syntezatory itd.

    • Głównie poziom i podział pasmowy – wyższe częstotliwości sprawiają zwykle wrażenie dochodzenia z góry, niskie – z dołu.

  14. Wzywającemu POMOCY Adrianowi2610 Adam poradził kupić oryginalny DAW. Ja mam oryginalny Cubase LE (kupiony kiedyś z interfejsem Lexicon) i doświadczam tego samego wręcz zniechęcającego do homerecordingu osłabiania jakości dźwięku przy eksportowaniu miksu zrobionego jako plik z rozszerzeniem .cpr (cubase project) do .wav w celu wykorzystania na demo CD. Adrianie2610, jak sobie radzisz? Ja, bardzo sfrustrowany, zdecydowałem wydać takie pogorszone demo.
    Igorze, gdzie jest wpis o tym samym nieszczęsnym zjawisku przy robieniu mixdown z Cubase do mp3? Wycofałeś go i swoją odpowiedź?
    Z pozdrowieniami
    Maciej

    • Nic nie wycofałem 🙂 Mp3 zawsze będzie słabiej brzmiało od projektu wewnątrz DAW. Weź pod uwagę, że to jest blisko dziesięciokrotnie skompresowany pod względem danych format… Coś musi ucierpieć! Macieju, prośba – nie dubluj komentarzy 🙂 Raz wystarczy.

  15. Niczego nie dublowałem. Widocznie przeszło gdy mnie się wyświetlał błąd nieczytelnego tokena. Sorry.
    Czy mógłbyś odpowiedzieć na postawiony przeze mnie problem? Ja zgrywałem do .wav a nie do mp3.
    Maciej

    • Wskoczyło dwa razy, możliwe że przeszło bez Twojej wiedzy. Jeśli mówimy o wav, to często ten problem jest tylko kwestią dopasowania głośności, sterowników i interfejsu/karty. W DAW pracujesz na wyższych poziomach, a jak zgrywasz i odsłuchujesz w jakimś playerze, to jest słabiej i ciszej. Co mogę Ci poradzić, to robić miksy i mastery w oparciu o zaimportowane ścieżki referencyjne. Wtedy będziesz miał pewność, że to co robisz wewnątrz stacji roboczej przełoży się później odpowiednio na odsłuch w zwykłym odtwarzaczu.

Zostaw komentarz