Po Co Wykonujemy Mastering?

Począwszy od dzisiejszego wpisu, przejdziemy krok po kroku przez cały proces masteringu, którego możemy dokonać we własnym zakresie.

Wspomniałem ostatnio, że w gruncie rzeczy jest to dość łatwy proces, bo nie wymaga od nas nadzwyczajnych zdolności technicznych, ale to tylko część sukcesu.

Przyjrzyjmy się (ponownie i do znudzenia…) dokładniej temu, na czym mastering polega:

Co to jest mastering?

Mastering, to proces, w którym z zestawu pojedynczych piosenek tworzymy spójną płytę. Taki efekt osiągamy dbając o to, aby utwory sprawiały wrażenie, jakby pochodziły z tej samej sesji, studia, dnia nagrania, etc. Staramy się je dopasować do siebie pod względem balansu częstotliwości, postrzeganej głośności i odstępów między nimi – tak, aby tworzyły jednolitą strukturę.
Bobby Owsinski
.

I na tym generalnie polega mastering – zbieramy utwory do jednej sesji i za pomocą konkretnych narzędzi staramy się im nadać możliwie jednolity charakter – po to, aby zostały odebrane, jako jedna, spójna całość. Zamieniamy pojedyncze piosenki w płytę. Wspólnym celem każdej sesji masteringowej jest to, aby zebrane utwory brzmiały na koniec dnia możliwie najlepiej.

Tu mała dygresja. Obiecywałem, że oprócz tradycyjnego podejścia do kwestii masteringu, o którym napisałem powyżej, spojrzymy też na popularne ostatnimi czasy masterowanie jednego utworu. Jeśli naszą intencją nie jest wydawanie kompletnego albumu i raczej produkujemy single, to teoria powyżej ma tu niewielkie zastosowanie. W takim przypadku możemy przyjąć, że mastering pojedynczego utworu dąży do uzyskania możliwie najlepszego brzmienia poprzez użycie konkretnych narzędzi i porównywanie naszego utworu do innych oficjalnych wydawnictw. Jest to nic innego, jak korzystanie ze ścieżek referencyjnych, do którego powinniście już na tym etapie przywyknąć. Szanse, że poradzicie sobie z dopasowaniem brzmienia swojego utworu do utworów swoich ulubionych lub wzorcowych artystów bez użycia ścieżek referencyjnych – są bardzo małe.

W obu przypadkach, nadrzędnym celem masteringu jest osiągnięcie finalnego brzmienia, do słuchania którego jesteśmy przyzwyczajeni w radiu i na płytach.

Kiedy potrzebujemy masteringu?

  • Jeśli nasz utwór brzmi nieźle sam w sobie, ale jest zdecydowanie cichszy w porównaniu z innym utworem.
  • Jeśli nasz utwór brzmi nieźle sam w sobie, ale jest zbyt “jaskrawy” lub zbyt “zamulony” w porównaniu z innym utworem.
  • Jeśli nasz utwór brzmi nieźle sam w sobie, ale jest zbyt lekki, brak mu odpowiedniego ciężaru w porównaniu z innym utworem.

Czym nie jest mastering?

Nie jest to zestaw tajemniczych narzędzi, przez które wystarczy przepuścić nasz miks, aby w rezultacie automatycznie wyszedł z tego pięknie zmasterowany utwór. To bardziej sztuka, która wymaga nieprzeciętnego słuchu, doświadczenia w pracy z różnymi gatunkami muzycznymi i dobrego smaku. Pomimo swojej relatywnej prostoty, mastering wymaga mocno analitycznego myślenia – zauważycie to, kiedy zaczniemy bardziej wchodzić w szczegóły. Na razie wystarczy nam wiedzieć, że kierując się kilkoma zasadami i znając na wylot swoje narzędzia, możemy bez trudu sprawić, aby nasze utwory zabrzmiały lepiej – zakładając, że nie mamy wygórowanych i przesadnych wymagań. Poza tym, z uwagi na to, że stosunkowo łatwo jest polepszyć brzmienie utworu podczas masteringu – tak samo łatwo jest mu zaszkodzić.

Co robi inżynier masteringu podczas sesji?

Nie wiem, czy ktoś z Was kiedykolwiek uczestniczył w sesji masteringu. Ja miałem okazję być na kilku takich sesjach i za każdym razem zauważałem pewne prawidłowości, jak i sytuacje unikalne. Podczas takich prac, inżynier musi oczywiście reagować na to, co dzieje się w utworze, musi dobrać odpowiednie narzędzie do danej sytuacji i prawidłowo z niego skorzystać. Jak wiemy, każdy utwór jest inny, każdy miks jest inny – inne będą też problemy, na jakie możemy wtedy napotkać. Poniżej zebrałem listę czynności, które zwykle wykonuje inżynier masteringu podczas pracy – kolejność nie jest sztywna:

  1. Wnikliwa analiza pliku audio i ewentualne edytowanie kliknięć, popów, trzasków, szumów – tak, aby były niesłyszalne.
  2. Dodanie odpowiedniej ilości EQ i kompresji (ewentualnie innych procesów), aby projekt brzmiał pełniej, tłuściej i głośniej.
  3. Korygowanie niezbalansowanej panoramy, poszerzanie lub zawężanie bazy stereo – głównie za pomocą narzędzi działających w trybie M/S.
  4. Aplikowanie ditheringu na końcu łańcucha sygnału.
  5. Skrupulatne monitorowanie sygnału ‘przed’ i ‘po’ stosowanych zabiegach, korzystanie z wyspecjalizowanych analizatorów i mierników.
  6. Monofonizowanie najniższych częstotliwości.
  7. Dopasowanie do siebie poziomów głośności wszystkich utworów.
  8. Upewnienie się, że fade’y są gładkie i trwają tyle, ile powinny (głównie za pomocą automatyki)
  9. Zadbanie o płynne przechodzenie jednego utworu w drugi (ustalenie przerw między utworami, jeśli docelowo album ma być wydany na CD).
  10. Ustalenie optymalnej kolejności utworów na płycie.
  11. Dodanie kodów PQ i ISRC oraz CD-textu (tu nie jestem pewny, jak wygląda sytuacja w polskich studiach masteringowych, nie jestem zaznajomiony z zawiłościami Zaiks-u i tego, jak współpracują z artystami).
  12. Zrobienie kopii zapasowej i przekazanie materiału do tłoczni.

W przypadku pracy z tylko jednym kawałkiem, zauważyłem jeszcze następujące czynności (oprócz kroków 1-6 oraz 12 wymienionych powyżej):

  • Wprowadzenie do sesji 2-3 utworów referencyjnych celem doprowadzenia naszego utworu do w miarę zbliżonego do nich brzmienia. Kiedy ja umawiałem się na sesję z inżynierem masteringu, ten zawsze prosił mnie o przyniesienie ze sobą śladów referencyjnych, żeby mógł mniej więcej kojarzyć, w jakie rejony brzmieniowe powinien celować.
  • Zdarzało się, że miksy, które dostawał, miały mniejsze lub większe niedociągnięcia i czasem odsyłał je do ponownego miksu.
  • Byłem też świadkiem sytuacji, w której dostarczony utwór był nagrany zbyt wolno… To błąd, wręcz „wielbłąd” producenta, inżyniera nagrań, zespołu – wszystkich po kolei. Sytuacja nie pozwalała na powtórzenie nagrań, więc poproszono inżyniera masteringu, żeby przyspieszył utwór o kilka BPM. Rezultaty wprawdzie nie były najgorsze, ale takie rzeczy powinno się rozwiązywać na początku nagrań, a nie w ostatniej fazie produkcji…

Sytuacje są różne i w zależności od tego, z jakim utworem (lub utworami) będziemy mieli do czynienia, nasze kroki i działania powinniśmy adoptować do danego przypadku. Podobnie, jak w przypadku miksowania, nie ma jednego, zawsze sprawdzającego się sposobu pracy, bo nie ma dwóch takich samych utworów czy projektów na płytę.

Podsumujmy ten wpis listą tego, jakie cele osiągamy wykonując mastering:

  • Nasze utwory będą mogły konkurować głośnością z oficjalnymi wydawnictwami.
  • Będą brzmiały jednolicie pod względem głośności i balansu częstotliwości.
  • Będą wypolerowanymi, potężniej brzmiącymi skończonymi produkcjami, wolnymi od trzasków, kliknięć, amatorskich niedociągnięć, itp.
  • Będziemy dysponować wyeksportowanymi, finalnymi wersjami w różnych formatach – w zależności od potrzeb (wav, mp3, aac, aiff) lub gotową płytą CD.

W kolejnych wpisach będę starał się Was stopniowo wprowadzać w pozostałe aspekty masteringu, o których należy wiedzieć. Do usłyszenia.

Zostawić komentarz ?

64 Komentarze.

  1. monofonizowanie najniższych hz ? jak? dodajac ten sam utwór 2 razy na jednym zapiąc filtr gorno przepustowy na drugim dolno przepustowy i tam gdzie mamy dolno przepustowy panorame ustawic na 0 ? dithering a dokladniej co to jest ?:) (az mi glupio ze o to pytam) kody PQ i ISRC a to ? (tu juz mi nie glupio 😛 )

    • O tym wszystkim będzie później. We wrzątku się wykąpałeś, czy jak? 🙂

    • zasypałeś mnie informacjami o których nie mam pojecia to pytam 😀 PS: kąpałem sie pare minut temu 😀 skad wiedziałeś?:)

    • powiedz chociaż czy monofonizowanie dobrze wymyslilem ?:)

    • Nie, zupełnie nie o tym mowa. Poznałem po parze na ekranie monitora 😉 To dobrze, że nie masz o nich pojęcia, może się czegoś nowego wkrótce nauczysz 😀

    • dithering to dodawanie losowego szumu neutralizujący zniekształcenia powstałe z konwersji z 24 bitów na 16 (płyty cd obsługują tylko 16)

    • I może przybierać różne kształty i jeszcze parę ciekawych rzeczy… 🙂

    • Łukasz dzięki za rozjaśnienie mego przyćmionego umysłu 🙂 nic trzeba czekac na kolejne części 🙂 trzeba Igorowi pokibicować może szybciej wrzuci post 😀 IGOR IGOR IGOR !!:D

    • Na pewno go nie wrzuce przed tym, jak go napisze… 🙂

  2. az tak Ci monitor zaparował?:D heh no cóż to czekam na nastepne artykuły 🙂

  3. Świetny artykuł. Mimo, że nie posiadam sprzętu, który chociaż w 10% nadawałby się do masteringu, spróbuję według kolejnych wpisów zmasterować jakiś kawałek, ot tak 🙂

    • moze wszystkich punktow nie zrobisz ale kilka punktow zrobisz spokojnie w swoim DAW 🙂

    • Nie jest powiedziane, ze wszystko, co wypunktowane trzeba robic. Po pierwsze – jeszcze by sie pewnie znalazlo kilka czynnosci, ktore czasem sie robi, a o ktorych nie napisalem. Po drugie, czasem wystarczy zrobic tylko 3 czy 4 i po sprawie…

    • nie powiedziałem że trzeba je robić bo tego nawet nie wiedziałem ale w domu we wlasnym DAW pare rzeczy z tych punktow damy rade zrobic 🙂 (jak nam Igor powie jak:D ) na ile umiejetnie i ile rzeczy to zalezy od tego jak został wykonany mix 🙂 tak ja mysle 🙂 bo moze wystarczyc tylko ustawienie poziomow lub tylko lekka korekcja 🙂

  4. też jestem ciekawy jak to jest z tym monofonizowaniem niskich hz. spotkałem sie z opinią, że wszystko poniżej 300hz raczej powinno być w mono, ale nigdy nie umiałem tego zrobić… czekam na kolejne wpisy ;]

    • Cierpliwosci. Ciag dalszy nastapi.

    • Używałem kiedyś wtyczki G-Multi (darmowa) i to był kompresor 3-pasmowy. Każde z pasm można było osobno kompresować, przygłaszać, przyciszać i… poszerzać lub zwężać stereo.

    • Jak tu być cierpliwym, kiedy takie ciekawe tematy są poruszane 🙂

    • Sorter – kompresja wielopasmowa też będzie omówiona.

    • Tobiasz POPIERAM :D:D:D ps: dla mnie monofonizowanie to monofonizowanie .. ja bym to zrobil tak jak opisałem wyzej ale wiem ze jestem w bledzie i chce sie dowiedziec o co chodzi do konca:)

  5. doktorsamuel

    no to czekam na dalszy ciąg bo tu nasunęło mi się parę pytań które na pewno będą rozwiązane później

    • Się okaże. Najwyżej po zakończeniu cyklu zrobimy jeszcze jakąś sesję Q&A 🙂

  6. No coraz wiecej zapowiedzianych artykulow widze:D temat z kazdym krokiem poglebia sie i mimo wiekszej wiedzy wiemy wzglednie mniej:D. Poki co pamietajcie o podstawach! 😀 – > 😆 http://www.youtube.com/watch?v=6Z-97jtqi38&feature=player_embedded , bo sluch i zdrowy rozsadek to podstawa 😀

    • Ona, jak widać – wie jeszcze mniej…

    • o JEZU !!!!! domyślałem się puenty ale myślałem ze to tylko moja wyobraźnia … nie wiedziałem że tak można .. FAIL

    • Właśnie wpadłem na pomysł na dobrego posta…
      Blond-geniusz mnie zainspirował 😉

    • uchylisz rąbka tajemnicy ? Igor sprawdz maila 🙂

    • No blond geniusz daje do myslenia hehe 😀 to na pewno :D.

      Dla zwolenników konca wojny o głośności znalazłem http://www.pleasurizemusic.com/ ideą jest standaryzacja 14db dynamiki w utworach.

    • To nic wielkiego, taka luźna myśl o różnych sytuacjach w studio. Na maila Ci odpiszę, cierpliwości.

    • R.O. – jest nawet takie coś, jak http://www.turnmeup.org/
      Iście zacna inicjatywa.

    • Hymmm… moze kiedys wierze i inne odtwarzacze same beda dostosowywac glosnosc:D. Z drugiej strony moze nie ma czym sie martwic? – bo teorytycznie przyjmie sie lepiej to co brzmi lepiej a nie glosniej.

    • Teoretycznie, a w praktyce, jak widać – bywa różnie…
      Wieża i inne odtwarzacze raczej nie będą miały możliwości ingerencji w dynamikę gotowego już utworu. Przyciszyć zawsze można, ale po prostu ściszamy zmasakrowany track, żadna to pomoc.

    • fuck, wieżżżżżżża 😳

      A no, ze do dynamiki to wiem, chodzi mi o volume:D. Takie niepotrzebne gdybanie. A jak kogos interesuje muzyczne SF 😀 to polecam poczytanie o EMI 😀 program, ktory stworzyl muzyke “Mozarta” i nawet znawcy wierzyli, ze to jego nieodkryte prace:D.

  7. nie kapuje jednego… dlaczego kompresja sama w sobie stala sie nieodlacznym elementem zarowno miksu jak i mesteringu… dzis sluchalem pozyczona plytke z muzyka powazna i nie rozumiem jak mozna kompresowac dynamike w muzyce gdzie jednymi z podstawowych elementow jest dynamika dluzszych odcinkow muzyki (grania fagmentow cicho a potem glosno), jak i np roznica dynamiki granych po sobie akordow, akcentow dynamiczych jak i na okreslony dzwiek w zestawie dzwiekow w akordzie, sluchalem tej muzyki i sie zastanawiam, bo ze jest dynamiczna to slychac, lekko uderzony klawisz daje inny dzwiek niz mocno udezony, natomiast udeza to ze jest wzgledem glosnosci plaska jak stol, nic sie nie zmienia wraz ze zmiana dymamiki procz gesteninia lub rozrzedzania muzyki (tak samo w innych gatunkach)trudno jej sluchac bo jest monotonna, nie jest ciekawa, jest zamknieta (to nie jest wrazenie tylko tej plyty) nie ma glebi poziomow slyszalnosci… szok przezylem jak wzialem sie za sprawdzanie jak dzis brzmi jazz, oto kazda plyta zrobiona podobnie, dziek natarczywy, glosny, plaski, trudny do sluchania, meczacy, identycznie jak w popie i muzyce bazujacej na samplach i elektornice gdzie nie ma kunszu instrumentalnego a walory muzyczne ograniczaja sie do rytmu, melodii i wokalu, wiec i przeznaczenie bardziej uzytkowe co rzeczywiscie wymaga kompresji ze wzgledow logicznych, typu muzyki i jej przeznaczenia… ale klasyka, jazz, muzyka do sluchania… czytalem opinie ze po to kompresje sie stosuje zeby wlasnie sluchacz wszystko dobrze slyszal, zeby niuanse wydobyc, by wszystkie instrumenty zabrzmialy… nonsens… slucanie muzyki polega na dosluchaniu sie w niej wszystkiego, przede wszystkim talentu i pomyslu autora i wykonawcy, wysluchania calej plyty bez wiekszego zmecznia sluchu, dosluchanie glebi roznic glosnosci zacheca do wysluchania muzyki, plaskosc dynamiczna i stloczenie instrumentow w szeregu nadaje jej natarczywosc i zmusza sluchacza do postawy defensywnej w sluchaniu muzyki, nie mowie tu o audiofilli czy o melomanach, ale o reakcjach moich i kilku osob ktore znam… poza tym pamietajcie, kompresja muzyki (m/s ma swoje zalety ale i wady, trzeba pamietac ze to dziala na zaszadzie wprowadzania w blad ludzkiego sluchu)ma wplyw na zmiane charakteru muzyki, oto sluchalem naukowo zrobionej muzyki medytacyjnej (autor omawia czestotliwosci i ich wplyw na stan ducha) wiec z ciekawosci wlaczylem probki tej muzyki i nie doczekalem do minuty, gyz muzyka miala cechy medytacyjnej, oniryczna, na poglosach, malo nut, ale tak splaszczona i glosna, dzwiek byl tak przyblizony ze czlowieka zamist zacheic do wyciszenia irytowalo strasznie wiercenie w uchu przez te dzwieki… uwazam tez ze nie kazda muzyka rockowa powinna byc kompresowana, to zalezy od przeznaczenia, od jej wymowy, muzyka lagodna do sluchania dzieki kompresji nie stanie sie przebojem a straci walory na ktorych sie opiera, glebi slyszalnosci, tanca instrumentow w tle, mieszania sie instrumentow w ten sposob by wspolnie wydac nowy dzwiek ktorego samodzielnie nie wydaja! mozemy oczywiscie przyjmowac, ze chcemy by brzmialo jak profesjonalna robota, ale trzeba zadac sobie pytanie, czy to jest profesjonalna robota wtedy czy staramy sie udawac profesjonalna robote… nie kupuje plyt od 10 lat, muzyka ktora nawet podoba mi sie jest meczaca w sluchaniu, skad sie wzielo przekonanie ze kompresja jest integralna czecia kazdego nagrania (nie poszczegolnych elementow nagrania, dla poprawienia jakosci, lecz jego jako calosci, i to 2 lub 3 razy, na pojedyncze sciezki, na sume i na mastering) nie mam pojecia, ale tlumaczenia na ten temat sa absurdalne, absurdalne w naiwnosci, co z tego ze jak ktos lepiej slyszy nagranie to je zauwazy, jesli nie bedzie w stanie przesluchac calego albumu… zamiast kupowac muzyke sciagnie sobie cos co lubi lub bedzie odpalac na YT itp… chodzenie na skroty pokazuje ze zysk ekonomiczny nie jest pewnien, a branza caly czas mowi jak jej zle, nie widzac w tym swoich bledow lecz zwalajac wine na ludzi… najwiekszy zarzut ze nie ma alternatywy, czesc ludzi lubi glosna muzyke, czesc lagodna w odsluchu, ta druga czesc ldzi jest wypchnieta z rynku i musi sie zadowolic czyms co jest tudniejsze do wysluchania… mam jeszcze dziwne wrazenie, ze kompresja stala sie wsrod inzynierow dzwieku (znanych/nieznanych) pewnym wyznacznikiem “jestem profesjonalista”, ktos nie robi kompresji to amator… czy to jest pulapka na ludzi ktorzy nie maja pomyslu i indywidualnego podejscia przypadkiem a nie dobrym rozwiazaniem dla poprawy jakosci muzyki?… sek w tym ze odwrot wydaje sie niemozliwy, oto mamy pokolenie ktore nie zna muzyki nieskompresowanej przynajmniej w masteringu i to ostro…
    ps
    nie po to chronimy sie przed chalasem by kupwac go w nagraniach muzycznych…

  8. Zadajesz pytanie dlaczego tak się dzieje. Sam na nie odpowiedziałeś. Komercjalizacja. Odkąd muzyka jest tworzona żeby ją sprzedać, a nie słuchać, zaczęto ją reklamować, dodawać “powera” żeby lepiej trzęsła ludźmi. Wymyślono procesory emisyjne dla stacji radiowych żeby przebijały się przez hałas silnika w samochodzie. A potem jakiś “profesjonalista” pomyślał, że skoro kompresja sprawdza się w popie to dlaczego nie miałaby się sprawdzić w klasyce. No i poleciało. A potem jeszcze pojawiły się koncertowe systemy o dużej mocy i (paradoksalnie – dużej dynamice!) i zaczęliśmy je napędzać konsoletami cyfrowymi, które oczywiście mają wszędzie kompresory, na wejściach i na wyjściach. Efekt jest taki, że teraz nawet na koncercie nie można posłuchać muzyki z porządną dynamiką bo się ją prasuje na sumie (chociaż nawet producenci systemów nagłośnieniowych tego nie zalecają ze względu na możliwość przegrzania i spalenia cewek głośników). Kiedyś zespoły były co najmniej tak samo albo jeszcze bardziej popularne, ale nie wyłącznie dzięki swojemu repertuarowi ale właśnie kunsztowi wykonawczemu. Kiedyś każdy muzyk dbał o swój instrument, ludzie umieli na słuch wystroić np perkusję, czy gitarę. Dzisiaj każdy albo tego nie robi (to już ekstremalne przypadki odwórkowych albo ludowych zespołów z podlaskich wiosek) albo robi to za pomocą tunera elektronicznego i o ile ma dobry instrument, który trzyma strój to przynajmniej zrobi to dobrze, ale będzie to wręcz ascetycznie doskonały strój, nie osiągnie natomiast niczego swojego bo nie uwzględnia możliwości np delikatnego odstrojenia którejś struny co dałoby mu pewne pole do popisu. No ale kto dzisiaj jest wirtuozem instrumentu? Większość muzyków może i ma wyrobioną technikę ale zero wkładu własnego. Wracając do głównego tematu – jak się nie dba nawet o to na czym i jak się gra to czego można oczekiwać po nagraniach takich “artystów”? No przecież nie tego, że będą zmuszać ludzi do wsłuchiwania się i podziwiania każdego dźwięku. Wszechobecna kompresja w muzyce jest niestety znakiem czasu i możemy na nią narzekać ale tak jak wszystko przychodzi i odchodzi, tak i żeby trochę odpuściła musi upłynąć czas. Zresztą są już pierwsze zwiastuny zmiany trendu, powstają inicjatywy typu loudness war, które starają się uświadomić realizatorom co robią ludziom dopakowując swoje miksy.

  9. Znaczy wojna glosnosci mysle jest czyms co istnieje ale niedoslownie, pewna sytuacja zostala tak zdiagnowzowana jednak zadnej wojny nie ma. Mysle ze to troche sugesia psychologii, troche inzynierii dzwieku by kompresowac. ALe nie zgodze sie by kompresowac jazz, klasyke, rock. Piszesz, ze muzyka stala sie komercyjna w ogromnym znaczeniu, ale jazz i klasyka komercja nie beda (chyba ze w stylu Rubika itp, czyli muzyka stylizowana) wiec kompresja nie ma logicznego uzasadnienia, wrecz przeciwnie, odbiera podstawowe walory jakimi sie taka muzyka moze poszczycic. Czytalem niedawno, ze polski jazz zdycha w konwulsjach, no nie dziwie sie, trudno sie slucha muzyki ktora drazni bebenki mimo ze nie jest glosno nastawiona, gdzie bezdzwieczny slizg palcem po strunie slychac rownie dobrze jak granie na niej. Z tym radie to podobno kompresja pozwala zamaskowac zaklucenia sygnalu. Nie znam sie na technicznych sprawach ale piszesz cytujac, ze kompresja moze uszkodzic sprzet, a inni specjalisci uwazaja ze dynamika uszkadza glosniki. Wiesz, to tak jakby myslec ze glosniki sa wieczne. Samochod tez sie zuzywa, ubrania tez, wszystko co pracuje sie zuzywa… Mówimy o lepszej jakosci dzwieku, co pozornie daje w kompresji lepszy poziom slyszalnosci ale z drugiej strony jest to slabsza jakosc gdyz ma z fizycznego punktu widzenia na sygnal dzwiekowy ma charakter chALasu, nienaturalnosci, zuzywajacy sluch szybciej niz dynamiczy sygnal, przeciez po to sie stawa ekrany przy drogach czy wklada zatyczki do uszu w fabrykach, bo do chalasu przyzwczaic si emozna, ale po wyjsciu nic juz nie slyszysz.
    Efektem tej polityki jest zanik kultury sluchania muzyki, juz chca sie wycofywac z produkcji nosnikow fizycznych, co jest absurdem i bedzie popychac do jeszcze wiekszego piractwa badz sluchania co jest gdzies uostepnione. Fizyczny nosnik daje jeszze pewne przekonanie ze muzyka jest czyms faktycznym, a nie wirtualnym, zeby dobra muzyka powstawala autor musi miec na to pieniadze… Sama istoa albumu tez upadla, dziwne to wszystko…
    Zrobilem ostatnio taki eksperyment, wzialem ostra kompresje, doprowadzilem do mometu w ktorym niernik decybeli sie zatrzymal w miejscu, pewnie drgal ale niezauwazalnie dla oka, co ciekawe muzyka nadal grala, instrumenty naet bylo mozna spokojnie rozpoznac mimo dosyc duzych zmian brzmieniowych, oglaalem tez przebiegi plikow nowej muzyki na soundcoluld, i slyszac ze te wytyczne dotyczace dynamiki jak jest wyzej napisane maja byc srednio 14 db dynamiki to uwazam ze to kabaret, raczej constans niz jakas zmiana, choc sluchajac kilku nowch polskich wydawnictw wydawalo mi sie ze kompresja w nich przekraczala prog utraty jakosci i jakies przestery wychdza, takie w stylu darcia sie mimo spokojnych dzwiekow, to ta granica dobrego smaku kompresji jest juz przekraczana, ten momet w ktorym mamy juz straty slyszalne. Mysle glownie o plikah udostepnionych na stonach wydawcow, typu szafy grajace lub pliki z fragmentami muzyki.
    Mam tez jeszcze jedno dziwne wrazenie, oto dzis chyba lepiej zalozyc studio masteringowe niz robic muzyke, lepiej byc producenem niz autorem, myslimy o komercji, o muzyce jako towarze nie widzac ze ten rynek umiera, zarabia glownie dzialalnosci pobocznej, samo powstawanie nowej muzyki jest coraz mniej oplacalne.
    I dziwe sie troche wlasnie czyatjac poradniki itp dla ludzi ktorzy chca wejsc w branze, takie ja ten tu tez, ze sa az tak konformistyczne w stosnku do obecnej rzeczywistosci. Wpajajac mlodym ludziom ktorzy cha zajac sie dzwiekiem pewne schematy jest wprowadzeniem w zarosla, jak chca kompresowac nie kompresuja, ale to powinien byc swiadowy ze wszystkich stron wybor producencki. Bo to jest wtedy profesjonalna robota, tacy ludzie moga cos osiagnac i cos dobrego, artosciowego z muzyka zrobic.

  10. Zgadzam się z Tobą, że nie zgadzam się na kompresowanie klasyki, jazzu czy innych tego typu gatunków. Ale to jest nasze zdanie. Wytłumacz to tym, którzy siedzą w studiach masteringowych (albo co gorsza robią to na etapie miksu) i uważają, że wiedzą lepiej.

    Co do kompresji i wytrzymałości sprzętu to chodzi mi o współczesne systemy koncertowe. Czyli ogromna moc wzmacniaczy, głośników i pełna cyfrowa obróbka sygnału. Bardzo bym Cię gorąco zachęcał do zajrzenia na stronę firmy Electro-Voice. Jest tam dział poświęcony wiedzy, zdaje się nazwali to Knowledge Base czy coś takiego. Znajdziesz tam PDF pod tytułem Safely Driving Your Sound System. Wewnątrz ludzie, który jak naprawdę mało którzy na świecie znający się na rzeczy, opisują szczegółowo dlaczego kompresja w dzisiejszych systemach koncertowych jest bardziej niebezpieczna dla sprzętu niż duża dynamika sygnału. Chodzi przede wszystkim o to, że ludzie od DSP czyli cyfrowego przetwarzania sygnałów potrafili zrobić genialne limitery, ale problem w tym, że działają one na szczyty sygnału, dlatego od nagłych wyskoków głośniki nie padają bo po prostu są chronione przez procesor sygnałowy, natomiast można doprowadzić kompresją sygnał do takiej wartości skutecznej, że limiter nie zadziała, a cewka głośnika będzie w sposób ciągły przegrzewana co w końcu doprowadzi do jej spalenia. Niestety procesory sygnałowe nie mogą ingerować w dynamikę sygnału (potrafią, ale jest to niezgodne ze sztuką) bo to ograniczałoby (nie wspominając o totalnej frustracji) realizatora koncertu. Dlatego właśnie jak się trafi jakiś “geniusz” na koncercie, to nawet najlepszy sprzęt potrafi przysłowiowo “wysadzić w powietrze” swoim nieodpartym dążeniem do zrobienia głośniej.

    Kompresja nie maskuje zakłuceń. To przecież nie tak działa. Kompresja wyciąga wszystko co jest małe i tylko delikatnie przeszkadza, do poziomu kiedy jest duże i już zaczyna delikatnie mówiąc wku****ć. Kompresja w radiu została zastosowana kiedy się okazało, że trzeba chronić nadajniki radiowe przed nieobliczalnymi realizatorami nagrań puszczanych w rozgłośniach. To były jeszcze czasy analogowego sprzętu, kiedy płyta CD nie była w radiach popularna. Potem ktoś zauważył, że można procesorem sygnałowym powyciągać te pasma, które giną w hałasie panującym w samochodach, gdzie odbiorniki zaczęły pojawiać się coraz częściej. No i się potoczyło.

    Tak, zgodzę się, że kompresja to tak naprawdę produkowanie hałasu i wszelkiej maści problemów ze słuchem. Wystarczy popatrzeć na dzisiejszą młodzież. Oni mają problem ze zrozumieniem tego co się do nich mówi (kurcze, już nawet ja mam takie problemy, chyba załapałem się na pokolenie słuchawek). To jest błędne koło, ludzie gożej słyszą no to się robi bardziej skompresowane miksy żeby mogli się cieszyć nawet tymi najdrobniejszymi szczegółami. A ponieważ się kompresuje to kolejne pokolenia słuchając tego już na dzień dobry mają zepsuty słuch.

    Co do modelu dystrybucji muzyki to niestety nic z tym nie zrobimy, ani my ani pokolenia które przyjdą po nas. Tak niestety jest, że robimy się coraz bardziej wygodni i niestety nie chcemy nosić (mówię ogólnie, jako społeczeństwo) dużych i ciężkich odtwarzaczy CD jak możemy nosić małego iPoda. To, że większość ludzi nie odróżnia mp3 od CD-Audio to tylko na rękę producentom takiego sprzętu czy treści.

    Te 14dB o których piszesz dotyczy stanu po miksie, a nie gotowego produktu. To jest też taki trochę błąd naszych uczelni i wszelkich specjalistów biorących się za nauczanie (szczególnie teoretycznie) produkcji muzyki. NIKT NIE POKAZUJE NA CZYM POLEGA I JAK BRZMI DOBRY MIKS!!! (pomijam tu Igora 😉 ) Wszyscy mówią jaką dynamikę powinien mieć gotowy utwór, wszyscy możemy sobie gotowych utworów posłuchać z płyty czy radia. Nikt natomiast nie udostępnia uczniom tego fachu surowych miksów, nie zwraca uwagi na co powinno się zwracać uwagę robiąc miks. Wkurza mnie to niemiłosiernie bo to jest tak jak pokazać zdjęcie adeptowi fotografii, powiedzieć z jakimi parametrami aparatu zostało zrobione i nie wspomnieć słowem ile w tym zdjęciu jest Photoshopa!

    No i na koniec muszę trochę wziąć w obronę Igora. Owszem, pisze tutaj “jak się robi muzykę”, pisze jak zrobić swoją muzykę tak żeby przypominała tą z radia, ale zaznacza też, że to tylko jedna z wielu dróg, po których można iść w tej branży. Mało tego, wydaje mi się, że sam jest zwolennikiem powrotu do starych zwyczajów jeśli chodzi o sposób miksowania i “produkowania” muzyki. Chwała mu za to, bo pokazuje też drugą stronę tej komercjalizacji świata dźwieku, tą w której myślę, że dobrze poczułyby się jazz i klasyka.

  11. Za to w grze mass effect 3 zrobili duży zakres dynamiki i w opcjach można zmienić sobie na LOW jak komuś nie pasuje lub jest w głośnym otoczeniu:D. Nie jest tak źle 😀

  12. No właśńie ja też miałem na myśli sprzet koncertowy jesli chodzi o uszkodzenia, bo opinie czytalem różne wlasnie, przytaczaleś ze kompresja zuzywa, ja niedawno czytalem ze dynamika. Tak naprawde chyba wszystko opiera sie na opiniach, najwazniejsze dotrzec do faktow a najlepiej samemu zrozumiec i przyjac w doswiadczeniu, pewnie wysadzajac jakis sprzet…
    Tak, nie chcilem udezyc w Igora. Mam dziwne przekonanie szukajac inf na tamat produkcji audio,ze jednak jest jakies bedne kolo na ten temat. No niby sporo ludzi mowi ze kompresja jesli juz to mala. ALe ogolnie to sie uwaza za amatorstwo i przytcza sie metody miksu i masteringu jednak kompresją. Jest tyle inf na ten temat ze jak ktos sie zaprze to sie nauczy to robic bez wyksztalcenia w dziedzinie audio. Szczegónie ze podobno kompresory sa coraz bardziej zautomatyzowane podobno. Ja poki co mialem na ekranie tylko takie sterowane recznie w calosci.
    Ale ostatnio gdzies wpadla mi w rece wtyczka generujaca efekt Hassa (jesli sie nie pomylilem)i wydaje mi sie ze efekt rozprowadzenia dzwieku jest dosc podobny do kompresora m/s, trzeba po prostu sciezkki odpowiednie podpiac i poustawiac w paoramie by sie ulozylo. W zasadzie stereo separator tez tak dziala jak ta wtyczka, jednak ma tylko 2 pokretla.
    Jesli chodzi o radio to czytalem gdzies zeim sluzy kompresja po to by niezamaskowac zaklucen nie wiem, w muzyce ale w eterze, wiesz, wiatr sloneczny itp… A dzis w samochodach jest tak cicho ze nie potrzeba kompresji by bylo slychac.
    Na przestrzeni lat jednak mody na robienie audio sie zmienialy, jakies radykalizmy zawsze panowaly, czy to w stereo czy w tworzeniu wtornej akustyki, ale to zawsze mijalo lub sie zmienialo. Moda kompresyjna caly czas sie radykalizuje, wartosc muzyki caly czas spada, jej charakter sie zmienia na coraz bardziej uzytkowy, kompresja jest charakterystyczna dla muzyki bardziej uzytkowej, ale przeciez ludzie sie tak szybko nie zmienija, owszem, wychowanie i kultura (nie osobista ale w sensie tradycji, zwyczajow) ale predyspozycje czy profile psychologiczne sie powielaja z pokolenia na pokolenie, wiec pewnie ten potencjal odbiorczy ludzi sie nie zmienil, ale jednak go nie ma.
    Ale moze to prawda, rynku po stronie produkcji muzyki sie niezmieni. Jednak uwazam, nie podwazajac sensu istnienia kompresji i jej uzycia ze powinny byc alternatywy na rynku, zarowno w zakresie produkcji muzyki jak i jej konsumpcji, i wydaje mi sie ze to sie jakos dziwnie laczy, bo naprawde, doslyszec skompresowana piosenke jest latwiej niz nieskompresowana, ale wysluchac plyte nawet 40 minutowa juz tudniej… Widac producenci tez podwazaja istnienie dluzszych form zbioru muzyki, i przechodza na pojedyncze piosenki, skoro planuje sie wycofanie w produkcji nosnikow CD…

    • Ilu ludzi tyle koncepcji. Ale jeśli chodzi o sprzęt to nie słuchaj opinii tylko po prostu pomyśl. Z czego zrobiony jest głośnik i co mu może zaszkodzić? Głośnik to przede wszystkim drut miedziany który można przegrzać i spalić. Ale oprócz drutu nie mniej ważnym elementem jest membrana, która musi być wytrzymała na szybkie przemieszczanie i popychanie dużych mas powietrza. Jeśli taka nie jest to jak najbardziej duża dynamika sygnału może ją uszkodzić. Trzeci element to zawieszenie, które powinno być elastyczne, bo jak nie będzie to też się szybko poszarpie. No i jeszcze trzeba uwzględnić temperaturę i wilgotność powietrza w jakim gra system. Jak wystawisz sprzęt na mróz i od razu dowalisz pełną mocą do chociażby z tytułu różnicy temperatur jak cewka dostanie nagle duży prąd to drut popęka. To jest po prostu fizyka. Zdanie jakoby systemom szkodziła bardziej dynamika niż kompresja jest prawdziwe POD WARUNKIEM, ŻE… no właśnie, tych ŻE jest mnustwo.
      Co do tych obiegowych wiadomości na temat miksu, masteru i kompresji to tak jak wyżej, co realizator to zdanie i koncepcja. To zajęcie to praca twórcza, więc każdy ma prawo to robić JAK MU SIĘ PODOBA, nie daj sobie wmówić że coś ma być zrobione tak a nie inaczej. To Ty o tym decydujesz.
      Co do radia to ponownie, przemyśl na spokojnie taką koncepcję. Gdzie takie zakłucenia w eterze mogą się pojawić? Mogą się jedynie dodać do sygnału użytecznego podczas przesyłania go przez eter. Tu kompresja może jedynie pełnić funkcję elementu pozwalającego bardziej odsunąć sygnał od poziomu szumu. I to działa ale tylko w czasie, kiedy jest cisza w sygnale! W radiu masz coś co przypomina SQUELCH w CB jeśli się tym bawisz to pewnie wiesz, że większość transceiverów ma taką gałę. To jest nic innego jak po prostu bramka szumów. Ale ona może zadziałać tylko wtedy kiedy sygnał docierający do odbiornika (czyli sygnał użyteczny + szum eteru) nie przekracza progu zadziałania. Ale jak tylko pojawi się sygnał ciut przechodzący próg zadziałania bramki no to dostajesz w głośniki kompletny sygnał, łącznie z zakłuceniami.
      Co do głośności samych samochodów to masz rację, że teraz są cichsze, niż dawniej, ale kompresję sygnału wprowadzono dużo wcześniej niż pomyślano o wytłumieniu samochodów.
      Co do kultury (także osobistej) to się kompletnie z Tobą nie zgadzam. Aktualnie (ja przynajmniej, ale i trochę ludzi z mojego otoczenia) zauważam totalne zlelaczenie że tak się wyrażę młodego pokolenia. Młodzież jest nastawiona na konsumpcję, wszystko w stylu chamburgera, zmiksowane do postaci łatwoprzyswajalnej papki. Muzyki też to nie omija. To my, konsumenci muzyki jesteśmy winni wszystkim zmianom jakie zachodzą. I dlatego to jest tak trudnozauważalne, bo jak masa zaczyna płynąć z prądem to nikt nie widzi co się dzieje, a garstka sterników tylko zaciera ręce i dmucha w żagiel kierując statek tam gdzie oni chcą. Żeby biznes muzyczny zmienić to trzeba zmienić społeczeństwo. To ludzie muszą zacząć domagać się lepszej jakości produkcji, lepiej zrealizowanych nagrań, kompletnych albumów opowiadających jakąś historię. W przeciwnym wypadku będziemy trybikami w maszynie nabijającej kabzy koncernom fonograficznym. Zresztą jesteśmy takimi trybikami w wielu innych dziedzinach życia.

  13. Jeszcze napisze o takim zjawisku, ktore mnie troche zmylilo bo w slowach to znaczy inaczej a w praktyce inaczej. I czytam ze kompresja musi byc delikatna, by nie zmienila natury sygnalu, wiec mysle sobie pewnie cos na zasadzie korekty niezauwazalnej dla ucha i nie zmieniajacej jakos dynamiki, jednak w rzeczywistosci sluchajac probki dla przykladu slysze i widze ze kompresja mocna do poziomu w ktorym dzwiek zaczyna zmieniac swoj charakter… Wiec dla mnie mala to niezauwazalna korekta, dla autora slow do progu utraty jakosci, dlamnie mocna czyli dojscie do progu zmiany jakosci a u autora juz go przekroczenie.
    To samo w poglosem. Czytam deklikatny poglos, odpalam link z pzykladem na soundcould a tu taki krwisty reverb. Ja myslalem sobie niewielki czyli uszlachetneinie brzmienia istrumentow, mocny czyli nadanie akustyki, a u autora niewielki tonadanie akustyki a mocny to zrobienie kaszany. Najbardziej jest irytujace to ze teksty tego typu i komentarze mlodych producentow muzyki sa przepelnione ironia, na temat nierozwaznego uzywania efektow, amatorstwa itp ale autorefleksji brak.

    Prawda jest ze chcialbym kiedys wydac plyte ze swoja muzyka, choc to jest nierale ze wzgledow finansowych i wydawniczych ale dziergam sobie do szuflady poprzedzajac inwestycja w program, ale mam taka refleksje, ze “profejjonalnie brzmiacej” muzyki i zarazem bardziej tradycyjnej i przyjemnej w odsuchu zrobic sie nie da. To jest niedopogodzenia, chyba ze istnieja jakies bardzo drogie dzwieki o wspanialej jakosci (uzywam tylko freeware), mysle o muzyce bardziej tradycyjnej, w okolicach rocka. i To sie wlasnie z tym laczy co napisalem przed chwila. Za duzo, za mocno, chlastanie galkami. Zrobic cos w przeciwienstwie do mody to strzal w glowe.

    • Nie można zrobić dobrego nagrania. Można je jedynie mniej lub bardziej spieprzyć ;].

    • N/N, w sprawie delikatnych vs ekstremalnych ustawien poglosow czy kompresji – wszystko ma swoje miejsce. Tak, jak mowisz – czasem krwisty reverb jest potrzebny, tak samo – czasem mocna kompresja (np. na sladzie rownoleglym) jest najlepszym rozwiazaniem. Nie ma co do tego watpliwosci. Jednak zdecydowana wiekszosc przypadkow najlepiej wychodzi na malych do umiarkowanych ustawieniach, a te najtrudniej dobrac, szczegolnie na poczatku przygody z dzwiekiem. Ja nie bez powodu pisze o konserwatywnych ustawieniach, bo jesli przysluchasz sie amatorskim produkcjom, to one w wiekszosci tona w poglosach lub maja niemilosiernie splaszczona dynamike. Ja obralem taki punkt widzenia, zeby na te najczestsze bledy w tych dziedzinach uczulic. Ale nigdzie nie napisalem, zeby nigdy nie stosowac agresywniejszych ustawien. Tak, jak pisze XChomik – wszystko zalezy od Ciebie, to Ty decydujesz, jakich ustawien uzyjesz. A ze mlodzi maja czesto problem np. z uslyszeniem dzialania kompresora z umiarkowana redukcja, to nie jeden raz napisalem, jak sie tego stopniowo uczyc, az zacznie sie slyszec. I dla jasnosci (znow zgodnie z tym, co pisze XChomik), jak najbardziej jestem zwolennikiem naturalniejszych brzmien, mniej skompresowanych masterow i po prostu oddychajacej muzyki. Papki z RMS-em w okolicach -6dBFS ciezko sie slucha kazdemu. Z drugiej strony, ludzie chca umiec sprawic, by ich nagrania byly dosc glosne, co jak sie okazuje, jest nielatwe bez poswiecenia jakosci. Tu potrzeba sporej wprawy, zeby nagrania nie zepsuc. Wydaje mi sie, ze zaznaczam to dosc wyraznie, jesli o tym wspominam. Ja nie propaguje naginania granic, tylko pokazuje jakie sa drogi, a co zrobi taki mlody realizator, to juz jego decyzja. Jakby istnial jeden najlepszy sposob na wszystko – sztywny schemat, to bym to jasno powiedzial, ale poniewaz tak nie jest, kazdy musi do pewnych rzeczy dojsc samemu – tak to dziala.

    • No czekałem Igor kiedy się wreszcie tutaj dopiszesz i przyklepiesz dyskusję :D.

    • Niestety, wolny zaplon mam ostatnimi czasy… 🙂

  14. Właśnie sie zastanawiam nad tym co chomik napisał o radiu. Ze zdobytych doświadczen juz w dawie sadze, ze kompresja w radiu ma na celu nie tyle odalenie szumu eteru czy skad on sie bierze ale stloczenie muzyki na tyle mocno by ewentualne zaklucnia promieniowania kosmicznego i radiowego naziemnego w tym tloku staly sie elementem muzyki niz samoistniejacym dzwiekiem czasem wychodzacym przed szereg. Choc juz dawno radia nie sluchalem to z tego co pamietam na ukf i tak jakosc jest znakomita.

    Poniewaz nie mam dobrego sluchu ani sluchu muzycznego nie zawse zauwazam pewne rzeczy ale teraz patrze na muzyke i dzwiek troche inaczej. W ostatnich dniach zauwazylem pewna praidlowosc w reklamach telewizyjnych, dzwiek jest w nich podobny do siebie, z jednej strony taki masywny w dole, silny i drugiej strony niezwykle wyrazny niemalze szeleszczacy na gorze jakby lektorzy mieli szpary miedzy zebami. Sluchalem ostatnio jak pisalem wiele nowych produkcji by zobaczyc jak sie dzis to robi (gdyz slucham muzyki starszej od siebie) cos podobnego uslyszalem u Rubika, lecz tam byl taki soczysty reverb jeszcze, Wilk szczeescil przy tych szeleszczacych gloskach ale tez przy t, p i jeszcze kilku. Ale tez wrocilem do The Wall Floydow np, i tam tez jest mimo takie suchosci taka prawidlowosc jakby masywnosc w dole, nie na zasadzie bitu ale naterzenia niskich czestotliwosci szly w parze z jednak klarowna melodyka i wokalem. Probowalem takie cuda robic EQ na zmiksowanym kawalku, i nie bardzo wychodzilo, choc do pewnego mometu mozna dojsc, jednak zaraz to sie zamienia w dosc taka glucha forme jako calosc, bas zamula song mimo dobrej slyszalnosci wysokich czestotliwosci, jednak cierpia na tym instrumenty klawiszowe i inne, wiec dedukuje ze pewnie jesli chodzi przynajmniej o reklamy to ewnie jest to jakas sztuczka z wielopasmowa kompresja, jak uwazacie? Lub innego rodzaju miks ktory bardziej pasuje do ostatecnego nadania brzmienia jest potrzebny.

    Tak sie zastanawiam nad tymi poglosami. Ja np teraz probuje nadac mocniejsza akustyke (cwicze caly czas na tych samych kompozycjach roznie je obrbiajac) z duza przestrzenia niezaleznie od tempa kompozycji jednak nielejaca sie, przestrzen gdzie dzwiek idzie w dal bez tej soczystosci , by nie zamazywac odbijajacym sie dzwiekiem bierzacych nut, staram sie by sam poglos nie byl slyszalny lecz wyczuwalny jako przestren. Dlaczego to robie? Mam kilka darmowych pluginow i na nich sobie cwicze a one nie do konca sa zawsze mile w odsluchu, nawet mimo monipulowania EQ, wtedy one traca taki niemily zwyczaj dotykania bebenka, zyskuja dzwiecznosc i klarownosc, po dodaniu tego poglosu mocniejszego obcinam pasmo na EQ od 500Hz do ok 3 – 5kHz, ale jak nadmienilem ( nie znam sie od strony nazwenictwa) bez tego delayu i tego zabruzenia jakie reverby powoduja, nasycenia poglosu czy jak to nazwac na ile oczywisie sie da. Bo aby zrobic bardziej studyjna robote tez trzeba miec opowiednio ten dzwiek zrealizowany, w odpowiedniej jakosci i przeznaczeniu pod brzmienie wydaje mi sie.
    Jednak wychodze z zalozenia, ze dac sluchaczowi trzeba jednak plyte taka, ktora wwyslucha w calosci przy umiarkowanej glosnosci bez zmeczenia sluchu i nerwicy, oczywiscie z zakresie obrobki dzwieku a nie walorow muzycznych co jest kwestia kunsztu kompozytoskiego.
    No bo sam nie chce sluchac muzyki po ktorej nie moge zanac bo mi w uszach dzwoni, a zawszemialem taki zwyczaj zasypiania w sluchawkach na uszach lub przy glosniku, stara muzyka w tym pomaga.

    I jeszcze watek kompresji, wszedlem dzis na strone EMI polska i tam tych probek troche sluchalemm, i nie wiem czy to jest tak, ze oni do tego radia czy szafy grajacej dodaja kopresje by zrownac piosenki miedzy soba jakos, zunifikowac jakos ten ich ostateczny wyglad, jednak jest moim zdaniem za mocna, ta kompresja, Springsteena na soundcould i jest wyranie lagodniejszy. I zastanawiam sie czy Igor rzeczywiscie stopien nadania efektu miaruje tak jak ja, bo watpie by dla atrystow EMI mastering i miks robili amatorzy. W porownaniu do tych artystow jak i Springsteena moja muzyka jest bardzo swobodna, wielopoziomowa mimo ze uzywam sztucznej muzyki przeciez, w formie pluginow a nie grania na instrumentach przez czlowieka. Mimo roznych eksperymentow z kompresja (bo rzeczywiscie efekty nie zawsze latwo dostzec) oglnie calkowicie zrezygnowalem z jej nadawania zarowno na miksie jak i masteringu, choc wstepnie opraowalem ustawienia na zakres pasmowy by bebny troche przyciac przede wszystkim. Ale roznica w glosnoci mozliwej do uzyskania i tak nie byly zbyt duze tak by nie bylo mozna odczuc zmiany brzmienia beba, ono zasze jakies jest przy jednorazowym wlaczaniui wylaczaniu pluginu, jednak nie wplywa do pewneg mometu tak przy sluchaniu od tak na rozpoznanie ze byla kompresja. Ogolnie zrobilem tak, ze tam dzie byl problem mocniejszego uzerzenia a nie slyszalem tego uchem po prostu nagalem kadzy sampel osobno o wpakowalem na edytor audio, wtedy posciszalem to co sie wybijalo i co ciekawe odsluchowo nie mialo to la mnie roznicy, a to byly kwestie 5-7 decybeli!!!

    I zastanawam sie przede wszystkim nad jednym. Jak uzyskac myzyke wyrazna ale nieatakujaca ucha czlowieka, to jest dla mnie wazne jako sluchaczowi i tez jako “tworcy”. Bo roznice jest kolosalna miedzy tym co uzyskalem a dziejszmi produkcjami. Na EiS cos takiego okreslono jako zalosnie ciche negranie, ale ja to widze jako laodne w odsluchu, choc nadal mam zastrzezenia do niemilych dzwiekow jakie pluginy caly czas mi wydaja. To dziala raczej tak ze jak wchodze na radio czy soundcould to od razu sciaszam a jak swoje odpalam to mimo ze slychac wszystko wyraznie mam ochote rozkrecac glosnosc.

    Uwazam ze bisnes muzyczny to zlozona sprawa, a odbiorca jest roznorodny i nie mozna obwinia tylko ludzi o obecna i byla tez przeciez sytuacje.
    Patologia jest zarowno na lini tworca – wydawca, tworca – odbiorca i wydawca – odbiorca. Zawsze trzeba dazyc o rownowagi we wspolpracy na wszystkich tych liniach, a teraz pojaia sie jeszcze jeden problem z taka odnoga ZAIKS i podmioty wykozystujace tworczosc do wlasnej dzialalnosci zarobkowej. To wszystko odbija sie na jakosci piosenek, sposobu ich przygotowania, formie wydawania i ilosci zakupu jak i rowniez co sie kupuje. Jezeli rozne gatunki muzyczne sa w ten sam sposob przygortowywane to to nie jest wina ludzi ale branzy e robia muzyke dla melomana tak jak dla publicznosci masowej. A to co muzyka w sobie zawiera jest wina tworcy, jesli chce isc na skruty by nakrcic wartosc swojego wizerunku medialnego by na nim zarabiac, bo przeciez na sprzedawaniu muzyki samym w sobie zrobic dzis trudno, czasem koszty nagrania krazka sprzedaz nei zwraca.
    Odbiorca ma rozne gusta, ale sa rozni odbiorcy, mysle ze to jednak wydawcy nie zauwazylitego ze pozbawili altenatyw w sposobie przygotowania materialu, jak tez i wola wyawac muzyke nie swoich atystow, innych wytworni niz inwestowac w swoich. To jest najbardziej zaskakujace. Bo pzyzwyczaic sie mozna do wszystkiego, kompresja ma to do siebie ze pierwsze wazenie jest takie z e jaosc jest dobra, ale po chcwili juz sie czlowiek zaczyna iritowac…

    • @1 akapit: na UKF powiedzmy, że jakość jest znakomita, biorąc pod uwagę, że standard nadawania na tych pasmach kończy się na 15kHz, ale to taka mała dygresja ;]. Co do samej kompresji to chodzi o ukrycie szumów w muzyce, zachodzi tu tak zwane maskowanie, czyli to co jest dużo cichsze (w sensie przynajmniej te 6-10dB) jest “niesłyszalne” dla szeregowego słuchacza, co nie znaczy, że tego tam nie ma. I proszę Cię, nie porównuj tego co można zrobić w DAWie z tym co się dzieje w eterze, to są dwa różne światy. Eter jest dużo bardziej stochastyczny.

      @2 akapit: masz rację, to jest kompresja wielopasmowa. W obu przypadkach. Tylko inaczej zastosowana i po co innego.

      @3 akapit: no i git, odkryłeś coś co tu gdzieś było omawiane i jest szeroko stosowane w realizacji, ograniczenie pasma powrotu z efektu. Poza tym postaraj się jeszcze pobawić automatyką, postaraj się zminimalizować użycie reverbu (zostaw sobie sam delay) i posłuchaj jakie to Ci da efekty.
      Masz rację, słuchaczowi trzeba dać coś co daje się słuchać. To znaczy, słuchaczowi można dać wszystko, i wszystko wysłucha. Tylko pytanie jakie będzie miał wrażenia i czy zechce wrócić do tej płyty ponownie.

      @4 akapit: no, czyli zrobiłeś dobrą robotę z tymi samplami. Różnicy żadnej, a 5dB headroomu zaoszczędziłeś, możesz sobie teraz pozwolić na większą dynamikę reszty instrumentów.

    • N/n, Ty ksiazke powinienes napisac 😉

  15. Ksiazki pisać nie chce, nawet nie jestem w stanie wszystkiego czytac, rowniez w Twoim tu kursie, ja nie jestem w stanie przyswoic tak duzej liczby informacji, nawet jak cos przeczytam to albo nie rozumiem albo polowa z glowy uleci, bo w zasadzie obrubka dzwieku zaczalem sie interesowac jakos miesiac temu jak daw zakupilem, wczesniej tylko na demo udalo mi sie nagrac skomponowana wczesniej z midi muzyke ale miks sie tylko ograniczył do wyrownywania glosnosci instrumentow, nic poza tym, zadnej panoramy ani EQ jedynie gdzies echo czy reverb bo nie moglem tego zapisywac. Sek w tym, ze sa rzeczy ktorych nie jestem w stanie pokonac i maniakalnie szukam rozwiania i jest to frustujace, wiec na slowotok mi to przechodzi 😉

    Tak xchomiku, z echem jestem bardziej oswojony, sek w tym ze nie daje mi to zadowalajacych efektow na poszczegolnych instrumentach, echo czasem wplywa dobrze, ale zalezy od rozlozenia nut i instumentu, bardziej mi odpowiada dal bez odbicia wyraznie powracajacego dzwieku lecz wyczuwalnego, echo raczej mocniejsze i w odpowiednich miejscach na patrie solowe staram sie stosowac, nawet np na ostatnia nute partii melodycznych nagle mocne i dlugie. Na ta chwile podzielilem instrumenty w songach na grupy i akustyke wlasnie modeluje ale staram sie wlasnie miec na uwadze przede wszystkim mozliwosci jakie mam, i zrobic tak na tym czego uzywam, zeby bylo zywe, wyrazne, wywazone ale tez niekaleczace uszu.
    I jestem w takim kole z ktorego nie moge chwilowo wyjsc, calosci miksu postanowilem nadac inne brzmienie bo byl jednak ostry i meczacy, wiec ocieplalem go podcinajac ogolnie zakres sednich co przynioslo wyraznie pozytywne rezultaty, gdyz muzyka stala sie w odsluchu lagodna, jednak dosc sucha i bas mi tak wylazl, zakurzyl mi brzmienie, ale tak pomyslalem dodam dalekiego poglosu na instrumenty prowadzace i czesc z tla (niektore syntezatory stringery, bas i perkusje mam osobno) i znow brzmienie sie wylkarowalo, nie jest soczyste na czym ez mi zalezalo, na ta grupe gdzie nalozylem ten reverb tez zastosowalem filtr troche przycialem jak pisaelm i sytuacja wyglada tak:
    bas mi dalej kurzy, choc tez jest lekko sklarowany razem z perkusja mimo ze jest po takim drobnym zabiegu ktory dal efekt ale niewytaczajacy obciecia lekkiego tam gdzie go wczesniej podbilem ponizez 100Hz i jeszcze bardziej obcialem na wysokosci 150 -200 bo tu on taki dziwny dzwiek daje ktory nie wnosi nic tylko robi kaszane, rzeby to zmienic zglosnilem tez ta partie instrumentow gdze dalem przestrzen i EQ dodatkowe nadalem

    i druga uwaga po kurzacym basie jest taka, ze nadal po korekcji uszu roznymi wydawnictwami ze nadal srednie sa zbyt ostre

    No i wlasnie za cholere nie moge z tego wyjsc i nie wiem co tu zrobic. Stlamsilem caly zakres do ok 200Hz do mono, regulowalem glosnosc basu, nie mam pojecia, a mam wrazenie ze rozwizanie jest proste, jednak go nie widze.

    Mi zalezy na tej lekkosci pewniej muzyki, przwiewow miedzy instrumentami, bez stloczenia, bardzo lubie brzmienie plyty Genesis Wind & Wuthering, znam jeszcze stare wydanie kapitalne, ale po ostatniej reedycji sluchajac ego czuje sie jak w zatloczonym autobusie gdzie ludzie gadaja obok i z twarza laduja mi sie do ucha, i to po kilku naraz. Rozumiecie, dlatego naciskam na siebie by nie prowadzic tego procesu w ta sama strone lecz zostac z pewnym luzem. I wydaje mi sie ze bez kopresji opracowanie tej mzyki moze byc trudniejsze, bo np piosenke z tej plyty ktora sie nazywa Blood on the Rooftops znam z takiej lagodnosci i przestrzni i byla swietnie opracowana brzmieniowo, jakas reedysje slyszlem i mam takie wrazenie ze w zgielku ktory powstal perkusji basu i mellotronu juz to tak wazne nie jest bo mniej widoczne, to takakby dzwiek stloczony mial mniej miejsca na gre.
    No i nie umiem znalesc wyjscia tych problemow, szukam po necie wskazowek ale mysle ze nie znajde, bo to sprawa indywidualna nie tylko prolemowo ale i subiektywna sluchowo.

    A z tym wyrownywaniem sampli to naprawde byl numer. Ja naprawde nie slyszalem tego, dla nie bylo ok bo korygowalem na sluch wczsniej ale na edytorze nadal sie wybijalo cos, i mimo niwelowania tak duzych roznic zarowno w tamtej konfiguracji jak i tej caly czas uwazam ze jest dobrze i bebny na perkusji sa zrownowazone, to tez jest dla mnie zagatka…

    tak, wracajac do tego co dajemy sluchaczowi to wzne moim zdaniem, by nie tylko chcial wrocic do plyty ale w ogole do muzyki na dluzej niz 5 minut
    To prawda ze pop, czy kultura masowa sprzeda sie lepiej, w wiekszej ilosci egzenplarzy, ale cos z wyzszej polki tez by sie sprzeawalo, choc moze nie tak glosno i nie w takich ilosciach, ale to zawsze by dostarczalo tworcom, ludziom ktorzy to wykonuja pieniedzy na funkcjonoanie normalne a nie amatorskie praktycznie.

  16. @1 akapit: to załóż sobie bloga, najlepiej filozoficznego ;). Tam będziesz mógł pisać ile będziesz chciał i nie będziesz musiał nawiązywać do poprzednich wpisów. Zawsze to jakaś alternatywa dla książki. Poza tym to też jest sposób na dyskusję. Mnustwo ludzi w sieci odpisuje innym na własnym blogu. Bo tam są przynajmniej sami sobie żaglem i sterem i mogą pisać na własnych zasadach. Są gospodarzami. Polecam się nad tym zastanowić ;).

    @2 akapit: drogi n/n, jeżeli chcesz mieć wszystko klarowne, przejrzyste i dynamiczne (bo jeśli dobrze jeszcze kojarzę z poprzednich Twoich wpisów to do tego dążysz) to przede wszystkim musi to tak właśnie brzmieć na sucho, bezpośrednio po nagraniu. A to oznacza, że absolutnie musisz o to zadbać na etapie wyboru i sposobu wykorzystania samych instrumentów/muzykówi instrumentów, jeżeli żywe instrumenty też kiedyś zaczniesz lub już zacząłeś nagrywać. To jest klucz, bez dobrego nagrania choćbyś się nie wiem jak sprężał to nie zrobisz pięknego miksu. Dbaj o szczegóły swoich nagrań tak jak o szczegóły swoich produktów dbał Steve Jobs – szaleńczo, niestrudzenie, wręcz wariacko! Dopiero wtedy możesz zacząć myśleć o dodawaniu czegokolwiek od siebie, czyli efektów. O takich sprawach jak gdzie instrument będzie w miksie i w paśmie musisz niestety myśleć jeszcze przed włączeniem komputera. Wyobraź sobie Twoją wirtualną orkiestrę, popatrz na nią od lewej do prawej, od pierwszego rzędu do ostatniego, od dołu do góry. Każde nagranie to jest trójwymiarowy byt, który żeby dobrze zrealizować i pokazać przez dwuwymiarową płaszczyznę wyznaczoną przez głośniki (takie okno na świat) musi być najpierw dobrze zdefiniowany. Potem postaraj się wyobrazić sobie przestrzeń w jakiej gra ta orkiestra. Czy to jest wielka sala koncertowa, czy to jest mała salka do ćwiczeń, a może kompletnie przegłuszona sala w jakimś domorosłym “studiu”. Wyobraź sobie jak mogłyby brzmieć poszczególne instrumenty w tym pomieszczeniu. A potem je nagraj, ustaw panoramę tak żeby odpowiadała miescu gdzie wyobraziłeś sobie instrument, ustaw poziom tak żeby odpowiadał odległości instrumentu od słuchacza, ustaw pasmo tak żeby instrument nie walczył o miejsce w miksie z innymi. No i ostatecznie zaaranżuj nagranie tak, żeby nie było przepakowane dźwiękami. Zgodnie z zasadą mniej=więcej. GMy ludzie (homo sapiens) główki mamy na szczęście takie sprytne, że tego co nie usłyszymy to sobie dopowiemy, więc problemu nie ma, a nawet jest lepiej, bo nagranie ubogie w aranżu, ale dobrze przemyślanym ma szansę na większą dynamikę i lepszy punch. Potem dodaj trochę delaya ale bardzo krótkiego. To da Ci głębię instrumentu bez sugerowania przestrzeni. No i ostatnia sprawa, jak już nakładasz jakiś efekt to na cały miks ten sam, ewentualnie z różnymi wartościami wysyłki na niego. W końcu cała orkiestra gra w tym samym pomieszczeniu które na każdy instrument w danym paśmie odpowiada tak samo, nie ważne czy będzie to stopa czy bas. Dlatego właśnie ważne jest to, żeby użyć jednego konketnie ustawionego efektu, bo to on i jego ustawienia definiują przestrzeń, w jakiej gra Twoja orkiestra. I ostatnia rzecz, jak to co napisałem nie pomoże to eksperymentuj. Nikt Ci tego nie zabroni, a może wpadniesz na jakiś genialny pomysł. Tylko nie zapomnij go zapisać :D.

    @3 akapit: no teraz to ja zabrzmię jak kompletny laik ale z czystej ciekawości, czego używasz do odsłuchu przy pracy? Jeżeli to wolno stojące zestawy głośnikowe to jak masz zaadaptowane pomieszczenie? Czy w ogóle masz? Jak masz umeblowane pomieszczenie? No i ostatnia sprawa w tej materii, ja nie namawiam na kupowanie od razu genialnych i zapewne drogich monitorów studyjnych, ale musisz być świadom (szczególnie, że jak sam piszesz realizacją nagrań zajmujesz się od niedawna) że żeby pracować (co ja gadam , sam w to nie wierzę :D) na tanich zestawach głośnikowych typu domowa wieża podłączona do komputera (do czego niestety sam jestem zmuszony ze względów finansowych) to trzeba mieć sporo doświadczenia i też wyobraźni żeby poukładać te instrumenty tam gdzie one powinny być i dać tyle efektu żeby to grało jak należy. To jest niestety związane z czymś co jest totalnie ignorowane przez producentów taniego domowego sprzętu a jest kluczowe w kwestiach, o które walczysz – zestrojenie fazowe zestawów głośnikowych.

    @4 akapit: rozwiązanie jest proste. Zacznij wszystko od początku. Jeśli zapędziłeś się w tak zwany kozi róg czyli do miejsca skąd nie wiesz jak wyjść, do dalsze kręcenie gałami tylko pogorszy sprawę. Wywal wszystko co ponakładałeś na te ślady, wyzeruj suwaki i posłuchaj pojedynczych śladów. Potem powoli do odsłuchiwanego śladu dodawaj po jednym i patrz gdzie Ci się one nakładają, gdzie się nie zgadzają. W ten może monotonny sposób powinieneś dojść do trochę lepszych rezultatów.

    @5 akapit: jak wyżej, aranż, wyobraźnia, dobre nagranie, minimalistyczny miks. Co do kompresji to jest osobna sprawa, jak chcesz np wokal wyciągnąć na twarz to musisz też go przede wszystkim dobrze nagrać, a nie łapać się za kompresor.

    @7 akapit: wiesz co, trudno mi określić jak jest w muzyce poważnej, ale patrząc na nasz lokalny grajdołek to wydaje mi się, że pop sprzedaje się przede wszystkim na koncertach, z tego muzycy żyją. I z bycia celebrytami, z tego że się ich pyta w tv o różne rzeczy nie ważne czy mają coś na ten temat do powiedzenia czy nie. “Płyty teraz można ściągnąć z sieci, więc kto by był taki głupi, żeby za nie płacić.” takie jest myślenie większości urzytkowników muzyki. Celowo piszę “urzytkowników” bo to nie są już melomani, to są zwykli konsumenci, którzy w większości nie zadają sobie nawet trudu żeby zrozumieć tekst. Pomijając, że większość tekstów jest po prostu płytka.

  17. No wlasnie mnie też nie stać na zestawy odsluchowe, używam metody klilku źródeł dzwieku, oczywiście osobno. Ale przede wszystkim bazuje na sluchaniu innych wydawnictw pod sluchawki, wolno stojace wlaczam czasem, ale to nie glosniki, tylko ruina.
    Rozwiazanie chyba sie znalazlo, tam gdzie przez kilka dni uwazalem ze problem nie lezy. 1 decybel w dol na wysokosci 300Hz na filtrze glownym. W zyciu bym nie pomyslal, gdyz nuta basu zabruzala nagranie, bez niej bylo czysto, dzialo sie to z roznymi insrumentami a to miejsce czyscilem zarowno na basie jak i na imitacji gitary akstycznej, wiec zupelnie tego nie rozumiem, i nuta jest czytelna teraz, calosci nagrania. Ja to slyszalem zawsze po wczesniejszej korekcji ucha inna muzyka, niezaleznie po jakiej muzyce. Teraz tak planuje by jeszcze wieczorem w dol pciagnac 2 do 4 kHz, moze to odczucie srednich tu jednak siedzi i nepotzebnie kombinuje.
    Bo to sie tyczy wlasnie etapu masteringu, probuje nadac spojnosc brzmieniowa kilku kompozycji, no i to naprawde dziala! Nawet jesli one sie jakoś po miksie roznily.

    • No to powiem Ci tak. Na słuchawkach to możesz sobie na najwyżej ślady poczyścić i ewnetualnie barwę poustawiać, ale panoramowanie i efekty nakładaj słuchając na głośnikach. To są zupełnie różne środowiska odsłuchu i nigdy nie uzyskasz satysfakcjonujących efektów jeśli będziesz robił wszystko w słuchawkach.

  18. Po jakims kolejnym kroku, wiekszych zmianach sprawdzam co sie dzieje na innych zrodlach w tym glosnikach laptopa. Na nich np wychwycisz bezsensownie mocne nalozenie poglosu czy echa calosci brzmienia oraz zbytniego dudnienia, mysle o czyms w typie pudel rezonansowyh, wiesz, gitary, fortepianu, bebna, czasem nawet na produkcjach profesjonalnych (glwnie starych analogowych) to dudnienie na takich glosniczkach zakrywa muzyke, a lekkie przyciszenie nie zminenia charakteru brzmienia na innych zrodlach jak zauwazylem, jednak bez punktow odniesienia, czyli puszcania wczesniej innej muzyki to takie skakanie niczym dobrym sie nie konczy.
    Jesli chodzi o panorame, to wyaje mi sie, ze na rozmieszczenie instrumentow podczas miksu lepiej sie nadaja kolumny, bo w sluchawkach jest taka tendencja do wezszego rozstawienia, bo inaczej jest majac glosnik przy uchu gdy dociera do ucha dzwiek tylko z niego a inaczej dzwiek idzie przez powietrze i dociea do obu nezaleznie jak szeroko kolumny sa rozstawione. Ale mysle, ze warto szukac kompromisu miedzy walorami streo na wolno stojacych a sluchawkach, ciezko sie slucha na slychawkach radykalnego rozmieszczenia.
    Ale Tobie pewnie chodzilo o tym co tu Igor tez chyba gdzies pisal, czyli modeloaniu panoramy na etapie masteringu, no ale w domu nie ma takich warunkow zwykle by miec dobry odsluch, trzeba sobie radzic z tym co sie ma i nie grymasic i nie rezygnowac, wyobraz sobie ze uczyem sie i komponowalem swoja ulomna muzyke na komputerze z procesorem 400MHz, gdzie nie bylo plynnego odtwarzania nawet w MuseScore i na nim tez nagalem w demo DAW-a eksperymentalnie audio na poznajdowanych wyczkach gdzie przy trzech instrumentach juz DAW stawal i glosnosc na oko sie robilo zapisujac WAV!!! To nie jest tak, ze trzeba miec idealne warunki, mechanik uczy sie naprawiac samochody na starych gratach. Uczysz sie roznych sztuczek, musisz znajdowac rozwiazania problemow ktorych ludzie z dobrym sprzetem nieauwazaja, nie maja zwykle, nagromadzenie problemow przyspiesza nauke.
    A wracajac do panoramy to nie odczuwam roznicy w uzywaniu sluchawek czy glosnikow(roznych) przy np poszezaniu pasmowym czy ogolnym, czy ez rozjasnianiu jej np, tu i tu sie zmienia, i prawde mowiac nie wiem czy jest i czy powstaje jakies zmylkowe zludzenie poprawnosci efektu w zaleznosci od zrodla sluchawkowego przeciwstawionego wolnostojacym i jak byscie takie zludzenie schaakteryzowali, czego sie dopatrywac, nie wiem jak to widzicie jesli chodzi o rady dla osob, ktorze nigdy nie beda robic swiatowych produkcji, moze tylko cos kiedys jakos wyadza, lub beda leciec jazz w malym studiu. Bo w sluchawkach to odczuwam jako zwiekszenie przestrzeni a n wolno stojacych jakby rozproszenie, lepsza wyraznosc wybrzmienia instrumentow w stereo. To pewnei jest jakis wyznacznik ale tak jak piszecie w odpowiedniej akustyce pomieszenia i na dobrym sprzecie, ale tez glosniki maja rozne pasma przenoszenia jak Igor zaznaczal, czy tez w innych mejcach na sprzecie, czasem pewne pasma tlumia, inne wypychaja, o wysokiej klasy sprzecie w ogole nie ma co mowic, ldzie ktorzy maja do tego dostep i tak zostana nauczeni jak w tym sie poruszac…

    • @1 akapit: n/n posłuchaj… WYWAL TE GŁOŚNIKI W LAPTOPIE DO KOSZA!!! To co się z nich wydobywa to po pierwsze, sam środek pasma, w który no OCZYWIŚCIE jest przecież efekt i to co z nich słyszysz to KOMPLETNIE nie odzwierciedla tego co zostało zrobione w studiu. A po drugie jak chcesz słyszeć resztę pasma, a przez to proporcje w miksie skoro tam siedzą 1 calowe (o, to już dobrze) membrany? To się nie nadaje do NICZEGO, zapamiętaj.

      @2 akapit: no brawo, dobrze kombinujesz z tymi drogami poruszania się dźwięku.
      Nagromadzenie problemów nie przyspiesza nauki tylko powiększa frustrację. W dzisiejszych czasach nawet najtańszy komputer jest w stanie uciągnąć kilkanaście ścieżek, wystarczająco dużo dla większości domowych muzyków bawiących się w nagrania/produkcję muzyczną. Ja swoje przygody zaczynałem na procesorze 350MHz i 64MB ramu i jakoś żyłem. Da się. A potem zmieniłem komputer bo mnie irytowało co mi pozwala zrobić ten stary grzmot. A potem znowu zmieniłem. Teraz jestem zadowolony. Ten mi wystarcza i pewnie jeszcze długo będzie wystarczał.

      @3 akapit: na słuchawkach efektu będziesz miał zawsze za mało. Będziesz go dokręcał. To wynika właśnie z faktu, że słuchawki separują uszy od sygnałów pochodzących z przeciwległych kanałów. To że zmiany poziomu efektu da się zauważyć na obu typach odsłuchów to ja jestem świadom, ale ilość bezwzględna efektu jaką dajesz na słuchawkach, a na wolnych odsłuchach jest różna. A poza tym jeszcze wrócę do tematu zbierzności fazy głośników w odsłuchach wolnostojących, to jest też bardzo istotne dla prawidłowego postrzegania i panoramy i klarowności miksu i efektów.

  19. Zastanowmy się. Jak uczylem się o muzyce przeszedlem etap o budowie akordu. Wezmy najprostrzy, trojdzwiek, 3 klawisze, na wikipedii to chyba nawet jest napisane i nauczylem sie tego sluchac. Wciskasz 3 klawsze, ale na slyszenie akordu wplywaja 2 klawisze, pierwszy i trzeci, najnizszy i najwyzszy, srodkowy jest dopelnieniem, wypelnieniem, jednak nie wplywa na slyszenie akordu, lecz na odczucie jaki on jest. I klawisze moga byc w roznej konfiguracji porozstawiane i stad np roznica odczucia miedzy dur a moll. A jak zagrasz akord to przeciez zauwazysz na EQ z wyswietlaczem mocy danych zakresow, ze sie czestotliwosciowo rozklada nie tylko na rozne oktawy poza ta w ktorej gra ale tez powstaja linie symbolizujace dzwieki skladowe tego akordu.
    Glosniki takie male nie graja basu w niskich czestotliwosciach, ich zakres sie zaczyna w srednich na dole w tym trudnym punkcie chyba, ktory ma tendencje do zadudniania brzmienia, odbierania mu mocy w sposob dosc trudny czasem do zauwazenia (czego sie nauczylem na etapie jak nakladalem filtry na poszczegolne instrumenty i ile to dalo) badz troche wyzej, a nie zawsze to rozpoznajesz nie majac odpowiednieo doswiadczenia i sprzetu. Uslyszysz tez przesilenia w wysokich czestotliwosciach, jakies dziwne dzwieki gitar czy synteatorow lepiej, co moze byc w innych warunkach niwelowane podglasnianiem innych instrumentow by to zludznie roznic glosnosci zmniejszyc, problem tylko z przystosowaniem sie do tego odsluchu.
    Pytam sie osob doswiadczonych, czy to ne jest w masteringu na podobenj zasadzie, mimo, ze glownie mamy podobny zakres od kilkdzisieciu Hz do kilknastu kHz, to na szlyszenie calosci brzmienia (nie mysle o rozroznianiu instrumentow ale muzyki jako calosci) wplywaja cestotliwosci z zakresie basu i wysokich czesotliwosci na poziomie talezy i nadajac brzmienie to trzeba zrownowazyc ze soba przed masteringiem miedzy soba brzmieniowo, ale tez z cala skladowa srednich, a juz w czasie masteringu modelowac ta srodkowa zaartosc by brzmieniu nadac okreslony charakter? Bo i tak slyszymy to co jest najnizej i najwyzej a reszta dopelnia, wypelnia jak farsz w pierogu? I na ile i jakimi sposobami sluchania mozemy na poziomie masteringu (ale na poziomie domowym) to zobic tak, by nie zepsuc pracy z powodu niedoslyszenia tej skladowej srednich, bo mimo nie dokonca oczywistego zauwazania zmian po przsunieciach EQ odczucie brzmienia sie zmienia ale w rzeczywistosci zmiany sa duzo wieksze niz to slyszymy (slyszymy chyba na bazie meczenia uszu albo zamglenia), no bo mi przychodzi na mysl roznorodne zrodla odsluchu i porownywanie do innych roznych brzmieniowo wydawnictw na tych odsluchach.. Bo zrozumienie tego moze byc kluczowe dla osob ktore nie maja mozliwosci zbudowania nawet tandetnych warunkow odsluchowych jak ja, ale tez i pewnie w dobrych warunkach moze byc pomocne, szczegolnie ze dzis lubi sie bardzo czyste brzmienia i posortowane instrumenty na rozne pasma dosc mocno powykrajane.
    Bo glosniki laptopa dosc sprawnie pomogly mi wyeliminowac zamulanie na etapie miksu, i to naprawde sktecznie, do teraz.
    To sie chyba zlozylo z moim probleem, teoretycznie dzwiek czysty, ale jak bas zagral nute nad cale nagranie wzbijal sie jakby kurz, ale po sciszeniu basu nuty nie mozna bylo poznac, a sama przyczyna nie lezala w miejscu gdzie ten bas gral, lecz wchodzil w relacje z reszta pomiedzy basoymi czestot. a srednimi ale nie molglem znalesc rozwiaznia. Slyszalem to u siebie normalnie tylko po wczesniejszym odsluchaniu innej plyty i bardzo krotko, 2 minuty i juz nie zwacalo sie uwag, a niezaleznie od rodzaju brzmienia innych plyt wyczuwalo sie ten sam problem.

  20. @1 akapit: to wynika ze złożonego sposobu drgania struny. Struna nie drga jedną częstotliwością, ale także wieloma innymi, harmonicznymi.
    @2 akapit: to jest częstotliwość rezonansowa.
    @3 akapit: mylisz się. Średnica pasma to jest zakres, w którym ludzki słuch jest właśnie nabardziej czuły.
    @ ostatni akapit: u Ciebie jest za dużo nawarstwionych problemów, żeby je wszystkie pojedynczo rozwiązywać, do tego na blogu. Ja uważam, że począwszy od nagrania (czy też syntezy instrumentu) poprzez aranż a skończywszy na jakości odsłuchu wszystko jest do poprawki. Nie możesz oczekiwać, że mając kiepski odsłuch zrealizujesz na nim genialnie brzmiące nagranie, tym bardziej że jak sam twierdzisz masz mało doświadczenia z nagraniami i miksami. Jak nie możesz sobie pozwolić na własne monitory to zrzuć sobie ślady na *.wav i poszukaj studia albo kogoś w Twojej okolicy kto się trochę zna na rzeczy i poproś o możliwość przesłuchania swoich wypocin na porządnym sprzęcie. Od razu Ci się oczy otworzą i zrozumiesz gdzie robisz błędy. Do tego jeszcze ktoś kto ma trochę więcej doświadcznia może skomentuje Twoje prace i podpowie co zrobić żeby było lepiej. A tak w ogóle z jakiego miasta jesteś?

  21. Jestem z trojmiasta. Mysle, ze sie nie rozumiemy, to co tu Igor zrobil to jest skarbnica wiedzy, ktora pomoze osobom przypadkowym, jak sie robi muzyke od storny realizacji, ktorzy maja w sobie detrminacje, ja jej nie mam bo wiekszosci tych inf wiem, ze nie bede mogl nigdy wykozystac.
    To nie jest tak wszystko piekne i jaskrawe, ze wszyscy chcacy robic audio ida na studia i robia praktyki, staze, maja dostep i ucza sie na dobrym sprzecie,sa muzykami ktorzy przeniesli sie na troche inne tory, badz sa samoukami niezwykle utalentowanymi, szczegolnie w remiksach.
    Jest tez inna ppotrzeba zdobycia takiej wiedzy niz chec realizowania muzyki na swiatowym poziomie, czy na swiatowym sprzecie. Po prostu jej zrealizowanie w miare swiadomie, rowniez wedlug mozliwosci finansowych, czesto po prostu np do rozdania, jednak dzis sa takie mozliwisci ze mozesz posiedziec i nie zrobic papki w pospiechu w jednodniowej sesji w studiu. W niszach, rowniez w srodowiskach typowo artystycznych, ale tez u ludzi z innymi ambicjami samej realizacji nie znajdziesz funduszy ani potencjalu zarobkowego tworczosci.
    Po prostu szukam wskazowek jak lawirowac na nieprofesjonalnym sprzecie, czego sie wystrzegac, ale by jednak isc do przodu, nie zeby muzyka byla wspaniala, ale zeby dac z tego projektu i siebie 100%, dla przyjemnosci/ambicji tworczych, czytalem wiele wpisow Igora i znalazlem kilka suchych inf ktore u siebie zaadaptowalem, jak wielopoziomowe panoramowanie (choc wczesniej juz cwiczylem to, ale nie wiedzialem do czego sluzy i odstawilem i zapomnialem;) )
    Jezeli wskazowek nie znajde jade dalej sam niezmieniajac drogi ktora obralem, i dojechalem do tego mometu, a szczerze mowiac do tej pory na calej tej przygodzie z muzyka od poczatku procz faktow ktore znalazlem i staralem sie sam ich uzywac wpadaly mi w rece wskazowki raczej takie, ze nie da sie, ze strata czasu, daj sobie spokoj, juz nie mowiac o moim wieku, ze za stary i nie umiem na niczym grac.
    Problem sam rozwiaze, lecz po prostu brakuje mi czasem wiedzy, oraz opinii innych na temat sposobu realizacji czy tez formy muzyki , dzwieku, w szerokim znaczeniu, ogolnym, nie rynkowym, nie ideowym ale jakosciowym, potwierdzenia co jest dobre dla muzyki i czloieka, jego komfortu co tez probuje sam weryfikowac, jesli takie opinie znajde z zalaczonymi przykladami dzwiekowymi, bo ja tez jestem zaszufladkowany i moge miec dosyc spore wypaczenie w tym temacie.
    Na dzis dzien brakuje mi warsztatu wiedzy jak sluchac gotowy miks z mysla o nadaniu brzmienia w masteringu, ewentualnie jeszcze podczas pacy nad nmiksem, sposobu jego sluchania calkowicie pomijajac aspekt wysokiej klasy sprzetu lub akustyki, czyli jak sluchac muzyki, samej muzyki zeby potrafic nia swiadomie modelowac, Igor gdzies tu pisze o sciszaniu do minimum i patrzeniu co wtedy slyszmy, czy bas jeszze jest, czy pierwszoplanowe ciezki najlepij slychac. Ja teraz probuje wejsc w struktore calego pasma by nadac mu okreslone brzmienie, a widze juz ze to sprawa niezwykle subtelna, mala zmiana robi duzo, choc to sie razej czuje niz slyszy. I staram sie was pociagnac za jezyk byscie wysypali pare sztuczek jak spojrzec na polprodukt od partyzanckiej strony widzenia, okupacyjna solidnoscia dzialania aby przejsc nie wysazajac sie na minie, choc tu na szczesnie mozna cofnac czas ;)A efekt koncowy to przeciez sprawa indywidualna, checi i gustu.

  22. @1 akapit: no i takie myślenie Cię ogranicza. Nie ma że nie mogę! Idziesz np do radia, albo na jakąś uczelnię wyższą, w której prowadzą zajęcia z realizacji dźwięku, albo akustyki, zdaje się, że polibuda to ma, i tam się pytasz i szukasz w kole naukowym AES (Audio Engineering Society). Mają tam w trójmieście bardzo prężnie działającą sekcję (a przynajmniej była takowa jak ja byłem na studiach i się czasem z ludźmi stamtąd spotykałem na konwencjach, bo sam studiowałem we Wrocławiu) i u nich szukasz pomocy. Tam Cię nauczą, a jak dobrze pogadasz to jeszcze do studia wpuszczą.

    PS A ile Ty w ogóle masz lat? 😀

    Odnośnie całego wpisu: jak wyżej – uczelnia wyższa z kierunkiem akustyka/realizacja dźwięku -> sekcja studencka AES. Tam szukaj.

    Sypać patentami to my możemy jak z rękawa, tylko co z tego, skoro to jak wstawianie okien w ściany domu, których nie ma. Najpierw trzeba wybudować dobry fundament, potem postawić ściany, a na końcu w pozostawione i zaplanowane otwory wstawiać okna. Inaczej się nie da!

  23. No wlasnie o tym mowie. Ciagle slysze, ze sie nie da, ze to trzeba, tamto, w dupe z tym. Masz chyba zbyt mala wiare w ludzi 😉 Wystarczyla Twoja krytyczna wzmianka o moich metodach odsluchowych, i opis dlaczego sluchawki sa be, bym zaczal myslec jak one moga mi znieksztalcac obraz rzeczywistosci. Gdy polaczylem to z irytujacymi odczuciami jakie mialem podaczas ostaniego odsluchu na laptopie (dzwiek konkretny, ale jego kontury jakby rozmazane, nie wiem czy to widzisz) i przypomnieniem sobie, ze cos tkiego slyszalem juz gdy rozkrecalem ogolna panorame na syntezator (na tzw pady)od razu skierowalem kroki do multipanoramy i zmniejszylem kat tego odwroconego trojkata, od zera na dole czestotliwosci do najwiekszych na wysokich. I od razu panorama przygasla(prawdopodobnie nieswiadomie lub omylkowo natezenie efektu zmnienilem i tego nie zauwazylem, bo zwykle dokladnie regulowalem), sciagnalem filtr ktory dodalem pod reverb jak opowiadalem wczesniej i sie sytuacja wyprostowala, a wlasciwie wrocila do normy jaka juz mialem, ale wtedy mialem inaczej wszystko popodpinane i poustawiane, ze dzwiek miesci sie miedzy kilkoma CD jakie mam, kiedys kupionymi wydania glownie z lat 91 – 2000 (w przekrju od czysto gitarowych do polelektornicznych)
    Oczywiscie nie mam mowy by na tych dzwiekach jakich uzywam osiagnac wysoki poziom, jednak do sluchania sie moze nadawac, dzis w radio muzyka jest podobna do siebie, ale np moja mala CD-teka w brzmieniu jest kolosalnie roznorodna, pewnie modelowana w czasie masteingu nie tylko pod gatunek czy stylisyke, ale tez determinowana tym jak sie udalo dzwiek zrealizowac.
    Powiedz mi jedno, bo moze sie orietujesz. Ile z naszych ciagle pojawiajacych sie postaci na scnie muzycznej, wokalistek/ow itp ktorzy kariere probuja zrobic jest po szkolach? Bo ja slysze jak mam wlaczony TV i sie o kims mowi ze przynajmniej liceum muzyczne skonczyl… No i co z tego?! Co im to daje… Ja nie zamierzam kariery robic, mnie miks i mastering audio nie interesuje, ja to potrzbuje by miec calosciowy wplyw na tworczosc jesli ona ma w ogole jakis poziom.
    Wiesz jak dzis muzyka powstaje.
    Zapalency ktorzy wchodza do studia i “dawac basy”, “robimy przester” a potem inzynier sie glowi, albo jak pop, artysta wie co roi lub nie, ale prodcent i tak zrobi jak trzeba, miks i masteing tez jak treba, okladka jak trzeba i… i no wlasnie co… no wlasnie nic.
    Ja pewnie po prostu to gdzies kiedys walne w necie na jakims tube i juz, bo nie bede przeciez zamawial w tloczni plyt, a nikt mi tego nie wyda.
    Bo dzis tylko swiry nie robia muzy na rynek badz pod okreslona nisze, a ja procz samego jej powstania mam konkretne idee, choc dzis juz tak donich waginie przywiazuje, traktuje je jako fundament.
    Wiec dziekuje za konkretne uwagi przede wszystkim, bo znow wiem wiecej, nie pod wzgledem naukowym ale praktycznego rozumienia zjawisk, a takie bladzenie naprade chyba uczy.
    W tej chwili bede dazyc do lekkiego zmatowienia czy wygluszenia srednich, zobaczymy jak wszystkie kompozycje w tej konfiguracji beda wygladac.

    p.s.
    powstania warszawskiego nie pamietam wiec mam jeszcze troche czasu… 😉

    • Bo faktycznie zniekształcają. Słuchawki nie powstały po to żeby na nich kracować z muzyką tylko żeby dzięki nim się nią cieszyć nie przeszkadzając reszcie rodziny.

      Jak Cię miks i master nie interesuje to po co to w ogóle roztrząsasz? Wziąłeś się jak sam mówisz miesiąc temu na poważnie za muzykę, zaczynasz grzebać w efektach, coś Ci nie wychodzi i oczekujesz, że damy Ci tu złote metody na wszelkie problemy. Tego fachu ludzie uczą się całe lata, a i tak wszystkiego nie wiedzą jak umierają, więc nie licz na to, że uzyskasz porządane efekty w kilka tygodni. Po pierwsze nie masz warunków technicznych, a po drugie nie masz doświadczenia. My Ci tu próbowaliśmy pomóc, doradzić jak sobie poradzić w takiej a nie innej sytuacji, ale widzę, że wiesz swoje i do zmiany myślenia trudno będzie Cię namówić. No to próbuj dalej po swojemu.

      Jak chcesz usłyszeć młody zespół, który ma coś do powiedzenia i umie dobrze zrobić swoją muzykę to sam go stwórz. To przecież oczywiste, że jak za granie biorą się amatorzy, do tego myślący, że wiedzą wszystko najlepiej bo od miesiąca mają Fendera, na którego wydali przecież “ogromne pieniądze”, całe 1,5 tyś. zł. to nie ma się co dziwić, że są takie a nie inne efekty. Poza tym pamiętaj, że za muzyką komercyjną stoją ogromne pieniądze i szatańskie kontrakty. Wystarczy posłuchać wywiadu z Alicją Janosz w tvn style sprzed kilku tygodni. Opowiada o tym świecie. To jest rzeźnia talentów i kuźnia miernoty, cały ten biznes fonograficzny.

  24. kamil777-87

    Pytanie za 100 pkt – ścieżki referencyjne wrzuca się do daw czy chodzi np. o zwyczajne odsłuchiwanie ich z płyty ?

    • Jak Ci pasuje. Ja wole mieć je w DAW pod ręką, bo jednym kliknięciem możesz się przełączać między nimi, a miksem, nad którym pracujesz i wszystko słyszysz przez ten sam tor odsłuchowy.

  25. kamil777-87

    Nigdy tak nie robiłem. Z resztą z tego co ja czytam na Twoim blogu to wielu rzeczy jeszcze nie robiłem :]

Zostaw komentarz