Częstotliwość Próbkowania i Głębia Bitowa – Fakty i Mity

Każdy z nas słyszał o częstotliwości próbkowania (ang. sample rate) i głębi bitowej (ang. bit depth) – zwanej także długością słowa cyfrowego. Są to dwa podstawowe pojęcia, które non-stop przewijają się w teorii cyfrowego dźwięku. Zdałem sobie ostatnio sprawę z tego, jak wiele różnych, czasem sprzecznych, a nawet dziwacznych informacji w tym temacie krąży po sieci, dlatego postanowiłem trochę naprostować te opinie, żebyście mogli zrozumieć występujące zależności między tymi pojęciami.

Do napisania tego artykułu skłoniła mnie także niedawna wymiana maili z jednym z czytelników, który bardzo mocno obstawał przy pewnej teorii dotyczącej „samplingu”…

Żeby lepiej zrozumieć, co tak naprawdę dzieje się z sygnałem audio, który podajemy do interfejsu, musimy zapoznać się przede wszystkim z terminem “konwersji” i urządzeniem zwanym “konwerterem”. Mimo, iż jest to w teorii banalnie prosta sprawa (choć obliczenia, które się odbywają na tym etapie, bywają skomplikowane), to wielu ludziom albo umykają pewne fakty, albo nie do końca dopuszczają je do swojej myśli. Dlatego postaram się to wyjaśnić w możliwie najprostszy sposób i spróbuję obalić kilka obiegowych mitów związanych z tym procesem, tym samym rozpoczynając cykl o Teorii Cyfrowego Dźwięku.

Co to jest konwerter (analogowo-cyfrowy i cyfrowo-analogowy)?

Audio podawane mikrofonem (lub bezpośrednio z instrumentu) do interfejsu, to nic innego jak seria sygnałów elektrycznych o zmieniającym się napięciu, które reprezentują dźwięki akustyczne. Sygnały te są następnie za pomocą konwertera A/C (analogowo-cyfrowego) zamieniane na serię numerów, które korespondują z konkretnymi wartościami napięcia elektrycznego. Proces ten nazywany jest konwersją (ang. conversion), cyfryzacją (ang. digitalization) lub „samplingiem”. Po tym etapie, nagrany sygnał jest przechowywany na twardym dysku komputera (w postaci serii liczb) i możemy nim dowolnie manipulować. A żeby możliwe było odtworzenie zapisanego w tej formie sygnału, musi on przejść przez drugi etap konwersji, niejako „drogę powrotną”, czyli zostać poddany zamianie na sygnał analogowy, jakim znów będzie zmienne napięcie elektryczne. Ten proces odbywa się za pomocą konwertera C/A (cyfrowo-analogowego).

Każda karta dźwiękowa/interfejs audio zawiera dwie pary konwerterów A/C i C/A – po jednej parze do nagrywania (konwersja A/C) i jednej do odtwarzania (konwersja C/A) lewego i prawego kanału. Nawiasem mówiąc, konwersja A/C i C/A jest głównym winowajcą zjawiska latencji, z którą musimy się na co dzień zmagać, bo to ten właśnie proces trwa od kilku do kilkunastu milisekund, które powodują odczuwalne przez nas opóźnienie podczas nagrań. Zjawisku latencji jest poświęcony oddzielny artykuł w tym cyklu.

Tak, jak napisałem, konwersja to dość prosty i zrozumiały proces, żadnej fizyki kwantowej. Ale nawet bez wnikania w skomplikowane obliczenia odbywające się w konwerterach (co nas raczej nie powinno zbytnio interesować), teoria samplingu budzi czasem sporo kontrowersji. Dlatego pójdźmy krok dalej i zobaczmy, z czym się to wszystko je…

Krótkie Spojrzenie w Przeszłość…

Podstawą współczesnej teorii samplingu są wnioski z obserwacji, jakie w 1925r przeprowadził i opublikował Harry Nyquist. Dotyczyły one ograniczeń przepływu sygnału liniami telegraficznymi przesyłającymi informacje alfabetem Morse’a. Nyquist dowiódł, że największa częstotliwość, z jaką można było przesyłać te impulsy, była równa połowie dostępnej przepustowości. W 1949r Claude Shannon, usystematyzował wszystkie informacje zebrane w tym temacie na przestrzeni lat i do dnia dzisiejszego, obaj panowie są uznawani za pionierów teorii samplingu.

Dla niepokojących się beat-makerów od razu wyjaśnię, że opisywana teoria nie ma nic wspólnego z popularną w ich polu działania metodą, zwaną „samplowaniem” czy też „samplingiem”, czyli wycinaniem jakiegoś komercyjnego fragmentu audio, dźwięków, melodii, rytmów czy fraz do późniejszego ich odtwarzania i manipulowania za pomocą samplera.

Jak wygląda proces konwersji A/C/A?

Samplowanie w cyfrowej teorii dźwięku odnosi się do pobierania bardzo wielu wycinków (ang. snapshots) zmieniających się wartości napięcia elektrycznego w równych interwałach czasowych. Łatwo to sobie zobrazować, jeśli porównamy ten proces z ruchomym obrazem (filmem), który składa się z wielu nieruchomych klatek pobranych za pomocą kamery w konkretnych odstępach czasowych.

W zależności od ustawionej częstotliwości próbkowania, wycinki te pobierane są w różnych odstępach czasowych. I tak, dla częstotliwości 44.1kHz, konwerter A/C pobiera jeden wycinek co 1/44,100 sekundy, czyli zasysa 44100 wycinków reprezentujących napięcie co jedną sekundę i zamienia je na odpowiednie liczby do przechowania w formie cyfrowej. Następnie liczby te są konwertowane w drugą stronę (na napięcie elektryczne) przez konwerter C/A i w tej formie opuszczają interfejs i są odgrywane przez głośniki lub słuchawki.

Jedną, bardzo ważną rzeczą związaną z procesem samplingu jest to, aby podczas nagrań czułość przedwzmacniacza była ustawiona optymalnie. Oto dlaczego:

Poziomy a głębia bitowa

Dla systemu 16-bitowego, zakres numeryczny korespondujący z wartościami napięcia rozciąga się od -32,768 do +32,767. Jeśli przedwzmacniacz będzie za słabo wysterowany, to najwyższy numer, jaki uchwyci konwerter może być przykładowo równy tylko +3500, zamiast +32,767, co może poskutkować słabym stosunkiem sygnału właściwego do szumu. Z drugiej strony, jeśli wzmocnienie będzie zbyt duże i konwerter będzie je identyfikował, jako przekraczające +32,767, rezultatem będzie przesterowanie sygnału (clipping).

Częstotliwość Próbkowania i Głębia Bitowa w uproszczeniu

Dla jeszcze lepszego zrozumienia, jak te dwie wartości przekładają się na zapisywany sygnał, przygotowałem te dwa proste wykresy.

WYKRES 1 – Częstotliwość Próbkowania:

WYKRES 2 – Głębia Bitowa:

Jak rozumieć te wykresy i co dzieje się przy zamianie na inne częstotliwości próbkowania i głębię bitową?

Możemy dla uproszczenia przyjąć, że częstotliwość próbkowania to wartości przypisane w czasie (linia pozioma), a głębia bitowa to wartości odpowiadające amplitudzie (sile) sygnału (linia pionowa). W przypadku pracy w systemie 44.1kHz konwerter pobiera 44100 próbek (tych zielonych kuleczek) na sekundę. Przy większej częstotliwości próbkowania jest ich oczywiście pobieranych więcej, np. 48 tys. w ciągu jednej sekundy przy sample rate równym 48kHz, itd. Alternatywnie można powiedzieć, że próbki są pobierane częściej, czyli co 1/48000 sekundy – na to samo wychodzi. Zwiększenie tej wartości pozwala na uchwycenie wyższych częstotliwości. Dzięki teorii Nyquista/Shannona wiemy, że przy 44.1kHz maksymalnie uchwycimy częstotliwości do 22.05kHz, czyli już nieco powyżej granicy ludzkiego słuchu. Przy sample rate równym 48kHz będzie to 24kHz i tak dalej…

Kwantyzacja audio

Liczby w drugim wykresie odpowiadają oczywiście wspomnianym wartościom od -32,768 do +32,767 (przy bit depth równym 16 bit), zmniejszyłem je wyłącznie dla przejrzystości wykresu. Konwerter podczas samplowania audio przypisuje konkretne wartości napięcia do tych liczb i używa wyłącznie pełnych wartości, zwanych „integers”. Jeśli napięcie podane do konwertera nie koresponduje z liczbą pełną, czyli plasuje się gdzieś między jedną a drugą dostępną wartością, zostaje wtedy przypisane (zaokrąglone) do najbliższej dostępnej liczby. Ten proces nazywamy kwantyzacją.

Skutkiem ubocznym takiego zjawiska jest delikatnie zmodyfikowana fala audio, co z kolei oznacza pojawienie się minimalnej ilości zniekształceń w odtwarzanym sygnale. Dobra wiadomość jest jednak taka, że w systemie 16-bitowym ta rozbieżność między wartością napięcia, a najbliższą dostępną liczbą pełną jest bardzo niewielka i w większości przypadków nie powoduje słyszalnych ubytków. Wyjątkiem będą bardzo ciche sygnały. Gdy zwiększymy głębię bitową do 24, ta dysproporcja staje się jeszcze mniejsza, bo dostępne do przypisania wartości występują jeszcze częściej, czyli zaokrąglanie odbywa się na znacznie mniejszą skalę. Natomiast wielką zaletą nagrywania w wyższej głębi bitowej jest to, że dzięki wyższym dostępnym liczbom, mamy znacznie lepszy stosunek sygnału właściwego do szumu i delikatnie trudniej jest przesterować konwerter przy wyższych poziomach.

Jeszcze dwie rzeczy wymagają tu wyjaśnienia…

    • Głębia bitowa a maksymalny poziom sygnału.
      To, że przy 24 bit mamy do dyspozycji większe wartości (zarówno dodatnie, jak i ujemne), nie oznacza wcale, że nagrania będą głośniejsze niż w przypadku 16 bit. W jednym i w drugim przypadku wartość maksymalna to zawsze 0dBFS. Ta powiększona rozdzielczość oznacza jedynie, że próbki są pobierane z większą dokładnością. Kolejny raz powołam się na analogię do obrazu, choć tym razem stałego. Jak zrobimy dwa zdjęcia – jedno w mniejszej, drugie w większej rozdzielczości, to na tym pierwszym łatwiej będzie dostrzec „piksele”. Drugie zdjęcie będzie rzecz jasna bardziej „gładkie” (z braku lepszego słowa), ale oba będą miały te same wymiary, prawda?
    • Głębia bitowa a jakość nagranego sygnału.
      Jedna z obiegowych opinii jest taka, że w przypadku nagrywania z wyższą głębią bitową uzyskujemy znacznie lepszą jakość nagrań. Jest to poniekąd błędne i zbyt pochopne założenie. Zarówno w 16 bit, jak i 24 bit możemy zarejestrować równie dobrze brzmiący materiał. Wychwycenie minimalnych różnic wynikających z większej precyzji kwantyzacji w systemie 24-bitowym leży raczej poza możliwościami naszego słuchu. W ostatecznym rozrachunku mało kto (jeśli w ogóle) wyłapie te rozbieżności, czyli mikroskopijne zniekształcenia jakie towarzyszą procesowi digitalizacji. Prawdziwa i odczuwalna różnica tkwi wyłącznie w tym, że przy 24 bitach możemy być bardziej leniwi i mniej uważni w kwestii poziomów – troszkę trudniej przesterować przy wysokich wartościach i mamy większy odstęp od szumów, co czasem nazywa się w tym miejscu lepszym zakresem dynamiki – bo w rzeczywistości jest to odstęp od najgłośniejszego (tuż pod 0dBFS) do najcichszego sygnału (granica szumu).

Nic oczywiście nie stoi na przeszkodzie, aby zawsze nagrywać w wyższej głębi, sam z resztą polecam pracę w 24 bit, ale nie ze względu na uzyskanie mitycznie lepszej jakości, tylko z uwagi na bardziej swobodną pracę. Przy systemie 16-bitowym musimy dbać o dość wysokie poziomy nagrywanych śladów, żeby uzyskać możliwie najkorzystniejszy odstęp od szumów, co bywa czasem ryzykowne, bo zanim się obejrzymy, niektóre szczyty sygnału mogą poszybować niebezpiecznie blisko cyfrowego zera, a bardzo ciche momenty mogą zostać lekko przykryte szumami. Z kolei w systemie 24-bitowym, możemy sobie pozwolić na bardziej liberalne podejście, tzn. nie wysterowywać preampów aż tak mocno (zmniejszając ryzyko przesterowania) zarazem nie martwiąc się o poziom szumów (bo te są znacznie bardziej odległe od sygnału właściwego).

Mity i debaty o częstotliwości próbkowania…

Spory na temat tego, czy warto nagrywać w wyższej niż standardowa częstotliwość 44.1kHz oscylują głównie wokół tego, czy zwiększenie tej wartości i uchwycenie wyższych częstotliwości w sygnale audio ma słyszalne skutki dla zakresu, który wychwytuje ludzkie ucho (20Hz-20kHz w najlepszym przypadku). Niektórzy bowiem twierdzą, że pomimo ograniczeń naszego słuchu, wyższa częstotliwość próbkowania (i uchwycenie ultra-wysokich częstotliwości) ma jakiś tam wpływ na słyszalny zakres. Jedni twierdzą, że tak jest, inni, że nie do końca. Nie mi to roztrząsać. Powiem Wam za to coś, co jest faktem…

Aby zablokować częstotliwości wyższe niż połowa wartości sample rate, proces samplowania wymaga zastosowania dolnoprzepustowego filtra anty-aliasowego na wejściu konwerterów A/C/A, ponieważ filtry nie mają nieskończenie stromego odcięcia, wymagany jest pewien margines. Oznacza to, że taki filtr musi być w stanie przepuścić wszystkie częstotliwości do 20kHz, po czym brutalnie odciąć wszystko powyżej 22,05kHz. Żeby było to możliwe, wartość odcięcia takiego filtra musi wynosić 80dB na oktawę, o ile nie więcej. Więc siłą rzeczy, jakaś porcja sygnału powyżej punktu odcięcia może się niekiedy przedrzeć, skutkując zniekształceniami, które nazywamy aliasingiem. Podobne zjawisko ma miejsce, gdy redukujemy częstotliwość próbkowania, a szczególnie wtedy, gdy proces zachodzi między wartościami, które nie są swoimi wielokrotnościami – jeśli sesja miała przykładowo 48kHz, a zgrany miks ma skończyć na płycie CD, która wymaga 44.1.kHz.

Dla zminimalizowania tych artefaktów stosuje się filtry rekonstruujące lub oversampling, ale o nich może porozmawiamy przy innej okazji. Wróćmy do debaty…

Są realizatorzy, którzy używają jeszcze wyższych rozdzielczości, jak 88.2kHz, 96kHz, 176kHz, a nawet 192kHz… Moim zdaniem jest to bardziej efekt placebo niż w jakikolwiek sposób korzystny zabieg. Ja rozumiem, że jedni słyszą lepiej, a drudzy słabiej, a jeszcze inni wierzą, że częstotliwości rzędu 90kHz są słyszalne albo wpływają w jakiś magiczny sposób na te, które leżą w zakresie ludzkiego słuchu. Pytanie brzmi, skoro tylko niektórzy rzekomo to słyszą, a dla wielu słyszalna różnica nie istnieje lub nie ma absolutnie wpływu na postrzegany dźwięk, to jaki jest sens marnować moc komputera i miejsce na dysku oraz znacznie ograniczać ilość śladów, na których możemy pracować, po czym odrzucać przy redukcji np. połowę zarejestrowanych próbek i skazywać się na artefakty oraz zniekształcenia wynikające z aliasingu? Jakakolwiek (o ile w ogóle) przewaga i tak zostanie zatracona w momencie, gdy materiał wyląduje na płycie CD.

Jedyna sytuacja, gdy nagrywanie w wyższej rozdzielczości może mieć sens, ma miejsce wtedy, gdy chcemy zarejestrować materiał, który potem ma być poddany odszumianiu (np. bardzo ciche pasaże w muzyce symfonicznej), bo wyspecjalizowane narzędzia do usuwania tego typu brudów, klików i popów mogą spełnić swoje zadanie lepiej, tzn. skuteczniej odseparują je od muzyki. W reszcie przypadków, moim zdaniem jest to bezcelowe.

Podsumowanie

W tym miejscu zakończymy temat, bo na początek powinno nam teorii cyfrowego dźwięku wystarczyć. W kolejnych odsłonach zajmiemy się redukcją słowa cyfrowego, ditheringiem, a także poznamy takie pojęcia jak jitter, truncation czy Zegar. Nadal będę się starał utrzymywać raczej swobodny i prosty charakter wypowiedzi, a wszystko spróbuje zobrazować logicznymi przykładami.

Zostawić komentarz ?

90 Komentarze.

  1. Przy nagrywaniu różnice między 44.1 a 88.2 są minimalne, natomiast przy miksowaniu – całkiem spore. Wtyczki audio brzmią słyszalnie lepiej przy wyższych częstotliwościach próbkowania.

    • Jak na mój gust, to precyzyjniej pracują, stąd trochę łatwiej podejmować decyzje i większość rzeczy lepiej słychać – więc jak najbardziej się zgadzam. Z tym, że po zgraniu materiału na CD różnice raczej zanikną.

    • Moim zdaniem przy wtyczkach dużo ważniejsze jest ustawinie liczby polifonów niż częstotliwość.

  2. Ha! Dzięki za ten artykuł. To mi się przyda jako oręże w walce z miłośnikami pracy w wysokich częśtotliwościach próbkowania. Zawsze powtarzałem, że skoro płyta CD (która co prawda nie jest szczytowym osiągnięciem człowieka w zakresie przechowywania dźwięku wysokiej jakości, ale jednak spełnia jakiś tam standart) zawiera dźwięk w 44100, to po jakiego grzyba pracować w większych “frikłensach”? Tylko, że nie miałem sensownych argumetów, a teraz mam 🙂 Nie dość, że praca przy częstotliwościach powyżej 44100 wymaga mega mocnych kompów, to jeszcze stosowanie większego bita niż 16 wymaga ditheringu przy resamplowaniu do formatu płyty CD. Niepotrzebna robota moim skromnym zdaniem. Przynajmniej w najabrdziej popularnych gatunkach muzycznych które produkujemy bez użycia mega trudnych do nagłośnienia i zarejestrowania zestawów instrumentalnych. Skoro ktoś robi coś na samplach i wtyczkach vst to 44100 i 16-bit w zupełności wystarczy. Dzięki raz jeszcze za przytoczenie rzeczowych argumentów 🙂 Pozdrawiam i przy okazji życzę wszystkiego dobrego w nadchodzącym roku! Oby Zakamraki się rozwijały i obyśmy wszyscy produkowali genialnie brzmiącą muzykę 🙂

    • Zgodnie z tym, co napisałem w artykule, nagrywanie w wyższych rozdzielczościach ma bardzo rzadko sens, może w wyjątkowych sytuacjach, ale akurat do 24 bit zachęcam. Dzięki za dobre słowo 🙂

  3. Ja z kolei najprostszego jezyka uzywajac ze swej strony dodalbym tylko, z moich dyskusji z tzw. profesjonalnymi inzynierami dzwieku wynika, iz kiedy nagrywamy w 48kHz np i potem konwertujemy to do 44.1 to pojawiaja sie bledy natury matematycznej, czyli: ktore probki wyjac zeby bylo OK. Dla mnie to jest jak drabina, ktora ma 48 tys szczebli rowno rozlozonych i teraz trzeba te liczbe zredukowac do 44.1 tys ale….dlugosc drabiny pozostaje taka sama i nie wiadomo czy szczeble ktore juz sa nie musza pozostac na tym samym miejscu. Tutaj pojawia sie problem, bo zaczynaja lezec przypadkowo nierowno. Oczywiscie taki Sample Manager sie stara, ale wielu ludzi powiada ze lepiej nagrywac od razu w 44.1.

    • Bardzo trafna analogia z drabiną.

    • wojciech.kuk

      stanowczo odradzam pracę z częstotliwościami próbkowania nie będącymi wielokrotnością docelowej (czyli zazwyczaj 44.1 kHz).
      materiał zgrany w częstotliwości np. 48kHz musi być poddany interpolacji, aby “zmieścić” się w 44.1kHz
      skutkiem tego jest duża utrata dynamiki i zniekształcenia na wysokich tonach – brzmią inaczej, niż podczas montażu – i mamy przykrą niespodziankę…

      co do głębi bitowej, to ma ona sens – przynajmniej wskoczenie na poziom 24bit – przydaje się przy miksowaniu różnych subtelności – dużo wierniej brzmią też basy – powód prosty – wyższa rozdzielczość = mniejsze szumy kwantyzacji – te “schodki” na samplach stają się mniej zauważalne dla ucha…

      każdy, kto pracował na muzyce w czasach 8-bitowych (przez wiele lat pracowałem na trackerach amigowych/atarowych/dosowych – i większość sampli była 8-bitowa) wie, jakie okropne szumy pojawiają się na zboczu fali przy np. bassrdumie czy kontrabasie (oczywiście są tacy, którzy lubią to słyszeć 😉 )

      przy 16 bitach znikają one prawie całkowicie – ale wprawne ucho – zwłaszcza na cicho nagranych samplach (np. ciche uderzenia w bęben) nadal je wychwyci – 24 bity rozwiązują ten problem

    • Dokładnie tak.

  4. Zabawny jest fakt jak wiele osób przywiązuje do tego olbrzymią wagę. To taki sam śmieszny pościg jak przy “wojnach głośności”.

    Podejrzewam, że gdybym był wielkim producentem na wysokim szczeblu w olbrzymiej wytwórni płytowej i przez całe życie robił utwory w 16 bitach, 44.1k SR itp to ostatecznym wyznacznikiem tak czy siak byłaby moja kreatywność przy miksowaniu i rejestracji.

    • Oczywiście. W pełni się z Tobą zgadzam. Dla mnie (mimo iż mimo wszystko należę do ludzi ceniących sobie jakość dźwięku) niepojęta jest ta fetyszyzacja wysokich częstotliwości próbkowania w czasach, w których 99% ludzkości słucha muzyki z empetrójek na gównianych słuchawkach w autobusie. Gdzie tu sens? 30 lat temu jak rządziły winyle i można było wycisnąć super dźwięk, to nie było takich możliwości, a dzisiaj realizatorzy (niektórzy) pocą się przy prac w 96 kHZ tylko po to, żeby potem ktoś ściągnął ich kawałek z netu i słuchał tego na komórce. Czy to nie paradoks?

    • dzisiaj prawie wszyscy starają się mieć “wysterylizowane” czyściutkie brzmienie, a ja lubię brud np. bębny przepuszczone przez 12-sto bitowy sampler z samplerate max. 40kHz, miodzio 😀

    • W ostatecznym rozrachunku naprawdę nie liczą się te wszystkie parametry i numerki. Wystarczy zachować standard, lwia część nagrań, to muzycy, muzyka i rozsądny realizator. Kiedyś narzędzia były dziesięciokrotnie słabsze, a muzyka tworzona wtedy jest słuchana do dziś. Za dużo sobie ludzie tymi rzeczami głowę zawracają, gubiąc istotę…

    • Absolutnie zgadzan sie z Igorem!Parametry i numerki nie maja znaczenia. Podam prosty przyklad. Jezeli mozna kupic karte dzwiekowa 24 bit 192kHz (plus niesamowite wrecz pozostale parametry oczywiscie ktorych za dlugo by wymieniac) za no powiedzmy 500-1000PLN to dlaczego karta ktora ma max 96kHz (i znacznie slabsze te pozostale parametry ktore dlugo by wymieniac) kosztuje prawie 10000PLN (dziesiec tys) a mimo wszystko brzmi nieporownywalnie lepiej kiedy sie jej uzywa.
      Oczywiscie jest to dosc infantylne porownanie ale staram sie pokazac bezsens numero-parametro-logii….

    • Zazwyczaj młodych, nieświadomych i naiwnych ludzi kusi się takimi właśnie wysokimi numerkami, dając im iluzję tego, że nagrywając z najwyższym SR, będą mieli nagrania powalającej jakości. Żaden producent kart czy interfejsów nie napisze przecież na swojej stronie, że o wiele bardziej liczy się klasa muzyków, instrumenty, kompozycja, aranżacja czy wykonanie, bo nikt by wtedy nie napełniał jego kieszeni 😉

  5. Ja z własnego doświadczenia podam jeszcze jeden przykład słuszności zastosowania wyższych częstotliwości nagrania: efekty specjalne, np przy udźwiękawianiu filmów. Niektóre dźwięki przy zwolnionej prędkości odtwarzania potrafią brzmieć zupełnie inaczej (groźniej, tajemniczo, itp). Niestety przy zwalnianiu o połowę lub mniej dźwięków nagranych np z 44.1 kHz słychać już efekt niskiej częstotliwości próbkowania. Kiedyś też nagrałem na potrzeby filmu świerszcze, które dużo lepiej zabrzmiały odtworzone połowę wolniej, ale ze względu na obniżoną częstotliwość nie brzmiało to już za dobrze.

    • Jest to jak najbardziej sensowne zastosowanie. Niemniej jednak w warunkach produkowania muzyki w domowym czy nawet większym studiu, praca w 96 czy 192kHz, to po prostu overkill i bezsens 🙂

    • Muszę się zgodzić z kolegą Inpln. Ja tworząc sety didżejskie w Abletonie zawsze konwertuję wpierw wszystkie utwory do 88.2kHz, bo kiedy jeden kawałek trzeba mocniej zwolnić lub przyspieszyć to przy standardowej częstotliwości wychodzą słyszalne artefakty zwłaszcza na wysokich tonach. Polecam też ten zapieg jeśli używamy wtyczek typu Time Stretch, wtedy mniej słychać ich działanie.

  6. Ten artykuł nie stanowi żadnego oręża, jest masa opracowań które skłaniają do innych wniosków. Po pierwsze: 16 bitów – 96dB zakres dynamiki, 24-bity – 144dB. Przy nagrywaniu to kluczowy parametr. Po drugie: sprawdźcie jak brzmi dobry reverb w 44.1 i 88.2 lub 96KHz SR. Nawet po konwersji do mp3 coś z tej wyższej precyzji obliczeń zostaje w materiale audio. Reszta to kwestia tego czy komp uciągnie wyższy SR i czy realizator lubi kompromisy 🙂

    • a mi się wydaje, że to niemożliwe żeby po konwersji do mp3 coś zostało, to tak samo jakbyś przerobił zdjęcie z kolorowego na czarno-białe i chciał zobaczyć na nim kolor czerwony – nie da rady 🙂

    • WDK – z zaletami nagrywania w 24 bit się jak najbardziej zgadzam, co jest wyraźnie podkreślone w artykule. Kwestia zwiększenia SR dla bardziej szczegółowego pogłosu wydaje mi się niezbyt racjonalna w domowych produkcjach. Zważywszy na to, o czym sam mówisz – nie każdy dysponuje maszyną, która udźwignie np. kilka mocożenych reverbów w jednej sesji. Kompromis być musi…

    • Praca w 96kHZ dla dobrego reverbu? Może przy tworzeniu ścieżki dźwiękowej do “holyłódzkiego” filmu, ale nie przy normalnej produkcji. Sorki, ale do mnie to nie przemawia. Zgadzam się na pracę w wysokich częstotliwościach i bitowaniu przy nagrywaniu. Wszystko co pozwala uzyskać lepsze nagranie jest warte użycia. Jednak przy pracy z samplami oraz vst nie widzę żadnego sensu. Męczyć się przy miksie (wyłączając poszczególne ścieżki, bo komp nie uciągnie) dla czegoś co i tak zostanie potem zniszczone downsamplingiem? Dynamika? W dzisiejszych czasach, gdzie każde nagranie to prostokąt na wykresie, a dynamiki w muzyce nie słyszeliśmy od ok 10 lat? Nie dziękuję. Każdy ma swoje upodobania i każdy ma swoje przekonania. Może zmienię zdanie jak będę miał do dyspozycji sprzęt o super mocy. Na razie ten artykuł do mnie przemawia, gdyż udowadnia, że nie jestem jedyną osobą, która uważa parametry CD za wystarczające do produckji muzyki.

    • @Igor – w typowo domowych produkcjach oczywiście wyższy SR nie ma sensu, ale każdy po jakimś czasie chce wypłynąć na “szersze wody” – wtedy im lepsze będzie brzmienie (poza samą muzyką oczywiście) tym większa szansa na bycie zauważonym.
      @tprnbs – wiesz jak działa transformata Fouriera?
      @bauman – patrzysz na temat przez pryzmat mocy obliczeniowej swojej maszyny. U mnie wchodzą w grę także inne czynniki, np: klient, który płaci 600-1000zł za miks ma prawo oczekiwać bezkompromisowej jakości. Najciekawsze jest to, że twierdzisz że VSTi brzmią wystarczająco dobrze przy 44.1, podczas gdy prawdziwą głębię i jakość uzyskują dopiero przy 96KHz. Próbki bez problemu znajdziesz na GS.

    • @WDK – masz rację, że patrzę przez pryzmat mocy obliczeniowej maszyny, ale w chwili obecnej nie dysponuję lepszym sprzętem. Dlatego moja opinia nie jest stwierdzeniem, że 44.1 jest lepsze niż 96, ale że przy ograniczeniach sprzętowych można zastosować satysfakcjonujący kompromis. I mogę nadrobić kompozycją, aranżacją i produkcją. Nie muszę pracować na siłę w 96000 żeby osiągnąć dobre brzmienie. Wiadomo, że na wyścigach lepiej jest mieć furę szybką i mocną, ale jeśli jej nie masz, nie znaczy, że nie możesz wygrać, bo liczy się jeszcze skill. Co do wtyczek VSTi, również nie neguję tego, że lepiej brzmią w wysokm SR niż w niskim, ale wiele też zależy od samej wtyczki, jej ustawień oraz tego co z uzyskanym z niej dźwiękiem robisz. Są tak gówniane wtyczki, że nawet wysoki SR ich nie ratuje, a są takie, że można z nich wycisnąć dobry dźwięk przy 44100. Kwestia muzyki (melodia, liczba dźwięków, rodzaje akordów.), do tego cutoff, reso, keytrk, veltrk, unisony itd, a potem efekty: odpowiednia equalizacja, kompresja, filterki, chorusy itd itp. Oczywiście, że przy tych samych ustawieniach lepiej to zagra przy 96 niż 44.1, i w dodatku nakładanie efektów na słabo brzmiącą wtyczkę również zarzyna proca, ale przy ograniczonej mocy , można tak wykombinować, że wszystko ładnie brzmi, bo jednak mniej mocy trzeba na zagranie dźwięku w 44.1 z efektami, niż w 96 bez efektów. Przynajmniej takie są moje osobiste doświadczenia i moje zdanie, a dyskusja podoba mi się, bo dzięki niej poznajemy rózne opinie, co powiększa zasób wiedzy i być może wpływa/wpłynie na zmianę zdania (mojego lub innych) 🙂

    • @Bauman – bardzo dobre i rzeczowe argumenty. Muzyka przede wszystkim. Numerki są drugorzędne. Fajnie, jeśli możemy połączyć jedno z drugim, ale musząc wybierać, zawsze muza będzie istotniejsza od SR, bo ono nie uratuje słabych śladów.

    • @bauman – zaznaczyłem wyraźnie – muzyka przede wszystkim, więc pełna zgoda. Z resztą niestety się nie zgadzam. Wszystkie syntezatory wtyczkowe będą brzmiały lepiej w wyższym SR. Chyba, że pisząc o VSTi masz na myśli instrumenty oparte na samplach (biblioteki do Kontakta itp.) – tutaj wszystko zależy od tego w jakiej rozdzielczości były nagrywane sample. @Igor – może w kolejnej części (jeżeli będzie) wyjaśnisz czytelnikom bardziej szczegółowo zjawisko aliasingu – wtedy jasne się stanie dlaczego syntezatory VSTi POWINNY być używane w wyższych SR.

    • WDK – Kolejna część będzie o czymś innym. Za aliasing może zabiorę się szczegółowo innym razem.

  7. A wlasnie pomyslalem sobie ze podam przyklad niesamowitej niewiedzy. Wchodze do klasy gdzie mamy Studio Recording Theory and Practice w kraju za niewielka woda i kolega pyta nauczyciela widzac gramofon: jaka czestotliwosc probkowania maja plyty winylowe? Poniewaz akurat temat Sample Rate byl omawiany godzine wczesniej wczesniej wiec student wiedzial juz ze cos takiego istnieje (w morde, ale ze nie wiedzial wczesniej….). Nauczyciel spojrzal na niego, na mnie i usiadl smutny za mixerem zanim mu zaczal tlumaczyc.
    No wiec mozemy dyskutowac ale….

    • Cóż, bywa i tak 🙂

    • wojciech.kuk

      hehehehe….
      teoretycznie mógł go nauczyciel podpuścić i kazać mu wyprowadzić stosowną wartość biorąc za podstawę rozmiar cząsteczki polichlorku winylu, oraz prędkość liniową z jaką biegnie ścieżka pod igłą…
      tylko, że taka “częstotliwość” byłaby inna na początku płyty (większa), a inna na końcu.

  8. W dużej mierze zgodzę się z artykułem. W większości przypadków nie potrzeba nagrywać z większą częstotliwością. Jeśli chodzi jednak o wyższe próbkowanie to całość wcale nie polega na uchwyceniu częstotliwości powyżej zakresu słuchu. Twierdzenie Nyquista mówi, że najwyższą możliwą częstotliwością jest częstotliwość równa połowie częstotliwości próbkowania. To prawda, ale istnieje wyjątkowa możliwość niezarejestrowania tej częstotlioowści pomimo spełnienia twierdzenia Nyquista. Wystarczy, że będzie pobierać się próbki w punkcie przechodzenia przez zero. Skoro możliwe jest całkowite zgubienie sygnału to tym bardziej możliwe jest uchwycenie go z nieprawdziwą amplitudą. Dlatego słychać różnice w materiale zarejestrowanym z wyższym SR 🙂

  9. kitametal

    w Moim interface problem jest taki ze sterowniki asio nie chodza w 44.Sesje musze robic w 48 i niestety musze nagrywac w 48 :-/ Komp nie zawsze daje rade bo jest stary ale coz poki co nie ma wyjscia .Pozdrawiam 🙂

  10. hej! Mam wrażenie, że wykres 2 błędnie pokazuje sygnał po samplingu, począwszy od pierwszego maksimum sinusa.

  11. Kurcze, ja mnie denerwuje logowanie.
    Ciągle muszę się ponownie logować 😐
    A teraz do rzeczy.
    Nagrywam muzykę w domu i mam pytanie co do zgrywania muzyki.
    Lepiej od razy nagrywać 44.1/16 czy 44.1/24 jeśli mówimy o muzyce udostępnianej finalnie w sieci, a nie płytach CD (muzyka to moje hobby). A drugie pytanie jest takie, że powiedzmy zgrywam muzykę w Pro Tools jako Wave, a następnie chcę z tego wydobyć jak najlepszej jakości mp3.
    Jakim programem i z jakimi parametrami najlepiej tego dokonać ❓
    PS. Super wpis Igor i oby ZA istniały baaardzo długo, gdyż jest to chyba jedyny blog który odwiedzam systematycznie 😉

    • A po zgraniu miksu z pro toolsa nie masterujesz tego w jakimś edytorze? Np. Adobe audition lub innym? Ja po zgraniu miksu z DAWa zawsze robię jeszcze mastering w innym programie i wtedy nie ma problemu ze zrobieniem mp3 o dowolnych parametrach. Od razu słyszysz , a co najważniejsze, też widzisz na wykresie co uciekło, gdzie są największe straty itd.

    • 44.1/24 bit. Ale przy zrzucaniu tego do formatu który chcesz umieścić na CD czy w sieci to chyba lepiej zrzucić do 44.1/16.

    • W chwili obecnej ciągle się uczę.
      Mój obecny mix to reverb, kompresor i EQ.
      Ostatnio nagrałem 16 wersów na bicie z sieci i tekście również, a następnie zmiksowałem to w powyżej przedstawiony sposób. Wrzuciłem do AA i przepuściłem przez wtyczkę T-Racks 3 na presecie “Sparkle” i to tyle.
      Mam to na kanale, więc pokażę jak wyszło, ale zaznaczam że tekst ze znanej mi piosenki, bit z sieci, ostatnie 4 wersy wykonane byle jak, a do tego pierwsze lepsze ustawienie mojego interfejsu (po prostu ciągle próbuję różnych metod i dlatego nagrywam tak na brudno) 😉
      PS. Jest tam jedna ścieżka zdublowana i obie są rozstawione po 100% na kanały.

      Także łapcie mój wokal i się wypowiadajcie 😀

      https://www.youtube.com/watch?v=G_TxMiUpG7I

      (Dwa przekleństwa w tekście).

  12. Jeżeli chodzi o zakres słyszenia myślę, że lepiej zastanawiać się nad dołem. Bo czego tam nie usłyszymy to poczujemy po ciele :D, no od głośników zależy jak nisko schodzą.

    Ale może dodanie raz czy dwa “ultrasubbassu” na koncercie coś magicznego doda :D.

  13. A czy ktoś wie?
    Mam Reason’a, robię rzecz i eksportuję. MEGA słyszalna jest różnica między wav 48kHz i 96kHz. Eksportowany w niższym SR plik jest wręcz bezużyteczny, a plik w wyżym i tak muszę zdownsamplić wkładając go do sesji. Może znacie ten problem?

    • Coś musisz po drodze robić źle, skoro plik 48kHz jest dla Ciebie bezużyteczny…

    • Ja chyba wiem czemu tak masz, twój interfejs zapewne odtwarza dźwięk z SR, który ma niewiele wspólnego z 48kHz i 96kHz. Przez to translacja tych SR na native SR twojego interfejsu powoduje powstawanie artefaktów. Przy 96kHz są zapewne mniejsze niż 48kHz, dlatego masz wrażenie, że przy 48kHz jest dużo gorzej.

      To może oznaczać, że dopóki nie będziesz mixował w native SR twojego interfejsu będziesz odczuwał duże zmiany między poszczególnymi SR oraz dużo gorszą jakość.

  14. A co powiecie o opcji 44.1/32 bit
    Powazne wydawnictwo “Steinberg Audio Mastering Tutorial dvd” a w nim zacny i dosc popularny prezenter i producent bardzo namawia do takiej konfiguracji. Bardzo jestem ciekaw co o tym myslicie bo juz sam nie wiem co robic…

    • Tischmeyer mówi o podniesieniu rozdzielczości sesji, do której importuje ślady – po to, by mu wtyczki precyzyjniej pracowały. W 32 bit śladów nie nagrasz 🙂

  15. Jeśli o mnie chodzi, to słyszę różnice pomiędzy 16-bitowym dźwiękiem a 24-bitowym i są one dla mnie dość mocno wyczuwalne. Ale jest jedno ale. Różnice są odczuwalne tylko wtedy, gdy jest materiał do porównania, w przeciwnym razie 16 i 24 bitowe kawałki brzmią po prostu ok., mimo że nieco różnie – i każdy ma swój urok.

    Igor – zauważyłem niedawno, że przy dźwiękach >16bit, poziom maksymalny sygnału we wczytywanych plikach – może być większy niż 0dB (rozumiane jako maksimum cyfrowe); tzn. – można zrobić “normalizację w dół” i dźwięk nie jest ścięty tylko normalnie przeskalowany. Mógłbyś ze dwa słowa dodać o tym marginesie/nadwyżce? Ile tego jest?

    • Takie skalowanie w dol, nawet przesterowanego sygnalu jest mozliwe pracujac np. w 32-bit. Trzeba by zrobic testy w kazdym bit depth i sprawdzic. Ma to scisly zwiazek z dostepnym zakresem dynamiki.

  16. Konwersja 48 na 44.1kHz bywa problematyczna, ale z tego co pamiętam – wina leży po stronie kodeków?

    • Mozna to tak ujac. Zalezy od DAW-a i zaimplementowanego w nim konwertera.

  17. No chyba w 4 akapicie powinno być “Nawiasem mówiąc, konwersja A/C i C/A jest głównym winowajcą zjawiska latencji” a nie jak jest: “Nawiasem mówiąc, konwersja A/C i A/C jest głównym winowajcą zjawiska latencji”. Tak tylko pisze ,żeby nie było że czytamy artykuły nieuważnie -:).

    • Tak, tak. Zmienie, jak sie wordpress przestanie gniewac na moj panel sterowania. Ciesze sie, ze czytacie uwaznie. Przyjmijmy, ze to taki test byl… 😉

    • Poprawione. Test zdany 😉

  18. Igor a mógłbyś wyjaśnić dogłębniej pojęcie “aliasingu” ? Często spotykam się z nim przy porównywaniu jakości różnych wtyczek

    • Aliasing to po prostu zniekształcenia w sygnale, które występują wtedy, gdy system próbuje zarejestrować i odtworzyć częstotliwości wyższe niż połowa ustawionego SR. Stąd w konwerterach stosuje się głównie dolnoprzepustowe filtry anty-aliasingowe, które mają zapobiegać przedostawaniu się tych wyższych częstotliwości, minimalizując powstawanie ewentualnego aliasingu. Może w jakimś osobnym artykule to jeszcze rozwinę. Zoabczy się 🙂

  19. MixRobinn

    Wiele razy testowałem na różnym materiale czy lepiej próbkować przy 48kHz czy pozostać na 44kHz.
    Niby przy stosowaniu dużej ilości wtyczek zaleca się stosować 48kHz bo w jakimś procencie obniżją jakość dźwięku. Jednak w warunkach domowego studia stosowanie takiego próbkowania jest nie celowe. Tem ułamek procentu będzie niesłyszalny dla zdecydowanej wiekszości słuchaczy a obciąży tylko CPU komputera. Tutaj radzę pozostać przy 44kHz i 24 bitowaniu. Jeżeli mamy do czynienia z bardzo drogimi mikrofonami,preampami, wypasinonym kompem i prztwornikami A/C, C/A to wtedy wyższe próbkowanie ma sens.

  20. Igor! Bardzo zacny artykuł! Życzę Szczęśliwego Nowego Roku oraz dalszego rozwoju Zakamarków Audio. Tak trzymaj! Pozdrawiam

  21. Dlaczego system kodowania PCM pracujacy w formacie 98 kHz/24 bity jest uważany za lepszy od systemu PCM pracującego w foramcie 44,1 kHz/16 bitów?

  22. Z jakimi ograniczeniami precepcji sluchowej sa zwiazane parametry cyftowego sygnalu fonicznego okreslone jego formatem?

    • Chociazby z zakresem czestotliwosci, jakie slyszymy. Co to za konkurs pytan? 😀

    • hehe, brzmi jakby Ola uczyła się na kolokwium i szukała odpowiedzi na nurtujące ją pytania 😉

    • Dokładnie tak było. Z tym, że zamiast kolokwium chodziło o egzamin 🙂

  23. Dziękuje Igorze za ten artykuł, teraz jest jaśniej!

  24. inversion

    a ja kocham 12 bitowe przetworniki w mojej akai s950 hehe 😛
    bardzo fajny artykuł !

  25. moje czy grosze:

    1. Co prawda jestem nieco schorowany i leżę sobie pod kołderką czytając Zakamarki, ale nie mogę pojąć sensu tego zdania:
    “Jedyna sytuacja, gdy nagrywanie w wyższej rozdzielczości może mieć sens, ma miejsce wtedy, gdy chcemy zarejestrowany materiał, który potem ma być poddany odszumianiu (np. bardzo ciche pasaże w muzyce symfonicznej), bo wyspecjalizowane narzędzia do usuwania tego typu brudów, klików i popów mogą spełnić swoje zadanie lepiej, tzn. skuteczniej odseparują je od muzyki.” Wg mnie zamiast “zarejestrowany materiał” powinno być “zarejestrować materiał” 😉

    2. Nie jestem audiofilem i nie będę bronił wyższych częstotliwości, ale wypada napomknąć, że zwiększając częstotliwość próbkowania zmniejszamy jednocześnie latencję 😉

    3. Sztandarowym przykładem dywagacji nt. ilości bitów i próbkowania jest końcowa płyta CD (a więc 44.1/16). Należy przyznać, że CD powoli stanie się przeżytkiem. Ktoś gdzieś kiedyś argumentował, że warto trzymać nagrania w wyższej częstotliwości próbkowania, bo może się to kiedyś (może całkiem niedługo) przydać. Z innej beki chłopaki podali ciekawe 2 przykłady przydatności dużej częstotliwości próbkowania (duże zwalnianie utworu w Abletonie do setu djskiego czy efekty specjalne). Podsumowując: czasy się zmieniają, może warto być przezornym i jeśli tylko sprzęt pozwala, to nagrywać z większą częstotliwością próbkowania. Kto wie, może się to opłaci w przyszłości 😉

    PS. Ja korzystam z 44.1/24 😉

    • 1. Poprawiłem (oj, niechluj ze mnie czasem).
      2. Prawda – wyższy SR = lekko mniejsza latencja, acz większe wymagania – o tym we wpisie o latencji.
      3. Kto wie…

  26. Przy wyzszych czestotliwosciach, lepiej grac na instrumentach wirtualnych. Jest mniejsza letencja. Dlatego wole stosowac wyzsze czestotliwosci, takze wtyczki sprawniej chodzą.

  27. rufinmusic

    “Jedyna sytuacja, gdy nagrywanie w wyższej rozdzielczości może mieć sens, ma miejsce wtedy, gdy chcemy zarejestrować materiał, który potem ma być poddany odszumianiu”. Czyli jeśli sesja jest: 44,1/24, to mogę nagrać np. wokal w 96kHz, odszumić, przekonwertować do 44,1kHz i będzie lepsza jakość? Dobrze zrozumiałem? 🙄

    • Prawdopodobnie nie poczujesz poprawy. Moim zdaniem, nie ma to sensu, ale możesz sobie sprawdzić. Przykład, kiedy sensowne może być zastosowanie takich ustawień jest w nawiasie po cytowanym przez Ciebie fragmencie.

    • rufinmusic

      Tak myślałem, ale wolałem zapytać 🙄 Bo podobno kto pyta, nie błądzi, albo jakoś tak 😕

    • Zamiast pytać, lepiej po prostu sprawdź samemu i oceń, czy słyszysz znaczną różnicę i czy jest ona tego warta. Będziesz miał własne doświadczenie i najprawdziwszą odpowiedź 🙂

  28. Ja mam jeszcze jedno pytanie dotyczące tej tematyki. Zgrywam miks z mojego dawa w SR 48000 i 32 bit. Robię mastering, po czym żeby nagrać to na płytę wykonuję downsampling do 44100 i 16 bit. I po tym procesie następuje drastyczny spadek głośności utworu. Dlaczego tak się dzieje? Czy wynika to z tego, że utwór jest źle zmasterowany? Że podbite są niewłaściwe częstotliwości? Czy ktoś może mi podpowiedzieć jak sobie z tym poradzić?

    • rufinmusic

      To rób miks od razu w 44100 i 16 bit 😉 Po co sobie komplikować życie?

  29. WItam. Jestem posiadaczem m-audio fast track 8 i mam problem z odsłuchem czegokolwiek. Mianowicie słychać duże spowolnienie dźwięku w odsłuchu, nie tylko w DAW (tak, jakby procesor był mocno obciążony). Sterowniki są aktualne, urządzenie podłączone pod USB, próbkowanie 44,1 kHz. Jakieś pomysły? Pozdrawiam.

    • Zainstaluj DPC Latency Checker i zobacz, czy nie ma jakichś konfliktów z innymi komponentami systemu.

  30. Mówimy tu o 16 i 24 bitach, czy ma więc jakikolwiek sens nagrywanie w 32 bitach? Pytam z ciekawości bo mój interfejs obsługuje “tylko” 24 bity 🙂

    • W prawdziwej rozdzielczości 32-bit i tak nie nagrasz, bo nie ma takich interfejsów 🙂 Możesz sobie podnieść rozdzielczość sesji do 32, ale to będzie się tyczyło procesów na nagranych już śladach (wtyczki, ruchy suwaków, etc.) Ślady audio same w sobie mogą być póki co max 24-bitowe.

  31. Panowie, a może ktoś mi wytłumaczyć dlaczego 48kHz jest stosowane w świecie Audio-Video? Najbardziej mnie interesuje co znajduje się w tych kilku dodatkowych kHz. Informacje do synchronizowania audio- video?

    • Swiat video to nie do konca moja bajka, ale mniemam, ze chodzi o kwestie FPS i synchronizacji.

  32. Ło Matko Ludzie!
    Wytłumaczy mi ktoś bo średnio zrozumiałem ten zagmatwany temat.Produkuje 4 lata ale do tego tematu nie podchodziłem w ogóle.Chodzi mi o konkrety już bez teorii.
    44.1 – miałem ustawione w DAW chyba zawsze domyślnie, czyli to jest 16 bit? A czy to się przekłada jakoś na kbps?
    I jak to sie ma do ścieżek referencyjnych? Ja mam wszystkie w 320kbps. A skoro miałem ustawioną sesje DAW na 44.1 – 16 bit no to nie dzieją się jakieś straszne rzeczy z tymi ścieżkami?

    Bo potem zgrywając ten mix, to standardem jest te 16bit?
    Ja głupi zawsze myślałem że to ma jakiś związek z kbps…

    To jak zrobić?Zostawić to 44.1? Ja i tak nic nie nagrywam, tylko same sample i vst uzywam, ale jeśli ma to coś zmienić…

    • 44.1, 88.2, 96 kHz itd. to są częstotliwości próbkowania. 16, 24, 32 bit to głębia bitowa. Jedno od drugiego jest niezależne. Możesz mieć różne ich kombinacje. A kbps do zgrywania możesz sobie ustawić dowolnie, nieważne w jakich parametrach miałeś sesję.

  33. Dimatheus

    Hej,

    Kolejny przeczytany artykuł i kolejne wątpliwości i nieścisłości w mojej głowie rozwiane. Wielkie dzięki za świetny wpis. Podsumowując więc: najmniej problematycznym rozwiązaniem będzie zgrywanie materiału w 44,1kHz i 24-bitach? Dobrze zrozumiałem?

    Pozdrawiam,
    Dimatheus

    • Nie zgrywanie, a nagrywanie. Parametry zgrania (wyeksportowania) to inna para kaloszy. One zależą od tego, co ma się dalej dziać z miksem lub na jaki nośnik ma trafić.

    • Dimatheus

      Hej,

      Oczywiście o nagrywanie mi chodziło. 🙂

      Pozdrawiam,
      Dimatheus

  34. Dimatheus

    Hej,

    I jeszcze jedno pytanie mi się nasunęło w kwestii sterowników ASIO. Skoro połączenie przy ich pomocy DAW’a i interfejsu tworzy połączenie bezpośrednie – coś jak DirectX w grafice – to nie ma znaczenia, jakie ustawienia karty są zdefiniowane w systemie? Powiedzmy, że system domyślnie ustawi kartę w trybie 48kHZ/24-bit, a ja w DAWie w ustawieniach ASIO wybiorę 44,1kHz/16-bit – pojawi się jakiś konflikt bądź problem?

    Pozdrawiam,
    Dimatheus

    • Zasadniczo nie powinien, o ile nie korzystasz jednocześnie z audio systemowego i tego w DAW. Dlatego dla pewności warto mieć w obu miejscach te same parametry (i jeszcze ewentualnie w panelu sterowania interfejsu, jeśli Twój interfejs takowy posiada). Inna sprawa, że nie każdy interfejs może obsługiwać dźwięki systemowe (chociażby interfejsy od Avid) i wtedy trzeba używać osobnej karty (wewnętrznej lub zewnętrznej) do obsługi dzwięków systemowych, a interfejsu tylko do Pro Toolsa. Wtedy możesz mieć zupełnie inne parametry dźwięków systemowych i tych w DAW, bo są one od siebie niezależne i w żaden sposób ze sobą nie kolidują.

    • Dimatheus

      Hej,

      Generalnie nie korzystam jednocześnie z karty w systemie i w DAW’ie. Staram się jako dźwiękówkę dla dźwięków systemowych ustawiać zintegrowanego Realtek’a, by interfejs był tylko do dyspozycji DAW’a.

      Pozdrawiam,
      Dimatheus

    • No to raczej nie masz się czego obawiać.

Zostaw komentarz