Programowanie Partii MIDI, Cz. 2

W poprzednim artykule wstępnie omówiliśmy teorię i zasady programowania partii MIDI pod kątem dostępnych artykulacji, specyfiki instrumentów oraz realizmu brzmienia, więc naturalnym następstwem tamtego wpisu wydają się być kolejne odsłony, w których zaprezentuję Wam kilka praktycznych zastosowań zdobytej ostatnio wiedzy.

Przyjrzymy się kilku zabiegom, których zaaplikowanie powinno znacząco wpłynąć na poprawę naszych produkcji. Posłużę w tym celu się kilkoma zrzutami ekranu oraz przykładami audio, abyście mogli jeszcze lepiej zrozumieć, jak wiele pożytku mogą przynieść nawet niewielkie zmiany podczas programowania partii MIDI. Dziś spojrzymy na 3 najbardziej znane taktyki, a w następnej części poznamy ich jeszcze więcej.

Zanim jednak zaczniemy, należałoby wyjaśnić kilka rzeczy…

    • Partie MIDI nigdy nie zastąpią prawdziwych muzyków grających na prawdziwych instrumentach. Mimo, iż jest to w sumie oczywiste, wielu osobom zdarza się o tym zapominać.
    • Urealnienie partii MIDI nie musi oznaczać ingerencji w każdy pojedynczy dźwięk. Niektórzy starają się za wszelką cenę sprawić, aby taka „sztuczna” partia była jak najbardziej przekonująca, obsesyjnie myśląc o każdym szczególe i tracąc przy tym mnóstwo czasu i energii. I mimo, że takie wręcz natrętne myślenie może przynieść czasem niezłe rezultaty, to w myśl znanej Zasady Pareto – 80% dobrego brzmienia można uzyskać przy 20-stoprocentowym wkładzie pracy (czyli czasu i technik).
    • Dwie najważniejsze cechy, na jakie powinniśmy zwracać uwagę dążąc do interesująco i w miarę realnie brzmiących partii, to DYNAMIKA i RÓŻNORODNOŚĆ. W tych właśnie dwóch zbiorach znajdziemy specyfikę poszczególnych instrumentów oraz artykulacje i style grania, o których pisałem w kilku ostatnich artykułach. Dzięki dynamice nasze partie mają w sobie więcej życia i realizmu, a napisane sekwencje brzmią mniej „maszynowo” i „robotycznie”. Natomiast różnorodność najzwyczajniej słuchacza intryguje i nie nudzi. Jeżeli wszystkie wariacje w ramach danej partii będą utrzymane na rozsądnym poziomie, to potencjalny słuchacz będzie o wiele bardziej zainteresowany samą muzyką, niż tym czy brzmienie puzonu w naszym kawałku pochodzi od prawdziwego muzyka, czy może z syntezatora. I dokładnie o to nam chodzi.

Mając te 3 punkty na względzie, przejdźmy teraz do praktycznych zastosowań tej wiedzy i zobaczmy, po jakie narzędzia możemy sięgać i jak się nimi posługiwać, aby nasze utwory nie brzmiały tak, jakby były odgrywane przez roboty z obcej galaktyki.

Zauważcie także, że przytoczone przykłady zostały wprawdzie spreparowane w DAW, którego osobiście używam (Pro Tools), ale wszelkie techniki tu pokazane są dostępne w każdym innym programie z dostępem do podstawowego edytora MIDI czy funkcji automatyki. Do Was będzie jedynie należało odnalezienie tych narzędzi w swojej stacji roboczej.

I. Dynamika

Jest to pierwsza, podstawowa i najbardziej popularna droga do poprawy sekwencji MIDI. Niemądre byłoby w nią nie ingerować, bo to przede wszystkim zmiany dynamiki sprawiają wrażenie, że za instrumentem mógł siedzieć człowiek, a nie nasza ręka wpisująca nutki myszką.

Dynamika odnosi się do głośności dźwięku i ma zastosowanie nie tylko w przypadku wariacji między pojedynczymi dźwiękami (np. cichsze akcenty co któryś dźwięk stopy):

Bez ingerencji w stopę:

Z ingerencją w stopę:

Można ją również stosować z powodzeniem w odniesieniu do poszczególnych sekcji, jak cichsza zwrotka i głośniejszy refren, pojawiające się crescendo i decrescendo, etc. W przykładzie poniżej mamy bębny w końcówce zwrotki i wchodzący po niej refren – resztę instrumentów musicie sobie wyobrazić 🙂 Zauważcie, jak jednym, prostym ruchem głośności suwaka odpowiedzialnego za te bębny można błyskawicznie dodać intensywności i ekspresji.

Najpierw bez ingerencji:

A teraz ze wspomnianą ingerencją:

II. Natężenie/Siła Dźwięku (Velocity)

Jest ono ściśle związane z dynamiką, ale zasadnicza różnica polega na tym, że dynamika zwykle określa różnice głośności dźwięku o tej samej barwie, a natężenie, choć będzie się wahać pod względem głośności, odnosi się bardziej do charakteru brzmienia i artykulacji, bo związane jest z siłą, z jaką wyzwalany jest dźwięk.

Czym innym jest jedno i to samo uderzenie werbla (tak samo brzmiące), ale odtwarzane z różną głośnością:

A czym innym różna siła uderzenia generująca różne brzmienia (mimo, iż naturalnie różniące się głośnością):

Teraz przyjrzyjmy się użyciu tych dwóch cech (dynamiki i natężenia) w innym przykładzie. Najprościej to zademonstrować na krótkich, szarpanych frazach, które tutaj odgrywane są na instrumentach smyczkowych z użyciem techniki pizzicato. Najpierw bez ingerencji:

A teraz z małą dozą życia tchniętego w te smyki:

Mamy tutaj miękki początek, lekkie nadbudowanie i głośną końcówkę frazy, po czym nawrót do drugiej części, znów zaczynając od cichego.

Mimo, że nie udało nam się tym małym zabiegiem zmienić losów świata, to z pewnością zaaplikowaliśmy niewielki element realizmu i napięcia, którego wcześniej w tym fragmencie nie było. Coś, jakby dźwięk najpierw zakradał się zza rogu, stawał się bardziej obecny, żeby na końcu na nas wyskoczyć. Jeśli popracujemy tą techniką na całym kawałku, to stanie się on automatycznie bardziej interesujący i pełniejszy życia.

Inny przykład zastosowania tego rodzaju zmian łatwo znaleźć wśród instrumentów perkusyjnych. Te są bowiem bardzo podatne na efekt „karabinu maszynowego” i jeśli nie zajmiemy się ich dynamiką lub natężeniem, to narazimy się na obelgi ze strony każdego słuchacza – nawet najwierniejszego fana. Oto przykład werbla bez ingerencji:

Słychać wyraźnie, jak sztucznie brzmi taka partia (werbel na początku i końcu) i na pewno nie przekonamy nią do siebie żadnego słuchacza. Dlatego dodałem kilka zmian natężenia i co za tym idzie – artykulacji i teraz ten sam pasaż brzmi tak:

Sytuacje będzie wyglądała podobnie w przypadku innych elementów perkusyjnych, talerzy, grzechotek, przejść po tomach, etc. Więcej o realizmie brzmienia perkusji możecie się dowiedzieć również z TEGO FILMIKU.

III. Humanizacja

Kolejny sposób na uniknięcie „maszynowego” brzmienia naszych partii to skorzystanie z funkcji humanizacji, które również powinno być obecne w każdym edytorze MIDI, niezależnie od DAW. Polega ono zazwyczaj na losowym przyporządkowaniu punktualności (pozycji względem siatki), ale i natężenia, artykulacji i długości dźwięku w zwykle wyznaczonych przez użytkownika ramach. Im ustalimy je szersze, tym oczywiście wariacje będą większe, więc należy uważać, aby nie przesadzić, bo może nam się po prostu taka partia wtedy trochę rozlecieć. Z kolei bez humanizacji, całość może zabrzmieć zbyt równo i dokładnie, czyli „nieludzko” i czasem nieładnie. Oto fragment trąbek bez humanizacji:

A teraz po dodaniu humanizacji, która nadała trochę lekkości i odrobiny przypadkowości. Wsłuchajcie się szczególnie w punktualność (luźniejsza) i długość odgrywanych dźwięków (większa różnorodność), a także przerwy na nabranie powietrza i zauważcie, jak dzięki takiemu subtelnemu zabiegowi można odnieść wrażenie, że mamy tu do czynienia z prawdziwymi muzykami, którzy przecież nigdy nie grają idealnie równo z siatką.

Podsumowanie

Wam pozostawiam ocenę tego, czy zaprogramowane partie MIDI po tych kilku operacjach brzmią lepiej pod względem realizmu i ekspresji. W kolejnej części zapoznamy się z następnymi sposobami na poprawę brzmienia pisanych partii, które pozwolą nam „oszukać” jeszcze większą rzeszę słuchaczy, włączając w to nawet tych najbardziej wprawnych 😉 I dla jasności – miejcie na uwadze, że wszelkiego typu zabiegi, o których tu rozmawiamy, mają za zadanie zbliżyć nas do realizmu i nigdy nie zastąpią prawdziwych muzyków grających na prawdziwych instrumentach. Naszym głównym celem powinno być nie tyle obsesyjne dążenie do perfekcjonizmu i super-realizmu (bo tego nie osiągniemy), co próba przeniesienia uwagi słuchacza na istotę muzyki, czyli sprawienie, aby te w rzeczywistości sztuczne partie nie wytrącały go ze słuchania. Chcemy, aby słuchacz sobie myślał – „niezły utwór” zamiast „ale sztuczne smyki”…

P.S. W przykładach audio skorzystałem z XLN Audio Addictive Drums (wszystkie póbki perkusyjne), smyków z IK Multimedia Miroslav Philharmonik oraz trąbek z pro toolsowego Xpand-a!

Zostawić komentarz ?

42 Komentarze.

  1. Bardzo dobry artykuł. Musze przyznać, że wcześniej nawet nie próbowałem urozmaicać w ten sposób np. perkusji bo stwierdziłem – “Skoro i tak nigdy nie będzie to brzmiało jak prawdziwy instrument po co się męczyć”, ale teraz po przeczytaniu artykułu będe to stowosował w każdym utworze. Dzięku Igorze dobra robota, więcej takich rzeczy.

    • Dzięki. Jest mnóstwo prostych rzeczy, które mogą poprawić realizm brzmienia.

  2. Dlatego wolę czasem wymyślić partię klawiszy w midi, a potem to zagrać na klawiaturze sterującej. Inne brzmienie i feeling gwarantowany 😀

    • Zawsze warto spróbować zagrać coś “z ręki” – nawet, jeśli tylko na klawiaturze, a nie prawdziwym instrumencie. Jeżeli choć trochę potrafimy się w tym odnaleźć, to wyniki zawsze będą lepsze niż ręczne wpisywanie nutek.

  3. Hej
    Pytanko z innej beczki…
    Mam procesor wokalny tc helicon voiceworks…mam oczywiście instrukcję….tylko że tam są podane trzy warainty wkorzystania live ( z klawiszami, z mikserem ,mikrofon bez komputera,2.jak wcześniej tylkoz gitarą bez komp. i wersja sudyjna podłączenie bezpośrednio do komp. Mma pytanko…posiadam mbox pro z proo tools 9….czy jest możliwość by przez interfejs podłączyć ,włącznie z klawiaturą sterującą i żeby to było oczywiście kompatybilne z DAW…Pozdrawiam…i dzięki za BLOGA….pomocny jakdlamnie we wszystkim

    • Z Twojego opisu ciężko się domyślić, o co Ci konkretnie chodzi… Mniej chaosu poproszę 🙂 Jeśli chcesz nagrywać do DAW już po przejściu przez procesor, to mikrofon wpinasz do Helicona (mic input), a jego wyjście analogowe na jacka do wejścia liniowego interfejsu i gotowe.

  4. Bardzo dobry artykuł
    Wielkie dzięki Igor

  5. Witam,
    Czy podczas nagrywania poszczególnych partii midi należy maksymalnie zmniejszyć poziom efektów, które są przypisane standardowo do danego brzmienia, czy dopiero dodawać efektów jak wszystkie partie są nagrane?

    • To zależy… Jeśli dane efekty akurat pasują do kawałka, albo są nieodłącznym elementem brzmienia, to można je zostawić. Jeśli za nic nie pasują – to trzeba się ich pozbyć i dodać odpowiednie po nagraniu partii.

  6. Zmierza to w najbardziej interesującym mnie kierunku. Dzięki Igor. Czekam na następne odcinki.

    • Z mojej strony ciekawą byłaby również informacja jakiego wirtualnego instrumentu używasz w danym przykładzie (informacja podana na przykład w nawiasie). Co sądzisz o funkcji humanizacji w EZDrummer. Ona nie ma żadnego konfiguratora (chyba, że coś przeoczyłem).

    • Uzupelnie ta informacje wieczorem. Co do EZDrummera to nie zglebialem opcji humanizacji w nim wbudowanej, bo rzadko z niego w ogole korzystam, ale rzuce okiem w wolnej chwili.

    • Hej Wojtek. Ez drummer to jeden z prostszych programów dlatego Humanizer tez ma prosty. Najlepiej go wyłącz i sam ręcznie popraw wartości.

  7. rufinmusic

    Jak zwykle ciekawy artykuł 😎 Ze wszystkich opisanych opcji korzystam na co dzień 😉

    • Nice 🙂 A moze uzywasz jeszcze jakichs technik tu niewspomnianych?

    • Tego może Igorze nie opiszesz w następnych artykułach bo jest to bardziej narzędzie niż technika ale przydatne. Chodzi o edytor logiczny midi.

      Używam tylko do wartości nie miejsca na siatce ale można robić dużo bardziej przewidywalną randomizacje lub całkowicie dokładne rezultaty otrzymywać. Używając presetów praca z nim jest błyskawiczna. Dużo opcji z b. dobrą dokładnością i w krótkim czasie :D.

    • Mowisz o tekstowym edytorze zdarzen, gdzie mozna preczyzyjnie wpisywac wartosci? Jesli tak, to moze o tym ‘inspirujacym’ narzedziu cos napomkne 🙂

    • To jakaś ironia z tym “inspirującym” ;>? W każdym razie jak pracuję z midi to używam tego równie dużo(zazwyczaj zwykłe dodawanie i poprawki bo i tak wole z kontrolera dane) jak cięcia, crossfade’y i inne przy audio. U mnie się nazywa Logical Editor ale pewnie to samo.

      Np. jak jest wszystko ok ale najmocniejsze uderzenia w refrenie perkusji są przesadzone można wybrać wartości od 124-127 i jeszcze raz rozlosować pomiędzy 115-120. Albo wszystkie mniej niż coś tam ustawić na 50 itd. Ogranicza jedynie kreatywność i matematyka :D.

    • Tak, mowimy o tym samym. ‘Inspirujace’ ironicznie, bo dlubiemy w cyferkach, ale bynajmniej tego nie skreslam, bo rzeczywiscie potrafi byc przydatne 🙂 Nawet chyba raz z tego korzystalem 😀

    • Z czasem można bardziej intuicyjnie i szybko z tym działać. Np. by zrobić crescendo o którym pisałeś ale nie stracić wcześniejszej dynamiki w rytmie i to w kilka sekund.

    • Zgadzam się z Roberto, dłubanie w cyferkach potrafi być… kreatywne, szybsze i sprawniejsze. Ale to chyba kwestia preferencji starych dłubaczy 😉

  8. rufinmusic

    Chyba nie, ale te tutaj wymienione to podstawa 😉 (Zresztą o kilku z nich już wspominałeś we wcześniejszych wpisach). Jeśli coś mi się przypomni, na pewno napiszę 😆

    • rufinmusic

      Przypomniało mi się 😳 Podczas humanizacji, niektóre dźwięki zostają przesunięte “nie tak jak trzeba” mimo, że pozostałe pasują idealnie, dlatego czasami trzeba je edytować ręcznie 😉

  9. Ja akurat korzystam z Reapera, siedziałem już na FL Studio, ale reaper bije na głowe możliwościami pod kątem właśnie pisania w midi. No i ma właśnie humanizer rozbudowany, można wybrać zaznaczony fragment do humanizacji, cały projekt, można również zrobić humanizacji tylko velocity, albo velocity z przesunięciem w czasie super DAW jak dla mnie.

  10. Proszę o poradę. Działam na pt 10.3.2 i chciałbym zakupić expansion pack pod pt 10 ale cena jest wysoka.
    Jest alternatywa w postaci Total Studio Bundle3.
    Czy Igor mógłby się w tym temacie troszku wypowiedzieć.
    Czy duża różnica jest pomiędzy tymi kombajnami?

    Proszę o pomoc.
    Darek

    • Popatrz na to, co obie opcje oferuja… Expansion pack to 2 rozbudowane instrumenty, syntezator, sampler i groove creator, a studio bundle oprocz kilku instrumentow ma tez Amplitube 3 i zestaw konkretnych plug-inow do miksu i masteringu.

  11. Dymczysław

    Dzięki za sporo fajnego materiału do czytania.
    Na pewno z chęcią ludzie poczytają o tematach stricte związanymi z midi, typu: co to jest cc, jak używać program change, itd..

    • Proszę bardzo 🙂 Można rozważyć pociągnięcie tematu i opisanie całej koncepcji MIDI, nie powiem. Póki co, skupiam się na tym jednym aspekcie, jakim jest względny realizm brzmienia, ale może w przyszłości trochę rozwinę ogólny zarys MIDI. Dzięki za sugestię!

    • Dymczyslaw

      Czasem się zdarza, że nie tylko ustawienie velocity zmienia artykulację,a odpowiednie użycie cc ma więcej możliwości. Stąd to nawiązanie.

    • Zgadza się. CC daje dużo opcji.

    • rufinmusic

      Możecie rozwinąć temat, albo jakiś link do poczytania 🙄

    • Jeżeli chciałbyś się więcej dowiedzieć na ten temat to poczytaj instrukcję samych bibliotek dźwiękowych. CC samo z siebie jako tako dużo nie wnosi ale często jest wykorzystywane jeżeli sam deweloper to zaimplementuje. Przykładem niech będą brzmienia od East West i ich Symphonic Orchestra. Specjalne brzmienia DXF można kontrolować za pomocą Mod Wheel gdzie zmienia się poziom dynamiki samych nagrań, CC11 odpowiada natomiast za modyfikowanie głośności już wybrzmiewającej nuty – nieoceniona opcja aby stworzyć dobre brzmienie orkiestry MIDI.

  12. Dzięki za pomoc Igor decyduje się na Total Studio Bundle 3
    Pozdrawiam Darek

  13. CC stosuje ale bardzo rzadko przy virtualnej gitarze żeby zaprogramować różne efekty, bicie strun w dół, do góry itd. ale to na prawde rzadko. Z chęcią poczytalbym coś na temat innych możliwościach CC.

  14. Jak widać kwantyzacja i ‘full level’ nie są zawsze najlepszym rozwiązaniem 😀

    • Prawie nigdy nie są rozwiązaniem. Co do kwantyzacji, to jeszcze zależy od rodzaju muzyki, bo w niektórych gatunkach wręcz musi być sztywno i równo, ale jeśli celujemy w realizm (tudzież naśladowanie żywych instrumentów) to wtedy kwantyzacja równo do siatki, czy full-level kazdego uderzenia – nie ma racji bytu!

  15. Witam,

    piszę pracę nt. współczesnych twórców muzyki ze szczególnym uwzględnieniem twórców plików midi.
    Szukam jakichś informacji na temat liczby osób zajmujących się tym profesjonalnie lub przynajmniej półprofesjonalnie, ich problemów ze zbytem plików, ochroną praw autorskich itd. Jakiego rzędu dochody udaje im się otrzymywać?

    Czy mogą Państwo mi pomóc w znalezieniu takich informacji? głównie o liczbie i charakterystyce pracy twórców midi.
    Chodzi mi o popularność i rynek plików dystrybuowanych przez takie sklepy jak np. utworki.pl czy muzyczka.pl, czyli pliki umożliwiające np. zabawę w karaoke na imprezach.
    Kto je tworzy/programuje? kto kupuje? ile jest jednych i drugich? jak duży jest rynek? kim są ci ludzie? do czego jeszcze wykorzystują te pliki (oprócz wesel i imprez integracyjnych)? czy są zadowoleni z polskiego rynku? czy on się rozwija dynamicznie? czy przeciwnie: lata świetności ma już za sobą?

    Będę wdzięczna za pomoc.
    Nie ukrywam, że mam problem z dotarciem do takich danych.

    • Myślę, że taki rynek w ogóle bardzo trudno zbadać… Ja ze swojej strony niestety nie potrafię pomóc. Pozdrawiam i trzymam kciuki.

    • Hej, kopalnią wiedzy dla Ciebie będą portale typu odesk, elance, freelancer. Spora część ruchu globalnego tam przechodzi, więc zawsze będzie lepiej do tego się odnieść niż nie. Chociaż stawki tam będą zaniżone i więcej jest tych pół profesjonalistów.

      Możesz przeszukać poszczególne zlecenia, zleceniodawców i twórców. Każdy będzie miał inny widok publiczny lub ukryty ale sporo da się wyciągnąć danych. Jak założysz konta zleceniodawcy to będzie więcej widoczne. Wiem, że Elance daje nawet dane(wykresy) z jakich państw jest najwięcej zleceń, więc masz popyt, podaż, wielkość rynku, średnie ceny itd.

      Tylko tego jest bardzo dużo bo muzyka jest małym udziałem i musisz dobrze zinterpretować dane. Ale metodologia i analiza danych to chyba część Twojej pracy :).

      Zrezygnowałbym w Twojej pracy z tego skupienia się na midi bo robisz sobie pod górę. Mniej danych, mniej ciekawe. Lepiej też patrzeć globalnie jak na handel elektroniczny lub VO.

      Ja miałem tylko dwa zlecenia tego typu. Raz Karaoke na klimat muzy z Bollywoodu(klapa u klienta była więc nic ciekawego z tego nie wyszło, jeden track na pamiątkę ma) a drugi raz robiłem Midi dla Duńskiej firmy GN Netcom – dzwonki do urządzenia komunikacyjnego(gdzieś tam teraz po świecie dzwonią:D). Więc jak chodzi o midi to jeszcze takie możesz mieć użycie.

      Jak musisz zostać przy tym midi to po prostu wpisz MIDI i przeszukaj posty na wyżej opisanych portalach. Ale to będzie udręka i na koniec pewnie zmyślisz dane…

  16. Wielkie dzięki!
    Coś tam można też wydłubać z ruchu na stronach utworki.pl i muzyczka.pl, ale to ciągle wróżenie z fusów…

    Jakby Wam coś jeszcze przyszło do głowy, to podrzućcie – im więcej pomysłów, tym lepiej…
    Pozdrawiam!

Zostaw komentarz