چگونه راک صوتی را ساختیم
مقدمه
JAM with Chrome یک پروژه موسیقی مبتنی بر وب است که توسط Google ایجاد شده است. JAM با Chrome به مردم از سرتاسر جهان اجازه میدهد باندی تشکیل دهند و در زمان واقعی در مرورگر جم کنند. ما در DinahMoe خوشحالیم که بخشی از این پروژه هستیم. نقش ما تولید موسیقی برای اپلیکیشن و طراحی و توسعه مولفه موسیقی بود. توسعه شامل سه حوزه اصلی بود: " ایستگاه کاری موسیقی " شامل پخش میانی، نمونههای نرمافزار، جلوههای صوتی، مسیریابی و میکس. یک موتور منطق موسیقی برای کنترل موسیقی به صورت تعاملی در زمان واقعی. و یک مؤلفه همگام سازی که اطمینان حاصل می کند که همه پخش کننده ها در یک جلسه موسیقی را دقیقاً در یک زمان می شنوند، پیش نیازی برای توانایی با هم بازی کردن.
برای دستیابی به بالاترین سطح ممکن از اصالت، دقت و کیفیت صدا، ما از Web Audio API استفاده کردیم. این مطالعه موردی برخی از چالشهایی که با آنها مواجه شدیم و نحوه حل آنها را مورد بحث قرار میدهد. در حال حاضر تعدادی مقاله مقدماتی عالی در اینجا در HTML5Rocks وجود دارد تا شما را با Web Audio شروع کنید، بنابراین ما مستقیماً به انتهای عمیق این استخر خواهیم رفت.
نوشتن جلوه های صوتی سفارشی
Web Audio API تعدادی افکت مفید در مشخصات گنجانده شده است، اما ما به جلوه های دقیق تری برای ابزارهای خود در JAM با Chrome نیاز داشتیم. به عنوان مثال، یک گره تاخیر بومی در Web Audio وجود دارد، اما انواع مختلفی از تاخیر وجود دارد - تاخیر استریو، تاخیر پینگ پنگ، تاخیر slapback و لیست ادامه دارد. خوشبختانه، ایجاد همه اینها در وب صوتی با استفاده از گره های افکت بومی و کمی تخیل امکان پذیر است.
از آنجایی که میخواستیم بتوانیم از گرههای بومی و جلوههای سفارشی خودمان بهطور شفاف استفاده کنیم، تصمیم گرفتیم که قالبی بسازیم که بتواند به این هدف دست یابد. گرههای بومی در Web Audio از روش اتصال خود برای پیوند دادن گرهها به یکدیگر استفاده میکنند، بنابراین ما باید این رفتار را شبیهسازی کنیم. این چیزی است که ایده اصلی به نظر می رسد:
var MyCustomNode = function(){
this.input = audioContext.createGain();
var output = audioContext.createGain();
this.connect = function(target){
output.connect(target);
};
};
با این الگو ما واقعاً به گره های بومی نزدیک هستیم. بیایید ببینیم چگونه این مورد استفاده خواهد شد.
//create a couple of native nodes and our custom node
var gain = audioContext.createGain(),
customNode = new MyCustomNode(),
anotherGain = audioContext.createGain();
//connect our custom node to the native nodes and send to the output
gain.connect(customNode.input);
customNode.connect(anotherGain);
anotherGain.connect(audioContext.destination);
تنها تفاوت بین گره سفارشی ما و یک گره بومی این است که باید به ویژگی ورودی گره های سفارشی متصل شویم. من مطمئن هستم که راه هایی برای دور زدن این موضوع وجود دارد، اما این به اندازه کافی برای اهداف ما نزدیک بود. این الگو را میتوان برای شبیهسازی روشهای قطع اتصال AudioNodes بومی، و همچنین تطبیق ورودیها/خروجیهای تعریفشده توسط کاربر هنگام اتصال و غیره توسعه داد. نگاهی به مشخصات بیندازید تا ببینید گره های بومی چه کاری می توانند انجام دهند.
اکنون که الگوی اصلی خود را برای ایجاد جلوه های سفارشی داشتیم، گام بعدی این بود که در واقع به گره سفارشی رفتار سفارشی بدهیم. بیایید نگاهی به گره تاخیر slapback داشته باشیم.
مثل شما می گویید که شما آن را به هم بزنید
تأخیر slapback، که گاهی اوقات اکو slapback نامیده می شود، یک افکت کلاسیک است که بر روی تعدادی از سازها، از آواز سبک دهه 50 تا گیتار موج سواری استفاده می شود. این افکت صدای ورودی را می گیرد و یک کپی از صدا را با کمی تاخیر تقریباً 75-250 میلی ثانیه پخش می کند. این باعث می شود که صدا به عقب برگردد، بنابراین نام. ما می توانیم افکت را به این صورت ایجاد کنیم:
var SlapbackDelayNode = function(){
//create the nodes we'll use
this.input = audioContext.createGain();
var output = audioContext.createGain(),
delay = audioContext.createDelay(),
feedback = audioContext.createGain(),
wetLevel = audioContext.createGain();
//set some decent values
delay.delayTime.value = 0.15; //150 ms delay
feedback.gain.value = 0.25;
wetLevel.gain.value = 0.25;
//set up the routing
this.input.connect(delay);
this.input.connect(output);
delay.connect(feedback);
delay.connect(wetLevel);
feedback.connect(delay);
wetLevel.connect(output);
this.connect = function(target){
output.connect(target);
};
};
همانطور که ممکن است برخی از شما قبلاً متوجه شده باشید، این تأخیر می تواند با تأخیر بیشتر نیز مورد استفاده قرار گیرد، و بنابراین به یک تأخیر تک معمولی با بازخورد تبدیل می شود. در اینجا مثالی با استفاده از این تاخیر آورده شده است تا به شما امکان می دهد صدای آن را بشنوید.
مسیریابی صدا
هنگام کار با سازها و بخشهای مختلف موسیقی در برنامههای صوتی حرفهای، داشتن یک سیستم مسیریابی انعطافپذیر ضروری است که به شما امکان میدهد صداها را به روشهای موثر میکس و مدوله کنید. در JAM با کروم، ما یک سیستم گذرگاه صوتی، مشابه آنچه در تختههای میکس فیزیکی یافت میشود، توسعه دادهایم. این به ما این امکان را می دهد که تمام سازهایی را که به افکت ریورب نیاز دارند به یک گذرگاه یا کانال مشترک متصل کنیم و سپس به جای افزودن یک ریورب به هر ساز جداگانه، ریورب را به آن اتوبوس اضافه کنیم. این یک بهینه سازی اصلی است و توصیه می شود به محض اینکه شروع به انجام برنامه های پیچیده تر کردید، کاری مشابه انجام دهید.
خوشبختانه دستیابی به این امر در Web Audio بسیار آسان است. اساساً می توانیم از اسکلتی که تعریف کرده ایم برای افکت ها استفاده کنیم و به همین شکل از آن استفاده کنیم.
var AudioBus = function(){
this.input = audioContext.createGain();
var output = audioContext.createGain();
//create effect nodes (Convolver and Equalizer are other custom effects from the library presented at the end of the article)
var delay = new SlapbackDelayNode(),
convolver = new tuna.Convolver(),
equalizer = new tuna.Equalizer();
//route 'em
//equalizer -> delay -> convolver
this.input.connect(equalizer);
equalizer.connect(delay.input);
delay.connect(convolver);
convolver.connect(output);
this.connect = function(target){
output.connect(target);
};
};
این به صورت زیر استفاده می شود:
//create some native oscillators and our custom audio bus
var bus = new AudioBus(),
instrument1 = audioContext.createOscillator(),
instrument2 = audioContext.createOscillator(),
instrument3 = audioContext.createOscillator();
//connect our instruments to the same bus
instrument1.connect(bus.input);
instrument2.connect(bus.input);
instrument3.connect(bus.input);
bus.connect(audioContext.destination);
و voila، ما تاخیر، یکسان سازی و Reverb (که یک افکت نسبتاً گران است، از نظر عملکرد) را با نصف هزینه اعمال کرده ایم، گویی که افکت ها را برای هر ساز جداگانه اعمال کرده ایم. اگر بخواهیم مقداری ادویه اضافی به اتوبوس اضافه کنیم، میتوانیم دو گره افزایش جدید اضافه کنیم - preGain و postGain - که به ما امکان میدهد صداها را در یک اتوبوس به دو روش مختلف خاموش یا محو کنیم. preGain قبل از اثرات قرار می گیرد و postGain در انتهای زنجیره قرار می گیرد. اگر PreGain را محو کنیم، افکتها همچنان پس از اینکه گین به پایان رسید طنین انداز میشوند، اما اگر postGain را محو کنیم، همه صداها همزمان قطع میشوند.
از اینجا به کجا؟
این روش هایی که در اینجا توضیح دادم، می توانند و باید بیشتر توسعه یابند. چیزهایی مانند ورودی و خروجی گره های سفارشی و روش های اتصال، می توانند/باید با استفاده از وراثت مبتنی بر نمونه اولیه پیاده سازی شوند. اتوبوسها باید بتوانند افکتها را بهصورت پویا با دریافت فهرستی از افکتها ایجاد کنند.
برای جشن انتشار JAM با Chrome، تصمیم گرفتیم چارچوب افکتهای خود را منبع باز کنیم . اگر این مقدمه کوتاه علاقه شما را غلغلک داده است، لطفاً نگاهی بیندازید و با خیال راحت مشارکت کنید. در اینجا بحثی در مورد استانداردسازی قالب برای موجودیت های صوتی وب سفارشی در جریان است. درگیر شوید!