音訊小程式現已預設使用

Hongchan Choi

Chrome 64 提供備受期待的 Web Audio API 新功能 - AudioWorklet。您將在這裡瞭解相關概念和用法,以便使用 JavaScript 程式碼建立自訂音訊處理器。請參閱即時示範。系列文章的下一篇文章「音訊工作區設計模式」或許會是建構進階音訊應用程式的有趣讀物。

背景:ScriptProcessorNode

Web Audio API 中的音訊處理作業會在主 UI 執行緒以外的獨立執行緒中執行,因此運作順暢。為在 JavaScript 中啟用自訂音訊處理功能,Web Audio API 提出了 ScriptProcessorNode,這個節點會使用事件處理常式,在主要 UI 執行緒中叫用使用者指令碼。

這項設計有兩個問題:事件處理是設計為非同步,且程式碼執行作業會在主執行緒上發生。前者會導致延遲,後者會對主要執行緒施加壓力,而主要執行緒通常會擠滿各種 UI 和 DOM 相關工作,導致 UI 出現「卡頓」或音訊出現「故障」。由於這個基本設計缺陷,ScriptProcessorNode 已從規格中淘汰,並由 AudioWorklet 取代。

概念

Audio Worklet 會將使用者提供的 JavaScript 程式碼保留在音訊處理執行緒中。也就是說,它不必跳轉至主執行緒即可處理音訊。這表示使用者提供的指令碼會在音訊轉譯執行緒 (AudioWorkletGlobalScope) 上執行,並與其他內建 AudioNodes 搭配運作,確保沒有額外的延遲和同步轉譯。

主要全域範圍和 Audio Worklet 範圍圖表
圖 1

註冊和例項化

使用 Audio Worklet 包含兩個部分:AudioWorkletProcessorAudioWorkletNode。這比使用 ScriptProcessorNode 更複雜,但必須提供開發人員自訂音訊處理的低階功能。AudioWorkletProcessor 代表以 JavaScript 程式碼編寫的實際音訊處理器,並位於 AudioWorkletGlobalScope 中。AudioWorkletNodeAudioWorkletProcessor 的對應項目,負責處理主執行緒中與其他 AudioNodes 的連線。這個函式會在主要全域範圍中公開,並像一般 AudioNode 一樣運作。

以下是兩個程式碼片段,分別示範註冊和例項化。

// The code in the main global scope.
class MyWorkletNode extends AudioWorkletNode {
  constructor(context) {
    super(context, 'my-worklet-processor');
  }
}

let context = new AudioContext();

context.audioWorklet.addModule('processors.js').then(() => {
  let node = new MyWorkletNode(context);
});

如要建立 AudioWorkletNode,您必須新增 AudioContext 物件和處理器名稱做為字串。您可以透過新的 Audio Worklet 物件的 addModule() 呼叫,載入及註冊處理器定義。音訊工作區 API 等工作區 API 只能在安全環境中使用,因此使用這些 API 的網頁必須透過 HTTPS 提供,但 http://localhost 在本機測試時視為安全。

您可以將 AudioWorkletNode 設為子類別,定義由在 worklet 上執行的處理器支援的自訂節點。

// This is the "processors.js" file, evaluated in AudioWorkletGlobalScope
// upon audioWorklet.addModule() call in the main global scope.
class MyWorkletProcessor extends AudioWorkletProcessor {
  constructor() {
    super();
  }

  process(inputs, outputs, parameters) {
    // audio processing code here.
  }
}

registerProcessor('my-worklet-processor', MyWorkletProcessor);

AudioWorkletGlobalScope 中的 registerProcessor() 方法會使用字串,用於註冊的處理器名稱和類別定義。在全球範圍中完成指令碼評估後,系統會解析來自 AudioWorklet.addModule() 的承諾,通知使用者類別定義已準備好在主要全球範圍中使用。

自訂音訊參數

AudioNodes 的其中一個實用功能,就是可透過 AudioParam 排程參數自動化。AudioWorkletNodes 可以使用這些參數,取得可自動以音訊速率控制的公開參數。

音訊工作區節點和處理器圖表
圖 2

您可以設定一組 AudioParamDescriptor,在 AudioWorkletProcessor 類別定義中宣告使用者定義的音訊參數。基礎 WebAudio 引擎會在建構 AudioWorkletNode 時擷取這項資訊,然後相應地建立 AudioParam 物件並連結至節點。

/* A separate script file, like "my-worklet-processor.js" */
class MyWorkletProcessor extends AudioWorkletProcessor {

  // Static getter to define AudioParam objects in this custom processor.
  static get parameterDescriptors() {
    return [{
      name: 'myParam',
      defaultValue: 0.707
    }];
  }

  constructor() { super(); }

  process(inputs, outputs, parameters) {
    // |myParamValues| is a Float32Array of either 1 or 128 audio samples
    // calculated by WebAudio engine from regular AudioParam operations.
    // (automation methods, setter) Without any AudioParam change, this array
    // would be a single value of 0.707.
    const myParamValues = parameters.myParam;

    if (myParamValues.length === 1) {
      // |myParam| has been a constant value for the current render quantum,
      // which can be accessed by |myParamValues[0]|.
    } else {
      // |myParam| has been changed and |myParamValues| has 128 values.
    }
  }
}

AudioWorkletProcessor.process() 方法

實際的音訊處理作業會在 AudioWorkletProcessorprocess() 回呼方法中執行。使用者必須在類別定義中實作此方法。WebAudio 引擎會以非同步方式叫用這個函式,以便提供輸入內容和參數,並擷取輸出內容

/* AudioWorkletProcessor.process() method */
process(inputs, outputs, parameters) {
  // The processor may have multiple inputs and outputs. Get the first input and
  // output.
  const input = inputs[0];
  const output = outputs[0];

  // Each input or output may have multiple channels. Get the first channel.
  const inputChannel0 = input[0];
  const outputChannel0 = output[0];

  // Get the parameter value array.
  const myParamValues = parameters.myParam;

  // if |myParam| has been a constant value during this render quantum, the
  // length of the array would be 1.
  if (myParamValues.length === 1) {
    // Simple gain (multiplication) processing over a render quantum
    // (128 samples). This processor only supports the mono channel.
    for (let i = 0; i < inputChannel0.length; ++i) {
      outputChannel0[i] = inputChannel0[i] * myParamValues[0];
    }
  } else {
    for (let i = 0; i < inputChannel0.length; ++i) {
      outputChannel0[i] = inputChannel0[i] * myParamValues[i];
    }
  }

  // To keep this processor alive.
  return true;
}

此外,process() 方法的傳回值可用於控制 AudioWorkletNode 的生命週期,方便開發人員管理記憶體占用空間。從 process() 方法傳回 false 會將處理器標示為不活動,而 WebAudio 引擎也不會再叫用該方法。為確保處理器持續運作,方法必須傳回 true。否則,系統最終會收集節點和處理器組合的垃圾。

使用 MessagePort 進行雙向通訊

有時,自訂 AudioWorkletNode 會想要公開不會對應至 AudioParam 的控制項,例如用於控制自訂篩選器的字串型 type 屬性。為此目的和其他用途,AudioWorkletNodeAudioWorkletProcessor 都配備了 MessagePort,可進行雙向通訊。您可以透過這個管道交換任何類型的自訂資料。

Fig.2
圖 2

您可以在節點和處理器上使用 .port 屬性存取 MessagePort。節點的 port.postMessage() 方法會將訊息傳送至關聯處理器的 port.onmessage 處理常式,反之亦然。

/* The code in the main global scope. */
context.audioWorklet.addModule('processors.js').then(() => {
  let node = new AudioWorkletNode(context, 'port-processor');
  node.port.onmessage = (event) => {
    // Handling data from the processor.
    console.log(event.data);
  };

  node.port.postMessage('Hello!');
});
/* "processors.js" file. */
class PortProcessor extends AudioWorkletProcessor {
  constructor() {
    super();
    this.port.onmessage = (event) => {
      // Handling data from the node.
      console.log(event.data);
    };

    this.port.postMessage('Hi!');
  }

  process(inputs, outputs, parameters) {
    // Do nothing, producing silent output.
    return true;
  }
}

registerProcessor('port-processor', PortProcessor);

MessagePort 支援可轉移功能,可讓您透過執行緒邊界傳輸資料儲存空間或 WASM 模組。這為 Audio Worklet 系統的使用方式開啟了無數的可能性。

操作說明:建構 GainNode

以下是建構在 AudioWorkletNodeAudioWorkletProcessor 之上的完整 GainNode 範例。

index.html 檔案:

<!doctype html>
<html>
<script>
  const context = new AudioContext();

  // Loads module script with AudioWorklet.
  context.audioWorklet.addModule('gain-processor.js').then(() => {
    let oscillator = new OscillatorNode(context);

    // After the resolution of module loading, an AudioWorkletNode can be
    // constructed.
    let gainWorkletNode = new AudioWorkletNode(context, 'gain-processor');

    // AudioWorkletNode can be interoperable with other native AudioNodes.
    oscillator.connect(gainWorkletNode).connect(context.destination);
    oscillator.start();
  });
</script>
</html>

gain-processor.js 檔案:

class GainProcessor extends AudioWorkletProcessor {

  // Custom AudioParams can be defined with this static getter.
  static get parameterDescriptors() {
    return [{ name: 'gain', defaultValue: 1 }];
  }

  constructor() {
    // The super constructor call is required.
    super();
  }

  process(inputs, outputs, parameters) {
    const input = inputs[0];
    const output = outputs[0];
    const gain = parameters.gain;
    for (let channel = 0; channel < input.length; ++channel) {
      const inputChannel = input[channel];
      const outputChannel = output[channel];
      if (gain.length === 1) {
        for (let i = 0; i < inputChannel.length; ++i)
          outputChannel[i] = inputChannel[i] * gain[0];
      } else {
        for (let i = 0; i < inputChannel.length; ++i)
          outputChannel[i] = inputChannel[i] * gain[i];
      }
    }

    return true;
  }
}

registerProcessor('gain-processor', GainProcessor);

這篇文章將介紹 Audio Worklet 系統的基本概念。如需即時的示範,請前往 Chrome WebAudio 團隊的 GitHub 存放區

功能轉換:從實驗版轉換為穩定版

Chrome 66 以上版本預設會啟用 Audio Worklet。在 Chrome 64 和 65 中,這項功能是實驗性功能旗標的後端。