論文の概要: Direction-Aware Neural Acoustic Fields for Few-Shot Interpolation of Ambisonic Impulse Responses
- arxiv url: http://arxiv.org/abs/2505.13617v1
- Date: Mon, 19 May 2025 18:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.471921
- Title: Direction-Aware Neural Acoustic Fields for Few-Shot Interpolation of Ambisonic Impulse Responses
- Title(参考訳): 振動応答のFew-Shot補間のための方向認識型ニューラルネットワーク
- Authors: Christopher Ick, Gordon Wichern, Yoshiki Masuyama, François Germain, Jonathan Le Roux,
- Abstract要約: 音源とリスナーを囲む環境の幾何学的・空間的特性に音場を関連付ける。
本稿では,Ambisonic-format RIRによる方向情報をより明確に組み込んだ方向認識型ニューラルネットワーク(DANF)を提案する。
- 参考スコア(独自算出の注目度): 33.12440048359463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The characteristics of a sound field are intrinsically linked to the geometric and spatial properties of the environment surrounding a sound source and a listener. The physics of sound propagation is captured in a time-domain signal known as a room impulse response (RIR). Prior work using neural fields (NFs) has allowed learning spatially-continuous representations of RIRs from finite RIR measurements. However, previous NF-based methods have focused on monaural omnidirectional or at most binaural listeners, which does not precisely capture the directional characteristics of a real sound field at a single point. We propose a direction-aware neural field (DANF) that more explicitly incorporates the directional information by Ambisonic-format RIRs. While DANF inherently captures spatial relations between sources and listeners, we further propose a direction-aware loss. In addition, we investigate the ability of DANF to adapt to new rooms in various ways including low-rank adaptation.
- Abstract(参考訳): 音場の特徴は、音源とリスナーを囲む環境の幾何学的・空間的特性と本質的に関連付けられている。
音の伝搬の物理は、室内インパルス応答 (RIR) として知られる時間領域信号で捉えられる。
ニューラルフィールド(NF)を用いた以前の研究は、有限RIR測定から空間連続的なRIR表現の学習を可能にした。
しかし, 従来のNF法では, 単調全方向あるいはほとんどのバイノーラルリスナーに焦点が当てられており, 実音場の方向特性を正確に把握することができない。
本稿では,Ambisonic-format RIRによる方向情報をより明確に組み込んだ方向認識型ニューラルネットワーク(DANF)を提案する。
DANFは本質的にソースとリスナー間の空間的関係をキャプチャするが、さらに方向認識損失を提案する。
さらに、DANFが低ランク適応を含む様々な方法で新しい部屋に適応する能力について検討する。
関連論文リスト
- Reg-NF: Efficient Registration of Implicit Surfaces within Neural Fields [6.949522577812908]
本稿では2つの任意のニューラルネットワーク間の相対的な6-DoF変換を最適化するReg-NFについて述べる。
Reg-NFの主な構成要素は、双方向の登録損失、多視点表面サンプリング、および体積符号距離関数の利用である。
論文 参考訳(メタデータ) (2024-02-15T05:31:03Z) - Neural Acoustic Context Field: Rendering Realistic Room Impulse Response
With Neural Fields [61.07542274267568]
このレターでは、音声シーンをパラメータ化するためのNACFと呼ばれる新しいニューラルネットワークコンテキストフィールドアプローチを提案する。
RIRのユニークな性質により、時間相関モジュールとマルチスケールエネルギー崩壊基準を設計する。
実験の結果,NACFは既存のフィールドベース手法よりも顕著なマージンで優れていた。
論文 参考訳(メタデータ) (2023-09-27T19:50:50Z) - NeuRBF: A Neural Fields Representation with Adaptive Radial Basis
Functions [93.02515761070201]
本稿では,信号表現に一般放射状基底を用いる新しいタイプのニューラルネットワークを提案する。
提案手法は, 空間適応性が高く, ターゲット信号により密着可能な, フレキシブルなカーネル位置と形状を持つ一般ラジアルベース上に構築する。
ニューラルラジアンス場再構成に適用した場合,本手法はモデルサイズが小さく,訓練速度が同等である最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2023-09-27T06:32:05Z) - Neural Fourier Shift for Binaural Speech Rendering [16.957415282256758]
音源の位置, 方向, 音源から音声を描画するニューラルネットワークを提案する。
フーリエ空間における音声の描画を可能にする新しいネットワークアーキテクチャであるニューラルシフト(NFS)を提案する。
論文 参考訳(メタデータ) (2022-11-02T04:55:09Z) - Few-Shot Audio-Visual Learning of Environment Acoustics [89.16560042178523]
室内インパルス応答 (RIR) 関数は、周囲の物理的環境がリスナーが聴く音をどう変換するかをキャプチャする。
我々は、空間で観測された画像とエコーのスパースセットに基づいて、RIRを推測する方法を探る。
3次元環境のための最先端オーディオ視覚シミュレータを用いた実験において,本手法が任意のRIRを生成できることを実証した。
論文 参考訳(メタデータ) (2022-06-08T16:38:24Z) - Learning Neural Acoustic Fields [110.22937202449025]
音が物理的場面でどのように伝搬するかを暗黙的に表現するニューラル・アコースティック・フィールズ(NAF)を導入する。
シーン内の音響伝搬を線形時間不変系としてモデル化することにより、NAFは全てのエミッタとリスナーの位置ペアを連続的にマッピングすることを学ぶ。
NAFの連続的な性質により、任意の場所でリスナーの空間音響を描画することができ、新しい場所での音の伝搬を予測できることを実証する。
論文 参考訳(メタデータ) (2022-04-04T17:59:37Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。