論文の概要: Sound field decomposition based on two-stage neural networks
- arxiv url: http://arxiv.org/abs/2309.06661v1
- Date: Wed, 13 Sep 2023 01:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 15:52:55.990662
- Title: Sound field decomposition based on two-stage neural networks
- Title(参考訳): 2段階ニューラルネットワークによる音場分解
- Authors: Ryo Matsuda and Makoto Otani
- Abstract要約: ニューラルネットワークに基づく音場分解手法を提案する。
本手法は, 音源定位精度と音場再構成精度を向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A method for sound field decomposition based on neural networks is proposed.
The method comprises two stages: a sound field separation stage and a
single-source localization stage. In the first stage, the sound pressure at
microphones synthesized by multiple sources is separated into one excited by
each sound source. In the second stage, the source location is obtained as a
regression from the sound pressure at microphones consisting of a single sound
source. The estimated location is not affected by discretization because the
second stage is designed as a regression rather than a classification. Datasets
are generated by simulation using Green's function, and the neural network is
trained for each frequency. Numerical experiments reveal that, compared with
conventional methods, the proposed method can achieve higher
source-localization accuracy and higher sound-field-reconstruction accuracy.
- Abstract(参考訳): ニューラルネットワークを用いた音場分解法を提案する。
本発明の方法は、音場分離段階と単一音源定位段階の2段階からなる。
第1段階では、複数の音源で合成されたマイクロホンの音圧を、各音源で励起された1つに分離する。
第2段階では、音源位置は、単一の音源からなるマイクロホンにおける音圧からの回帰として得られる。
第2段階は分類ではなく回帰として設計されているため、推定位置は離散化に影響されない。
データセットはグリーン関数を用いたシミュレーションによって生成され、ニューラルネットワークは周波数毎にトレーニングされる。
数値実験により,従来の手法に比べて音源局所化精度が高く,音場再構成精度が高いことが判明した。
関連論文リスト
- Score-based Source Separation with Applications to Digital Communication
Signals [72.6570125649502]
拡散モデルを用いた重畳音源の分離手法を提案する。
高周波(RF)システムへの応用によって、我々は、基礎となる離散的な性質を持つ情報源に興味を持っている。
提案手法は,最近提案されたスコア蒸留サンプリング方式のマルチソース拡張と見なすことができる。
論文 参考訳(メタデータ) (2023-06-26T04:12:40Z) - Boosting Fast and High-Quality Speech Synthesis with Linear Diffusion [85.54515118077825]
本稿では, 常微分方程式に基づく線形拡散モデル(LinDiff)を提案する。
計算複雑性を低減するため、LinDiffでは、入力信号を小さなパッチに分割するパッチベースの処理アプローチを採用している。
我々のモデルは、より高速な合成速度で自己回帰モデルに匹敵する品質の音声を合成することができる。
論文 参考訳(メタデータ) (2023-06-09T07:02:43Z) - BinauralGrad: A Two-Stage Conditional Diffusion Probabilistic Model for
Binaural Audio Synthesis [129.86743102915986]
我々は、音声を共通部分へ分解することで、異なる視点から合成プロセスを定式化する。
拡散モデルを備えた新しい2段階フレームワークであるBinauralGradを提案する。
実験結果から,BinauralGradは対象評価指標と対象評価指標の両方において,既存のベースラインよりも高い性能を示した。
論文 参考訳(メタデータ) (2022-05-30T02:09:26Z) - Acoustic-Net: A Novel Neural Network for Sound Localization and
Quantification [28.670240455952317]
アコースティックネットと呼ばれる新しいニューラルネットワークが提案され、音源の特定と定量化が可能である。
実験により,提案手法は音源予測の精度と計算速度を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2022-03-31T12:20:09Z) - Unsupervised Audio Source Separation Using Differentiable Parametric
Source Models [8.80867379881193]
本研究では,教師なしモデルに基づく深層学習手法を提案する。
ニューラルネットワークは、観測された混合物をソースの和として再構成するように訓練される。
音声アンサンブル分離タスクの実験評価により,提案手法が学習自由法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-24T11:05:30Z) - SoundDet: Polyphonic Sound Event Detection and Localization from Raw
Waveform [48.68714598985078]
SoundDetは、多音動音イベントの検出とローカライゼーションのためのエンドツーエンドのトレーニング可能で軽量なフレームワークである。
SoundDetは、生のマルチチャネル波形を直接消費し、検出すべき時間音イベントを完全な音オブジェクトとして扱う。
次に、時間的変化が大きいイベントを予測する上での課題に対処するため、高密度な音響提案イベントマップを構築する。
論文 参考訳(メタデータ) (2021-06-13T11:43:41Z) - PILOT: Introducing Transformers for Probabilistic Sound Event
Localization [107.78964411642401]
本稿では,受信したマルチチャンネル音声信号の時間的依存性を自己アテンション機構によってキャプチャする,トランスフォーマーに基づく新しい音声イベント定位フレームワークを提案する。
このフレームワークは, 公開されている3つの音声イベントローカライズデータセットを用いて評価し, 局所化誤差と事象検出精度の点で最先端の手法と比較した。
論文 参考訳(メタデータ) (2021-06-07T18:29:19Z) - On End-to-end Multi-channel Time Domain Speech Separation in Reverberant
Environments [33.79711018198589]
本稿では,残響環境におけるマルチチャンネル時間領域音声分離手法を提案する。
完全な畳み込みニューラルネットワーク構造は、複数のマイク記録から直接音声を分離するために使われてきた。
残響が空間的特徴抽出に与える影響を低減するため, 残響前処理法が適用された。
論文 参考訳(メタデータ) (2020-11-11T18:25:07Z) - Simultaneous Denoising and Dereverberation Using Deep Embedding Features [64.58693911070228]
ディープ埋め込み特徴を用いた同時発声・発声同時学習法を提案する。
ノイズ発生段階では、DCネットワークを利用してノイズのないディープ埋込み特性を抽出する。
残響段階では、教師なしのK平均クラスタリングアルゴリズムの代わりに、別のニューラルネットワークを用いて無響音声を推定する。
論文 参考訳(メタデータ) (2020-04-06T06:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。