論文の概要: U-DREAM: Unsupervised Dereverberation guided by a Reverberation Model
- arxiv url: http://arxiv.org/abs/2507.14237v1
- Date: Thu, 17 Jul 2025 12:26:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.79217
- Title: U-DREAM: Unsupervised Dereverberation guided by a Reverberation Model
- Title(参考訳): U-DREAM:残響モデルによる教師なし残響
- Authors: Louis Bahrman, Mathieu Fontaine, Gaël Richard,
- Abstract要約: 本稿では,弱教師付きから完全教師なしまでの監督設定を施した最先端のデリバベーションモデルの訓練結果について検討する。
既存のディープラーニングアプローチの多くは、通常、ペア化された乾式と残響式のデータを必要とするが、実際は入手が困難である。
そこで, ディープニューラルネットワークを用いた残響入力から, 音響パラメータとドライ信号が推定される。
- 参考スコア(独自算出の注目度): 12.192022160630165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the outcome of training state-ofthe-art dereverberation models with supervision settings ranging from weakly-supervised to fully unsupervised, relying solely on reverberant signals and an acoustic model for training. Most of the existing deep learning approaches typically require paired dry and reverberant data, which are difficult to obtain in practice. We develop instead a sequential learning strategy motivated by a bayesian formulation of the dereverberation problem, wherein acoustic parameters and dry signals are estimated from reverberant inputs using deep neural networks, guided by a reverberation matching loss. Our most data-efficient variant requires only 100 reverberation-parameter-labelled samples to outperform an unsupervised baseline, demonstrating the effectiveness and practicality of the proposed method in low-resource scenarios.
- Abstract(参考訳): 本稿では,残響信号のみに頼って,弱教師付きから完全教師なしまでの監督設定を施した最先端の残響モデルの訓練結果と,訓練用音響モデルについて検討する。
既存のディープラーニングアプローチの多くは、通常、ペア化された乾式と残響式のデータを必要とするが、実際は入手が困難である。
そこで, ディープニューラルネットワークを用いた残響入力から, 音響パラメータとドライ信号を推定し, 残響整合損失を導出する。
我々の最もデータ効率のよい変種は、教師なしベースラインを上回り、低リソースシナリオにおける提案手法の有効性と実用性を示すために、100個の残響パラメータラベリングサンプルしか必要としない。
関連論文リスト
- A Hybrid Model for Weakly-Supervised Speech Dereverberation [2.731944614640173]
本稿では,最小限の音響情報と残響(ウェット)音声を用いた音声認識システムを改善するための新たな学習手法を提案する。
実験結果から,本手法は,最先端技術よりも,音声の残響に使用される様々な客観的指標に対して,より一貫した性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2025-02-06T09:21:22Z) - Unsupervised Blind Joint Dereverberation and Room Acoustics Estimation with Diffusion Models [21.669363620480333]
本稿では,BUDDy と呼ばれる単一チャネルブラインド除去と室内インパルス応答 (RIR) 推定のための教師なし手法を提案する。
周波数サブバンド毎に指数減衰したRIRを表すパラメトリックフィルタを設計する。
本稿では,RIR推定におけるBUDDyの性能について検討し,不整合音響条件に対する最先端の教師付き推定器を超越して観測する。
論文 参考訳(メタデータ) (2024-08-14T11:31:32Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Unmasking Bias in Diffusion Model Training [40.90066994983719]
拡散モデルが画像生成の主流のアプローチとして登場した。
トレーニングの収束が遅く、サンプリングのカラーシフトの問題に悩まされている。
本稿では,これらの障害は,既定のトレーニングパラダイムに固有のバイアスや準最適性に大きく起因していると考えられる。
論文 参考訳(メタデータ) (2023-10-12T16:04:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - Advancing underwater acoustic target recognition via adaptive data
pruning and smoothness-inducing regularization [27.039672355700198]
本稿では,クロスエントロピーに基づくトレーニングデータにおいて,過度に類似したセグメントを創り出す戦略を提案する。
我々はノイズの多いサンプルを生成し、KLの発散に基づくスムーズネス誘導正則化を適用し、オーバーフィッティングを緩和する。
論文 参考訳(メタデータ) (2023-04-24T08:30:41Z) - DiffusionAD: Norm-guided One-step Denoising Diffusion for Anomaly Detection [80.20339155618612]
DiffusionADは、再構成サブネットワークとセグメンテーションサブネットワークからなる、新しい異常検出パイプラインである。
高速なワンステップデノゲーションパラダイムは、同等の再現品質を維持しながら、数百倍の加速を達成する。
異常の出現の多様性を考慮し、複数のノイズスケールの利点を統合するためのノルム誘導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:14:06Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Unsupervised vocal dereverberation with diffusion-based generative
models [12.713895991763867]
そこで本稿では,学習にデータペアを必要とすることなく,一般的な音楽用人工残響を除去するための教師なし手法を提案する。
提案手法は,従来の有声弁別評価基準より優れており,客観的および知覚的評価が優れていることを示す。
論文 参考訳(メタデータ) (2022-11-08T09:43:01Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。