論文の概要: Unsupervised learning based end-to-end delayless generative fixed-filter
active noise control
- arxiv url: http://arxiv.org/abs/2402.09460v1
- Date: Thu, 8 Feb 2024 06:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 12:49:35.757066
- Title: Unsupervised learning based end-to-end delayless generative fixed-filter
active noise control
- Title(参考訳): 教師なし学習に基づくエンドツーエンド遅延レス生成型固定フィルタアクティブノイズ制御
- Authors: Zhengding Luo, Dongyuan Shi, Xiaoyi Shen, Woon-Seng Gan
- Abstract要約: 遅延のないノイズ制御は、我々の初期の生成固定フィルタアクティブノイズ制御(GFANC)フレームワークによって実現されている。
コプロセッサの1次元畳み込みニューラルネットワーク(1D CNN)は、ラベル付きノイズデータセットを使用した初期トレーニングを必要とする。
本稿では,1次元CNNトレーニングプロセスを簡素化し,その実用性を高めるために,教師なしGFANCアプローチを提案する。
- 参考スコア(独自算出の注目度): 22.809445468752262
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Delayless noise control is achieved by our earlier generative fixed-filter
active noise control (GFANC) framework through efficient coordination between
the co-processor and real-time controller. However, the one-dimensional
convolutional neural network (1D CNN) in the co-processor requires initial
training using labelled noise datasets. Labelling noise data can be
resource-intensive and may introduce some biases. In this paper, we propose an
unsupervised-GFANC approach to simplify the 1D CNN training process and enhance
its practicality. During training, the co-processor and real-time controller
are integrated into an end-to-end differentiable ANC system. This enables us to
use the accumulated squared error signal as the loss for training the 1D CNN.
With this unsupervised learning paradigm, the unsupervised-GFANC method not
only omits the labelling process but also exhibits better noise reduction
performance compared to the supervised GFANC method in real noise experiments.
- Abstract(参考訳): 協調処理とリアルタイム制御を効率よく連携させることにより, 従来のGFANCフレームワークにより遅延ノイズ制御を実現した。
しかし、コプロセッサ内の1次元畳み込みニューラルネットワーク(1d cnn)はラベル付きノイズデータセットを用いた初期トレーニングを必要とする。
ノイズのラベル付けはリソース集約的であり、バイアスが生じる可能性がある。
本稿では,1次元CNNトレーニングプロセスの簡素化と実用性向上のための教師なしGFANC手法を提案する。
トレーニング中、コプロセッサとリアルタイムコントローラはエンドツーエンドの差別化可能なANCシステムに統合される。
これにより,蓄積した2乗誤差信号を1次元CNNのトレーニングの損失として利用できる。
この教師なし学習パラダイムにより、教師なしgfanc法はラベル付けプロセスを省略するだけでなく、実雑音実験における教師なしgfanc法よりもノイズ低減性能が向上する。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Direct Unsupervised Denoising [60.71146161035649]
教師なしのデノイザは、MMSE推定のような単一の予測を直接生成しない。
本稿では,VAEと並んで決定論的ネットワークを訓練し,中心的な傾向を直接予測するアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-27T13:02:12Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Exploring Efficient Asymmetric Blind-Spots for Self-Supervised Denoising in Real-World Scenarios [44.31657750561106]
実世界のシナリオにおけるノイズはしばしば空間的に相関しており、多くの自己教師型アルゴリズムは性能が良くない。
盲点サイズを自由に調整できる非対称可変ブラインド・スポットネットワーク(AT-BSN)を提案する。
提案手法は最先端技術を実現し,計算オーバーヘッドや視覚効果の観点から,他の自己教師付きアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T15:19:01Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - CVF-SID: Cyclic multi-Variate Function for Self-Supervised Image
Denoising by Disentangling Noise from Image [53.76319163746699]
そこで本研究では,CVF-SIDと呼ばれる,新しい,強力な自己監督型デノベーション手法を提案する。
CVF-SIDは、様々な自己教師付き損失項を活用することにより、入力からクリーンな画像とノイズマップを分離することができる。
最先端の自己監督型画像復調性能を達成し、既存のアプローチに匹敵する。
論文 参考訳(メタデータ) (2022-03-24T11:59:28Z) - Denoising Distantly Supervised Named Entity Recognition via a
Hypergeometric Probabilistic Model [26.76830553508229]
ハイパージオメトリ・ラーニング(HGL)は、遠距離教師付きエンティティ認識のための認知アルゴリズムである。
HGLはノイズ分布とインスタンスレベルの信頼性の両方を考慮に入れている。
実験により、HGLは遠方の監督から取得した弱いラベル付きデータを効果的に復調できることが示された。
論文 参考訳(メタデータ) (2021-06-17T04:01:25Z) - Robust Processing-In-Memory Neural Networks via Noise-Aware
Normalization [26.270754571140735]
PIM加速器は、しばしば物理的成分の固有のノイズに悩まされる。
雑音設定に対してロバストなニューラルネットワーク性能を実現するためのノイズ非依存手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T06:51:28Z) - Simultaneous Denoising and Dereverberation Using Deep Embedding Features [64.58693911070228]
ディープ埋め込み特徴を用いた同時発声・発声同時学習法を提案する。
ノイズ発生段階では、DCネットワークを利用してノイズのないディープ埋込み特性を抽出する。
残響段階では、教師なしのK平均クラスタリングアルゴリズムの代わりに、別のニューラルネットワークを用いて無響音声を推定する。
論文 参考訳(メタデータ) (2020-04-06T06:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。