論文の概要: Unsupervised Neural Universal Denoiser for Finite-Input General-Output
Noisy Channel
- arxiv url: http://arxiv.org/abs/2003.02623v1
- Date: Thu, 5 Mar 2020 17:11:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:52:15.711161
- Title: Unsupervised Neural Universal Denoiser for Finite-Input General-Output
Noisy Channel
- Title(参考訳): 有限入力一般出力ノイズチャネルのための教師なしニューラルユニバーサルデノイザー
- Authors: Tae-Eon Park and Taesup Moon
- Abstract要約: 有限インプット、一般出力(FIGO)チャネルのためのニューラルネットワークに基づく新しいユニバーサルデノイザを考案する。
既知のノイズチャネル密度の仮定に基づいて、ネットワークをトレーニングし、基礎となるクリーンソースデータに対して最高のスライディングウインドウデノイザをデノイズできるようにします。
- 参考スコア(独自算出の注目度): 25.26787589154647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We devise a novel neural network-based universal denoiser for the
finite-input, general-output (FIGO) channel. Based on the assumption of known
noisy channel densities, which is realistic in many practical scenarios, we
train the network such that it can denoise as well as the best sliding window
denoiser for any given underlying clean source data. Our algorithm, dubbed as
Generalized CUDE (Gen-CUDE), enjoys several desirable properties; it can be
trained in an unsupervised manner (solely based on the noisy observation data),
has much smaller computational complexity compared to the previously developed
universal denoiser for the same setting, and has much tighter upper bound on
the denoising performance, which is obtained by a theoretical analysis. In our
experiments, we show such tighter upper bound is also realized in practice by
showing that Gen-CUDE achieves much better denoising results compared to other
strong baselines for both synthetic and real underlying clean sequences.
- Abstract(参考訳): 有限入力一般出力(FIGO)チャネルのためのニューラルネットワークに基づく新しいユニバーサルデノイザを考案する。
多くの現実的なシナリオにおいて現実的な既知のノイズチャネル密度の仮定に基づいて、我々はネットワークをトレーニングし、その基礎となるクリーンソースデータに対して最良のスライディングウインドウデノイザを実現できるようにします。
このアルゴリズムは一般化cude(gen-cude)と呼ばれ、教師なしの手法(ノイズ観測データに基づく)で訓練でき、同じ設定で既に開発されたユニバーサルデノイザーに比べて計算の複雑さがはるかに小さく、理論解析によって得られるデノイジン性能の上限がはるかに狭いため、いくつかの望ましい特性を享受できる。
提案実験では,Gen-CUDEが合成および実際のクリーンシーケンスに対して,他の強いベースラインよりもはるかに優れたデノナイジング結果が得られることを示した。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Unsupervised Image Denoising in Real-World Scenarios via
Self-Collaboration Parallel Generative Adversarial Branches [28.61750072026107]
ディープラーニング手法は、特に大規模なペア化されたデータセットでトレーニングされた場合、画像の認知において顕著なパフォーマンスを示している。
ディープラーニング手法は、特に大規模なペア化されたデータセットでトレーニングされた場合、画像の認知において顕著なパフォーマンスを示している。
しかし、そのようなペア化されたデータセットを現実のシナリオで取得することは、大きな課題となる。
論文 参考訳(メタデータ) (2023-08-13T14:04:46Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Noise Injection Node Regularization for Robust Learning [0.0]
ノイズインジェクションノード規則化(NINR)は、トレーニング期間中に、構造化されたノイズをディープニューラルネットワーク(DNN)に注入する手法である。
本研究は、NINRの下で訓練されたフィードフォワードDNNに対する各種試験データ摂動に対するロバスト性を大幅に改善する理論的および実証的な証拠を示す。
論文 参考訳(メタデータ) (2022-10-27T20:51:15Z) - Heavy-tailed denoising score matching [5.371337604556311]
ランゲヴィン力学における複数のノイズレベルを連続的に初期化する反復的雑音スケーリングアルゴリズムを開発した。
実用面では、重み付きDSMを用いることで、スコア推定、制御可能なサンプリング収束、不均衡データセットに対するよりバランスのない非条件生成性能が改善される。
論文 参考訳(メタデータ) (2021-12-17T22:04:55Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Removing Noise from Extracellular Neural Recordings Using Fully
Convolutional Denoising Autoencoders [62.997667081978825]
ノイズの多いマルチチャネル入力からクリーンなニューロン活動信号を生成することを学習する完全畳み込みデノイングオートエンコーダを提案する。
シミュレーションデータを用いた実験結果から,提案手法はノイズ崩壊型ニューラルネットワークの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-09-18T14:51:24Z) - Multi-Contextual Design of Convolutional Neural Network for Steganalysis [8.631228373008478]
近年のステガノグラフィーの埋め込みは、必ずしも高周波帯への埋め込みを制限せず、埋め込みポリシーに従って配布している。
本研究では,従来の手法とは異なり,まず学習した復号化カーネルを用いて雑音残差を抽出し,信号対雑音比を向上する。
前処理後、スパースノイズ残差は、異種コンテキストサイズを用いてノイズ残差のスパースおよび低振幅表現を学習する新しいマルチコンテキスト畳み込みニューラルネットワーク(M-CNET)に供給される。
論文 参考訳(メタデータ) (2021-06-19T05:38:52Z) - Beyond Class-Conditional Assumption: A Primary Attempt to Combat
Instance-Dependent Label Noise [51.66448070984615]
ラベル雑音下での教師付き学習は近年多くの進歩を遂げている。
本論文では,実世界のデータセットにおけるノイズがCCNである可能性は低いことを実証する。
制御可能なインスタンス依存ノイズ(IDN)を生成するアルゴリズムを形式化する。
論文 参考訳(メタデータ) (2020-12-10T05:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。