論文の概要: A Scalable Training Strategy for Blind Multi-Distribution Noise Removal
- arxiv url: http://arxiv.org/abs/2310.20064v1
- Date: Mon, 30 Oct 2023 22:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 17:10:56.554590
- Title: A Scalable Training Strategy for Blind Multi-Distribution Noise Removal
- Title(参考訳): ブラインドマルチ分散ノイズ除去のためのスケーラブルなトレーニング戦略
- Authors: Kevin Zhang, Sakshum Kulshrestha, Christopher Metzler
- Abstract要約: 本稿では適応サンプリング/アクティブラーニング戦略を用いたネットワークの学習手法を提案する。
本研究は, 真の仕様空間の近似を組み込むことにより, 最近提案されたユニバーサルデノイザトレーニング戦略を改善した。
本手法はポアソン・ガウス・スペックル共振器の共振器雑音のシミュレーション実験を行い,提案手法を用いることで,単一ブラインド型一般雑音器ネットワークが一様有界な特定雑音器ネットワーク内でピーク信号-雑音比を達成できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent advances, developing general-purpose universal denoising and
artifact-removal networks remains largely an open problem: Given fixed network
weights, one inherently trades-off specialization at one task (e.g.,~removing
Poisson noise) for performance at another (e.g.,~removing speckle noise). In
addition, training such a network is challenging due to the curse of
dimensionality: As one increases the dimensions of the specification-space
(i.e.,~the number of parameters needed to describe the noise distribution) the
number of unique specifications one needs to train for grows exponentially.
Uniformly sampling this space will result in a network that does well at very
challenging problem specifications but poorly at easy problem specifications,
where even large errors will have a small effect on the overall mean squared
error.
In this work we propose training denoising networks using an
adaptive-sampling/active-learning strategy. Our work improves upon a recently
proposed universal denoiser training strategy by extending these results to
higher dimensions and by incorporating a polynomial approximation of the true
specification-loss landscape. This approximation allows us to reduce training
times by almost two orders of magnitude. We test our method on simulated joint
Poisson-Gaussian-Speckle noise and demonstrate that with our proposed training
strategy, a single blind, generalist denoiser network can achieve peak
signal-to-noise ratios within a uniform bound of specialized denoiser networks
across a large range of operating conditions. We also capture a small dataset
of images with varying amounts of joint Poisson-Gaussian-Speckle noise and
demonstrate that a universal denoiser trained using our adaptive-sampling
strategy outperforms uniformly trained baselines.
- Abstract(参考訳): 固定されたネットワーク重みが与えられた場合、あるタスク(例えば、ポアソンノイズを除去する)における特定の特殊化(例えば、スペックルノイズを除去する)が、別のタスク(例えば、スペックルノイズを除去する)に対して本質的にトレードオフされる。
さらに、そのようなネットワークのトレーニングは、次元の呪いのために困難である: 仕様空間の次元(すなわち、ノイズ分布を記述するのに必要なパラメータの数)が増加するにつれて、トレーニングに必要なユニークな仕様の数が指数関数的に増加する。
この空間を均一にサンプリングすると、非常に困難な問題仕様ではうまく機能するが、簡単な問題仕様では不十分なネットワークになる。
本稿では,適応サンプリング/アクティブラーニング戦略を用いたネットワークの訓練を提案する。
これらの結果を高次元に拡張し、真の仕様喪失景観の多項式近似を組み込むことにより、最近提案された普遍的デノイザー訓練戦略を改良した。
この近似により、トレーニング時間をほぼ2桁削減できる。
本手法はpoisson-gaussian-speckle混合雑音のシミュレーションを用いて実験を行い,提案する訓練戦略により,単一ブラインド・ジェネラリストのデノイザーネットワークが,幅広い動作条件において,特定デノイザーネットワークの均一な境界内でピーク信号対雑音比を達成できることを実証する。
また,poisson-gaussian-speckleノイズが多量の画像の小さなデータセットをキャプチャし,適応サンプリング戦略を用いたユニバーサルデノイザーが一様に訓練されたベースラインよりも優れていることを示す。
関連論文リスト
- Policy Gradient-Driven Noise Mask [3.69758875412828]
本稿では,マルチモーダル・マルチオーガナイズドデータセットの性能向上に適した条件付きノイズマスクの生成を学習する,新しい事前学習パイプラインを提案する。
重要な側面は、ポリシーネットワークの役割が微調整の前に中間的な(または加熱された)モデルを取得することに限定されていることである。
その結果、中間モデルの微調整は、分類と一般化の両方の従来の訓練アルゴリズムよりも、目に見えない概念タスクに優れていた。
論文 参考訳(メタデータ) (2024-04-29T23:53:42Z) - Boosting Adversarial Training via Fisher-Rao Norm-based Regularization [9.975998980413301]
本稿では,ロバスト性と精度のトレードオフを軽減するため,LOAT(Logit-Oriented Adversarial Training)と呼ばれる新たな正規化フレームワークを提案する。
実験により,提案した正規化戦略により,有意な対向学習アルゴリズムの性能が向上することを示した。
論文 参考訳(メタデータ) (2024-03-26T09:22:37Z) - Distributed Extra-gradient with Optimal Complexity and Communication
Guarantees [60.571030754252824]
複数のプロセッサ/ワーカー/クライアントがローカルなデュアルベクトルにアクセス可能なマルチGPU設定において、モノトン変分不等式(VI)問題を考察する。
モノトーンVI問題に対するデファクトアルゴリズムであるExtra-gradientは、通信効率が良くないように設計されている。
そこで本稿では,VI の解法に適した非バイアスで適応的な圧縮手法である量子化一般化外部勾配 (Q-GenX) を提案する。
論文 参考訳(メタデータ) (2023-08-17T21:15:04Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Sparse Mixture of Local Experts for Efficient Speech Enhancement [19.645016575334786]
本稿では,専門的ニューラルネットワークの効率的なアンサンブルを通して,音声を聴覚的に認識するためのディープラーニング手法について検討する。
タスクを重複しないサブプロブレムに分割することで、計算複雑性を低減しつつ、デノナイジング性能を向上させることができる。
以上の結果から,微調整されたアンサンブルネットワークは,一般のネットワークの発声能力を上回ることができることがわかった。
論文 参考訳(メタデータ) (2020-05-16T23:23:22Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。