論文の概要: Net2Net: When Un-trained Meets Pre-trained Networks for Robust Real-World Denoising
- arxiv url: http://arxiv.org/abs/2510.02733v1
- Date: Fri, 03 Oct 2025 05:34:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.276939
- Title: Net2Net: When Un-trained Meets Pre-trained Networks for Robust Real-World Denoising
- Title(参考訳): Net2Net: 未トレーニングのネットワークが実世界のロバストなデノベーションのために事前にトレーニングされたネットワークに出会ったとき
- Authors: Weimin Yuan, Cai Meng,
- Abstract要約: Net2Netは、非教師付きDIPと教師付き事前訓練モデルDRUNetの組み合わせである。
トレーニングされていないネットワークは、ラベル付きデータを必要とせずに、各入力画像のユニークなノイズ特性に適応する。
トレーニング済みのネットワークは、大規模なデータセットから学んだ表現を活用して、堅牢なノイズ付けパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 2.8933605229876656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional denoising methods for noise removal have largely relied on handcrafted priors, often perform well in controlled environments but struggle to address the complexity and variability of real noise. In contrast, deep learning-based approaches have gained prominence for learning noise characteristics from large datasets, but these methods frequently require extensive labeled data and may not generalize effectively across diverse noise types and imaging conditions. In this paper, we present an innovative method, termed as Net2Net, that combines the strengths of untrained and pre-trained networks to tackle the challenges of real-world noise removal. The innovation of Net2Net lies in its combination of unsupervised DIP and supervised pre-trained model DRUNet by regularization by denoising (RED). The untrained network adapts to the unique noise characteristics of each input image without requiring labeled data, while the pre-trained network leverages learned representations from large-scale datasets to deliver robust denoising performance. This hybrid framework enhances generalization across varying noise patterns and improves performance, particularly in scenarios with limited training data. Extensive experiments on benchmark datasets demonstrate the superiority of our method for real-world noise removal.
- Abstract(参考訳): 従来のノイズ除去法は手作りの先行手法に大きく依存しており、制御された環境ではよく機能するが、実際のノイズの複雑さと変動性に対処するのに苦労している。
対照的に、深層学習に基づくアプローチは、大規模なデータセットからノイズ特性を学習するために人気を得てきたが、これらの手法は広範囲のラベル付きデータを必要とすることが多く、様々なノイズタイプや撮像条件で効果的に一般化できない可能性がある。
本稿では,未学習ネットワークと事前学習ネットワークの強みを組み合わせて,実環境におけるノイズ除去の課題に対処する,Net2Netと呼ばれる革新的な手法を提案する。
Net2Netのイノベーションは、教師なしのDIPと教師付き事前訓練されたモデルDRUNetの組み合わせによる正規化(RED)にある。
未学習のネットワークはラベル付きデータを必要とせずに各入力画像のユニークなノイズ特性に適応し、事前学習されたネットワークは大規模データセットから学習した表現を活用して、堅牢な雑音発生性能を提供する。
このハイブリッドフレームワークは、様々なノイズパターンをまたいだ一般化を強化し、特に限られたトレーニングデータを持つシナリオでパフォーマンスを向上させる。
ベンチマークデータセットの大規模な実験は、実世界のノイズ除去のための手法の優位性を実証している。
関連論文リスト
- Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Learning from Noise: Enhancing DNNs for Event-Based Vision through Controlled Noise Injection [0.0]
イベントデータは、しばしばかなりのノイズに悩まされ、ディープラーニングモデルの性能と堅牢性に悪影響を及ぼす。
本研究では,各種事象雑音に対するロバスト性を高めるために,新しいノイズ注入訓練手法を提案する。
提案手法では,制御ノイズを直接トレーニングデータに導入し,モデルによるノイズ耐性表現の学習を可能にする。
論文 参考訳(メタデータ) (2025-06-04T13:10:26Z) - Self-Calibrated Variance-Stabilizing Transformations for Real-World Image Denoising [19.08732222562782]
教師付き深層学習が画像認知のための選択方法となっている。
一般の信条とは対照的に,ガウスノイズ除去に特化するネットワークを有効活用し,実世界の画像復調に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-24T16:23:46Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Transfer learning for self-supervised, blind-spot seismic denoising [0.0]
本研究では、関心のフィールドデータセットに自己教師付きで微調整を行う前に、フリグリ生成された合成データセット上でネットワークを初期的に教師付きで訓練することを提案する。
ピーク信号-雑音比の変化やノイズの低減,信号漏れの観測などを考慮すると,教師付きベーストレーニングによる重み付けによる自己教師ネットワークの初期化のメリットは明らかである。
論文 参考訳(メタデータ) (2022-09-25T12:58:10Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。