論文の概要: Towards Architecture-Agnostic Untrained Network Priors for Image Reconstruction with Frequency Regularization
- arxiv url: http://arxiv.org/abs/2312.09988v2
- Date: Wed, 20 Mar 2024 16:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 21:58:15.403924
- Title: Towards Architecture-Agnostic Untrained Network Priors for Image Reconstruction with Frequency Regularization
- Title(参考訳): 周波数規則化による画像再構成のためのアーキテクチャ非依存ネットワーク優先
- Authors: Yilin Liu, Yunkui Pang, Jiang Li, Yong Chen, Pew-Thian Yap,
- Abstract要約: ディープイメージにインスパイアされた未学習のネットワークは、ノイズや部分的な測定から高品質なイメージを復元する有望な能力を示している。
本稿では,ネットワーク事前のより直接的な周波数制御のための,効率的かつアーキテクチャに依存しない手法を提案する。
正規化ネットワークの先行性は、MRIの再構成や画像の塗り替え作業における、現在の教師付きおよび自己監督的手法と好意的に比較される。
- 参考スコア(独自算出の注目度): 14.73423587548693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Untrained networks inspired by deep image prior have shown promising capabilities in recovering a high-quality image from noisy or partial measurements, without requiring training data. Their success has been widely attributed to the spectral bias acting as an implicit regularization induced by suitable network architectures. However, applications of such network-based priors often entail superfluous architectural decisions, overfitting risks, and slow optimization, all of which hinder their practicality. In this work, we propose efficient, architecture-agnostic methods for a more direct frequency control over the network priors: 1) constraining the bandwidth of the white-noise input, 2) controlling the bandwidth of the interpolation-based upsamplers, and 3) regularizing the Lipschitz constants of the layers. We show that even with just one extra line of code, the overfitting issues in underperforming architectures can be alleviated such that their performance gaps with the high-performing counterparts can be largely closed despite their distinct configurations, mitigating the need for architecture tuning. This then makes it possible to employ a more compact model to achieve similar or superior performance to larger models with greater efficiency. Our regularized network priors compare favorably with current supervised and self-supervised methods on MRI reconstruction and image inpainting tasks, serving as a stronger zero-shot baseline reconstructor. Our code will be made publicly available.
- Abstract(参考訳): ディープイメージにインスパイアされた未学習のネットワークは、トレーニングデータを必要とせず、ノイズや部分的な測定から高品質なイメージを復元する有望な能力を示している。
彼らの成功は、適切なネットワークアーキテクチャによって引き起こされる暗黙の正則化として働くスペクトルバイアスに大きく影響されている。
しかし、そのようなネットワークベースの事前の応用は、しばしば過剰なアーキテクチャ上の決定、過度に適合するリスク、そして遅い最適化を伴い、それらすべてが実用性を妨げている。
本研究では,より直接周波数制御を行うための効率的なアーキテクチャに依存しない手法を提案する。
1)ホワイトノイズ入力の帯域幅を制限すること。
2【補間型アップサンプラーの帯域幅の制御】
3) 層のリプシッツ定数の正則化。
たった1行の余分なコードであっても、パフォーマンスの低いアーキテクチャにおける過度な問題は軽減され、パフォーマンスの高いアーキテクチャとパフォーマンスのギャップは、異なる構成にもかかわらず、ほとんど閉じられ、アーキテクチャチューニングの必要性を軽減できることが示されています。
これにより、よりコンパクトなモデルを使用して、より効率のよい大型モデルと類似または優れた性能を実現することができる。
当社の正規化ネットワークプリエントは,MRI再建および画像インパイン化作業における現在の教師付きおよび自己監督的手法と好意的に比較し,より強力なゼロショットベースラインコンストラクタとして機能する。
私たちのコードは公開されます。
関連論文リスト
- Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Residual Multiplicative Filter Networks for Multiscale Reconstruction [24.962697695403037]
我々は,学習した再構成の周波数サポートをきめ細かな制御で粗大な最適化を可能にする,新しい座標ネットワークアーキテクチャとトレーニング手法を提案する。
これらの修正によって、自然画像への粗大なフィッティングのマルチスケール最適化が実現されることを示す。
次に, 単粒子Creo-EM再構成問題に対する合成データセットのモデル評価を行った。
論文 参考訳(メタデータ) (2022-06-01T20:16:28Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - Impact of Aliasing on Generalization in Deep Convolutional Networks [29.41652467340308]
深層畳み込みネットワークの一般化におけるエイリアスの影響について検討する。
キー位置で非トレーニング可能な低域通過フィルタを挿入することでエイリアスを緩和する方法を示す。
論文 参考訳(メタデータ) (2021-08-07T17:12:03Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。