論文の概要: Towards Architecture-Insensitive Untrained Network Priors for
Accelerated MRI Reconstruction
- arxiv url: http://arxiv.org/abs/2312.09988v1
- Date: Fri, 15 Dec 2023 18:01:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 14:43:57.633034
- Title: Towards Architecture-Insensitive Untrained Network Priors for
Accelerated MRI Reconstruction
- Title(参考訳): 高速化mri再構成のためのアーキテクチャ非感受性非トレーニングネットワークプリエントに向けて
- Authors: Yilin Liu, Yunkui Pang, Jiang Li, Yong Chen, Pew-Thian Yap
- Abstract要約: 未トレーニングのニューラルネットワークは、トレーニングのために完全にサンプリングされた測定を必要とせずに、MRIの再構築を可能にした。
特定のアーキテクチャコンポーネントは、パラメータの数に関係なく過度に適合する傾向にあることを観察する。
本稿では,ホワイトノイズ入力の周波数範囲を制約する手法と,ネットワークのリプシッツ定数をペナルティ化する手法を提案する。
- 参考スコア(独自算出の注目度): 15.807565345970351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Untrained neural networks pioneered by Deep Image Prior (DIP) have recently
enabled MRI reconstruction without requiring fully-sampled measurements for
training. Their success is widely attributed to the implicit regularization
induced by suitable network architectures. However, the lack of understanding
of such architectural priors results in superfluous design choices and
sub-optimal outcomes. This work aims to simplify the architectural design
decisions for DIP-MRI to facilitate its practical deployment. We observe that
certain architectural components are more prone to causing overfitting
regardless of the number of parameters, incurring severe reconstruction
artifacts by hindering accurate extrapolation on the un-acquired measurements.
We interpret this phenomenon from a frequency perspective and find that the
architectural characteristics favoring low frequencies, i.e., deep and narrow
with unlearnt upsampling, can lead to enhanced generalization and hence better
reconstruction. Building on this insight, we propose two architecture-agnostic
remedies: one to constrain the frequency range of the white-noise input and the
other to penalize the Lipschitz constants of the network. We demonstrate that
even with just one extra line of code on the input, the performance gap between
the ill-designed models and the high-performing ones can be closed. These
results signify that for the first time, architectural biases on untrained MRI
reconstruction can be mitigated without architectural modifications.
- Abstract(参考訳): Deep Image Prior (DIP)によって先駆けられた未訓練ニューラルネットワークは、トレーニングのために完全なサンプル計測を必要としないMRI再構成を可能にした。
その成功は、適切なネットワークアーキテクチャによって引き起こされる暗黙の正規化によって広く引き起こされる。
しかし、そのようなアーキテクチャの事前理解の欠如は、過剰な設計選択と準最適結果をもたらす。
本研究の目的は,DIP-MRIのアーキテクチャ設計決定を簡略化し,実用的展開を容易にすることである。
パラメータ数にかかわらず、特定のアーキテクチャコンポーネントが過剰フィッティングを起こしやすいこと、未取得の測定値の正確な外挿を阻害することにより、重大な再構築アーティファクトを発生させることが観察される。
我々は、この現象を周波数の観点から解釈し、低周波を好む建築的特徴、すなわち、理解不能なアップサンプリングを伴う深い狭義の建築的特徴が、一般化とより優れた再構築につながることを見出した。
この知見に基づいて,ホワイトノイズ入力の周波数範囲を制約する手法と,ネットワークのリプシッツ定数をペナライズする手法の2つを提案する。
入力に1行の余分なコードがある場合でも、不設計のモデルとハイパフォーマンスなモデルのパフォーマンスギャップは閉じることができることを実証する。
これらの結果は、非トレーニングMRI再構成におけるアーキテクチャバイアスを、アーキテクチャ修正なしで緩和できることを初めて示す。
関連論文リスト
- Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Residual Multiplicative Filter Networks for Multiscale Reconstruction [24.962697695403037]
我々は,学習した再構成の周波数サポートをきめ細かな制御で粗大な最適化を可能にする,新しい座標ネットワークアーキテクチャとトレーニング手法を提案する。
これらの修正によって、自然画像への粗大なフィッティングのマルチスケール最適化が実現されることを示す。
次に, 単粒子Creo-EM再構成問題に対する合成データセットのモデル評価を行った。
論文 参考訳(メタデータ) (2022-06-01T20:16:28Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - Impact of Aliasing on Generalization in Deep Convolutional Networks [29.41652467340308]
深層畳み込みネットワークの一般化におけるエイリアスの影響について検討する。
キー位置で非トレーニング可能な低域通過フィルタを挿入することでエイリアスを緩和する方法を示す。
論文 参考訳(メタデータ) (2021-08-07T17:12:03Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。