論文の概要: LAMA-Net: A Convergent Network Architecture for Dual-Domain Reconstruction
- arxiv url: http://arxiv.org/abs/2507.22316v1
- Date: Wed, 30 Jul 2025 01:16:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.916035
- Title: LAMA-Net: A Convergent Network Architecture for Dual-Domain Reconstruction
- Title(参考訳): LAMA-Net:デュアルドメイン再構築のための収束ネットワークアーキテクチャ
- Authors: Chi Ding, Qingchao Zhang, Ge Wang, Xiaojing Ye, Yunmei Chen,
- Abstract要約: 本稿では,画像再構成に画像領域と計測領域の両方から情報を活用する学習可能な変動モデルを提案する。
LAMAは、LAMA-Netと呼ばれる高度に解釈可能なニューラルネットワークアーキテクチャを直接解釈する。
- 参考スコア(独自算出の注目度): 4.573246328161056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a learnable variational model that learns the features and leverages complementary information from both image and measurement domains for image reconstruction. In particular, we introduce a learned alternating minimization algorithm (LAMA) from our prior work, which tackles two-block nonconvex and nonsmooth optimization problems by incorporating a residual learning architecture in a proximal alternating framework. In this work, our goal is to provide a complete and rigorous convergence proof of LAMA and show that all accumulation points of a specified subsequence of LAMA must be Clarke stationary points of the problem. LAMA directly yields a highly interpretable neural network architecture called LAMA-Net. Notably, in addition to the results shown in our prior work, we demonstrate that the convergence property of LAMA yields outstanding stability and robustness of LAMA-Net in this work. We also show that the performance of LAMA-Net can be further improved by integrating a properly designed network that generates suitable initials, which we call iLAMA-Net. To evaluate LAMA-Net/iLAMA-Net, we conduct several experiments and compare them with several state-of-the-art methods on popular benchmark datasets for Sparse-View Computed Tomography.
- Abstract(参考訳): 本稿では,特徴を学習し,画像再構成のための画像領域と計測領域の相補的な情報を利用する学習可能な変分モデルを提案する。
特に,2ブロックの非凸と非滑らかな最適化問題に対処し,残差学習アーキテクチャを近似交互化フレームワークに組み込む学習交互化アルゴリズム(LAMA)を導入する。
本研究の目的は、LAMAの完全かつ厳密な収束証明を提供することであり、LAMAの特定の部分列のすべての集積点が問題のクラーク定常点でなければならないことを示すことである。
LAMAは、LAMA-Netと呼ばれる高度に解釈可能なニューラルネットワークアーキテクチャを直接生成する。
特に,本研究で示された結果に加えて, LAMAの収束特性がLAMA-Netの顕著な安定性とロバスト性をもたらすことを示す。
また,iLAMA-Netと呼ぶ適切なイニシャルを生成するネットワークを適切に設計することで,LAMA-Netの性能をさらに向上させることができることを示す。
LAMA-Net/iLAMA-Netを評価するために,Sparse-View Computed Tomography のベンチマークデータセットを用いて,いくつかの実験を行った。
関連論文リスト
- MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - InvFussion: Bridging Supervised and Zero-shot Diffusion for Inverse Problems [76.39776789410088]
この研究は、教師付きアプローチの強いパフォーマンスとゼロショットメソッドの柔軟性を組み合わせたフレームワークを導入している。
新規なアーキテクチャ設計では、分解演算子を直接デノイザにシームレスに統合する。
FFHQとImageNetデータセットの実験結果は、最先端の後方サンプリング性能を示している。
論文 参考訳(メタデータ) (2025-04-02T12:40:57Z) - LAMA: Stable Dual-Domain Deep Reconstruction For Sparse-View CT [4.573246328161056]
我々は,2ブロック最適化による問題を解決するための学習交替最小化アルゴリズム (LAMA) を開発した。
LAMAはデータ領域と画像領域の両方で学習可能な正規化子を持つ変分モデルとして自然に誘導される。
LAMAは、ネットワークの複雑さ、メモリ効率、再構成精度、安定性、解釈可能性を低減する。
論文 参考訳(メタデータ) (2024-10-28T15:13:04Z) - A Library of Mirrors: Deep Neural Nets in Low Dimensions are Convex Lasso Models with Reflection Features [54.83898311047626]
2層から有限層まで線形に活性化するニューラルネットワークについて検討する。
まず, 分岐深さの離散辞書を用いたLassoモデルについて検討した。
論文 参考訳(メタデータ) (2024-03-02T00:33:45Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - LadleNet: A Two-Stage UNet for Infrared Image to Visible Image Translation Guided by Semantic Segmentation [5.125530969984795]
本稿では,LadleNetと呼ばれるU-netに基づく画像翻訳アルゴリズムを提案する。
LadleNet+は、LadleNetのHandleモジュールをトレーニング済みのDeepLabv3+ネットワークに置き換える。
従来の方法と比較して、LadleNetとLadleNet+は平均12.4%、SSIMは15.2%、MS-SSIMは37.9%、MS-SSIMは50.6%だった。
論文 参考訳(メタデータ) (2023-08-12T16:14:44Z) - Learned Alternating Minimization Algorithm for Dual-domain Sparse-View
CT Reconstruction [6.353014736326698]
デュアルドメインビューCT画像再構成のための新しい学習最小化アルゴリズム(LAMA)を提案する。
LAMAは信頼性の高い再構築のために確実に収束している。
論文 参考訳(メタデータ) (2023-06-05T07:29:18Z) - Perceiver-VL: Efficient Vision-and-Language Modeling with Iterative
Latent Attention [100.81495948184649]
本稿では,長いビデオやテキストなどの高次元マルチモーダル入力を効率的に処理する視覚・言語フレームワークPerceiver-VLを提案する。
我々のフレームワークは、多くの最先端のトランスフォーマーベースモデルで使用される自己注意の二次的な複雑さとは対照的に、線形複雑性でスケールする。
論文 参考訳(メタデータ) (2022-11-21T18:22:39Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。