論文の概要: Prompting Lipschitz-constrained network for multiple-in-one sparse-view CT reconstruction
- arxiv url: http://arxiv.org/abs/2511.20296v1
- Date: Tue, 25 Nov 2025 13:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.47877
- Title: Prompting Lipschitz-constrained network for multiple-in-one sparse-view CT reconstruction
- Title(参考訳): マルチ・イン・ワン・スパース・ビューCT再構成のためのプロンプティング・リプシッツ拘束ネットワーク
- Authors: Baoshun Shi, Ke Jiang, Qiusheng Lian, Xinran Yu, Huazhu Fu,
- Abstract要約: LipNet はスパース・ビュー・コンピュート・トモグラフィ (SVCT) 再構成のための明示的なLipschitz-Constrained Network である。
PromptCTは、LipNetを以前のネットワークとして組み込んで、対応する反復アルゴリズムの収束を保証する。
シミュレーションおよび実データ実験において、PromptCTは、マルチインワンSVCT再構成におけるベンチマーク再構成アルゴリズムよりも優れている。
- 参考スコア(独自算出の注目度): 45.79102868220688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant advancements in deep learning-based sparse-view computed tomography (SVCT) reconstruction algorithms, these methods still encounter two primary limitations: (i) It is challenging to explicitly prove that the prior networks of deep unfolding algorithms satisfy Lipschitz constraints due to their empirically designed nature. (ii) The substantial storage costs of training a separate model for each setting in the case of multiple views hinder practical clinical applications. To address these issues, we elaborate an explicitly provable Lipschitz-constrained network, dubbed LipNet, and integrate an explicit prompt module to provide discriminative knowledge of different sparse sampling settings, enabling the treatment of multiple sparse view configurations within a single model. Furthermore, we develop a storage-saving deep unfolding framework for multiple-in-one SVCT reconstruction, termed PromptCT, which embeds LipNet as its prior network to ensure the convergence of its corresponding iterative algorithm. In simulated and real data experiments, PromptCT outperforms benchmark reconstruction algorithms in multiple-in-one SVCT reconstruction, achieving higher-quality reconstructions with lower storage costs. On the theoretical side, we explicitly demonstrate that LipNet satisfies boundary property, further proving its Lipschitz continuity and subsequently analyzing the convergence of the proposed iterative algorithms. The data and code are publicly available at https://github.com/shibaoshun/PromptCT.
- Abstract(参考訳): 深層学習に基づくスパース・ビュー・コンピュート・トモグラフィー(SVCT)再構成アルゴリズムの進歩にもかかわらず、これらの手法には2つの主要な制限がある。
一 深い展開アルゴリズムの先行ネットワークが、経験的に設計された性質のため、リプシッツの制約を満たすことを明示的に証明することは困難である。
(2)複数の視点で個別のモデルを訓練する際の実質的な記憶コストが臨床応用に支障をきたす。
これらの問題に対処するために、LipNetと呼ばれる明示的な証明可能なLipschitz制約付きネットワークを詳述し、明示的なプロンプトモジュールを統合して、異なるスパースサンプリング設定の識別的知識を提供し、単一のモデル内で複数のスパースビュー設定を処理できるようにする。
さらに,複数インワンSVCT再構成のためのストレージ・セーブ・ディープ・アンフォールディング・フレームワークであるPromptCTを開発し,それに対応する反復アルゴリズムの収束を保証するために,LipNetを先行ネットワークとして組み込んだ。
シミュレーションおよび実データ実験において、PromptCTは、複数対1のSVCT再構成においてベンチマーク再構成アルゴリズムより優れ、ストレージコストの低い高品質な再構築を実現する。
理論面では、LipNetが境界性を満たすことを明確に示し、Lipschitzの連続性をさらに証明し、提案した反復アルゴリズムの収束性を分析する。
データとコードはhttps://github.com/shibaoshun/PromptCTで公開されている。
関連論文リスト
- ECLipsE-Gen-Local: Efficient Compositional Local Lipschitz Estimates for Deep Neural Networks [4.752559512511423]
リプシッツ定数は、摂動を入力するためのニューラルネットワークの堅牢性を証明するための鍵となる尺度である。
リプシッツ定数を推定する標準的な手法は、ネットワークサイズに劣る大きな行列半定プログラム(SDP)を解くことである。
本稿では,ディープフィードフォワードニューラルネットワークに対するタイトでスケーラブルなリプシッツ推定を行う合成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-06T18:26:46Z) - Central Limit Theorem for Bayesian Neural Network trained with Variational Inference [0.32985979395737786]
我々は,無限幅のベイズ型2層ニューラルネットワークに対する中央極限定理(CLT)を導出し,回帰タスクの変分推論により学習する。
CLT を導出することにより、理想化されたベイズ・バイ・バックプロップスキームは、ミニマル VI と異なる、同様のゆらぎ挙動を持つことを示す。
論文 参考訳(メタデータ) (2024-06-10T11:05:48Z) - ECLipsE: Efficient Compositional Lipschitz Constant Estimation for Deep Neural Networks [0.8993153817914281]
リプシッツ定数は、入力摂動に対するニューラルネットワークの堅牢性を証明する上で重要な役割を果たす。
リプシッツ定数の厳密な上界を得る努力がなされている。
ディープフィードフォワードニューラルネットワークに対するリプシッツ定数を推定するための構成的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-05T19:36:26Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Certifying Incremental Quadratic Constraints for Neural Networks via
Convex Optimization [2.388501293246858]
我々は,関心領域上のニューラルネットワークのマップ上で漸進的二次的制約を証明するための凸プログラムを提案する。
証明書は、(ローカル)Lipschitz連続性、片側Lipschitz連続性、反転性、および収縮などのいくつかの有用な特性をキャプチャできます。
論文 参考訳(メタデータ) (2020-12-10T21:15:00Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - Compressive MRI quantification using convex spatiotemporal priors and
deep auto-encoders [2.5060548079588516]
マルチパラメトリック画像計算のための辞書不要パイプラインを提案する。
提案手法は,圧縮型センシング再構成と定量的推論の2段階からなる。
論文 参考訳(メタデータ) (2020-01-23T17:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。