論文の概要: Conditioning Generative Latent Optimization for Sparse-View CT Image Reconstruction
- arxiv url: http://arxiv.org/abs/2307.16670v3
- Date: Tue, 30 Apr 2024 13:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 19:57:27.327182
- Title: Conditioning Generative Latent Optimization for Sparse-View CT Image Reconstruction
- Title(参考訳): スパースビューCT画像再構成のための条件生成遅延最適化
- Authors: Thomas Braure, Delphine Lazaro, David Hateau, Vincent Brandon, Kévin Ginsburger,
- Abstract要約: 生成潜在最適化フレームワーク(cGLO)に対する教師なし条件付きアプローチを提案する。
この手法は、複数のトレーニングデータセットサイズと様々な視角を用いて、フルドーズスパース・ビューCTでテストされる。
- 参考スコア(独自算出の注目度): 0.5497663232622965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed Tomography (CT) is a prominent example of Imaging Inverse Problem highlighting the unrivaled performances of data-driven methods in degraded measurements setups like sparse X-ray projections. Although a significant proportion of deep learning approaches benefit from large supervised datasets, they cannot generalize to new experimental setups. In contrast, fully unsupervised techniques, most notably using score-based generative models, have recently demonstrated similar or better performances compared to supervised approaches while being flexible at test time. However, their use cases are limited as they need considerable amounts of training data to have good generalization properties. Another unsupervised approach taking advantage of the implicit natural bias of deep convolutional networks, Deep Image Prior, has recently been adapted to solve sparse CT by reparameterizing the reconstruction problem. Although this methodology does not require any training dataset, it enforces a weaker prior on the reconstructions when compared to data-driven methods. To fill the gap between these two strategies, we propose an unsupervised conditional approach to the Generative Latent Optimization framework (cGLO). Similarly to DIP, without any training dataset, cGLO benefits from the structural bias of a decoder network. However, the prior is further reinforced as the effect of a likelihood objective shared between multiple slices being reconstructed simultaneously through the same decoder network. In addition, the parameters of the decoder may be initialized on an unsupervised, and eventually very small, training dataset to enhance the reconstruction. The resulting approach is tested on full-dose sparse-view CT using multiple training dataset sizes and varying numbers of viewing angles.
- Abstract(参考訳): CT(Computerd Tomography)は、スパースX線投影のような劣化測定装置におけるデータ駆動手法の非侵襲的な性能を強調したイメージング逆問題の一例である。
ディープラーニングアプローチのかなりの割合は、大規模な教師付きデータセットの恩恵を受けているが、それらは新しい実験的な設定に一般化することはできない。
対照的に、完全に教師なしのテクニック、特にスコアベースの生成モデルの使用は、最近、教師付きアプローチと同じような、あるいはより良いパフォーマンスを示し、テスト時には柔軟である。
しかし、それらのユースケースは、優れた一般化特性を持つためにかなりの量のトレーニングデータを必要とするため、制限されている。
深層畳み込みネットワークの暗黙の自然バイアスを利用した別の教師なしアプローチであるDeep Image Priorは、最近、再構成問題を再パラメータ化してスパースCTの解決に適応した。
この手法ではトレーニングデータセットは必要としないが、データ駆動の手法と比較して再構築に先立って弱体化している。
これら2つの戦略のギャップを埋めるために、生成潜在最適化フレームワーク(cGLO)に対する教師なし条件付きアプローチを提案する。
DIPと同様に、トレーニングデータセットなしでは、cGLOはデコーダネットワークの構造バイアスの恩恵を受ける。
しかし、同じデコーダネットワークを介して同時に再構成される複数のスライス間で共有される可能性目標の効果により、前者がさらに強化される。
さらに、デコーダのパラメータは、教師なし、そして最終的には非常に小さなトレーニングデータセットで初期化され、再構成を強化することができる。
得られたアプローチは、複数のトレーニングデータセットサイズと様々な視角を用いて、フルドーズスパースCTで検証される。
関連論文リスト
- Unsupervised Self-Prior Embedding Neural Representation for Iterative Sparse-View CT Reconstruction [8.291709892315993]
本稿では,Sparse-view Computed Tomography (SVCT) 逆問題に対する自己優先型埋め込み型ニューラル表現(Spener)を提案する。
各イテレーションにおいて、Spenerは前のイテレーションからローカルイメージ前の機能を抽出し、ソリューション空間を制約するためにそれらを埋め込む。
複数のCTデータセットを用いた実験結果から,非教師付きSpener法はドメイン内データに対する教師付き最先端(SOTA)法に匹敵する性能を達成できた。
論文 参考訳(メタデータ) (2025-02-08T04:36:00Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。