論文の概要: Conditioning Generative Latent Optimization for Sparse-View CT Image Reconstruction
- arxiv url: http://arxiv.org/abs/2307.16670v3
- Date: Tue, 30 Apr 2024 13:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 19:57:27.327182
- Title: Conditioning Generative Latent Optimization for Sparse-View CT Image Reconstruction
- Title(参考訳): スパースビューCT画像再構成のための条件生成遅延最適化
- Authors: Thomas Braure, Delphine Lazaro, David Hateau, Vincent Brandon, Kévin Ginsburger,
- Abstract要約: 生成潜在最適化フレームワーク(cGLO)に対する教師なし条件付きアプローチを提案する。
この手法は、複数のトレーニングデータセットサイズと様々な視角を用いて、フルドーズスパース・ビューCTでテストされる。
- 参考スコア(独自算出の注目度): 0.5497663232622965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed Tomography (CT) is a prominent example of Imaging Inverse Problem highlighting the unrivaled performances of data-driven methods in degraded measurements setups like sparse X-ray projections. Although a significant proportion of deep learning approaches benefit from large supervised datasets, they cannot generalize to new experimental setups. In contrast, fully unsupervised techniques, most notably using score-based generative models, have recently demonstrated similar or better performances compared to supervised approaches while being flexible at test time. However, their use cases are limited as they need considerable amounts of training data to have good generalization properties. Another unsupervised approach taking advantage of the implicit natural bias of deep convolutional networks, Deep Image Prior, has recently been adapted to solve sparse CT by reparameterizing the reconstruction problem. Although this methodology does not require any training dataset, it enforces a weaker prior on the reconstructions when compared to data-driven methods. To fill the gap between these two strategies, we propose an unsupervised conditional approach to the Generative Latent Optimization framework (cGLO). Similarly to DIP, without any training dataset, cGLO benefits from the structural bias of a decoder network. However, the prior is further reinforced as the effect of a likelihood objective shared between multiple slices being reconstructed simultaneously through the same decoder network. In addition, the parameters of the decoder may be initialized on an unsupervised, and eventually very small, training dataset to enhance the reconstruction. The resulting approach is tested on full-dose sparse-view CT using multiple training dataset sizes and varying numbers of viewing angles.
- Abstract(参考訳): CT(Computerd Tomography)は、スパースX線投影のような劣化測定装置におけるデータ駆動手法の非侵襲的な性能を強調したイメージング逆問題の一例である。
ディープラーニングアプローチのかなりの割合は、大規模な教師付きデータセットの恩恵を受けているが、それらは新しい実験的な設定に一般化することはできない。
対照的に、完全に教師なしのテクニック、特にスコアベースの生成モデルの使用は、最近、教師付きアプローチと同じような、あるいはより良いパフォーマンスを示し、テスト時には柔軟である。
しかし、それらのユースケースは、優れた一般化特性を持つためにかなりの量のトレーニングデータを必要とするため、制限されている。
深層畳み込みネットワークの暗黙の自然バイアスを利用した別の教師なしアプローチであるDeep Image Priorは、最近、再構成問題を再パラメータ化してスパースCTの解決に適応した。
この手法ではトレーニングデータセットは必要としないが、データ駆動の手法と比較して再構築に先立って弱体化している。
これら2つの戦略のギャップを埋めるために、生成潜在最適化フレームワーク(cGLO)に対する教師なし条件付きアプローチを提案する。
DIPと同様に、トレーニングデータセットなしでは、cGLOはデコーダネットワークの構造バイアスの恩恵を受ける。
しかし、同じデコーダネットワークを介して同時に再構成される複数のスライス間で共有される可能性目標の効果により、前者がさらに強化される。
さらに、デコーダのパラメータは、教師なし、そして最終的には非常に小さなトレーニングデータセットで初期化され、再構成を強化することができる。
得られたアプローチは、複数のトレーニングデータセットサイズと様々な視角を用いて、フルドーズスパースCTで検証される。
関連論文リスト
- Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Semi-Supervised Wide-Angle Portraits Correction by Multi-Scale
Transformer [17.455782652441187]
広角画像補正のための半教師付きネットワークを提案する。
我々のネットワークはMulti-Scale Swin-Unet(MS-Unet)と呼ばれ、MSTB(Multi-scale Swin-Unet)上に構築されている。
論文 参考訳(メタデータ) (2021-09-14T09:40:25Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z) - Improving Robustness of Deep-Learning-Based Image Reconstruction [24.882806652224854]
逆問題解法では, 測定空間における敵の効果を分析し, 研究する必要がある。
本稿では,高機能な画像再構成ネットワークを構築するために,min-maxの定式化に使用される逆例を生成する補助ネットワークを提案する。
提案したmin-max学習方式を用いた線形ネットワークは,実際に同じ解に収束する。
論文 参考訳(メタデータ) (2020-02-26T22:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。