論文の概要: Conditioning Generative Latent Optimization to solve Imaging Inverse
Problems
- arxiv url: http://arxiv.org/abs/2307.16670v1
- Date: Mon, 31 Jul 2023 13:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 14:20:56.596343
- Title: Conditioning Generative Latent Optimization to solve Imaging Inverse
Problems
- Title(参考訳): 画像逆問題に対するコンディショニング生成潜時最適化
- Authors: Thomas Braure, K\'evin Ginsburger
- Abstract要約: ディープラーニングアプローチは、大規模な教師付きデータセットの恩恵を受け、実験的な測定結果を医療スキャンにマッピングする。
完全に教師なしのテクニック、特にスコアベースの生成モデルの使用は、最近、類似またはより良いパフォーマンスを実証している。
生成遅延最適化フレームワークに対する教師なし条件付きアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed Tomography (CT) is a prominent example of Imaging Inverse Problem
(IIP), highlighting the unrivalled performances of data-driven methods in
degraded measurements setups like sparse X-ray projections. Although a
significant proportion of deep learning approaches benefit from large
supervised datasets to directly map experimental measurements to medical scans,
they cannot generalize to unknown acquisition setups. In contrast, fully
unsupervised techniques, most notably using score-based generative models, have
recently demonstrated similar or better performances compared to supervised
approaches to solve IIPs while being flexible at test time regarding the
imaging setup. However, their use cases are limited by two factors: (a) they
need considerable amounts of training data to have good generalization
properties and (b) they require a backward operator, like
Filtered-Back-Projection in the case of CT, to condition the learned prior
distribution of medical scans to experimental measurements. To overcome these
issues, we propose an unsupervised conditional approach to the Generative
Latent Optimization framework (cGLO), in which the parameters of a decoder
network are initialized on an unsupervised dataset. The decoder is then used
for reconstruction purposes, by performing Generative Latent Optimization with
a loss function directly comparing simulated measurements from proposed
reconstructions to experimental measurements. The resulting approach, tested on
sparse-view CT using multiple training dataset sizes, demonstrates better
reconstruction quality compared to state-of-the-art score-based strategies in
most data regimes and shows an increasing performance advantage for smaller
training datasets and reduced projection angles. Furthermore, cGLO does not
require any backward operator and could expand use cases even to non-linear
IIPs.
- Abstract(参考訳): CT(Computed Tomography)はイメージング逆問題(IIP)の顕著な例であり、スパースX線プロジェクションのような劣化した測定設定におけるデータ駆動手法の非分散性能を強調している。
ディープラーニングアプローチのかなりの割合は、実験的な測定結果を医療スキャンに直接マッピングする大規模な教師付きデータセットの恩恵を受けているが、未知の取得設定に一般化することはできない。
対照的に、特にスコアベースの生成モデルを用いた完全に教師なしのテクニックは、画像設定に関するテスト時に柔軟でありながらiipsを解決する教師付きアプローチと比較して、最近、類似またはより良い性能を示している。
しかし、ユースケースは2つの要因に制限されている。
(a)優れた一般化特性を持つためには、かなりの量のトレーニングデータが必要である。
(b)CTの場合のフィルタバックプロジェクションのような後方演算子が必要であり、医学スキャンの学習前の分布を実験的な測定に適応させる。
これらの問題を克服するために,デコーダネットワークのパラメータを教師なしデータセット上で初期化する生成的潜在最適化フレームワーク (cglo) に対する教師なし条件付きアプローチを提案する。
次に、デコーダは、提案された再構成から実験的な測定へのシミュレーション測定を直接比較する損失関数による生成的潜在最適化を行うことで、再構成目的に使用される。
結果として得られたアプローチは、複数のトレーニングデータセットサイズを使用してスパースビューctでテストされ、ほとんどのデータレジームで最先端のスコアベース戦略よりも優れた再構成品質を示し、より小さなトレーニングデータセットのパフォーマンスアドバンテージと投影角の低下を示している。
さらに、cGLOは後方演算子を必要としないため、ユースケースを非線形IPにも拡張することができる。
関連論文リスト
- Unsupervised Self-Prior Embedding Neural Representation for Iterative Sparse-View CT Reconstruction [8.291709892315993]
本稿では,Sparse-view Computed Tomography (SVCT) 逆問題に対する自己優先型埋め込み型ニューラル表現(Spener)を提案する。
各イテレーションにおいて、Spenerは前のイテレーションからローカルイメージ前の機能を抽出し、ソリューション空間を制約するためにそれらを埋め込む。
複数のCTデータセットを用いた実験結果から,非教師付きSpener法はドメイン内データに対する教師付き最先端(SOTA)法に匹敵する性能を達成できた。
論文 参考訳(メタデータ) (2025-02-08T04:36:00Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。