論文の概要: Robust Cross-domain CT Image Reconstruction via Bayesian Noise
Uncertainty Alignment
- arxiv url: http://arxiv.org/abs/2302.13251v1
- Date: Sun, 26 Feb 2023 07:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:14:12.125291
- Title: Robust Cross-domain CT Image Reconstruction via Bayesian Noise
Uncertainty Alignment
- Title(参考訳): ベイジアンノイズ不確実性アライメントによるロバストクロスドメインCT画像再構成
- Authors: Kecheng Chen, Haoliang Li, Renjie Wan and Hong Yan
- Abstract要約: クロスドメインシナリオ下でのCT再構成問題に対処する。
スキャン領域と対応するスキャンプロトコルのミスマッチのため、通常、ソースドメインとターゲットドメインのノイズ分布の違いがある。
- 参考スコア(独自算出の注目度): 30.998959069508604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle the problem of robust computed tomography (CT)
reconstruction issue under a cross-domain scenario, i.e., the training CT data
as the source domain and the testing CT data as the target domain are collected
from different anatomical regions. Due to the mismatches of the scan region and
corresponding scan protocols, there is usually a difference of noise
distributions between source and target domains (a.k.a. noise distribution
shifts), resulting in a catastrophic deterioration of the reconstruction
performance on target domain. To render a robust cross-domain CT reconstruction
performance, instead of using deterministic models (e.g., convolutional neural
network), a Bayesian-endowed probabilistic framework is introduced into robust
cross-domain CT reconstruction task due to its impressive robustness. Under
this probabilistic framework, we propose to alleviate the noise distribution
shifts between source and target domains via implicit noise modeling schemes in
the latent space and image space, respectively. Specifically, a novel Bayesian
noise uncertainty alignment (BNUA) method is proposed to conduct implicit noise
distribution modeling and alignment in the latent space. Moreover, an
adversarial learning manner is imposed to reduce the discrepancy of noise
distribution between two domains in the image space via a novel residual
distribution alignment (RDA). Extensive experiments on the head and abdomen
scans show that our proposed method can achieve a better performance of robust
cross-domain CT reconstruction than existing approaches in terms of both
quantitative and qualitative results.
- Abstract(参考訳): そこで本研究では, 対象領域としての訓練CTデータと, 対象領域としての試験CTデータを, 解剖学的領域から収集する, クロスドメインシナリオ下でのCT再構成問題に対処する。
スキャン領域と対応するスキャンプロトコルのミスマッチのため、通常、ソース領域とターゲット領域の間のノイズ分布の差(すなわちノイズ分布シフト)があり、結果として、ターゲット領域での再構成性能が壊滅的に低下する。
決定論的モデル(畳み込みニューラルネットワークなど)を使用する代わりに、ロバストなクロスドメインct再構成処理にベイズ型確率フレームワークを導入することにより、ロバストなクロスドメインct再構成処理を実現する。
この確率的枠組みでは,各領域の音源と対象領域間の雑音分布変化を,潜時空間と画像空間の暗黙ノイズモデリングスキームを用いて緩和することを提案する。
具体的には, 潜在空間における暗黙的雑音分布モデリングとアライメントを行うために, 新たなベイズ雑音不確かさアライメント法(bnua)を提案する。
また、新たな残差分布アライメント(rda)により画像空間内の2つの領域間のノイズ分布のばらつきを低減するために、逆学習方法が課される。
頭部および腹部の広範囲なスキャン実験により,提案手法は定量的および質的評価の両面で既存の手法よりもロバストなクロスドメインct再構成を実現できることを示した。
関連論文リスト
- Mitigating Data Consistency Induced Discrepancy in Cascaded Diffusion Models for Sparse-view CT Reconstruction [4.227116189483428]
本研究は, 離散性緩和フレームワークを用いた新規なカスケード拡散について紹介する。
潜在空間の低画質画像生成と画素空間の高画質画像生成を含む。
これは、いくつかの推論ステップをピクセル空間から潜在空間に移すことによって計算コストを最小化する。
論文 参考訳(メタデータ) (2024-03-14T12:58:28Z) - Low-resolution Prior Equilibrium Network for CT Reconstruction [3.5639148953570836]
本稿では,低分解能画像を導入し,ネットワークの堅牢性を改善するための効果的な正規化項を得る,新しいディープラーニングベースのCT再構成モデルを提案する。
狭角化と狭角化の両問題を実験的に検討し, ノイズ低減, コントラスト・ツー・ノイズ比, エッジ細部保存の両面において, エンド・ツー・エンドの低分解能事前平衡モデルが他の最先端手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-01-28T13:59:58Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - UNIQA: A Unified Framework for Both Full-Reference and No-Reference
Image Quality Assessment [53.895598734070695]
完全参照(FR)と非参照(NR)のIQAのための統一ネットワークを提案する。
入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層自己認識(HSA)モジュールを提案する。
HSA と CSCA を採用することにより,提案ネットワークは FR と NR IQA の両方を効果的に実行することができる。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Region of Interest focused MRI to Synthetic CT Translation using
Regression and Classification Multi-task Network [2.8023171492652508]
画像の構造的,定量的な精度を目的としたゼロエコタイム(ZTE)MRIからの合成CT(sCT)生成法を提案する。
画像中の空間的にスパースな領域を選好する損失関数を提案する。
本稿では,RoIに着目したマルチタスクネットワークが,ネットワークの他の構成よりも優れた性能を実現する方法を示す。
論文 参考訳(メタデータ) (2022-03-30T13:29:03Z) - Few Shot Generative Model Adaption via Relaxed Spatial Structural
Alignment [130.84010267004803]
限られたデータでGAN(Generative Adversarial Network)を訓練することは難しい課題である。
実現可能な解決策は、大規模なソースドメインで十分に訓練されたGANから始め、ターゲットドメインにいくつかのサンプルで適応することである。
本研究では,適応時の対象生成モデルのキャリブレーションを行うための緩和された空間構造アライメント手法を提案する。
論文 参考訳(メタデータ) (2022-03-06T14:26:25Z) - Low-Dose CT Denoising Using a Structure-Preserving Kernel Prediction
Network [10.09577595969254]
CNNに基づくアプローチは、CT画像のすべての領域を等しく扱い、不均一に分布するノイズと共存する微細な構造が共存する場合、非効率である。
本稿では,カーネル予測ネットワークと構造認識損失関数を組み合わせた構造保存カーネル予測ネットワーク(StructKPN)を提案する。
提案手法は, 合成データセットと非合成データセットの両方において優れた性能を達成し, 臨床スクリーニングや低線量プロトコル最適化において望まれる構造を良好に保存する。
論文 参考訳(メタデータ) (2021-05-31T07:42:21Z) - Cross-domain Adaptation with Discrepancy Minimization for
Text-independent Forensic Speaker Verification [61.54074498090374]
本研究では,複数の音響環境下で収集したCRSS-Forensicsオーディオデータセットを紹介する。
我々は、VoxCelebデータを用いてCNNベースのネットワークを事前訓練し、次に、CRSS-Forensicsのクリーンな音声で高レベルのネットワーク層の一部を微調整するアプローチを示す。
論文 参考訳(メタデータ) (2020-09-05T02:54:33Z) - Residual-driven Fuzzy C-Means Clustering for Image Segmentation [152.609322951917]
画像分割のための残留駆動型ファジィC平均(FCM)について詳述する。
この枠組みに基づいて,混合雑音分布の重み付けによる重み付き$ell_2$-norm忠実度項を示す。
その結果、既存のFCM関連アルゴリズムよりも提案アルゴリズムの有効性と効率が優れていることが示された。
論文 参考訳(メタデータ) (2020-04-15T15:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。