論文の概要: U-DuDoNet: Unpaired dual-domain network for CT metal artifact reduction
- arxiv url: http://arxiv.org/abs/2103.04552v1
- Date: Mon, 8 Mar 2021 05:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:36:53.548121
- Title: U-DuDoNet: Unpaired dual-domain network for CT metal artifact reduction
- Title(参考訳): U-DuDoNet:CT金属アーティファクト削減のためのアンペア二重ドメインネットワーク
- Authors: Yuanyuan Lyu, Jiajun Fu, Cheng Peng, S. Kevin Zhou
- Abstract要約: 非ペア化データを用いた非ペア化デュアルドメインネットワーク(u-dudonet)を提案する。
アーティファクト・ディエンタングルメント・ネットワーク (ADN) とは異なり、U-DuDoNet は正弦波と画像領域の両方に付加することでアーティファクト生成プロセスをモデル化します。
私たちのデザインには、シングラムドメイン内の情報を復元するためのガイダンスを提供する自己学習シングラム事前ネットが含まれています。
- 参考スコア(独自算出の注目度): 12.158957925558296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, both supervised and unsupervised deep learning methods have been
widely applied on the CT metal artifact reduction (MAR) task. Supervised
methods such as Dual Domain Network (Du-DoNet) work well on simulation data;
however, their performance on clinical data is limited due to domain gap.
Unsupervised methods are more generalized, but do not eliminate artifacts
completely through the sole processing on the image domain. To combine the
advantages of both MAR methods, we propose an unpaired dual-domain network
(U-DuDoNet) trained using unpaired data. Unlike the artifact disentanglement
network (ADN) that utilizes multiple encoders and decoders for disentangling
content from artifact, our U-DuDoNet directly models the artifact generation
process through additions in both sinogram and image domains, which is
theoretically justified by an additive property associated with metal artifact.
Our design includes a self-learned sinogram prior net, which provides guidance
for restoring the information in the sinogram domain, and cyclic constraints
for artifact reduction and addition on unpaired data. Extensive experiments on
simulation data and clinical images demonstrate that our novel framework
outperforms the state-of-the-art unpaired approaches.
- Abstract(参考訳): 近年,CT金属アーチファクトリダクション(MAR)タスクにおいて,教師付き深層学習法と教師なし深層学習法が広く適用されている。
双対ドメインネットワーク(du-donet)のような教師あり手法はシミュレーションデータにうまく機能するが、領域間隙のため臨床データの性能は限られている。
教師なしメソッドはより一般化されているが、イメージドメインの唯一の処理によってアーティファクトを完全に排除することはない。
両MAR方式の利点を組み合わせるために,無対データを用いた無対のデュアルドメインネットワーク(U-DuDoNet)を提案する。
複数エンコーダとデコーダを併用したアーティファクト・ディコンタングルメント・ネットワーク(ADN)とは異なり,我々のU-DuDoNetは,メタルアーティファクトに付随する付加的特性によって理論的に正当化されるシングラムと画像ドメインの付加を通じて,アーティファクト生成プロセスを直接モデル化する。
本設計では,自己学習型sinogram prior netを用い,sinogramドメインの情報復元のためのガイダンスと,アーティファクトの削減と非ペアデータへの付加に関する循環制約を提供する。
シミュレーションデータと臨床画像に関する広範な実験は、私たちの新しいフレームワークが最先端の不対アプローチを上回っていることを示しています。
関連論文リスト
- Semantic-guided Adversarial Diffusion Model for Self-supervised Shadow Removal [5.083330121710086]
GANベースのトレーニングは、しばしばモード崩壊や不安定な最適化といった問題に直面している。
自己教師付きシャドウ除去のための意味誘導逆拡散フレームワークを提案する。
複数の公開データセットで実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-01T09:14:38Z) - Unsupervised CT Metal Artifact Reduction by Plugging Diffusion Priors in
Dual Domains [8.40564813751161]
金属インプラントはしばしばCT画像の破壊的なアーティファクトを引き起こし、正確な診断を妨げる。
金属加工品(MAR)を減らすための教師付き深層学習に基づくいくつかのアプローチが提案されている。
本稿では,データ分布を表す高容量な生成モデルである拡散モデルに基づく教師なしMAR手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T14:00:47Z) - FreeSeed: Frequency-band-aware and Self-guided Network for Sparse-view
CT Reconstruction [34.91517935951518]
スパース・ビュー・コンピュート・トモグラフィー(CT)は, 患者への放射線曝露を迅速化し, 患者への放射線照射を緩和するための, 有望な方法である。
近年,深層学習に基づく画像後処理手法が有望な成果を上げている。
本稿では,FREquency-band-awarEとSelf-guidedを併用したFREquency-band-awarEとSelf-guidedネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T03:39:54Z) - TriDoNet: A Triple Domain Model-driven Network for CT Metal Artifact
Reduction [7.959841510571622]
本稿では,TriDoNetと呼ばれる新しいトリプルドメインモデル駆動型CTMARネットワークを提案する。
本研究では,非局所的繰り返しストリーキングパターンを適応しきい値を持つ明示的きついフレームスパース表現モデルとして符号化する。
実験結果から,TriDoNetは優れたアーティファクト再現CT画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2022-11-14T08:28:57Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Learning MRI Artifact Removal With Unpaired Data [74.48301038665929]
振り返りアーティファクト補正(RAC)は、画像の質を向上し、画像のユーザビリティを向上させる。
最近のRACの機械学習駆動技術は、主に教師付き学習に基づいている。
ここでは、不要な画像アーティファクトを、未ペアデータで学習したRACニューラルネットワークを介して、画像から切り離し、取り除くことができることを示す。
論文 参考訳(メタデータ) (2021-10-09T16:09:27Z) - DAN-Net: Dual-Domain Adaptive-Scaling Non-local Network for CT Metal
Artifact Reduction [15.225899631788973]
金属インプラントはCTスキャンでX線を著しく減衰させ、再構成された画像に深刻なアーティファクトをもたらす。
CTにおける金属アーチファクト低減(MAR)のためのネットワークモデルがいくつか提案されている。
MARのための新しいデュアルドメイン適応スケーリング非ローカルネットワーク(DAN-Net)を紹介します。
論文 参考訳(メタデータ) (2021-02-16T08:09:16Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。