論文の概要: IDOL-Net: An Interactive Dual-Domain Parallel Network for CT Metal
Artifact Reduction
- arxiv url: http://arxiv.org/abs/2104.01405v1
- Date: Sat, 3 Apr 2021 13:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 12:45:50.737503
- Title: IDOL-Net: An Interactive Dual-Domain Parallel Network for CT Metal
Artifact Reduction
- Title(参考訳): IDOL-Net:CT金属アーチファクト低減のための対話型デュアルドメイン並列ネットワーク
- Authors: Tao Wang, Wenjun Xia, Zexin Lu, Huaiqiang Sun, Yan Liu, Hu Chen, Jiliu
Zhou, Yi Zhang
- Abstract要約: 我々はIDOLNetと呼ばれるCT MARのための対話型デュアルドメイン並列ネットワークを提案する。
提案されたIDOL-Netは2つのモジュールから構成される。
不等角化モジュールを用いて、補足入力として高品質の先行シンノグラム及び画像を生成する。
シミュレーションおよび臨床結果は、提案されたIDOL-Netが定性的および定量的両方の面でいくつかの最新モデルを上回ることを実証する。
- 参考スコア(独自算出の注目度): 15.592359656067366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the presence of metallic implants, the imaging quality of computed
tomography (CT) would be heavily degraded. With the rapid development of deep
learning, several network models have been proposed for metal artifact
reduction (MAR). Since the dual-domain MAR methods can leverage the hybrid
information from both sinogram and image domains, they have significantly
improved the performance compared to single-domain methods. However,current
dual-domain methods usually operate on both domains in a specific order, which
implicitly imposes a certain priority prior into MAR and may ignore the latent
information interaction between both domains. To address this problem, in this
paper, we propose a novel interactive dualdomain parallel network for CT MAR,
dubbed as IDOLNet. Different from existing dual-domain methods, the proposed
IDOL-Net is composed of two modules. The disentanglement module is utilized to
generate high-quality prior sinogram and image as the complementary inputs. The
follow-up refinement module consists of two parallel and interactive branches
that simultaneously operate on image and sinogram domain, fully exploiting the
latent information interaction between both domains. The simulated and clinical
results demonstrate that the proposed IDOL-Net outperforms several
state-of-the-art models in both qualitative and quantitative aspects.
- Abstract(参考訳): 金属インプラントの存在によりCT(Computerd tomography)の画質は著しく低下した。
ディープラーニングの急速な発展に伴い、金属人工物削減(MAR)のためのネットワークモデルがいくつか提案されている。
デュアルドメインのmar法はsinogramとimage domainの両方のハイブリッド情報を活用できるため、単一ドメインのメソッドに比べて性能が大幅に向上している。
しかし、現在の二重ドメインメソッドは通常、特定の順序で両方のドメイン上で動作し、MARに特定の優先順位を暗黙的に課し、両方のドメイン間の潜む情報相互作用を無視する。
そこで本稿では,この問題を解決するために,idolnetと呼ばれる,インタラクティブなct mar用デュアルドメイン並列ネットワークを提案する。
既存のデュアルドメインメソッドとは異なり、提案したIDOL-Netは2つのモジュールから構成される。
不等角化モジュールを用いて、補足入力として高品質の先行シンノグラム及び画像を生成する。
フォローアップリファインメントモジュールは、2つの並列およびインタラクティブなブランチで構成され、イメージドメインとシングラムドメインを同時に操作し、両方のドメイン間の潜在情報インタラクションを完全に活用する。
シミュレーションおよび臨床実験の結果,提案したIDOL-Netは質的,定量的両面においていくつかの最先端モデルを上回る性能を示した。
関連論文リスト
- Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Unsupervised Domain Adaptation for Cross-Modality Retinal Vessel
Segmentation via Disentangling Representation Style Transfer and
Collaborative Consistency Learning [3.9562534927482704]
ドメインシフトが大きいタスクに対する、新しいクロスモーダルな教師なしドメイン適応フレームワークDCDAを提案する。
本フレームワークは,OCTAからOCT,OCTからOCTAまで,目標に訓練されたオラクルに近いDiceスコアを達成し,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T07:03:16Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Adaptive Hierarchical Dual Consistency for Semi-Supervised Left Atrium
Segmentation on Cross-Domain Data [8.645556125521246]
ドメイン間データに対する半教師付き学習の一般化は、モデルの堅牢性を改善するために重要である。
AHDCはBAI(Bidirectional Adversarial Inference Module)とHDC(Hierarchical Dual Consistency Learning Module)から構成されている。
今回提案したAHDCは, 異なる中心部からの3D遅延心筋MR(LGE-CMR)データセットと3DCTデータセットを用いて, 評価を行った。
論文 参考訳(メタデータ) (2021-09-17T02:15:10Z) - Dual Attentive Sequential Learning for Cross-Domain Click-Through Rate
Prediction [76.98616102965023]
クロスドメインレコメンダシステムは、コールドスタートとスパシティの問題に対処するための強力な方法である。
本稿では,二元学習機構に基づくクロスドメインシーケンシャルなレコメンデーション手法を提案する。
論文 参考訳(メタデータ) (2021-06-05T01:21:21Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Variational Interaction Information Maximization for Cross-domain
Disentanglement [34.08140408283391]
ドメイン間の絡み合いは、ドメイン不変表現とドメイン固有表現に分割された表現の学習の問題である。
複数の情報制約の共用目的として,ドメイン不変表現とドメイン固有表現の同時学習を行った。
ゼロショットスケッチに基づく画像検索タスクにおいて,本モデルが最新性能を達成することを示した。
論文 参考訳(メタデータ) (2020-12-08T07:11:35Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。