論文の概要: FD-MAR: Fourier Dual-domain Network for CT Metal Artifact Reduction
- arxiv url: http://arxiv.org/abs/2207.11678v1
- Date: Sun, 24 Jul 2022 07:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:36:04.357165
- Title: FD-MAR: Fourier Dual-domain Network for CT Metal Artifact Reduction
- Title(参考訳): FD-MAR:CT金属アーチファクト低減のためのフーリエデュアルドメインネットワーク
- Authors: Zilong Li, Qi Gao, Yaping Wu, Chuang Niu, Junping Zhang, Meiyun Wang,
Ge Wang, Hongming Shan
- Abstract要約: 金属インプラントやデンタルフィリングのような高密度の物体は、CT(Computed tomography)画像に非常にストリークのようなアーティファクトを導入することができる。
本報告では, 金属アーチファクトリダクション (MAR) のための高速フーリエ畳み込みについて, シングラムと画像領域の両方で検討する。
複合損失関数でFD-MARを最適化することにより、提案したFD-MARが最先端のMAR法よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 33.52257638852766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The presence of high-density objects such as metal implants and dental
fillings can introduce severely streak-like artifacts in computed tomography
(CT) images, greatly limiting subsequent diagnosis. Although various deep
neural networks-based methods have been proposed for metal artifact reduction
(MAR), they usually suffer from poor performance due to limited exploitation of
global context in the sinogram domain, secondary artifacts introduced in the
image domain, and the requirement of precise metal masks. To address these
issues, this paper explores fast Fourier convolution for MAR in both sinogram
and image domains, and proposes a Fourier dual-domain network for MAR, termed
FD-MAR. Specifically, we first propose a Fourier sinogram restoration network,
which can leverage sinogram-wide receptive context to fill in the
metal-corrupted region from uncorrupted region and, hence, is robust to the
metal trace. Second, we propose a Fourier refinement network in the image
domain, which can refine the reconstructed images in a local-to-global manner
by exploring image-wide context information. As a result, the proposed FD-MAR
can explore the sinogram- and image-wide receptive fields for MAR. By
optimizing FD-MAR with a composite loss function, extensive experimental
results demonstrate the superiority of the proposed FD-MAR over the
state-of-the-art MAR methods in terms of quantitative metrics and visual
comparison. Notably, FD-MAR does not require precise metal masks, which is of
great importance in clinical routine.
- Abstract(参考訳): 金属インプラントやデンタルフィリングのような高密度物体の存在は、CT(Computed tomography)画像に深刻なストリークのようなアーティファクトを導入し、その後の診断を大幅に制限する。
深層ニューラルネットワークに基づく金属アーティファクト低減法(mar)が提案されているが、シンノグラム領域におけるグローバルコンテキストの活用、画像領域に導入された二次アーティファクト、精密金属マスクの必要性などにより、パフォーマンスが低下することが多い。
これらの問題に対処するため,本論文では,シンノグラム領域と画像領域の両方において高速フーリエ畳み込みを行い,fd-marと呼ばれるフーリエ双ドメインネットワークを提案する。
具体的には,まず,非破壊領域から金属腐食領域を埋めるために,シンノグラム全体の受容的文脈を活用できるフーリエシンノグラム復元ネットワークを提案する。
第2に、画像領域におけるフーリエ精細化ネットワークを提案し、画像全体のコンテキスト情報を探索することにより、局所的・言語的に再構成された画像を洗練することができる。
その結果、提案したFD-MARは、MARのシノグラムと画像全体に対する受容場を探索することができる。
複合損失関数でFD-MARを最適化することにより、定量化と視覚比較の観点から、最先端のMAR法よりもFD-MARの方が優れていることを示した。
注目すべきは、fd-marは正確な金属マスクを必要としないことである。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - FreeSeed: Frequency-band-aware and Self-guided Network for Sparse-view
CT Reconstruction [34.91517935951518]
スパース・ビュー・コンピュート・トモグラフィー(CT)は, 患者への放射線曝露を迅速化し, 患者への放射線照射を緩和するための, 有望な方法である。
近年,深層学習に基づく画像後処理手法が有望な成果を上げている。
本稿では,FREquency-band-awarEとSelf-guidedを併用したFREquency-band-awarEとSelf-guidedネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T03:39:54Z) - MEPNet: A Model-Driven Equivariant Proximal Network for Joint
Sparse-View Reconstruction and Metal Artifact Reduction in CT Images [29.458632068296854]
我々はMEPNetと呼ばれるモデル駆動の同変近似ネットワークを提案する。
MEPNetは最適化に着想を得ており、明確な動作メカニズムを持っている。
コードをurlhttps://github.com/hongwang01/MEPNetでリリースします。
論文 参考訳(メタデータ) (2023-06-25T15:50:11Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Fourier-Net: Fast Image Registration with Band-limited Deformation [16.894559169947055]
教師なし画像登録では、全解像度空間領域における密度変位場を予測するためにU-Netスタイルのネットワークが一般的である。
本稿では,パラメータフリーモデル駆動デコーダを用いて,U-Netスタイルネットワークにおける拡張パスを置き換えるフーリエネットを提案する。
論文 参考訳(メタデータ) (2022-11-29T16:24:06Z) - TriDoNet: A Triple Domain Model-driven Network for CT Metal Artifact
Reduction [7.959841510571622]
本稿では,TriDoNetと呼ばれる新しいトリプルドメインモデル駆動型CTMARネットワークを提案する。
本研究では,非局所的繰り返しストリーキングパターンを適応しきい値を持つ明示的きついフレームスパース表現モデルとして符号化する。
実験結果から,TriDoNetは優れたアーティファクト再現CT画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2022-11-14T08:28:57Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - DAN-Net: Dual-Domain Adaptive-Scaling Non-local Network for CT Metal
Artifact Reduction [15.225899631788973]
金属インプラントはCTスキャンでX線を著しく減衰させ、再構成された画像に深刻なアーティファクトをもたらす。
CTにおける金属アーチファクト低減(MAR)のためのネットワークモデルがいくつか提案されている。
MARのための新しいデュアルドメイン適応スケーリング非ローカルネットワーク(DAN-Net)を紹介します。
論文 参考訳(メタデータ) (2021-02-16T08:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。