論文の概要: MEPNet: A Model-Driven Equivariant Proximal Network for Joint
Sparse-View Reconstruction and Metal Artifact Reduction in CT Images
- arxiv url: http://arxiv.org/abs/2306.14274v1
- Date: Sun, 25 Jun 2023 15:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:54:26.922798
- Title: MEPNet: A Model-Driven Equivariant Proximal Network for Joint
Sparse-View Reconstruction and Metal Artifact Reduction in CT Images
- Title(参考訳): MEPNet:CT画像における関節スパースビュー再構成と金属アーチファクト低減のためのモデル駆動同変近似ネットワーク
- Authors: Hong Wang, Minghao Zhou, Dong Wei, Yuexiang Li, Yefeng Zheng
- Abstract要約: 我々はMEPNetと呼ばれるモデル駆動の同変近似ネットワークを提案する。
MEPNetは最適化に着想を得ており、明確な動作メカニズムを持っている。
コードをurlhttps://github.com/hongwang01/MEPNetでリリースします。
- 参考スコア(独自算出の注目度): 29.458632068296854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view computed tomography (CT) has been adopted as an important
technique for speeding up data acquisition and decreasing radiation dose.
However, due to the lack of sufficient projection data, the reconstructed CT
images often present severe artifacts, which will be further amplified when
patients carry metallic implants. For this joint sparse-view reconstruction and
metal artifact reduction task, most of the existing methods are generally
confronted with two main limitations: 1) They are almost built based on common
network modules without fully embedding the physical imaging geometry
constraint of this specific task into the dual-domain learning; 2) Some
important prior knowledge is not deeply explored and sufficiently utilized.
Against these issues, we specifically construct a dual-domain reconstruction
model and propose a model-driven equivariant proximal network, called MEPNet.
The main characteristics of MEPNet are: 1) It is optimization-inspired and has
a clear working mechanism; 2) The involved proximal operator is modeled via a
rotation equivariant convolutional neural network, which finely represents the
inherent rotational prior underlying the CT scanning that the same organ can be
imaged at different angles. Extensive experiments conducted on several datasets
comprehensively substantiate that compared with the conventional
convolution-based proximal network, such a rotation equivariance mechanism
enables our proposed method to achieve better reconstruction performance with
fewer network parameters. We will release the code at
\url{https://github.com/hongwang01/MEPNet}.
- Abstract(参考訳): Sparse-view Computed Tomography (CT) は、データ取得を高速化し、放射線線量を減らす重要な手法として採用されている。
しかし、十分な投影データがないため、再構成されたct画像は重度のアーティファクトをしばしば呈し、患者が金属インプラントを持てばさらに増幅される。
この共同スパース・ビューの再構築と金属加工品削減作業では、既存の方法の多くは2つの主な制限に直面している。
1) この特定のタスクの物理的イメージング幾何制約をデュアルドメイン学習に完全に組み込むことなく、共通のネットワークモジュールに基づいてほぼ構築されている。
2) 重要な事前知識のいくつかは深く探求されておらず、十分に活用されていない。
これらの問題に対して,我々は特に双対領域再構成モデルを構築し,モデル駆動の同値近距離ネットワークであるmepnetを提案する。
MEPNetの主な特徴は次のとおりである。
1)最適化にインスパイアされ,明確な動作機構を有する。
2)関与する近位作用素は、回転同変畳み込みニューラルネットワークを介してモデル化され、ctスキャンの基盤となる固有回転前駆体を微妙に表現し、同じ臓器を異なる角度で撮像することができる。
従来の畳み込み型近位ネットワークと比較して, 回転等分散機構を用いることで, ネットワークパラメータを小さくすることで, 提案手法の再構築性能を向上できることを示す。
コードは \url{https://github.com/hongwang01/MEPNet} でリリースします。
関連論文リスト
- MVMS-RCN: A Dual-Domain Unfolding CT Reconstruction with Multi-sparse-view and Multi-scale Refinement-correction [9.54126979075279]
スパースビューCTは、低線量へのプロジェクションビューの数を減少させる。
既存の深層学習(DL)と深部展開スパルスCT再構成法では,プロジェクションデータを完全には利用していない。
本稿では,スパルス・ビュー・トモグラフィー再構成のための数学的アイデアと最適DLイメージングアルゴリズムの設計を目的とする。
論文 参考訳(メタデータ) (2024-05-27T13:01:25Z) - Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Spatiotemporal Feature Learning Based on Two-Step LSTM and Transformer
for CT Scans [2.3682456328966115]
我々は、新型コロナウイルスの症状分類を徹底的に行うための、新しい、効果的、2段階のアプローチを提案する。
まず,従来のバックボーンネットワークにより,CTスキャンにおける各スライスの意味的特徴埋め込みを抽出する。
そこで我々は,時間的特徴学習を扱うために,LSTMとTransformerベースのサブネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-04T16:59:05Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - DAN-Net: Dual-Domain Adaptive-Scaling Non-local Network for CT Metal
Artifact Reduction [15.225899631788973]
金属インプラントはCTスキャンでX線を著しく減衰させ、再構成された画像に深刻なアーティファクトをもたらす。
CTにおける金属アーチファクト低減(MAR)のためのネットワークモデルがいくつか提案されている。
MARのための新しいデュアルドメイン適応スケーリング非ローカルネットワーク(DAN-Net)を紹介します。
論文 参考訳(メタデータ) (2021-02-16T08:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。