論文の概要: Metal-conscious Embedding for CBCT Projection Inpainting
- arxiv url: http://arxiv.org/abs/2211.16219v1
- Date: Tue, 29 Nov 2022 13:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 17:35:24.614795
- Title: Metal-conscious Embedding for CBCT Projection Inpainting
- Title(参考訳): CBCTプロジェクション塗布用金属意識埋め込み
- Authors: Fuxin Fan, Yangkong Wang, Ludwig Ritschl, Ramyar Biniazan, Marcel
Beister, Bj\"orn Kreher, Yixing Huang, Steffen Kappler, and Andreas Maier
- Abstract要約: コーンビームCT(CBCT)の投影画像における金属インプラントの存在は、望ましくないアーティファクトを導入している。
本研究では,視覚変換器(ViT)と畳み込みニューラルネットワークを組み合わせたハイブリッドネットワークを,塗装作業のベースラインネットワークとして提案する。
- 参考スコア(独自算出の注目度): 6.94542730064006
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The existence of metallic implants in projection images for cone-beam
computed tomography (CBCT) introduces undesired artifacts which degrade the
quality of reconstructed images. In order to reduce metal artifacts, projection
inpainting is an essential step in many metal artifact reduction algorithms. In
this work, a hybrid network combining the shift window (Swin) vision
transformer (ViT) and a convolutional neural network is proposed as a baseline
network for the inpainting task. To incorporate metal information for the Swin
ViT-based encoder, metal-conscious self-embedding and neighborhood-embedding
methods are investigated. Both methods have improved the performance of the
baseline network. Furthermore, by choosing appropriate window size, the model
with neighborhood-embedding could achieve the lowest mean absolute error of
0.079 in metal regions and the highest peak signal-to-noise ratio of 42.346 in
CBCT projections. At the end, the efficiency of metal-conscious embedding on
both simulated and real cadaver CBCT data has been demonstrated, where the
inpainting capability of the baseline network has been enhanced.
- Abstract(参考訳): コーンビームct(cbct)の投影画像における金属インプラントの存在は、再構成画像の品質を低下させる望ましくないアーティファクトを導入する。
金属アーチファクトを減らすため、プロジェクション塗装は多くの金属アーティファクト低減アルゴリズムにおいて必須のステップである。
本研究では,視覚変換器(ViT)と畳み込みニューラルネットワークを組み合わせたハイブリッドネットワークを,塗装作業のベースラインネットワークとして提案する。
Swin ViTをベースとしたエンコーダに金属情報を組み込むため, 金属を意識した自己埋め込み法と近傍埋め込み法を検討した。
どちらの手法もベースラインネットワークの性能を改善した。
さらに、適切なウィンドウサイズを選択することで、近傍埋め込みモデルでは金属領域の0.079の平均絶対誤差が最小となり、CBCT投影では最高信号対雑音比が42.346となる。
最後に、ベースラインネットワークのインパインティング能力が向上したシミュレーションデータと実際のキャダバーcbctデータの両方に金属を意識した埋め込みの効率が実証されている。
関連論文リスト
- TBSN: Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師型イメージデノベーション(SSID)において一般的なネットワークアーキテクチャである。
本稿では, ブラインドスポット要求を満たす変圧器演算子の解析と再設計により, 変圧器ベースブラインドスポットネットワーク(TBSN)を提案する。
空間的自己注意のために、注意行列に精巧なマスクを適用して受容場を制限し、拡張された畳み込みを模倣する。
チャネル自己アテンションについては,マルチスケールアーキテクチャの深層部において,チャネル数が空間的サイズよりも大きい場合,盲点情報を漏洩する可能性がある。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - MARformer: An Efficient Metal Artifact Reduction Transformer for Dental CBCT Images [53.62335292022492]
金属歯のインプラントはCBCTイメージングの過程で不愉快な金属加工物をもたらす可能性がある。
歯科用CBCT画像から金属アーティファクト低減(MAR)を実現するための効率的なトランスフォーマーを開発した。
P2FFN (Patch-wise Perceptive Feed Forward Network) も提案されている。
論文 参考訳(メタデータ) (2023-11-16T06:02:03Z) - Dense Transformer based Enhanced Coding Network for Unsupervised Metal
Artifact Reduction [27.800525536048944]
本稿では,非教師付き金属アーティファクト削減のための新しいDense Transformer based Enhanced Coding Network (DTEC-Net)を提案する。
具体的には,高次密度プロセスに支えられた階層型ディペンタングと,高次エンコードされたシーケンスを得るトランスフォーマーを導入する。
DTEC-Netの有効性は、ベンチマークデータセットにおける従来の最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2023-07-24T11:58:58Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Metal Inpainting in CBCT Projections Using Score-based Generative Model [8.889876750552615]
本研究は, 膝投射を模擬したスコアベース生成モデルを訓練し, 条件付き再サンプリングプロセスにおいて, ノイズを取り除き, インペインテッド画像を得る。
その結果, スコアベース生成モデルによるインペイント画像は, より詳細な情報を持ち, 平均絶対誤差が最も低く, ピーク信号対雑音比が最も高いことが示唆された。
論文 参考訳(メタデータ) (2022-09-20T14:07:39Z) - Metal artifact correction in cone beam computed tomography using
synthetic X-ray data [0.0]
解剖学に挿入された金属インプラントは、再建された画像に深刻なアーティファクトを引き起こす。
1つのアプローチは、プロジェクションに金属を分割するために深層学習法を使用することである。
比較的少数の光子を用いたシミュレーションは, 金属セグメンテーションに適していることを示す。
論文 参考訳(メタデータ) (2022-08-17T13:31:38Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Simulation-Driven Training of Vision Transformers Enabling Metal
Segmentation in X-Ray Images [6.416928579907334]
本研究は,CTデータセットとCADインプラントを組み合わせたシミュレーションX線画像を生成することを提案する。
CBCT射影における金属セグメンテーションは、金属アーティファクト回避および還元アルゴリズムの前提条件となる。
本研究は,CADモデルに基づくデータ生成の柔軟性が向上し,臨床データサンプリングとラベル付けの不足を克服する手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-17T09:58:58Z) - Metal Artifact Reduction in 2D CT Images with Self-supervised
Cross-domain Learning [30.977044473457]
金属アーチファクトリダクション(MAR)の新しい深層学習手法を提案する。
我々はニューラルネットワークをトレーニングし、与えられた金属フリーなノモグラムの金属トレース領域値を復元する。
次に、より完全な完了結果を生成するために、新しいFBP再構成損失を設計する。
論文 参考訳(メタデータ) (2021-09-28T04:40:57Z) - A Learning-based Method for Online Adjustment of C-arm Cone-Beam CT
Source Trajectories for Artifact Avoidance [47.345403652324514]
市販CBCT装置で実現可能な復元品質はペダルスクリューの存在下での金属加工品のため不十分である。
そこで本研究では,C-arm CBCTソーストラジェクトリをスキャン中に調整し,特定のタスクに対する再構成品質を最適化することを提案する。
リアルにシミュレートされたデータに基づいてトレーニングされた畳み込みニューラルネットワークは、CBCTソース軌跡のシーン特異的な調整を可能にする品質指標を予測することができることを示す。
論文 参考訳(メタデータ) (2020-08-14T09:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。