論文の概要: Self-Supervised 2D/3D Registration for X-Ray to CT Image Fusion
- arxiv url: http://arxiv.org/abs/2210.07611v1
- Date: Fri, 14 Oct 2022 08:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:07:28.429426
- Title: Self-Supervised 2D/3D Registration for X-Ray to CT Image Fusion
- Title(参考訳): X線CT画像融合のための自己監督型2D/3Dレジストレーション
- Authors: Srikrishna Jaganathan, Maximilian Kukla, Jian Wang, Karthik Shetty,
Andreas Maier
- Abstract要約: シミュレーショントレーニングと教師なし特徴と画素空間領域適応を組み合わせた自己教師付き2D/3D登録フレームワークを提案する。
本フレームワークは, 実X線画像における90.1%の成功率で, 1.83$pm$1.16 mmの登録精度を達成している。
- 参考スコア(独自算出の注目度): 10.040271638205382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning-based 2D/3D registration enables fast, robust, and accurate
X-ray to CT image fusion when large annotated paired datasets are available for
training. However, the need for paired CT volume and X-ray images with ground
truth registration limits the applicability in interventional scenarios. An
alternative is to use simulated X-ray projections from CT volumes, thus
removing the need for paired annotated datasets. Deep Neural Networks trained
exclusively on simulated X-ray projections can perform significantly worse on
real X-ray images due to the domain gap. We propose a self-supervised 2D/3D
registration framework combining simulated training with unsupervised feature
and pixel space domain adaptation to overcome the domain gap and eliminate the
need for paired annotated datasets. Our framework achieves a registration
accuracy of 1.83$\pm$1.16 mm with a high success ratio of 90.1% on real X-ray
images showing a 23.9% increase in success ratio compared to reference
annotation-free algorithms.
- Abstract(参考訳): ディープラーニングベースの2D/3D登録は、大規模な注釈付きペアデータセットがトレーニングに利用できる場合、高速で堅牢で正確なX線とCT画像の融合を可能にする。
しかし, 接地真実登録によるCTボリュームとX線画像のペアの必要性は, 介入シナリオの適用性を制限している。
別の方法は、CTボリュームからシミュレーションされたX線プロジェクションを使用することで、ペア化された注釈付きデータセットを不要にする。
シミュレーションされたX線投影に特化して訓練されたディープニューラルネットワークは、ドメインギャップのため、実際のX線画像を著しく悪化させることができる。
本稿では,教師なし特徴と画素空間領域適応を併用した自己教師付き2D/3D登録フレームワークを提案し,ドメインギャップを克服し,ペア付きアノテートデータセットの必要性を解消する。
本フレームワークは,参照アノテーションのないアルゴリズムと比較して,実X線画像において90.1%の成功率の高い1.83$\pm$1.16 mmの登録精度を実現している。
関連論文リスト
- RayEmb: Arbitrary Landmark Detection in X-Ray Images Using Ray Embedding Subspace [0.7937206070844555]
術前CTによるX線画像の術中2D-3D記録は整形外科手術において極めて重要である。
本稿では,X線画像中の任意のランドマーク点を検出することで,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T17:36:21Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - X-Ray to CT Rigid Registration Using Scene Coordinate Regression [1.1687067206676627]
本稿では,極端視点に頑健な完全自動登録手法を提案する。
これは、与えられたX線画像の重なり合う座標を回帰する完全な畳み込みニューラルネットワーク(CNN)に基づいている。
提案手法は, 模擬試験データセットの50パーセンタイルにおける平均平均目標登録誤差(mTRE)を3.79mmとし, ペルビス登録のための実フルオロスコープ画像の50パーセンタイルにおける平均目標登録誤差(mTRE)を9.65mmと予測した。
論文 参考訳(メタデータ) (2023-11-25T17:48:46Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Transfer Learning from an Artificial Radiograph-landmark Dataset for
Registration of the Anatomic Skull Model to Dual Fluoroscopic X-ray Images [0.4205692673448206]
人工データセットからトレーニングしたディープニューラルネットワークを用いた3次元から2次元への3次元登録のための移動学習戦略を提案する。
女性被験者の頭頸部CTデータから,デジタル再構成X線写真(DRR)とX線学的頭蓋骨のランドマークを自動生成した。
ランドマーク検出のための残留ネットワーク(ResNet)と、DRRと実際のX線とのスタイルの違いを取り除くためにGAN(Cycle Generative Adversarial Network)のトレーニングに使用された。
人工的なトレーニングデータを戦略的に増強する手法は、複雑な頭蓋骨登録シナリオに取り組むことができ、広範な登録シナリオにまで拡張する可能性がある。
論文 参考訳(メタデータ) (2021-08-14T04:49:36Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Pose-dependent weights and Domain Randomization for fully automatic
X-ray to CT Registration [51.280096834264256]
完全自動X線CT登録は、既存の強度ベース登録の範囲内での最初のアライメントを必要とする。
この作業は、エンドツーエンドの登録を可能にする新しい自動初期化を提供する。
ミリメートルにおける平均(+標準偏差)ターゲット登録誤差は、成功率92%の模擬X線に対して4.1 +- 4.3、成功率86.8%の実X線に対して4.2 +- 3.9であり、成功率は30mm未満の翻訳誤差と定義される。
論文 参考訳(メタデータ) (2020-11-14T12:50:32Z) - 3D Probabilistic Segmentation and Volumetry from 2D projection images [10.32519161805588]
X線撮影は迅速で安価で、最前線のケアアセスメントや術中リアルタイムイメージングに有用である。
プロジェクティブな情報損失に悩まされており、多くの診断バイオマーカーがベースとなっている重要な情報を欠いている。
本稿では,2次元画像モダリティから3次元容積像を再構成する確率的手法について検討する。
論文 参考訳(メタデータ) (2020-06-23T08:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。