論文の概要: 2D/3D Deep Image Registration by Learning 3D Displacement Fields for
Abdominal Organs
- arxiv url: http://arxiv.org/abs/2212.05445v1
- Date: Sun, 11 Dec 2022 08:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 17:48:24.091981
- Title: 2D/3D Deep Image Registration by Learning 3D Displacement Fields for
Abdominal Organs
- Title(参考訳): 腹部臓器の3次元変位場学習による2次元/3次元深部画像登録
- Authors: Ryuto Miura, Megumi Nakao, Mitsuhiro Nakamura, and Tetsuya Matsuda
- Abstract要約: 本稿では,3Dボリュームと単一視点2D投影画像間の2D/3D変形可能な画像登録を実現する教師付きディープラーニングフレームワークを提案する。
提案手法は,対象2次元投影画像と初期3次元体積から3次元変位場への変換を学習する。
- 参考スコア(独自算出の注目度): 1.9949261242626626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deformable registration of two-dimensional/three-dimensional (2D/3D) images
of abdominal organs is a complicated task because the abdominal organs deform
significantly and their contours are not detected in two-dimensional X-ray
images. We propose a supervised deep learning framework that achieves 2D/3D
deformable image registration between 3D volumes and single-viewpoint 2D
projected images. The proposed method learns the translation from the target 2D
projection images and the initial 3D volume to 3D displacement fields. In
experiments, we registered 3D-computed tomography (CT) volumes to digitally
reconstructed radiographs generated from abdominal 4D-CT volumes. For
validation, we used 4D-CT volumes of 35 cases and confirmed that the 3D-CT
volumes reflecting the nonlinear and local respiratory organ displacement were
reconstructed. The proposed method demonstrate the compatible performance to
the conventional methods with a dice similarity coefficient of 91.6 \% for the
liver region and 85.9 \% for the stomach region, while estimating a
significantly more accurate CT values.
- Abstract(参考訳): 腹部臓器の2次元・3次元(2D/3D)画像の変形性登録は,2次元X線画像では腹部臓器が著しく変形し,輪郭が検出されないため,複雑な作業である。
3dボリュームと1視点2d投影画像間の2d/3d変形可能な画像登録を実現する教師付きディープラーニングフレームワークを提案する。
提案手法は,対象2次元投影画像と初期3次元体積から3次元変位場への変換を学習する。
実験では,腹部4D-CTボリュームから生成された3DCTボリュームをデジタルで再構成した。
4D-CTボリュームを35例使用し,非直線的,局所的な呼吸器変位を反映した3D-CTボリュームを再建した。
肝領域で91.6 \%,胃領域で85.9 \%のdice類似度係数を従来の方法と比較し,ct値の精度を有意に向上させた。
関連論文リスト
- Rigid Single-Slice-in-Volume registration via rotation-equivariant 2D/3D feature matching [3.041742847777409]
本研究では,1つの2次元スライスと対応する3次元ボリュームを一致させる自己教師付き2D/3D登録手法を提案する。
NSCLC-Radiomics CTおよびKIRBY21 MRIデータセット上で,提案したスライス・イン・ボリューム登録の堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-24T12:24:27Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - CNN-based real-time 2D-3D deformable registration from a single X-ray
projection [2.1198879079315573]
本稿では, フルオロスコープ画像を用いたリアルタイム2D-3D非剛体登録法を提案する。
術前スキャンから解剖学の変位場と2次元投影からなるデータセットを生成する。
ニューラルネットワークは、未知の3D変位場を単一の投影画像から回復するように訓練される。
論文 参考訳(メタデータ) (2022-12-15T09:57:19Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - IGCN: Image-to-graph Convolutional Network for 2D/3D Deformable
Registration [1.2246649738388387]
単一視点2次元投影画像に対する3次元臓器メッシュの変形可能な登録を実現する画像間畳み込みネットワークを提案する。
複数臓器間の関係を考慮に入れた形状予測は, 臨床的に許容できる精度で放射線像からの呼吸運動と変形を予測するのに有用である。
論文 参考訳(メタデータ) (2021-10-31T12:48:37Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Comparative Evaluation of 3D and 2D Deep Learning Techniques for
Semantic Segmentation in CT Scans [0.0]
本稿では,3次元CTスキャンにおける立体スタックを用いた深層学習手法を提案する。
本研究では,この3D手法と従来の2D深層学習手法とのセグメンテーション結果,コンテキスト情報保持,推論時間に基づく比較について述べる。
3D技術により、2D技術と比較して推論時間が5倍短縮されます。
論文 参考訳(メタデータ) (2021-01-19T13:23:43Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。