論文の概要: Oral-3Dv2: 3D Oral Reconstruction from Panoramic X-Ray Imaging with
Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2303.12123v2
- Date: Sun, 3 Sep 2023 06:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:05:23.378903
- Title: Oral-3Dv2: 3D Oral Reconstruction from Panoramic X-Ray Imaging with
Implicit Neural Representation
- Title(参考訳): パノラマx線撮影による口腔3dv2:3次元口腔再構築
- Authors: Weinan Song, Haoxin Zheng, Dezhan Tu, Chengwen Liang, Lei He
- Abstract要約: Oral-3Dv2は、単一のパノラマX線画像から3Dラジオロジーを再構成する非逆学習モデルである。
本モデルは,2次元座標を3次元空間内のボクセルの密度値にマッピングすることにより,暗黙的に3次元口腔構造を表現することを学習する。
我々の知る限りでは、これは1枚のパノラマX線画像から3Dラジオグラフィ再構成における非逆学習モデルの最初の作品である。
- 参考スコア(独自算出の注目度): 3.8215162658168524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D reconstruction of medical imaging from 2D images has become an
increasingly interesting topic with the development of deep learning models in
recent years. Previous studies in 3D reconstruction from limited X-ray images
mainly rely on learning from paired 2D and 3D images, where the reconstruction
quality relies on the scale and variation of collected data. This has brought
significant challenges in the collection of training data, as only a tiny
fraction of patients take two types of radiation examinations in the same
period. Although simulation from higher-dimension images could solve this
problem, the variance between real and simulated data could bring great
uncertainty at the same time. In oral reconstruction, the situation becomes
more challenging as only a single panoramic X-ray image is available, where
models need to infer the curved shape by prior individual knowledge. To
overcome these limitations, we propose Oral-3Dv2 to solve this cross-dimension
translation problem in dental healthcare by learning solely on projection
information, i.e., the projection image and trajectory of the X-ray tube. Our
model learns to represent the 3D oral structure in an implicit way by mapping
2D coordinates into density values of voxels in the 3D space. To improve
efficiency and effectiveness, we utilize a multi-head model that predicts a
bunch of voxel values in 3D space simultaneously from a 2D coordinate in the
axial plane and the dynamic sampling strategy to refine details of the density
distribution in the reconstruction result. Extensive experiments in simulated
and real data show that our model significantly outperforms existing
state-of-the-art models without learning from paired images or prior individual
knowledge. To the best of our knowledge, this is the first work of a
non-adversarial-learning-based model in 3D radiology reconstruction from a
single panoramic X-ray image.
- Abstract(参考訳): 近年の深層学習モデルの発展に伴い, 2次元画像からの医用画像の3次元再構成が注目されている。
限られたX線画像からの3次元再構成における従来の研究は、主に2次元画像と3次元画像からの学習に依存しており、再構成品質は収集データのスケールと変動に依存する。
これはトレーニングデータの収集に重大な課題をもたらしており、同じ期間に2種類の放射線検査を受ける患者はごくわずかである。
高次元画像からのシミュレーションはこの問題を解決できたが、実データとシミュレーションデータのばらつきは同時に大きな不確実性をもたらす可能性がある。
口腔再建では、モデルが個々の知識によって曲線形状を推測する必要がある1枚のパノラマx線画像しか利用できないため、状況はより困難になる。
これらの限界を克服するため,我々はx線管の投影像と軌跡を投影情報のみに基づいて学習することにより,この歯科医療におけるクロスディメンション翻訳問題を解決するための口腔用3dv2を提案する。
3次元空間内のボクセルの密度値に2次元座標をマッピングすることで,3次元の口腔構造を暗黙的に表現することを学ぶ。
効率と有効性を向上させるために,軸方向の2次元座標と動的サンプリング戦略とを同時に3次元空間のボクセル値の束を予測するマルチヘッドモデルを用いて,復元結果における密度分布の詳細を洗練する。
シミュレーションと実データによる広範囲な実験により,提案モデルは,ペア画像や個々の知識から学習することなく,既存の最先端モデルを大きく上回っていることが示された。
我々の知る限りでは、これは1枚のパノラマX線画像から3Dラジオグラフィ再構成における非逆学習モデルの最初の作品である。
関連論文リスト
- E3D-GPT: Enhanced 3D Visual Foundation for Medical Vision-Language Model [23.56751925900571]
3次元医用視覚言語モデルの開発は、疾患の診断と患者の治療に有意な可能性を秘めている。
自己教師付き学習を用いて3次元視覚特徴抽出のための3次元視覚基盤モデルを構築した。
本研究では,3次元空間畳み込みを高精細画像の特徴の集約・投影に応用し,計算複雑性を低減した。
本モデルは,既存の報告生成法,視覚的質問応答法,疾患診断法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-18T06:31:40Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - CNN-based real-time 2D-3D deformable registration from a single X-ray
projection [2.1198879079315573]
本稿では, フルオロスコープ画像を用いたリアルタイム2D-3D非剛体登録法を提案する。
術前スキャンから解剖学の変位場と2次元投影からなるデータセットを生成する。
ニューラルネットワークは、未知の3D変位場を単一の投影画像から回復するように訓練される。
論文 参考訳(メタデータ) (2022-12-15T09:57:19Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - Deep Learning compatible Differentiable X-ray Projections for Inverse
Rendering [8.926091372824942]
距離マップを生成するために、メッシュ内部の線状構造によって移動される距離を導出して微分可能とする。
骨盤の実際の2次元蛍光画像から3次元モデルを再構成する逆問題(逆問題)を解くことにより,その応用を示す。
論文 参考訳(メタデータ) (2021-02-04T22:06:05Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。