論文の概要: Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction
- arxiv url: http://arxiv.org/abs/2303.14739v1
- Date: Sun, 26 Mar 2023 14:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 17:52:39.086829
- Title: Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction
- Title(参考訳): Sparse-View CBCT再構成のための幾何認識減衰場学習
- Authors: Zhentao Liu, Yu Fang, Changjian Li, Han Wu, Yuan Liu, Zhiming Cui,
Dinggang Shen
- Abstract要約: Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
- 参考スコア(独自算出の注目度): 61.48254686722434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cone Beam Computed Tomography (CBCT) is the most widely used imaging method
in dentistry. As hundreds of X-ray projections are needed to reconstruct a
high-quality CBCT image (i.e., the attenuation field) in traditional
algorithms, sparse-view CBCT reconstruction has become a main focus to reduce
radiation dose. Several attempts have been made to solve it while still
suffering from insufficient data or poor generalization ability for novel
patients. This paper proposes a novel attenuation field encoder-decoder
framework by first encoding the volumetric feature from multi-view X-ray
projections, then decoding it into the desired attenuation field. The key
insight is when building the volumetric feature, we comply with the multi-view
CBCT reconstruction nature and emphasize the view consistency property by
geometry-aware spatial feature querying and adaptive feature fusing. Moreover,
the prior knowledge information learned from data population guarantees our
generalization ability when dealing with sparse view input. Comprehensive
evaluations have demonstrated the superiority in terms of reconstruction
quality, and the downstream application further validates the feasibility of
our method in real-world clinics.
- Abstract(参考訳): Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
従来のアルゴリズムでは、高画質のCBCT画像(すなわち減衰場)を再構成するために、数百のX線投影が必要であるため、少ない視野のCBCT再構成が放射線線量を減らす主な焦点となっている。
新規患者のデータ不足や一般化能力の低下に苦しむ一方で、いくつかの試みがなされている。
本稿では,まず多視点x線投影から体積特徴を符号化し,次に所望の減衰場に復号する新しい減衰場エンコーダ・デコーダフレームワークを提案する。
重要な洞察は、ボリューム機能を構築する際に、多視点cbct再構成の性質に準拠し、幾何認識空間特徴クエリと適応特徴fusingによるビュー一貫性を強調する。
さらに、データ人口から得られた事前知識情報は、スパースビュー入力を扱う際の一般化能力を保証する。
総合的な評価は, 再建品質の面で優位性を示し, 下流の応用は, 実際の診療施設における本手法の有効性をさらに検証している。
関連論文リスト
- Repeat and Concatenate: 2D to 3D Image Translation with 3D to 3D Generative Modeling [14.341099905684844]
本稿では,2次元X線と3次元CTライクな再構成が可能な2次元-3次元画像変換法について,簡単な手法で検討する。
我々は,潜伏空間内の複数の2次元ビューにまたがる情報を統合する既存のアプローチが,潜伏符号化中に貴重な信号情報を失うことを観察する。代わりに,2次元ビューを高チャネルの3次元ボリュームに繰り返して,簡単な3次元から3次元生成モデル問題として3次元再構成課題にアプローチする。
この方法では、再構成された3Dボリュームが、2D入力から貴重な情報を保持でき、Swin Uのチャネル状態間で渡される。
論文 参考訳(メタデータ) (2024-06-26T15:18:20Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - Automatic 3D Registration of Dental CBCT and Face Scan Data using 2D
Projection Images [0.9226931037259524]
本稿では,歯科用コーンビームCT(CBCT)と顔スキャンデータの完全自動登録法を提案する。
3Dデジタル治療計画や矯正手術など、様々な用途で3D顎顔面モデルのデジタルプラットフォームとして使用できる。
論文 参考訳(メタデータ) (2023-05-17T11:26:43Z) - Oral-3Dv2: 3D Oral Reconstruction from Panoramic X-Ray Imaging with
Implicit Neural Representation [3.8215162658168524]
Oral-3Dv2は、単一のパノラマX線画像から3Dラジオロジーを再構成する非逆学習モデルである。
本モデルは,2次元座標を3次元空間内のボクセルの密度値にマッピングすることにより,暗黙的に3次元口腔構造を表現することを学習する。
我々の知る限りでは、これは1枚のパノラマX線画像から3Dラジオグラフィ再構成における非逆学習モデルの最初の作品である。
論文 参考訳(メタデータ) (2023-03-21T18:17:27Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - 3D Probabilistic Segmentation and Volumetry from 2D projection images [10.32519161805588]
X線撮影は迅速で安価で、最前線のケアアセスメントや術中リアルタイムイメージングに有用である。
プロジェクティブな情報損失に悩まされており、多くの診断バイオマーカーがベースとなっている重要な情報を欠いている。
本稿では,2次元画像モダリティから3次元容積像を再構成する確率的手法について検討する。
論文 参考訳(メタデータ) (2020-06-23T08:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。