論文の概要: PrIntMesh: Precise Intersection Surfaces for 3D Organ Mesh Reconstruction
- arxiv url: http://arxiv.org/abs/2511.16186v1
- Date: Thu, 20 Nov 2025 09:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.55566
- Title: PrIntMesh: Precise Intersection Surfaces for 3D Organ Mesh Reconstruction
- Title(参考訳): PrIntMesh: 3次元臓器メッシュ再構築のための精密断面面
- Authors: Deniz Sayin Mercadier, Hieu Le, Yihong Chen, Jiancheng Yang, Udaranga Wickramasinghe, Pascal Fua,
- Abstract要約: PrIntMeshはテンプレートベースのトポロジ保存フレームワークで、臓器を統一されたシステムとして再構築する。
心臓,海馬,肺に効果を示す。
- 参考スコア(独自算出の注目度): 37.06867816829073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human organs are composed of interconnected substructures whose geometry and spatial relationships constrain one another. Yet, most deep-learning approaches treat these parts independently, producing anatomically implausible reconstructions. We introduce PrIntMesh, a template-based, topology-preserving framework that reconstructs organs as unified systems. Starting from a connected template, PrIntMesh jointly deforms all substructures to match patient-specific anatomy, while explicitly preserving internal boundaries and enforcing smooth, artifact-free surfaces. We demonstrate its effectiveness on the heart, hippocampus, and lungs, achieving high geometric accuracy, correct topology, and robust performance even with limited or noisy training data. Compared to voxel- and surface-based methods, PrIntMesh better reconstructs shared interfaces, maintains structural consistency, and provides a data-efficient solution suitable for clinical use.
- Abstract(参考訳): 人間の器官は、幾何学と空間的関係が互いに拘束される相互接続されたサブ構造で構成されている。
しかし、ほとんどのディープラーニングアプローチはこれらの部品を個別に扱い、解剖学的に理解不能な再構築を生み出している。
本稿では,臓器を統一システムとして再構築するテンプレートベースのトポロジ保存フレームワークPrIntMeshを紹介する。
PrIntMeshは、接続テンプレートから始まり、患者固有の解剖と一致させるために、すべてのサブ構造を共同で変形すると同時に、内部の境界を明示的に保ち、スムーズでアーティファクトのない表面を強制する。
本研究は, 心臓, 海馬, 肺に対して有効性を示し, 精度, トポロジ, 頑健性を示した。
ボクセル法や表面法と比較して、PrIntMeshは共有インターフェースの再構築を良くし、構造的一貫性を維持し、臨床用途に適したデータ効率の高いソリューションを提供する。
関連論文リスト
- AGENet: Adaptive Edge-aware Geodesic Distance Learning for Few-Shot Medical Image Segmentation [0.0]
AGENetはエッジ・アウェアな測地距離学習を通じて空間的関係を組み込む新しいフレームワークである。
私たちの重要な洞察は、医療構造はプロトタイプの抽出をガイドできる予測可能な幾何学的パターンに従っているということです。
本手法は,計算効率を維持しつつ,既存の手法と比較して境界誤差を低減する。
論文 参考訳(メタデータ) (2025-11-11T09:56:35Z) - CardioComposer: Flexible and Compositional Anatomical Structure Generation with Disentangled Geometric Guidance [0.6312872285702812]
本研究では,3次元空間に埋め込まれた解釈可能な楕円体プリミティブを用いて,ヒト解剖学の非条件拡散モデルを導出する枠組みを提案する。
本手法は, 逆拡散過程の導出に幾何モーメントロスを適用した多部分割マップ内の特定の組織の選択を含む。
論文 参考訳(メタデータ) (2025-09-08T23:08:23Z) - Are Pixel-Wise Metrics Reliable for Sparse-View Computed Tomography Reconstruction? [61.48804987263701]
解剖学的構造全体にわたる構造的完全性を評価するために,解剖学的評価尺度の組を提案する。
CAREは、重要な構造物の解剖学的保存を促進するために、訓練中に構造的罰則を取り入れている。
CAREはCT再建における構造的完全性を大幅に改善し、大臓器では+32%、小臓器では+22%、小腸では+40%、血管では+36%となる。
論文 参考訳(メタデータ) (2025-06-02T17:07:10Z) - ReshapeIT: Reliable Shape Interaction with Implicit Template for Anatomical Structure Reconstruction [59.971808117043366]
ReShapeITは、同じカテゴリ内で共有される暗黙のテンプレートフィールドを持つ解剖学的構造を表す。
これにより、インスタンス形状とテンプレート形状との対応性の制約を強化することにより、暗黙テンプレートフィールドが有効なテンプレートを生成する。
テンプレートインタラクションモジュールは、有効なテンプレートシェイプとインスタンスワイドの潜在コードとを相互作用することで、目に見えないシェイプを再構築するために導入される。
論文 参考訳(メタデータ) (2023-12-11T07:09:32Z) - Pairwise-Constrained Implicit Functions for 3D Human Heart Modelling [60.56741715207466]
我々は、心を相互依存型SDFの集合としてモデル化するペアワイズ拘束型SDFアプローチを導入する。
本手法は, 単SDF, UDF, ボクセルベース, セグメンテーションベースを用いて, 内部構造精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-16T10:07:15Z) - A Generative Shape Compositional Framework to Synthesise Populations of
Virtual Chimaeras [52.33206865588584]
複雑な解剖学的構造に対する生成的形状モデルを導入し、未ペアデータセットのデータセットから学習する。
心臓のサブストラクチャのサンプルとして,全音節形状のデータベースから仮想キマエラを構築した。
提案手法は,PCAをベースとした形状モデル(完全データによる学習)を,汎用性と特異性の観点から大きく上回っている。
論文 参考訳(メタデータ) (2022-10-04T13:36:52Z) - A Deep-Learning Approach For Direct Whole-Heart Mesh Reconstruction [1.8047694351309207]
本研究では,ボリュームCTとMR画像データから心表面メッシュ全体を直接予測する深層学習に基づく新しい手法を提案する。
本手法は,高分解能,高品質の全心臓再建を実現できる有望な性能を示した。
論文 参考訳(メタデータ) (2021-02-16T00:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。