論文の概要: UniDCF: A Foundation Model for Comprehensive Dentocraniofacial Hard Tissue Reconstruction
- arxiv url: http://arxiv.org/abs/2508.11728v1
- Date: Fri, 15 Aug 2025 09:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.342781
- Title: UniDCF: A Foundation Model for Comprehensive Dentocraniofacial Hard Tissue Reconstruction
- Title(参考訳): UniDCF : 包括的顎顔面硬組織再建のための基礎モデル
- Authors: Chunxia Ren, Ning Zhu, Yue Lai, Gui Chen, Ruijie Wang, Yangyi Hu, Suyao Liu, Shuwen Mao, Hong Su, Yu Zhang, Li Xiao,
- Abstract要約: 複数の顎顔面硬組織を再構成できる統一的枠組みであるUniDCFを導入する。
UniDCFは、以前の単一モダリティアプローチの限界を克服する。
口腔内スキャン,CBCT,CTを6,609例,54,555例とした。
- 参考スコア(独自算出の注目度): 4.920193405093558
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dentocraniofacial hard tissue defects profoundly affect patients' physiological functions, facial aesthetics, and psychological well-being, posing significant challenges for precise reconstruction. Current deep learning models are limited to single-tissue scenarios and modality-specific imaging inputs, resulting in poor generalizability and trade-offs between anatomical fidelity, computational efficiency, and cross-tissue adaptability. Here we introduce UniDCF, a unified framework capable of reconstructing multiple dentocraniofacial hard tissues through multimodal fusion encoding of point clouds and multi-view images. By leveraging the complementary strengths of each modality and incorporating a score-based denoising module to refine surface smoothness, UniDCF overcomes the limitations of prior single-modality approaches. We curated the largest multimodal dataset, comprising intraoral scans, CBCT, and CT from 6,609 patients, resulting in 54,555 annotated instances. Evaluations demonstrate that UniDCF outperforms existing state-of-the-art methods in terms of geometric precision, structural completeness, and spatial accuracy. Clinical simulations indicate UniDCF reduces reconstruction design time by 99% and achieves clinician-rated acceptability exceeding 94%. Overall, UniDCF enables rapid, automated, and high-fidelity reconstruction, supporting personalized and precise restorative treatments, streamlining clinical workflows, and enhancing patient outcomes.
- Abstract(参考訳): 顎顔面硬組織欠損は, 患者の生理機能, 顔の美学, 心理的幸福に深く影響し, 正確な再建に重要な課題となっている。
現在のディープラーニングモデルはシングルタスクのシナリオとモダリティ固有のイメージ入力に限られており、結果として、解剖学的な忠実さ、計算効率、およびクロスタスク適応性の間の一般化性やトレードオフが低くなる。
ここでは, 点雲と多視点画像の多モード融合符号化により, 複数の顎顔面硬組織を再構成できる統一的フレームワークUniDCFを紹介する。
それぞれのモダリティの相補的な強みを活用し、表面の滑らかさを洗練させるためにスコアベースのデノナイジングモジュールを組み込むことで、UniDCFは以前の単一モダリティアプローチの限界を克服する。
6,609例の口腔内スキャン,CBCT,CTを併用し,54,555例のアノテートを行った。
評価の結果、UniDCFは幾何学的精度、構造的完全性、空間的精度で既存の最先端手法よりも優れていることが示された。
臨床シミュレーションでは、UniDCFは再建設計時間を99%削減し、臨床評価が94%を超えることを示唆している。
全体として、UniDCFは、迅速で自動化され、高忠実な再構築、パーソナライズされた正確な修復治療のサポート、臨床ワークフローの合理化、患者の成果の向上を可能にする。
関連論文リスト
- RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - A Continual Learning-driven Model for Accurate and Generalizable Segmentation of Clinically Comprehensive and Fine-grained Whole-body Anatomies in CT [67.34586036959793]
完全に注釈付きCTデータセットは存在せず、すべての解剖学がトレーニングのために記述されている。
完全解剖を分割できる連続学習駆動CTモデルを提案する。
単体CT分割モデルCL-Netは, 臨床的に包括的に包括的に235個の粒状体解剖の集合を高精度に分割することができる。
論文 参考訳(メタデータ) (2025-03-16T23:55:02Z) - AI-Powered Automated Model Construction for Patient-Specific CFD Simulations of Aortic Flows [8.062885940500259]
本研究では,医用画像からシミュレーション可能な血管モデルを作成するためのディープラーニングフレームワークを提案する。
提案手法は,手作業や処理時間を著しく削減しつつ,セグメンテーションとメッシュ品質の最先端性能を示す。
論文 参考訳(メタデータ) (2025-03-16T14:18:25Z) - FMT:A Multimodal Pneumonia Detection Model Based on Stacking MOE Framework [4.429093762434193]
共同表現学習にResNet-50とBERTを用いたフレキシブルマルチモーダルトランス (FMT) を提案する。
マルチモーダル肺炎データセットを用いて評価した結果,94%の精度,95%のリコール,93%のF1スコアが得られた。
論文 参考訳(メタデータ) (2025-03-07T17:52:12Z) - TopoTxR: A topology-guided deep convolutional network for breast parenchyma learning on DCE-MRIs [49.69047720285225]
そこで本研究では,乳房側葉構造をよりよく近似するために,マルチスケールのトポロジ構造を明示的に抽出する新しいトポロジカルアプローチを提案する。
VICTREファントム乳房データセットを用いてemphTopoTxRを実験的に検証した。
本研究の質的および定量的分析は,乳房組織における画像診断におけるトポロジカルな挙動を示唆するものである。
論文 参考訳(メタデータ) (2024-11-05T19:35:10Z) - Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN [2.7699831151653305]
本研究は, 心臓疾患の自動診断のための, 迅速かつ正確かつ費用対効果の高い手法を提供する新しいディープラーニングアーキテクチャを開発し, 評価する。
まず,多様な畳み込みフィルタサイズを利用して人間の聴覚処理をエミュレートするマルチブランチディープ畳み込みニューラルネットワーク(MBDCN)と,特徴抽出のためのパワースペクトル入力の2つの革新的な手法を提案する。
第二に、LSTMブロックをMBDCNに統合し、時間領域の特徴抽出を改善するLong Short-Term Memory-Convolutional Neural (LSCN)モデルである。
論文 参考訳(メタデータ) (2024-07-15T13:02:54Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。