論文の概要: AI-enabled Automatic Multimodal Fusion of Cone-Beam CT and Intraoral
Scans for Intelligent 3D Tooth-Bone Reconstruction and Clinical Applications
- arxiv url: http://arxiv.org/abs/2203.05784v1
- Date: Fri, 11 Mar 2022 07:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 12:20:32.853975
- Title: AI-enabled Automatic Multimodal Fusion of Cone-Beam CT and Intraoral
Scans for Intelligent 3D Tooth-Bone Reconstruction and Clinical Applications
- Title(参考訳): コーヌスCTと口腔内スキャンを併用した3次元骨再建術のAI応用と臨床応用
- Authors: Jin Hao, Jiaxiang Liu, Jin Li, Wei Pan, Ruizhe Chen, Huimin Xiong,
Kaiwei Sun, Hangzheng Lin, Wanlu Liu, Wanghui Ding, Jianfei Yang, Haoji Hu,
Yueling Zhang, Yang Feng, Zeyu Zhao, Huikai Wu, Youyi Zheng, Bing Fang,
Zuozhu Liu, Zhihe Zhao
- Abstract要約: 仮想歯科治療計画における重要なステップは、CBCTから全ての歯骨構造を正確に切り離すことである。
従来の研究では、深層学習を用いたCBCTセグメンテーションのいくつかの方法が確立されている。
本稿では,CBCTセグメンテーションモデル,口腔内スキャン(IOS)セグメンテーションモデル,および3次元融合クラウン・ルート構造を生成する融合モデルからなる深部歯科用マルチモーダル分析フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.065668174732014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical step in virtual dental treatment planning is to accurately
delineate all tooth-bone structures from CBCT with high fidelity and accurate
anatomical information. Previous studies have established several methods for
CBCT segmentation using deep learning. However, the inherent resolution
discrepancy of CBCT and the loss of occlusal and dentition information largely
limited its clinical applicability. Here, we present a Deep Dental Multimodal
Analysis (DDMA) framework consisting of a CBCT segmentation model, an intraoral
scan (IOS) segmentation model (the most accurate digital dental model), and a
fusion model to generate 3D fused crown-root-bone structures with high fidelity
and accurate occlusal and dentition information. Our model was trained with a
large-scale dataset with 503 CBCT and 28,559 IOS meshes manually annotated by
experienced human experts. For CBCT segmentation, we use a five-fold cross
validation test, each with 50 CBCT, and our model achieves an average Dice
coefficient and IoU of 93.99% and 88.68%, respectively, significantly
outperforming the baselines. For IOS segmentations, our model achieves an mIoU
of 93.07% and 95.70% on the maxillary and mandible on a test set of 200 IOS
meshes, which are 1.77% and 3.52% higher than the state-of-art method. Our DDMA
framework takes about 20 to 25 minutes to generate the fused 3D mesh model
following the sequential processing order, compared to over 5 hours by human
experts. Notably, our framework has been incorporated into a software by a
clear aligner manufacturer, and real-world clinical cases demonstrate that our
model can visualize crown-root-bone structures during the entire orthodontic
treatment and can predict risks like dehiscence and fenestration. These
findings demonstrate the potential of multi-modal deep learning to improve the
quality of digital dental models and help dentists make better clinical
decisions.
- Abstract(参考訳): 仮想歯科治療計画における重要なステップは、CBCTから全ての歯骨構造を高い忠実度と正確な解剖学的情報で正確に切り離すことである。
従来の研究では、深層学習を用いたCBCTセグメンテーションのいくつかの方法が確立されている。
しかし,CBCTの分解能の相違と咬合・歯列情報の喪失は臨床応用性に大きく制限された。
本稿では, cbctセグメンテーションモデル, 口腔内スキャン (ios) セグメンテーションモデル (最も正確なデジタル歯科モデル) および融合モデルを用いて, 高い忠実度と正確な咬合・歯列情報を有する3次元融合クラウン・ルート骨構造を生成する, 深部歯科用マルチモーダル分析 (ddma) フレームワークを提案する。
私たちのモデルは503のcbctと28,559のiosメッシュを備えた大規模データセットでトレーニングされました。
CBCTセグメンテーションでは,50 CBCTの5倍のクロスバリデーションテストを用い,平均Dice係数とIoUは93.99%,IoUは88.68%であり,ベースラインを著しく上回っている。
iosのセグメンテーションでは、このモデルは、最新の方法よりも1.77%と3.52%高い200のiosメッシュのテストセットで、上顎と下顎で93.07%と95.70%のmiouを達成している。
我々のDDMAフレームワークは、連続処理順序に従って融合した3Dメッシュモデルを生成するのに約20~25分かかります。
特に、我々のフレームワークは、明確な整列器メーカーによってソフトウェアに組み込まれており、実際の臨床ケースでは、矯正治療全体を通してクラウン・ルート骨構造を可視化でき、脱ヒスメントやフェントレーションなどのリスクを予測することができる。
これらの知見は, デジタル歯科模型の品質向上と歯科医のより良い臨床判断を支援するマルチモーダル深層学習の可能性を示している。
関連論文リスト
- Instance Segmentation and Teeth Classification in Panoramic X-rays [35.8246552579468]
歯のセグメンテーションと認識は様々な歯科応用や歯科診断において重要である。
この記事では、U-NetとYOLOv8という2つのディープラーニングモデルのパイプラインを提供します。
我々は YOLOv8 と U-Net の機能を利用して, 歯のセグメンテーションの質と信頼性を改善した。
論文 参考訳(メタデータ) (2024-06-06T04:57:29Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - TSegFormer: 3D Tooth Segmentation in Intraoral Scans with Geometry
Guided Transformer [47.18526074157094]
歯科用歯冠および歯肉の詳細な3D情報を提供するために, 歯科用光学式歯内スキャナー (IOS) が広く用いられている。
既往の方法は複雑な境界においてエラーを起こしやすく、患者間で不満足な結果を示す。
マルチタスク3Dトランスフォーマアーキテクチャを用いて, 歯の局所的および大域的依存関係とIOS点群における歯肉の象牙質の両方をキャプチャするTSegFormerを提案する。
論文 参考訳(メタデータ) (2023-11-22T08:45:01Z) - A Deep Learning Approach to Teeth Segmentation and Orientation from
Panoramic X-rays [1.7366868394060984]
本研究では, 深層学習技術を活用したパノラマX線画像からの歯のセグメンテーションと配向に対する包括的アプローチを提案する。
創傷セグメンテーションのために開発された人気モデルであるFUSegNetをベースとしたモデルを構築した。
主成分分析(PCA)により, 歯の配向を正確に推定する指向性バウンディングボックス(OBB)の生成を導入する。
論文 参考訳(メタデータ) (2023-10-26T06:01:25Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - TFormer: 3D Tooth Segmentation in Mesh Scans with Geometry Guided
Transformer [37.47317212620463]
光学式口腔内スキャナー (IOS) は, 歯冠および歯肉の3次元および高分解能な幾何学的情報を提供するデジタル歯科において広く用いられている。
従来の方法では, 複雑な歯歯列境界や歯肉境界にエラーが生じやすいため, 様々な患者に対して不満足な結果が生じることが多い。
大規模かつ高解像度の3D IOSデータセットを用いて評価した3Dトランスフォーマーアーキテクチャに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-29T15:20:54Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - A fully automated method for 3D individual tooth identification and
segmentation in dental CBCT [1.567576360103422]
本稿では,歯科用CBCT画像から3次元個別歯を同定・分別する完全自動化手法を提案する。
提案手法は,ディープラーニングに基づく階層型多段階モデルを構築することで,上記の課題に対処する。
実験結果から, 本法は歯の識別に93.35%のF1スコア, 個々の3次元歯のセグメンテーションに94.79%のDice類似係数を達成できた。
論文 参考訳(メタデータ) (2021-02-11T15:07:23Z) - Fully Automated and Standardized Segmentation of Adipose Tissue
Compartments by Deep Learning in Three-dimensional Whole-body MRI of
Epidemiological Cohort Studies [11.706960468832301]
全身MR画像から異なる脂肪組織成分の定量化と局在化が,代謝状態の解明に重要である。
本稿では,頑健で客観的なセグメンテーションを実現するために,3次元畳み込みニューラルネットワーク(DCNet)を提案する。
高速(5-7秒)かつ信頼性の高い脂肪組織セグメンテーションを高Dice重なりで得ることができる。
論文 参考訳(メタデータ) (2020-08-05T17:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。