論文の概要: 3DTeethSAM: Taming SAM2 for 3D Teeth Segmentation
- arxiv url: http://arxiv.org/abs/2512.11557v1
- Date: Fri, 12 Dec 2025 13:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.784336
- Title: 3DTeethSAM: Taming SAM2 for 3D Teeth Segmentation
- Title(参考訳): 3DTeethSAM: 3次元歯のセグメンテーションのためのSAM2のテーピング
- Authors: Zhiguo Lu, Jianwen Lou, Mingjun Ma, Hairong Jin, Youyi Zheng, Kun Zhou,
- Abstract要約: 3DTeethSAMは、Segment Anything Model 2 (SAM2) の3次元歯のセグメンテーションへの適応である。
この方法が3DTeethSegベンチマークで検証され,高分解能3次元メッシュ上で91.90%のIoUを達成した。
- 参考スコア(独自算出の注目度): 26.743010197720675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D teeth segmentation, involving the localization of tooth instances and their semantic categorization in 3D dental models, is a critical yet challenging task in digital dentistry due to the complexity of real-world dentition. In this paper, we propose 3DTeethSAM, an adaptation of the Segment Anything Model 2 (SAM2) for 3D teeth segmentation. SAM2 is a pretrained foundation model for image and video segmentation, demonstrating a strong backbone in various downstream scenarios. To adapt SAM2 for 3D teeth data, we render images of 3D teeth models from predefined views, apply SAM2 for 2D segmentation, and reconstruct 3D results using 2D-3D projections. Since SAM2's performance depends on input prompts and its initial outputs often have deficiencies, and given its class-agnostic nature, we introduce three light-weight learnable modules: (1) a prompt embedding generator to derive prompt embeddings from image embeddings for accurate mask decoding, (2) a mask refiner to enhance SAM2's initial segmentation results, and (3) a mask classifier to categorize the generated masks. Additionally, we incorporate Deformable Global Attention Plugins (DGAP) into SAM2's image encoder. The DGAP enhances both the segmentation accuracy and the speed of the training process. Our method has been validated on the 3DTeethSeg benchmark, achieving an IoU of 91.90% on high-resolution 3D teeth meshes, establishing a new state-of-the-art in the field.
- Abstract(参考訳): 3次元歯のセグメンテーションは, 歯の局所化と3次元歯科モデルにおける意味的分類を含むが, 実際の歯列の複雑さにより, デジタル歯科において重要な課題である。
本稿では,3次元歯のセグメンテーションに対するセグメンテーションモデル2(SAM2)の適応である3DTeethSAMを提案する。
SAM2は、画像とビデオのセグメンテーションのための事前訓練された基礎モデルであり、様々な下流シナリオで強力なバックボーンを示している。
3D 歯データに SAM2 を適用するために, 事前に定義されたビューから 3D 歯モデルの画像を描画し, 2D 分割に SAM2 を適用し, 2D-3D 投影を用いて 3D 結果を再構成する。
SAM2の性能は入力プロンプトと初期出力にしばしば欠陥があり,そのクラスに依存しない性質から,(1)正確なマスク復号のために画像埋め込みから迅速な埋め込みを導出する高速埋め込み生成器,(2)SAM2の初期セグメンテーション結果を強化するマスク精細器,(3)生成されたマスク分類器の3つの軽量学習モジュールを導入する。
さらに,DGAP(Deformable Global Attention Plugins)をSAM2の画像エンコーダに組み込む。
DGAPは、セグメンテーション精度とトレーニングプロセスの速度の両方を強化する。
提案手法は3DTeethSegベンチマークで検証され,高分解能3次元メッシュ上で91.90%のIoUが達成され,新しい最先端技術が確立された。
関連論文リスト
- GeoSAM2: Unleashing the Power of SAM2 for 3D Part Segmentation [81.0871900167463]
GeoSAM2は3次元部分分割のためのプロンプト制御可能なフレームワークである。
テクスチャのないオブジェクトが与えられた場合、事前に定義された視点から正規写像とポイントマップを描画する。
部品の選択をガイドするシンプルな2Dプロンプト(クリックやボックス)を受け入れます。
予測されたマスクはオブジェクトにバックプロジェクションされ、ビューに集約される。
論文 参考訳(メタデータ) (2025-08-19T17:58:51Z) - RadSAM: Segmenting 3D radiological images with a 2D promptable model [4.9000940389224885]
1つのプロンプトから2次元モデルで3Dオブジェクトを分割する新しい手法であるRadSAMを提案する。
我々は,1つのプロンプトからCT画像に3Dオブジェクトを分割する能力を評価するためのベンチマークを導入する。
論文 参考訳(メタデータ) (2025-04-29T15:00:25Z) - DCSEG: Decoupled 3D Open-Set Segmentation using Gaussian Splatting [0.0]
本稿では,新しい3次元表現へのモジュラリティと適応性を確保するために,分離した3次元分割パイプラインを提案する。
我々は、合成および実世界の屋内データセットを評価し、同等のNeRFパイプラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-14T21:26:44Z) - MaskSAM: Towards Auto-prompt SAM with Mask Classification for Volumetric Medical Image Segmentation [17.25946659884426]
医用画像セグメンテーションのためのマスク分類プロンプトフリーフレームワークであるMaskSAMを提案する。
本手法は,AMOS2022,90.52%のDice上での最先端性能を実現し,nnUNetに比べて2.7%向上した。
論文 参考訳(メタデータ) (2024-03-21T03:28:24Z) - 3D-U-SAM Network For Few-shot Tooth Segmentation in CBCT Images [22.86724024199165]
本稿では, 3次元画像分割のための新しい3D-U-SAMネットワークを提案する。
3次元データセット上での2次元事前学習重み付けの問題を解決するために,畳み込み近似法を採用した。
本手法の有効性は, アブレーション実験, 比較実験, 試料サイズ実験で実証された。
論文 参考訳(メタデータ) (2023-09-20T02:32:09Z) - Segment Anything in 3D with Radiance Fields [83.14130158502493]
本稿では,Segment Anything Model (SAM) を一般化して3次元オブジェクトをセグメント化する。
提案手法をSA3D, 略してSegment Anything in 3Dと呼ぶ。
実験では,SA3Dが様々なシーンに適応し,数秒で3Dセグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-04-24T17:57:15Z) - An Implicit Parametric Morphable Dental Model [79.29420177904022]
歯および歯茎の3次元異形性モデルとして, 第一報を提出した。
これは、各歯と歯茎のコンポーネントワイド表現と、これら各コンポーネントの学習可能な潜在コードに基づいている。
我々の復元品質は、新しいアプリケーションを実現しつつ、最も先進的なグローバルな暗黙の表現と同等です。
論文 参考訳(メタデータ) (2022-11-21T12:23:54Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。