論文の概要: TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation
- arxiv url: http://arxiv.org/abs/2012.13697v1
- Date: Sat, 26 Dec 2020 08:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 03:08:12.281763
- Title: TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation
- Title(参考訳): TSGCNet:2ストリームグラフ畳み込みネットワークを用いた3次元歯科モデルセグメンテーションのための識別幾何学的特徴学習
- Authors: Lingming Zhang, Yue Zhao, Deyu Meng, Zhiming Cui, Chenqiang Gao, Xinbo
Gao, Chunfeng Lian, Dinggang Shen
- Abstract要約: 2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
- 参考スコア(独自算出の注目度): 141.2690520327948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to segment teeth precisely from digitized 3D dental models is an
essential task in computer-aided orthodontic surgical planning. To date, deep
learning based methods have been popularly used to handle this task.
State-of-the-art methods directly concatenate the raw attributes of 3D inputs,
namely coordinates and normal vectors of mesh cells, to train a single-stream
network for fully-automated tooth segmentation. This, however, has the drawback
of ignoring the different geometric meanings provided by those raw attributes.
This issue might possibly confuse the network in learning discriminative
geometric features and result in many isolated false predictions on the dental
model. Against this issue, we propose a two-stream graph convolutional network
(TSGCNet) to learn multi-view geometric information from different geometric
attributes. Our TSGCNet adopts two graph-learning streams, designed in an
input-aware fashion, to extract more discriminative high-level geometric
representations from coordinates and normal vectors, respectively. These
feature representations learned from the designed two different streams are
further fused to integrate the multi-view complementary information for the
cell-wise dense prediction task. We evaluate our proposed TSGCNet on a
real-patient dataset of dental models acquired by 3D intraoral scanners, and
experimental results demonstrate that our method significantly outperforms
state-of-the-art methods for 3D shape segmentation.
- Abstract(参考訳): デジタル化された3次元歯科モデルから歯を正確に切り離す能力は,コンピュータ支援歯科矯正計画において必須の課題である。
これまで、ディープラーニングに基づく手法は、このタスクの処理に広く用いられてきた。
最先端の手法は、メッシュセルの座標と通常のベクトルである3d入力の生属性を直接結合し、完全に自動化された歯のセグメンテーションのための単一ストリームネットワークを訓練する。
しかし、これはこれらの原属性によって提供される異なる幾何学的意味を無視する欠点がある。
この問題は、識別幾何学的特徴を学ぶ上でネットワークを混乱させ、歯科モデルの多くの孤立した誤った予測をもたらす可能性がある。
本稿では,異なる幾何学的属性から多視点幾何学情報を学習するための2ストリームグラフ畳み込みネットワーク(tsgcnet)を提案する。
我々のTSGCNetは2つのグラフ学習ストリームを入力認識方式で設計し、座標と正規ベクトルからより識別性の高い高次幾何表現を抽出する。
設計した2つの異なるストリームから得られたこれらの特徴表現はさらに融合し、セルワイドな予測タスクのための多視点補完情報を統合する。
3次元口腔内スキャナーで取得した歯科モデルの実患者データセット上でのtsgcnetの評価を行い,本手法が3次元形状セグメンテーションの最先端法を大幅に上回っていることを実験的に示す。
関連論文リスト
- Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - TFormer: 3D Tooth Segmentation in Mesh Scans with Geometry Guided
Transformer [37.47317212620463]
光学式口腔内スキャナー (IOS) は, 歯冠および歯肉の3次元および高分解能な幾何学的情報を提供するデジタル歯科において広く用いられている。
従来の方法では, 複雑な歯歯列境界や歯肉境界にエラーが生じやすいため, 様々な患者に対して不満足な結果が生じることが多い。
大規模かつ高解像度の3D IOSデータセットを用いて評価した3Dトランスフォーマーアーキテクチャに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-29T15:20:54Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - 3D Facial Matching by Spiral Convolutional Metric Learning and a
Biometric Fusion-Net of Demographic Properties [0.0]
顔認識は広く受け入れられている生体認証ツールであり、顔には人物の身元に関する情報が多数含まれている。
本研究では,2ステップのニューラルベースパイプラインを用いて3次元顔形状と複数のDNA関連特性をマッチングする。
生体認証のための10倍のクロスバリデーションにより得られた結果は、複数の特性を組み合わせることでより強力な生体認証システムが得られることを示している。
論文 参考訳(メタデータ) (2020-09-10T09:31:47Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。