論文の概要: Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation
- arxiv url: http://arxiv.org/abs/2204.08797v1
- Date: Tue, 19 Apr 2022 10:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 20:09:44.681785
- Title: Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation
- Title(参考訳): 2ストリームグラフ畳み込みネットワークによる口腔内スキャナ画像セグメンテーション
- Authors: Yue Zhao, Lingming Zhang, Yang Liu, Deyu Meng, Zhiming Cui, Chenqiang
Gao, Xinbo Gao, Chunfeng Lian, Dinggang Shen
- Abstract要約: 本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
- 参考スコア(独自算出の注目度): 133.02190910009384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Precise segmentation of teeth from intra-oral scanner images is an essential
task in computer-aided orthodontic surgical planning. The state-of-the-art deep
learning-based methods often simply concatenate the raw geometric attributes
(i.e., coordinates and normal vectors) of mesh cells to train a single-stream
network for automatic intra-oral scanner image segmentation. However, since
different raw attributes reveal completely different geometric information, the
naive concatenation of different raw attributes at the (low-level) input stage
may bring unnecessary confusion in describing and differentiating between mesh
cells, thus hampering the learning of high-level geometric representations for
the segmentation task. To address this issue, we design a two-stream graph
convolutional network (i.e., TSGCN), which can effectively handle inter-view
confusion between different raw attributes to more effectively fuse their
complementary information and learn discriminative multi-view geometric
representations. Specifically, our TSGCN adopts two input-specific
graph-learning streams to extract complementary high-level geometric
representations from coordinates and normal vectors, respectively. Then, these
single-view representations are further fused by a self-attention module to
adaptively balance the contributions of different views in learning more
discriminative multi-view representations for accurate and fully automatic
tooth segmentation. We have evaluated our TSGCN on a real-patient dataset of
dental (mesh) models acquired by 3D intraoral scanners. Experimental results
show that our TSGCN significantly outperforms state-of-the-art methods in 3D
tooth (surface) segmentation. Github:
https://github.com/ZhangLingMing1/TSGCNet.
- Abstract(参考訳): 口腔内スキャナー画像からの歯の精密分割は, コンピュータ支援型矯正手術計画において重要な課題である。
最先端のディープラーニングベースの手法は、メッシュセルの生の幾何学的属性(座標と正規ベクトル)を単純に結合して、単一のストリームネットワークを訓練し、自動的に口内スキャナイメージのセグメンテーションを自動化する。
しかし、異なる原属性が全く異なる幾何学的情報を示すため、(低レベルの)入力段階における異なる原属性の内在的結合は、メッシュセル間の記述と識別において不要な混乱をもたらす可能性があるため、セグメンテーションタスクにおける高レベルの幾何学的表現の学習を妨げる。
この問題に対処するために,2ストリームグラフ畳み込みネットワーク(TSGCN)を設計し,異なる属性間のビュー間混乱を効果的に処理し,補完情報をより効果的に融合させ,識別的多視点幾何表現を学習する。
特に, tsgcnは2つの入力固有のグラフ学習ストリームを採用し, 座標と正規ベクトルから相補的な高レベルな幾何学表現を抽出する。
そして、これらのシングルビュー表現は、精度良く完全に自動化された歯のセグメント化のためのより識別的なマルチビュー表現を学ぶ際に、異なるビューの貢献を適応的にバランスさせるセルフアテンションモジュールによってさらに融合される。
3次元口腔内スキャナーで獲得した歯科用(mesh)モデルの患者データを用いてtsgcnを評価した。
実験の結果, TSGCNは3次元歯(表面)セグメンテーションにおいて, 最先端の方法よりも有意に優れていた。
Github: https://github.com/ZhangLingMing1/TSGCNet
関連論文リスト
- Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Prediction of Geometric Transformation on Cardiac MRI via Convolutional
Neural Network [13.01021780124613]
画像に適用される幾何学的変換を認識するために,ConvNetsを訓練して医用画像の特徴を学習することを提案する。
幾何学的変換を容易に予測できる簡単な自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2022-11-12T11:29:14Z) - Omni-Seg+: A Scale-aware Dynamic Network for Pathological Image
Segmentation [13.182646724406291]
糸球体の断面領域は、管周囲の毛細血管の64倍の大きさである。
マルチオブジェクト(6つの組織型)とマルチスケール(5Xから40Xスケール)の画像セグメンテーションを実現する,スケール対応の動的ニューラルネットワークであるOmni-Seg+ネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-27T21:09:55Z) - Multi-organ Segmentation Network with Adversarial Performance Validator [10.775440368500416]
本稿では,2次元から3次元のセグメンテーションフレームワークに対向的な性能検証ネットワークを導入する。
提案したネットワークは, 2次元粗い結果から3次元高品質なセグメンテーションマスクへの変換を行い, 共同最適化によりセグメンテーション精度が向上する。
NIH膵分節データセットの実験では、提案したネットワークが小臓器分節の最先端の精度を達成し、過去の最高性能を上回った。
論文 参考訳(メタデータ) (2022-04-16T18:00:29Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。