論文の概要: T-Mamba: A unified framework with Long-Range Dependency in dual-domain for 2D & 3D Tooth Segmentation
- arxiv url: http://arxiv.org/abs/2404.01065v2
- Date: Thu, 1 Aug 2024 07:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-02 14:14:35.344962
- Title: T-Mamba: A unified framework with Long-Range Dependency in dual-domain for 2D & 3D Tooth Segmentation
- Title(参考訳): T-Mamba:2次元および3次元歯分割のための2次元領域における長距離依存性を持つ統合フレームワーク
- Authors: Jing Hao, Yonghui Zhu, Lei He, Moyun Liu, James Kit Hon Tsoi, Kuo Feng Hung,
- Abstract要約: 歯のセグメンテーションは、2次元および3次元の歯データに固有の高ノイズと低コントラストのために困難に満ちている。
本稿では,T-Mambaを導入し,周波数ベースの特徴と共有バイポジションエンコーディングを視覚マンバに統合する。
T-Mambaは、視覚マンバに周波数ベースの機能を導入する最初の試みであり、その柔軟性により、2Dと3Dの歯のデータの両方を、別個のモジュールを必要とせずに処理できる。
- 参考スコア(独自算出の注目度): 4.882283647589811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tooth segmentation is a pivotal step in modern digital dentistry, essential for applications across orthodontic diagnosis and treatment planning. Despite its importance, this process is fraught with challenges due to the high noise and low contrast inherent in 2D and 3D tooth data. Both Convolutional Neural Networks (CNNs) and Transformers has shown promise in medical image segmentation, yet each method has limitations in handling long-range dependencies and computational complexity. To address this issue, this paper introduces T-Mamba, integrating frequency-based features and shared bi-positional encoding into vision mamba to address limitations in efficient global feature modeling. Besides, we design a gate selection unit to integrate two features in spatial domain and one feature in frequency domain adaptively. T-Mamba is the first work to introduce frequency-based features into vision mamba, and its flexibility allows it to process both 2D and 3D tooth data without the need for separate modules. Also, the TED3, a large-scale public tooth 2D dental X-ray dataset, has been presented in this paper. Extensive experiments demonstrate that T-Mamba achieves new SOTA results on a public tooth CBCT dataset and outperforms previous SOTA methods on TED3 dataset. The code and models are publicly available at: https://github.com/isbrycee/T-Mamba.
- Abstract(参考訳): 歯のセグメンテーションは現代のデジタル歯科における重要なステップであり、矯正診断や治療計画に応用するために不可欠である。
その重要性にもかかわらず、このプロセスは2Dおよび3D歯データに固有の高ノイズと低コントラストのため、困難に満ちている。
畳み込みニューラルネットワーク(CNN)とトランスフォーマー(Transformers)はどちらも、医療画像のセグメンテーションにおいて有望であることを示しているが、それぞれの手法には、長距離依存や計算複雑性を扱う制限がある。
この問題に対処するために,T-Mambaを導入し,効率的なグローバルな特徴モデリングの限界に対処するために,周波数ベースの特徴と共有バイポジションエンコーディングを視覚マンバに統合する。
さらに,空間領域における2つの特徴と周波数領域における1つの特徴を適応的に統合するゲート選択ユニットを設計する。
T-Mambaは、視覚マンバに周波数ベースの機能を導入する最初の試みであり、その柔軟性により、2Dと3Dの歯のデータの両方を、別個のモジュールを必要とせずに処理できる。
また, 大規模歯科用2D歯科用X線データセットであるTED3について紹介した。
広範囲にわたる実験により、T-Mambaは公衆歯CBCTデータセット上で新しいSOTA結果を達成し、TED3データセット上で以前のSOTAメソッドより優れていることが示された。
コードとモデルは、https://github.com/isbrycee/T-Mamba.comで公開されている。
関連論文リスト
- EM-Net: Efficient Channel and Frequency Learning with Mamba for 3D Medical Image Segmentation [3.6813810514531085]
我々は,EM-Netと呼ばれる新しい3次元医用画像セグメンテーションモデルを紹介し,その成功に触発されて,新しいマンバベースの3次元医用画像セグメンテーションモデルであるEM-Netを紹介した。
提案手法は,SOTAモデルのパラメータサイズをほぼ半分にし,訓練速度を2倍に向上させながら,より高精度なセグメンテーション精度を示すことを示す。
論文 参考訳(メタデータ) (2024-09-26T09:34:33Z) - Tri-Plane Mamba: Efficiently Adapting Segment Anything Model for 3D Medical Images [16.55283939924806]
3次元医用画像分割のための一般的なネットワークは、最近広範囲にわたる探索が行われている。
SAM(Segment Anything Model)の出現により、このモデルは2次元医用画像分割タスクにおいて優れた性能を得られるようになった。
1)局所的な深度レベルの情報を効率的に処理するために最適化されたマルチスケール3次元畳み込みアダプタ,2)長距離深度レベルの表現を捉えるために設計された三面体マンバモジュールである。
論文 参考訳(メタデータ) (2024-09-13T02:37:13Z) - Masked LoGoNet: Fast and Accurate 3D Image Analysis for Medical Domain [48.440691680864745]
我々はLoGoNetと呼ばれる新しいニューラルネットワークアーキテクチャを導入する。
LoGoNetは、LKA(Large Kernel Attention)とデュアルエンコーディング戦略を利用して、U字型アーキテクチャに新しい特徴抽出器を統合する。
大規模ラベル付きデータセットの欠如を補うために,3次元画像に適した新しいSSL方式を提案する。
論文 参考訳(メタデータ) (2024-02-09T05:06:58Z) - BTDNet: a Multi-Modal Approach for Brain Tumor Radiogenomic
Classification [14.547418131610188]
本稿ではMGMTプロモーターメチル化状態を予測するための新しいマルチモーダルアプローチBTDNetを提案する。
提案手法は, RSNA-ASNR-MICCAI BraTS 2021 Challengeにおける最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-05T11:56:06Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Semi-Supervised Hybrid Spine Network for Segmentation of Spine MR Images [14.190504802866288]
半教師付き複合脊椎ネットワーク (SSHSNet) という2段階のアルゴリズムを提案し, 同時椎体 (VBs) と椎間板 (IVDs) のセグメンテーションを実現する。
まず,2次元半監督型DeepLabv3+をクロス擬似監督を用いて構築し,スライス内特徴と粗いセグメンテーションを得た。
2段目では、3Dフル解像度のパッチベースのDeepLabv3+がスライス間情報を抽出するために構築された。
その結果,提案手法はデータ不均衡問題に対処する上で大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2022-03-23T02:57:14Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。