論文の概要: T-Mamba: Frequency-Enhanced Gated Long-Range Dependency for Tooth 3D CBCT Segmentation
- arxiv url: http://arxiv.org/abs/2404.01065v1
- Date: Mon, 1 Apr 2024 11:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:35:23.905687
- Title: T-Mamba: Frequency-Enhanced Gated Long-Range Dependency for Tooth 3D CBCT Segmentation
- Title(参考訳): T-Mamba:3D CBCT切片の高周波拡張型ロングラウンジ依存性
- Authors: Jing Hao, Lei He, Kuo Feng Hung,
- Abstract要約: 歯科補綴診断に重要な3D画像の高精細化は, CBCT画像のノイズ, 低コントラスト, アーティファクトが原因で依然として困難である。
視覚マンバに共有位置符号化と周波数に基づく特徴を組み込んだT-マンバを提案する。
大規模な実験により、T-Mambaは公衆歯牙CBCTデータセット上で新しいSOTA結果を達成することが示された。
- 参考スコア(独自算出の注目度): 5.489693687317906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient tooth segmentation in three-dimensional (3D) imaging, critical for orthodontic diagnosis, remains challenging due to noise, low contrast, and artifacts in CBCT images. Both convolutional Neural Networks (CNNs) and transformers have emerged as popular architectures for image segmentation. However, their efficacy in handling long-range dependencies is limited due to inherent locality or computational complexity. To address this issue, we propose T-Mamba, integrating shared positional encoding and frequency-based features into vision mamba, to address limitations in spatial position preservation and feature enhancement in frequency domain. Besides, we also design a gate selection unit to integrate two features in spatial domain and one feature in frequency domain adaptively. T-Mamba is the first work to introduce frequency-based features into vision mamba. Extensive experiments demonstrate that T-Mamba achieves new SOTA results on the public Tooth CBCT dataset and outperforms previous SOTA methods by a large margin, i.e., IoU + 3.63%, SO + 2.43%, DSC +2.30%, HD -4.39mm, and ASSD -0.37mm. The code and models are publicly available at https://github.com/isbrycee/T-Mamba.
- Abstract(参考訳): CBCT画像のノイズ, コントラスト, アーティファクトが原因で, 歯科矯正診断に重要な3次元画像の高精細化が困難である。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーの両方が、イメージセグメンテーションの一般的なアーキテクチャとして登場した。
しかしながら、長距離依存の処理におけるそれらの有効性は、固有の局所性や計算の複雑さのために制限される。
そこで我々は,T-Mambaを提案する。このT-Mambaは,空間的位置保存の限界と周波数領域の機能強化に対処するため,共有位置符号化と周波数ベースの特徴を視覚マンバに統合する。
また、空間領域における2つの特徴と周波数領域における1つの特徴を適応的に統合するゲート選択ユニットを設計する。
T-Mambaは、視覚マンバに周波数ベースの機能を導入した最初の作品である。
大規模な実験により、T-Mambaは公衆の歯のCBCTデータセット上で新しいSOTA結果を達成し、従来のSOTAメソッドよりも大きなマージン、すなわちIoU + 3.63%、SO + 2.43%、DSC + 2.30%、HD -4.39mm、ASSD -0.37mmで優れていることが示されている。
コードとモデルはhttps://github.com/isbrycee/T-Mamba.comで公開されている。
関連論文リスト
- EM-Net: Efficient Channel and Frequency Learning with Mamba for 3D Medical Image Segmentation [3.6813810514531085]
我々は,EM-Netと呼ばれる新しい3次元医用画像セグメンテーションモデルを紹介し,その成功に触発されて,新しいマンバベースの3次元医用画像セグメンテーションモデルであるEM-Netを紹介した。
提案手法は,SOTAモデルのパラメータサイズをほぼ半分にし,訓練速度を2倍に向上させながら,より高精度なセグメンテーション精度を示すことを示す。
論文 参考訳(メタデータ) (2024-09-26T09:34:33Z) - Tri-Plane Mamba: Efficiently Adapting Segment Anything Model for 3D Medical Images [16.55283939924806]
3次元医用画像分割のための一般的なネットワークは、最近広範囲にわたる探索が行われている。
SAM(Segment Anything Model)の出現により、このモデルは2次元医用画像分割タスクにおいて優れた性能を得られるようになった。
1)局所的な深度レベルの情報を効率的に処理するために最適化されたマルチスケール3次元畳み込みアダプタ,2)長距離深度レベルの表現を捉えるために設計された三面体マンバモジュールである。
論文 参考訳(メタデータ) (2024-09-13T02:37:13Z) - Masked LoGoNet: Fast and Accurate 3D Image Analysis for Medical Domain [48.440691680864745]
我々はLoGoNetと呼ばれる新しいニューラルネットワークアーキテクチャを導入する。
LoGoNetは、LKA(Large Kernel Attention)とデュアルエンコーディング戦略を利用して、U字型アーキテクチャに新しい特徴抽出器を統合する。
大規模ラベル付きデータセットの欠如を補うために,3次元画像に適した新しいSSL方式を提案する。
論文 参考訳(メタデータ) (2024-02-09T05:06:58Z) - BTDNet: a Multi-Modal Approach for Brain Tumor Radiogenomic
Classification [14.547418131610188]
本稿ではMGMTプロモーターメチル化状態を予測するための新しいマルチモーダルアプローチBTDNetを提案する。
提案手法は, RSNA-ASNR-MICCAI BraTS 2021 Challengeにおける最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-05T11:56:06Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Semi-Supervised Hybrid Spine Network for Segmentation of Spine MR Images [14.190504802866288]
半教師付き複合脊椎ネットワーク (SSHSNet) という2段階のアルゴリズムを提案し, 同時椎体 (VBs) と椎間板 (IVDs) のセグメンテーションを実現する。
まず,2次元半監督型DeepLabv3+をクロス擬似監督を用いて構築し,スライス内特徴と粗いセグメンテーションを得た。
2段目では、3Dフル解像度のパッチベースのDeepLabv3+がスライス間情報を抽出するために構築された。
その結果,提案手法はデータ不均衡問題に対処する上で大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2022-03-23T02:57:14Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。