論文の概要: Anatomy-Guided Representation Learning Using a Transformer-Based Network for Thyroid Nodule Segmentation in Ultrasound Images
- arxiv url: http://arxiv.org/abs/2512.12662v1
- Date: Sun, 14 Dec 2025 12:20:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.369594
- Title: Anatomy-Guided Representation Learning Using a Transformer-Based Network for Thyroid Nodule Segmentation in Ultrasound Images
- Title(参考訳): 超音波画像における甲状腺結節分割のためのトランスフォーマーネットワークを用いた解剖誘導表現学習
- Authors: Muhammad Umar Farooq, Abd Ur Rehman, Azka Rehman, Muhammad Usman, Dong-Kyu Chae, Junaid Qadir,
- Abstract要約: SSMT-Netは、トランスフォーマー中心のエンコーダ特徴抽出機能を初期教師なしフェーズで強化する半スーパーバイズマルチタスクトランスフォーマーベースのネットワークである。
教師付きフェーズでは、モデルが結節分節、腺分節、サイズ推定を共同で最適化し、局所的特徴と大域的特徴を統合する。
TN3KとDDTIデータセットの評価では、SSMT-Netは最先端の手法よりも高い精度と堅牢性を示し、実際の臨床応用の可能性を示している。
- 参考スコア(独自算出の注目度): 16.78356926470714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate thyroid nodule segmentation in ultrasound images is critical for diagnosis and treatment planning. However, ambiguous boundaries between nodules and surrounding tissues, size variations, and the scarcity of annotated ultrasound data pose significant challenges for automated segmentation. Existing deep learning models struggle to incorporate contextual information from the thyroid gland and generalize effectively across diverse cases. To address these challenges, we propose SSMT-Net, a Semi-Supervised Multi-Task Transformer-based Network that leverages unlabeled data to enhance Transformer-centric encoder feature extraction capability in an initial unsupervised phase. In the supervised phase, the model jointly optimizes nodule segmentation, gland segmentation, and nodule size estimation, integrating both local and global contextual features. Extensive evaluations on the TN3K and DDTI datasets demonstrate that SSMT-Net outperforms state-of-the-art methods, with higher accuracy and robustness, indicating its potential for real-world clinical applications.
- Abstract(参考訳): 超音波画像における甲状腺結節の正確なセグメンテーションは診断と治療計画に重要である。
しかし, 結節と周囲組織とのあいまいな境界, 大きさのばらつき, 注釈付き超音波データの不足は, 自動セグメンテーションにおいて重要な課題である。
既存のディープラーニングモデルは、甲状腺からコンテキスト情報を取り込み、様々なケースで効果的に一般化するのに苦労している。
これらの課題に対処するため,SSMT-Netを提案する。Semi-Supervised Multi-Task Transformer-based Network。
教師付きフェーズでは、モデルが結節分節、腺分節、結節サイズ推定を共同で最適化し、局所的特徴と大域的特徴を統合する。
TN3KとDDTIデータセットの大規模な評価により、SSMT-Netは最先端の手法よりも高い精度と堅牢性を示し、実際の臨床応用の可能性を示している。
関連論文リスト
- Multi-encoder nnU-Net outperforms transformer models with self-supervised pretraining [0.0]
本研究は, 医用画像の解剖学的構造と病理的領域の自動同定と記述を含む, 医用画像セグメンテーションの課題に対処するものである。
本稿では,複数のMRIモダリティを別個のエンコーダで独立に処理するために設計された,自己教師型学習用マルチエンコーダnnU-Netアーキテクチャを提案する。
我々のマルチエンコーダnnU-Netは、Vanilla nnU-Net、SegResNet、Swin UNETRといった他のモデルを上回る93.72%のDice similarity Coefficient(DSC)を達成し、例外的な性能を示す。
論文 参考訳(メタデータ) (2025-04-04T14:31:06Z) - Ultrasound Image Segmentation of Thyroid Nodule via Latent Semantic
Feature Co-Registration [12.211161441766532]
本稿では,甲状腺結節分節の枠組みであるASTNを提案する。
アトラスおよび対象画像から潜在意味情報を抽出することにより、解剖学的構造の整合性を確保することができる。
また,共同登録の難しさを軽減するために,アトラス選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:18:48Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - TransAttUnet: Multi-level Attention-guided U-Net with Transformer for
Medical Image Segmentation [33.45471457058221]
本稿では,TransAttUnetと呼ばれるトランスフォーマーベースの医用画像セマンティックセマンティック・セマンティック・フレームワークを提案する。
特に,デコーダブロック間の複数スケールのスキップ接続を確立することで,セマンティック・スケールのアップサンプリング機能を集約する。
我々の手法は一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2021-07-12T09:17:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。