論文の概要: Task-oriented Uncertainty Collaborative Learning for Label-Efficient Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2503.05682v1
- Date: Fri, 07 Mar 2025 18:44:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:20:51.944582
- Title: Task-oriented Uncertainty Collaborative Learning for Label-Efficient Brain Tumor Segmentation
- Title(参考訳): ラベル効率の良い脳腫瘍分割のためのタスク指向不確かさ協調学習
- Authors: Zhenxuan Zhang, Hongjie Wu, Jiahao Huang, Baihong Xie, Zhifan Gao, Junxian Du, Pete Lally, Guang Yang,
- Abstract要約: マルチコントラストMRI(Multi-Contrast magnetic resonance imaging)は、脳腫瘍の分節化と診断において重要な役割を担っている。
既存の手法は、異なるコントラストをまたいだマルチレベル特異性知覚の課題に直面している。
マルチコントラストMRIセグメンテーションのためのタスク指向不確実性協調学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.722672686635773
- License:
- Abstract: Multi-contrast magnetic resonance imaging (MRI) plays a vital role in brain tumor segmentation and diagnosis by leveraging complementary information from different contrasts. Each contrast highlights specific tumor characteristics, enabling a comprehensive understanding of tumor morphology, edema, and pathological heterogeneity. However, existing methods still face the challenges of multi-level specificity perception across different contrasts, especially with limited annotations. These challenges include data heterogeneity, granularity differences, and interference from redundant information. To address these limitations, we propose a Task-oriented Uncertainty Collaborative Learning (TUCL) framework for multi-contrast MRI segmentation. TUCL introduces a task-oriented prompt attention (TPA) module with intra-prompt and cross-prompt attention mechanisms to dynamically model feature interactions across contrasts and tasks. Additionally, a cyclic process is designed to map the predictions back to the prompt to ensure that the prompts are effectively utilized. In the decoding stage, the TUCL framework proposes a dual-path uncertainty refinement (DUR) strategy which ensures robust segmentation by refining predictions iteratively. Extensive experimental results on limited labeled data demonstrate that TUCL significantly improves segmentation accuracy (88.2\% in Dice and 10.853 mm in HD95). It shows that TUCL has the potential to extract multi-contrast information and reduce the reliance on extensive annotations. The code is available at: https://github.com/Zhenxuan-Zhang/TUCL_BrainSeg.
- Abstract(参考訳): マルチコントラストMRI(Multi-Contrast MRI)は、異なるコントラストからの相補的情報を活用することで、脳腫瘍の分節化と診断において重要な役割を担っている。
それぞれのコントラストは特定の腫瘍の特徴を強調しており、腫瘍形態、浮腫、病理異質性を包括的に理解することができる。
しかし、既存の手法は異なるコントラスト、特に限定的なアノテーションにおいて、多レベル特異性知覚の課題に直面している。
これらの課題には、データの異質性、粒度の違い、冗長な情報の干渉が含まれる。
これらの制約に対処するために,マルチコントラストMRIセグメンテーションのためのタスク指向の不確実性協調学習(TUCL)フレームワークを提案する。
TUCLは、コントラストやタスク間の特徴的相互作用を動的にモデル化する、プロンプト内およびクロスプロンプトアテンション機構を備えたタスク指向プロンプトアテンション(TPA)モジュールを導入している。
さらに、周期的なプロセスは、予測をプロンプトにマッピングして、プロンプトが効果的に活用されることを保証するように設計されている。
復号段階において、TUCLフレームワークは、反復的に予測を精製することによって堅牢なセグメンテーションを保証するデュアルパス不確実性改善(DUR)戦略を提案する。
ラベル付きデータに対する大規模な実験の結果、TUCLはセグメンテーションの精度を著しく改善する(Diceでは88.2\%、HD95では10.853 mm)。
TUCLは、マルチコントラスト情報を抽出し、広範囲なアノテーションに依存する可能性を秘めている。
コードはhttps://github.com/Zhenxuan-Zhang/TUCL_BrainSeg.comで公開されている。
関連論文リスト
- Enhanced MRI Representation via Cross-series Masking [48.09478307927716]
自己教師型でMRI表現を効果的に学習するためのクロスシリーズ・マスキング(CSM)戦略
メソッドは、パブリックデータセットと社内データセットの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T10:32:09Z) - Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical Information [1.7359724605901228]
脳腫瘍距離(BraTS)は、臨床診断、治療計画、脳腫瘍の進行のモニタリングにおいて重要な役割を果たす。
腫瘍の出現、サイズ、強度の変動により、自動セグメンテーションは難しい課題である。
セグメント化精度を高めるために多物理情報を統合するトランスフォーマーベースの新しいフレームワークである MultiPI-TransBTS を提案する。
論文 参考訳(メタデータ) (2024-09-18T17:35:19Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - United adversarial learning for liver tumor segmentation and detection
of multi-modality non-contrast MRI [5.857654010519764]
多モードNCMRIを用いた肝腫瘍の同時切除・検出のための統合対位学習フレームワーク(UAL)を提案する。
UALはまず、マルチビュー認識エンコーダを使用して、肝腫瘍のセグメンテーションと検出のための多モードNCMRI情報を抽出する。
パディングによる座標共有機構は,分割と検出のマルチタスクを統合し,複数のタスクを一つの識別器で組み合わせた対角学習を実現する。
論文 参考訳(メタデータ) (2022-01-07T18:54:07Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。