論文の概要: MyGO: Make your Goals Obvious, Avoiding Semantic Confusion in Prostate Cancer Lesion Region Segmentation
- arxiv url: http://arxiv.org/abs/2507.17269v1
- Date: Wed, 23 Jul 2025 07:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.894683
- Title: MyGO: Make your Goals Obvious, Avoiding Semantic Confusion in Prostate Cancer Lesion Region Segmentation
- Title(参考訳): MyGO:前立腺癌病変領域の分節におけるセマンティック・コンフュージョンを回避する
- Authors: Zhengcheng Lin, Zuobin Ying, Zhenyu Li, Zhenyu Liu, Jian Lu, Weiping Ding,
- Abstract要約: 提案する新しいPixel Anchor Moduleは,スパースな機能アンカーの集合を見つけるためにモデルをガイドする。
このメカニズムはモデルの非線形表現能力を高め、病変領域内のセグメンテーション精度を向上させる。
PI-CAIデータセットでは,69.73%のIoUと74.32%のDiceスコアが得られた。
- 参考スコア(独自算出の注目度): 14.346163388200148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early diagnosis and accurate identification of lesion location and progression in prostate cancer (PCa) are critical for assisting clinicians in formulating effective treatment strategies. However, due to the high semantic homogeneity between lesion and non-lesion areas, existing medical image segmentation methods often struggle to accurately comprehend lesion semantics, resulting in the problem of semantic confusion. To address this challenge, we propose a novel Pixel Anchor Module, which guides the model to discover a sparse set of feature anchors that serve to capture and interpret global contextual information. This mechanism enhances the model's nonlinear representation capacity and improves segmentation accuracy within lesion regions. Moreover, we design a self-attention-based Top_k selection strategy to further refine the identification of these feature anchors, and incorporate a focal loss function to mitigate class imbalance, thereby facilitating more precise semantic interpretation across diverse regions. Our method achieves state-of-the-art performance on the PI-CAI dataset, demonstrating 69.73% IoU and 74.32% Dice scores, and significantly improving prostate cancer lesion detection.
- Abstract(参考訳): 前立腺癌 (PCa) の早期診断と進展の同定は, 治療戦略の定式化に有用である。
しかし、病変と非病変領域間の意味的同質性が高いため、既存の医用画像分割法は病変のセマンティクスを正確に理解するのに苦慮することが多く、意味的混乱が生じる。
この課題に対処するために,Pixel Anchor Moduleを提案する。このモジュールは,グローバルなコンテキスト情報をキャプチャして解釈するための,スパースな機能アンカーのセットを見つけるためのモデルである。
このメカニズムはモデルの非線形表現能力を高め、病変領域内のセグメンテーション精度を向上させる。
さらに,自己注意に基づくTop_k選択戦略を設計し,これらの特徴アンカーの識別をさらに洗練し,クラス不均衡を軽減するために焦点損失関数を組み込むことにより,多様な領域にまたがるより正確な意味解釈を容易にする。
IoU 69.73% と Dice 74.32% のスコアを示し,前立腺癌病変の検出を著しく改善した。
関連論文リスト
- Shifting Focus: From Global Semantics to Local Prominent Features in Swin-Transformer for Knee Osteoarthritis Severity Assessment [42.09313885494969]
我々はSwin Transformerの能力を利用して階層的な枠組みを通じて画像内の空間的依存関係を識別する。
我々の新しい貢献は、局所的な特徴表現を精細化し、分類器の最終的な分布に特化することにある。
Knee osteoArthritis (KOA) グレード分類のための2つの確立されたベンチマークを広範囲に検証した結果,本モデルは有意な堅牢性と精度を示した。
論文 参考訳(メタデータ) (2024-03-15T01:09:58Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Unsupervised Domain Adaptation for Brain Vessel Segmentation through
Transwarp Contrastive Learning [46.248404274124546]
教師なし領域適応(Unsupervised domain adapt, UDA)は、ラベル付きソース分布とラベル付きターゲット分布との整合を目的とし、ドメイン不変な予測モデルを得る。
本稿では,ラベル付きソースと非ラベル付きターゲット分布の領域間ギャップを狭めるための,UDAのための簡易かつ強力なコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T10:01:22Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Robust and Generalisable Segmentation of Subtle Epilepsy-causing
Lesions: a Graph Convolutional Approach [1.180462901068842]
FCD(Foccal cortical dysplasia)は薬剤抵抗性てんかんの主要な原因であり、手術で治療できる。
そのため、手動の傷口マスクは高価で、限定的であり、ラッター間変動が大きい。
本稿では,グラフ畳み込みネットワーク(GCN)を用いたセマンティックセグメンテーション(セマンティックセグメンテーション,セマンティックセグメンテーション,セマンティックセグメンテーション)の手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T08:56:56Z) - Self-Supervised Few-Shot Learning for Ischemic Stroke Lesion
Segmentation [8.668715385199889]
トレーニング中に1つの注記標本のみを用いて,虚血性病変の分節に対する数発のセグメンテーション法を提案する。
我々はComputd Tomography Perfusion scanから生成されたカラーコードパラメトリックマップを利用する。
注記1例につき平均Diceスコア0.58が虚血性病変の分節に対して達成される。
論文 参考訳(メタデータ) (2023-03-02T15:10:08Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Self-Supervised Equivariant Regularization Reconciles Multiple Instance
Learning: Joint Referable Diabetic Retinopathy Classification and Lesion
Segmentation [3.1671604920729224]
病変の出現は、糖尿病網膜症(rDR)と非参照性DRを区別する重要な手がかりである。
既存の大規模DRデータセットの多くは、ピクセルベースのアノテーションではなく、画像レベルのラベルのみを含む。
本稿では,自己教師付き同変学習と注目型マルチインスタンス学習を活用し,この問題に対処する。
我々はEyepacsデータセット上で広範囲な検証実験を行い、0.958の受信器動作特性曲線(AU ROC)の領域を達成し、現在の最先端アルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-10-12T06:26:05Z) - Weakly-Supervised Universal Lesion Segmentation with Regional Level Set
Loss [16.80758525711538]
高分解能ネットワーク(HRNet)に基づく新しい弱監督ユニバーサル病変分割法を提案する。
AHRNetはデコーダ、デュアルアテンション、スケールアテンション機構を含む高度な高解像度のディープイメージ機能を提供する。
本手法は,公開大規模deeplesionデータセットとホールドアウトテストセットにおいて,最高の性能を実現する。
論文 参考訳(メタデータ) (2021-05-03T23:33:37Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Weakly-Supervised Lesion Segmentation on CT Scans using Co-Segmentation [18.58056402884405]
CTスキャンにおける病変分割は,病変・腫瘍の進展を正確に観察するための重要なステップである。
現在の慣行は、固形腫瘍の反応評価基準と呼ばれる不正確な代用に依存している。
本稿では,畳み込みニューラルネットワークを用いた弱教師付き病変分割法を提案する。
論文 参考訳(メタデータ) (2020-01-23T15:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。