論文の概要: SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching
- arxiv url: http://arxiv.org/abs/2407.13553v1
- Date: Thu, 18 Jul 2024 14:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 15:00:55.963002
- Title: SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching
- Title(参考訳): 不確かさを意識したクロストレーニングによるSAM-Driven Weakly Supervised Nodule Segmentation
- Authors: Xingyue Zhao, Peiqi Li, Xiangde Luo, Meng Yang, Shi Chang, Zhongyu Li,
- Abstract要約: 自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
近年、SAMのようなセグメンテーション基礎モデルは、自然画像に顕著な一般化性を示している。
本研究では, セグメンテーション基盤モデルを利用して擬似ラベルを生成する, 弱教師付きフレームワークを考案する。
- 参考スコア(独自算出の注目度): 13.5553526185399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated nodule segmentation is essential for computer-assisted diagnosis in ultrasound images. Nevertheless, most existing methods depend on precise pixel-level annotations by medical professionals, a process that is both costly and labor-intensive. Recently, segmentation foundation models like SAM have shown impressive generalizability on natural images, suggesting their potential as pseudo-labelers. However, accurate prompts remain crucial for their success in medical images. In this work, we devise a novel weakly supervised framework that effectively utilizes the segmentation foundation model to generate pseudo-labels from aspect ration annotations for automatic nodule segmentation. Specifically, we develop three types of bounding box prompts based on scalable shape priors, followed by an adaptive pseudo-label selection module to fully exploit the prediction capabilities of the foundation model for nodules. We also present a SAM-driven uncertainty-aware cross-teaching strategy. This approach integrates SAM-based uncertainty estimation and label-space perturbations into cross-teaching to mitigate the impact of pseudo-label inaccuracies on model training. Extensive experiments on two clinically collected ultrasound datasets demonstrate the superior performance of our proposed method.
- Abstract(参考訳): 自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
それにもかかわらず、既存のほとんどの方法は医療専門家による正確なピクセルレベルのアノテーションに依存しており、これはコストが高く、労働集約的なプロセスである。
近年、SAMのようなセグメンテーション基礎モデルは自然画像に顕著な一般化性を示し、擬似ラベルとしての可能性を示している。
しかし、医療画像において、正確なプロンプトは依然として不可欠である。
本研究では, 自動結節分割のためのアスペクトレーションアノテーションから擬似ラベルを生成するために, セグメンテーション基盤モデルを効果的に活用する, 弱教師付きフレームワークを考案する。
具体的には,3種類の有界箱プロンプトを開発し,次に適応的な擬似ラベル選択モジュールを用いてノジュールの基本モデルの予測能力をフル活用する。
また,SAM駆動型不確実性認識型クロスティーチング戦略を提案する。
この手法はSAMに基づく不確実性推定とラベル空間の摂動を相互学習に統合し、擬似ラベル不正確さがモデルトレーニングに与える影響を軽減する。
臨床的に収集した2つの超音波データセットに対する大規模な実験により,提案手法の優れた性能が示された。
関連論文リスト
- Cross Prompting Consistency with Segment Anything Model for Semi-supervised Medical Image Segmentation [44.54301473673582]
半教師付き学習(SSL)は,医用画像のセグメンテーションにおいて顕著な進歩を遂げている。
SAM(Segment Anything Model)のような視覚基盤モデルの最近の発展は、顕著な適応性を示している。
半教師型医用画像分割のためのセグメンテーションモデル(CPC-SAM)を用いたクロスプロンプト整合性手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:43:20Z) - Ultrasound Nodule Segmentation Using Asymmetric Learning with Simple Clinical Annotation [25.459627476201646]
自動結節分割法における超音波診断から直接, 簡単なアスペクト比アノテーションを用いることを提案する。
アスペクト比アノテーションを2種類の擬似ラベルで拡張することにより、非対称学習フレームワークを開発する。
臨床的に収集した2つの超音波データセット(甲状腺と乳房)を用いた実験により,提案手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-04-23T09:07:04Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Morphology-Enhanced CAM-Guided SAM for weakly supervised Breast Lesion Segmentation [7.747608350830482]
早期乳房超音波画像における病変の断片化を弱体化するための新しい枠組みを提案する。
本手法は,形態的拡張とクラスアクティベーションマップ(CAM)誘導局所化を用いた。
このアプローチはピクセルレベルのアノテーションを必要としないため、データアノテーションのコストが削減される。
論文 参考訳(メタデータ) (2023-11-18T22:06:04Z) - Self-training with dual uncertainty for semi-supervised medical image
segmentation [9.538419502275975]
従来の自己学習手法は、反復学習のための擬似ラベルを生成することによって、ラベル付きデータ不足の問題を部分的に解決することができる。
サンプルレベルと画素レベルの不確実性を加えて,自己学習フレームワークに基づくトレーニングプロセスの安定化を図る。
提案手法は,同じ設定下で両方のデータセットのセグメンテーション性能を向上する。
論文 参考訳(メタデータ) (2023-04-10T07:57:24Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Analysing the effectiveness of a generative model for semi-supervised
medical image segmentation [23.898954721893855]
自動セグメンテーションにおける最先端技術は、U-Netのような差別モデルを用いて、教師付き学習のままである。
半教師付き学習(SSL)は、より堅牢で信頼性の高いモデルを得るために、重複のないデータの豊富さを活用する。
セマンティックGANのような深層生成モデルは、医療画像分割問題に取り組むための真に実行可能な代替手段である。
論文 参考訳(メタデータ) (2022-11-03T15:19:59Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。