論文の概要: A Semi-Supervised Framework for Breast Ultrasound Segmentation with Training-Free Pseudo-Label Generation and Label Refinement
- arxiv url: http://arxiv.org/abs/2603.06167v1
- Date: Fri, 06 Mar 2026 11:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.571004
- Title: A Semi-Supervised Framework for Breast Ultrasound Segmentation with Training-Free Pseudo-Label Generation and Label Refinement
- Title(参考訳): トレーニング不要な擬似ラベル生成とラベルリファインメントによる乳房超音波の半監督フレームワーク
- Authors: Ruili Li, Jiayi Ding, Ruiyu Li, Yilun Jin, Shiwen Ge, Yuwen Zeng, Xiaoyong Zhang, Eichi Takaya, Jan Vrba, Noriyasu Homma,
- Abstract要約: 半教師付き学習は乳房超音波(BUS)画像セグメンテーションにおいて有望なパラダイムとして浮上している。
最近の視覚言語モデル(VLM)は、擬似ラベル生成の新しい機会を提供する。
トレーニング不要な擬似ラベル生成とラベルリファインメントを備えた半教師付きフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.084392697840771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised learning (SSL) has emerged as a promising paradigm for breast ultrasound (BUS) image segmentation, but it often suffers from unstable pseudo labels under extremely limited annotations, leading to inaccurate supervision and degraded performance. Recent vision-language models (VLMs) provide a new opportunity for pseudo-label generation, yet their effectiveness on BUS images remains limited because domain-specific prompts are difficult to transfer. To address this issue, we propose a semi-supervised framework with training-free pseudo-label generation and label refinement. By leveraging simple appearance-based descriptions (e.g., dark oval), our method enables cross-domain structural transfer between natural and medical images, allowing VLMs to generate structurally consistent pseudo labels. These pseudo labels are used to warm up a static teacher that captures global structural priors of breast lesions. Combined with an exponential moving average teacher, we further introduce uncertainty entropy weighted fusion and adaptive uncertainty-guided reverse contrastive learning to improve boundary discrimination. Experiments on four BUS datasets demonstrate that our method achieves performance comparable to fully supervised models even with only 2.5% labeled data, significantly outperforming existing SSL approaches. Moreover, the proposed paradigm is readily extensible: for other imaging modalities or diseases, only a global appearance description is required to obtain reliable pseudo supervision, enabling scalable semi-supervised medical image segmentation under limited annotations.
- Abstract(参考訳): 半教師付き学習(SSL)は乳房超音波(BUS)画像セグメンテーションにおいて有望なパラダイムとして現れてきたが、非常に限定的なアノテーションの下で不安定な擬似ラベルに悩まされ、不正確な監督と劣化したパフォーマンスに繋がることが多い。
最近の視覚言語モデル(VLM)は、擬似ラベル生成の新しい機会を提供するが、ドメイン固有のプロンプトの転送が困難であるため、BUS画像上での有効性は制限されている。
この問題に対処するために,トレーニング不要な擬似ラベル生成とラベルリファインメントを備えた半教師付きフレームワークを提案する。
簡単な外見に基づく記述(例えばダーク楕円)を活用することで、自然画像と医用画像間のドメイン間構造移動を可能にし、VLMは構造的に一貫した擬似ラベルを生成することができる。
これらの擬似ラベルは、乳がんの世界的な構造的先行を捉えた静的な教師を温めるために使用される。
指数移動平均教師と組み合わせることで,不確実性エントロピー重み付き融合と適応的不確実性誘導型逆コントラスト学習を導入し,境界識別を改善した。
4つのBUSデータセットを用いた実験により,2.5%のラベル付きデータでも完全に教師付きモデルに匹敵する性能が得られた。
さらに,他の画像モダリティや疾患に対しては,信頼性の高い疑似監督を行うためにグローバルな外見記述しか必要とせず,限られたアノテーションの下で,スケーラブルな半教師付き医用画像セグメンテーションを可能にする。
関連論文リスト
- Semi-Supervised Biomedical Image Segmentation via Diffusion Models and Teacher-Student Co-Training [7.915123555266876]
セマンティックセグメンテーションの深層学習は, 医用画像の解剖学的, 病理学的構造を正確に同定する上で, 優れた成果を上げている。
多くの場合、大きなアノテートされたトレーニングデータセットを必要とするため、臨床環境でのスケーラビリティが制限される。
本稿では, バイオメディカルイメージセグメンテーションのための半教師型教員学生フレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-04-02T09:41:43Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching [13.5553526185399]
自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
近年、SAMのようなセグメンテーション基礎モデルは、自然画像に顕著な一般化性を示している。
本研究では, セグメンテーション基盤モデルを利用して擬似ラベルを生成する, 弱教師付きフレームワークを考案する。
論文 参考訳(メタデータ) (2024-07-18T14:27:54Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - RCPS: Rectified Contrastive Pseudo Supervision for Semi-Supervised
Medical Image Segmentation [26.933651788004475]
我々は、RCPS(Rectified Contrastive Pseudo Supervision)という、新しい半教師付きセグメンテーション手法を提案する。
RCPSは、修正された疑似監督とボクセルレベルのコントラスト学習を組み合わせて、半教師付きセグメンテーションの有効性を向上させる。
実験結果から, 半教師付き医用画像分割における最先端手法と比較して, 高いセグメンテーション性能が得られた。
論文 参考訳(メタデータ) (2023-01-13T12:03:58Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - Weakly-Supervised Cross-Domain Adaptation for Endoscopic Lesions
Segmentation [79.58311369297635]
異なるデータセットにまたがるトランスファー可能なドメイン不変知識を探索できる,新しい弱い教師付き病巣移動フレームワークを提案する。
wasserstein quantified transferability frameworkは、広い範囲の転送可能なコンテキスト依存性を強調するために開発されている。
新規な自己監督型擬似ラベル生成器は、送信困難かつ転送容易なターゲットサンプルの両方に対して、確実な擬似ピクセルラベルを等しく提供するように設計されている。
論文 参考訳(メタデータ) (2020-12-08T02:26:03Z) - A Teacher-Student Framework for Semi-supervised Medical Image
Segmentation From Mixed Supervision [62.4773770041279]
そこで我々は,臓器と病変のセグメンテーションのための教師と学生のスタイルに基づくセミ教師付き学習フレームワークを開発した。
我々は,本モデルがバウンディングボックスの品質に対して堅牢であることを示し,フル教師付き学習手法と比較した性能を実現する。
論文 参考訳(メタデータ) (2020-10-23T07:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。