論文の概要: MedCAL-Bench: A Comprehensive Benchmark on Cold-Start Active Learning with Foundation Models for Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2508.03441v1
- Date: Tue, 05 Aug 2025 13:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.984306
- Title: MedCAL-Bench: A Comprehensive Benchmark on Cold-Start Active Learning with Foundation Models for Medical Image Analysis
- Title(参考訳): MedCAL-Bench:医療画像解析の基礎モデルによるコールドスタートアクティブラーニングの総合ベンチマーク
- Authors: Ning Zhu, Xiaochuan Ma, Shaoting Zhang, Guotai Wang,
- Abstract要約: CSAL (Cold-Start Active Learning) は、事前の知識を必要とせずに、アノテーションのための情報的サンプルを選択することを目的としている。
既存のCSALメソッドの多くは、特徴抽出のためにターゲットデータセットの自己監視学習(SSL)に依存している。
MedCAL-Benchは,医療画像解析のためのFMベースのCSALベンチマークである。
- 参考スコア(独自算出の注目度): 15.350816812760314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cold-Start Active Learning (CSAL) aims to select informative samples for annotation without prior knowledge, which is important for improving annotation efficiency and model performance under a limited annotation budget in medical image analysis. Most existing CSAL methods rely on Self-Supervised Learning (SSL) on the target dataset for feature extraction, which is inefficient and limited by insufficient feature representation. Recently, pre-trained Foundation Models (FMs) have shown powerful feature extraction ability with a potential for better CSAL. However, this paradigm has been rarely investigated, with a lack of benchmarks for comparison of FMs in CSAL tasks. To this end, we propose MedCAL-Bench, the first systematic FM-based CSAL benchmark for medical image analysis. We evaluate 14 FMs and 7 CSAL strategies across 7 datasets under different annotation budgets, covering classification and segmentation tasks from diverse medical modalities. It is also the first CSAL benchmark that evaluates both the feature extraction and sample selection stages. Our experimental results reveal that: 1) Most FMs are effective feature extractors for CSAL, with DINO family performing the best in segmentation; 2) The performance differences of these FMs are large in segmentation tasks, while small for classification; 3) Different sample selection strategies should be considered in CSAL on different datasets, with Active Learning by Processing Surprisal (ALPS) performing the best in segmentation while RepDiv leading for classification. The code is available at https://github.com/HiLab-git/MedCAL-Bench.
- Abstract(参考訳): CSAL (Cold-Start Active Learning) は, 医用画像解析において, 限られたアノテーション予算の下で, アノテーション効率とモデル性能を向上させるために重要な, 事前知識のないアノテーションのための情報サンプルを選択することを目的としている。
既存のCSALの手法の多くは、特徴抽出のターゲットデータセットにSSL(Self-Supervised Learning)を頼りにしている。
近年、事前訓練されたファンデーションモデル (FM) は強力な特徴抽出能力を示し、CSALの改良の可能性を示している。
しかし、CSALタスクにおけるFMの比較のためのベンチマークが欠如しているため、このパラダイムはめったに研究されていない。
この目的のために,医療画像解析のためのFMベースのCSALベンチマークであるMedCAL-Benchを提案する。
評価基準の異なる7つのデータセットにまたがる14のFMと7つのCSAL戦略を評価し,多様な医療指標の分類とセグメンテーションタスクについて検討した。
また、機能抽出とサンプル選択の段階を評価する最初のCSALベンチマークでもある。
実験の結果、以下のことが判明した。
1)ほとんどのFMはCSALの効果的な特徴抽出器であり,DINOファミリーはセグメンテーションにおいて最善である。
2)これらのFMの性能差は,分割作業では大きいが,分類では小さい。
3) サンプル選択戦略はCSALで異なるデータセットで検討すべきであり, ALPS(Process Surprisal)によるアクティブラーニングはセグメンテーションにおいて最善であり, RepDivは分類において最善である。
コードはhttps://github.com/HiLab-git/MedCAL-Bench.comで公開されている。
関連論文リスト
- OpenPath: Open-Set Active Learning for Pathology Image Classification via Pre-trained Vision-Language Models [22.494367900953645]
病理画像分類のためのオープンセット能動的学習手法OpenPathを提案する。
OpenPathは、選択されたサンプルの純度が高いため、モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2025-06-18T09:47:45Z) - Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Zero-shot capability of SAM-family models for bone segmentation in CT scans [1.6018376109260821]
骨CTセグメント化のためのSAM- Family モデルのゼロショット機能をテストするために,非刺激的,最適' なプロンプト戦略を用いている。
結果から,最適設定はモデルの種類やサイズ,データセットの特徴,最適化対象などに依存することがわかった。
論文 参考訳(メタデータ) (2024-11-13T14:16:22Z) - Rethinking Pre-Trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.375943263571389]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - TAAL: Test-time Augmentation for Active Learning in Medical Image
Segmentation [7.856339385917824]
本稿では,セグメンテーションのための半教師付きアクティブラーニング手法であるTAAL(Test-time Augmentation for Active Learning)を提案する。
以上の結果から,TAALは既存のベースライン法よりも,完全教師付きと半教師付きの両方で優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T22:19:41Z) - CIM: Class-Irrelevant Mapping for Few-Shot Classification [58.02773394658623]
FSC(Few-shot Classification)は近年のホットな問題の一つである。
事前訓練されたFEMを評価する方法は、FSCコミュニティにおいて最も重要な焦点である。
CIM(Class-Irrelevant Mapping)と呼ばれるシンプルなフレキシブルな手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T03:26:24Z) - SSLM: Self-Supervised Learning for Medical Diagnosis from MR Video [19.5917119072985]
本稿では,磁気共鳴(MR)ビデオクリップから空間解剖学的表現を学習するための自己教師型学習手法を提案する。
提案する前文モデルは意味のある空間的文脈不変表現を学習する。
異なる実験は、プリテキストモデルによって学習された特徴が下流タスクで説明可能なパフォーマンスを提供することを示している。
論文 参考訳(メタデータ) (2021-04-21T12:01:49Z) - Shared Space Transfer Learning for analyzing multi-site fMRI data [83.41324371491774]
マルチボクセルパターン解析(MVPA)は、タスクベース機能磁気共鳴画像(fMRI)データから予測モデルを学習する。
MVPAはよく設計された機能セットと十分なサンプルサイズで機能する。
ほとんどのfMRIデータセットはノイズが多く、高次元で、収集するのに高価で、サンプルサイズも小さい。
本稿では,新しい伝達学習手法として共有空間移動学習(SSTL)を提案する。
論文 参考訳(メタデータ) (2020-10-24T08:50:26Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。