論文の概要: Decomposition Sampling for Efficient Region Annotations in Active Learning
- arxiv url: http://arxiv.org/abs/2512.07606v1
- Date: Mon, 08 Dec 2025 14:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.93294
- Title: Decomposition Sampling for Efficient Region Annotations in Active Learning
- Title(参考訳): アクティブラーニングにおける効率的な領域アノテーションの分解サンプリング
- Authors: Jingna Qiu, Frauke Wilm, Mathias Öttl, Jonas Utz, Maja Schlereth, Moritz Schillinger, Marc Aubreville, Katharina Breininger,
- Abstract要約: 本稿では,新しいアクティブラーニングサンプリング戦略として,分解サンプリング(DECOMP)を提案する。
イメージを擬似ラベルを使ってクラス固有のコンポーネントに分解し、各クラスから領域をサンプリングすることで、アノテーションの多様性を高める。
マイノリティクラスをサンプリングし、挑戦的なクラスのパフォーマンスを高めることで、ベースラインメソッドを一貫して上回る。
- 参考スコア(独自算出の注目度): 1.7632372877648474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning improves annotation efficiency by selecting the most informative samples for annotation and model training. While most prior work has focused on selecting informative images for classification tasks, we investigate the more challenging setting of dense prediction, where annotations are more costly and time-intensive, especially in medical imaging. Region-level annotation has been shown to be more efficient than image-level annotation for these tasks. However, existing methods for representative annotation region selection suffer from high computational and memory costs, irrelevant region choices, and heavy reliance on uncertainty sampling. We propose decomposition sampling (DECOMP), a new active learning sampling strategy that addresses these limitations. It enhances annotation diversity by decomposing images into class-specific components using pseudo-labels and sampling regions from each class. Class-wise predictive confidence further guides the sampling process, ensuring that difficult classes receive additional annotations. Across ROI classification, 2-D segmentation, and 3-D segmentation, DECOMP consistently surpasses baseline methods by better sampling minority-class regions and boosting performance on these challenging classes. Code is in https://github.com/JingnaQiu/DECOMP.git.
- Abstract(参考訳): アクティブラーニングは、アノテーションとモデルトレーニングのための最も有益なサンプルを選択することで、アノテーション効率を向上させる。
多くの先行研究は、分類タスクのための情報的イメージの選択に重点を置いているが、特に医用画像において、アノテーションがよりコストが高く、時間を要するような、より困難な予測設定について検討している。
領域レベルのアノテーションは、これらのタスクのイメージレベルのアノテーションよりも効率的であることが示されている。
しかし、既存のアノテーション領域選択法は、高い計算コストとメモリコスト、無関係な領域選択、不確実性サンプリングに大きく依存する。
本稿では,これらの制約に対処する新しいアクティブラーニングサンプリング戦略である分解サンプリング(DECOMP)を提案する。
イメージを擬似ラベルを使ってクラス固有のコンポーネントに分解し、各クラスから領域をサンプリングすることで、アノテーションの多様性を高める。
クラスワイドの予測信頼はサンプリングプロセスをさらにガイドし、難しいクラスが追加のアノテーションを受け取ることを保証します。
ROI分類、2次元セグメンテーション、および3次元セグメンテーション全体において、DECOMPは、マイノリティクラス領域のサンプリングをより良くし、これらの挑戦的なクラスのパフォーマンスを高めることによって、ベースラインメソッドを一貫して上回っている。
コードはhttps://github.com/JingnaQiu/DECOMP.gitにある。
関連論文リスト
- Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Leveraging image captions for selective whole slide image annotation [0.37334049820361814]
本稿では,モデルトレーニングを最適化する特定の画像領域の同定とアノテーションについて述べる。
プロトタイプサンプリングは、価値あるトレーニング情報を持つアノテーション領域を特定する際に、ランダムサンプリングや多様性サンプリングよりも効果的である。
本結果より, アノテーション領域の同定において, プロトタイプサンプリングの方が, ランダムサンプリングや多様性サンプリングよりも有効であることが示唆された。
論文 参考訳(メタデータ) (2024-07-08T20:05:21Z) - Annotation-Efficient Polyp Segmentation via Active Learning [45.59503015577479]
アノテーション効率の良いポリプセグメンテーションのための深層能動的学習フレームワークを提案する。
実際に,ポリプの予測マップと背景領域の類似性を調べることで,各試料の不確実性を測定する。
提案手法は,パブリックデータセットと大規模社内データセットの双方において,競合相手と比較して,最先端性能を実現していることを示す。
論文 参考訳(メタデータ) (2024-03-21T12:25:17Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - MuRAL: Multi-Scale Region-based Active Learning for Object Detection [20.478741635006116]
オブジェクト検出のためのマルチスケール領域ベースアクティブラーニング(MuRAL)と呼ばれる新しい手法を提案する。
MuRALは、様々なスケールの情報領域を特定して、よく学習されたオブジェクトのアノテーションコストを削減する。
提案手法は,Cityscapes および MS COCO データセットの粗粒度および細粒度ベースラインを網羅する。
論文 参考訳(メタデータ) (2023-03-29T12:52:27Z) - Aggregating Soft Labels from Crowd Annotations Improves Uncertainty Estimation Under Distribution Shift [43.69579155156202]
本稿では,ドメイン外環境での集団ラベルからの学習について,大規模な実証的研究を行った。
タスク間の一貫したパフォーマンスを実現するために,ソフトラベルを単純な平均で集約することを提案する。
論文 参考訳(メタデータ) (2022-12-19T12:40:18Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Semi-supervised Active Learning for Instance Segmentation via Scoring
Predictions [25.408505612498423]
インスタンスセグメンテーションのための新規かつ原則的な半教師付きアクティブ学習フレームワークを提案する。
具体的には,クラス,バウンディングボックス,マスクの手がかりを明示的に評価するトリプレットスコア予測(tsp)という不確実性サンプリング戦略を提案する。
医用画像データセットを用いた結果から,提案手法が有意義な方法で利用可能なデータから知識を具現化することを示す。
論文 参考訳(メタデータ) (2020-12-09T02:36:52Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。