論文の概要: When Imbalance Comes Twice: Active Learning under Simulated Class Imbalance and Label Shift in Binary Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2601.06209v1
- Date: Thu, 08 Jan 2026 14:14:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.681159
- Title: When Imbalance Comes Twice: Active Learning under Simulated Class Imbalance and Label Shift in Binary Semantic Segmentation
- Title(参考訳): 不均衡が2倍になったとき--二項セマンティックセマンティックセグメンテーションにおける模擬クラス不均衡とラベルシフトの下でのアクティブラーニング
- Authors: Julien Combes, Alexandre Derville, Jean-François Coeurjolly,
- Abstract要約: Active Learningの目的は、ラベルのないデータセットから最も情報に富んだサンプルを選択することである。
これは、マシンビジョンや医用画像など、データの量が大きく、ラベル付けが高価である場合に有用である。
高度に不均衡なデータセットであっても、アクティブな学習戦略、特にエントロピーベースとコアセットの選択が興味深く効率的であることを示します。
- 参考スコア(独自算出の注目度): 41.99844472131922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of Active Learning is to select the most informative samples from an unlabelled set of data. This is useful in cases where the amount of data is large and labelling is expensive, such as in machine vision or medical imaging. Two particularities of machine vision are first, that most of the images produced are free of defects, and second, that the amount of images produced is so big that we cannot store all acquired images. This results, on the one hand, in a strong class imbalance in defect distribution and, on the other hand, in a potential label shift caused by limited storage. To understand how these two forms of imbalance affect active learning algorithms, we propose a simulation study based on two open-source datasets. We artificially create datasets for which we control the levels of class imbalance and label shift. Three standard active learning selection strategies are compared: random sampling, entropy-based selection, and core-set selection. We demonstrate that active learning strategies, and in particular the entropy-based and core-set selections, remain interesting and efficient even for highly imbalanced datasets. We also illustrate and measure the loss of efficiency that occurs in the situation a strong label shift.
- Abstract(参考訳): Active Learningの目的は、ラベルのないデータセットから最も情報に富んだサンプルを選択することである。
これは、マシンビジョンや医用画像など、データの量が大きく、ラベル付けが高価である場合に有用である。
マシンビジョンの2つの特徴は、生成した画像のほとんどに欠陥がなく、第2に、生成した画像の量があまりに大きいので、取得した画像をすべて保存できないことである。
この結果、一方では、欠陥分布の強いクラス不均衡と、ストレージの制限による潜在的なラベルシフトが生じる。
これらの2種類の不均衡がアクティブラーニングアルゴリズムにどのように影響するかを理解するために,2つのオープンソースデータセットに基づくシミュレーション研究を提案する。
我々は、クラス不均衡とラベルシフトのレベルを制御するデータセットを人工的に作成する。
ランダムサンプリング,エントロピーベース選択,コアセット選択という,3つの標準的なアクティブ学習戦略を比較した。
高度に不均衡なデータセットであっても、アクティブな学習戦略、特にエントロピーベースとコアセットの選択が興味深く効率的であることを示します。
また、強いラベルシフトの状況で発生する効率の損失を例証し、測定する。
関連論文リスト
- Multi-Label Contrastive Learning : A Comprehensive Study [48.81069245141415]
マルチラベルの分類は、研究と産業の両方において重要な領域として現れてきた。
対照的な学習をマルチラベル分類に適用することは、ユニークな課題である。
多様な環境における多ラベル分類のためのコントラスト学習損失の詳細な研究を行う。
論文 参考訳(メタデータ) (2024-11-27T20:20:06Z) - CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - An Exploration of Active Learning for Affective Digital Phenotyping [4.790279027864381]
アクティブラーニング(英: Active Learning)は、アルゴリズムを用いてラベルに対するデータポイントの有用なサブセットを計算的に選択するパラダイムである。
自然主義的コンピュータビジョン感情データ(特に異種で複雑なデータ空間)のアクティブラーニングについて検討する。
ゲームプレイ中に生成された情報を用いた能動的学習は,同一数のラベル付きフレームのランダム選択よりも若干優れていた。
論文 参考訳(メタデータ) (2022-04-05T01:01:32Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。