論文の概要: Forming Auxiliary High-confident Instance-level Loss to Promote Learning from Label Proportions
- arxiv url: http://arxiv.org/abs/2411.10364v1
- Date: Fri, 15 Nov 2024 17:14:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:38:24.454871
- Title: Forming Auxiliary High-confident Instance-level Loss to Promote Learning from Label Proportions
- Title(参考訳): ラベル提案からの学習を促進する補助的高信頼インスタンスレベル損失の形成
- Authors: Tianhao Ma, Han Chen, Juncheng Hu, Yungang Zhu, Ximing Li,
- Abstract要約: ラベルパーセンテージ(LLP)からの学習は、各インスタンスのアノテートラベルではなく、インスタンスのバッグとバッグ内のクラスの割合を使用して分類器をトレーニングすることを目的としている。
本稿では,L2P-AHILを用いたLLP手法を提案する。
我々は,L2P-AHILが既存のベースライン法を超越し,バッグサイズが大きくなるにつれて性能向上がさらに重要であることを示す。
- 参考スコア(独自算出の注目度): 17.36538357653019
- License:
- Abstract: Learning from label proportions (LLP), i.e., a challenging weakly-supervised learning task, aims to train a classifier by using bags of instances and the proportions of classes within bags, rather than annotated labels for each instance. Beyond the traditional bag-level loss, the mainstream methodology of LLP is to incorporate an auxiliary instance-level loss with pseudo-labels formed by predictions. Unfortunately, we empirically observed that the pseudo-labels are are often inaccurate due to over-smoothing, especially for the scenarios with large bag sizes, hurting the classifier induction. To alleviate this problem, we suggest a novel LLP method, namely Learning from Label Proportions with Auxiliary High-confident Instance-level Loss (L^2P-AHIL). Specifically, we propose a dual entropy-based weight (DEW) method to adaptively measure the confidences of pseudo-labels. It simultaneously emphasizes accurate predictions at the bag level and avoids overly smoothed predictions. We then form high-confident instance-level loss with DEW, and jointly optimize it with the bag-level loss in a self-training manner. The experimental results on benchmark datasets show that L^2P-AHIL can surpass the existing baseline methods, and the performance gain can be more significant as the bag size increases.
- Abstract(参考訳): ラベルパーセンテージ(LLP)からの学習、すなわち弱い教師付き学習課題は、各インスタンスのアノテートラベルではなく、インスタンスのバッグとバッグ内のクラスの割合を使って分類器を訓練することを目的としている。
従来のバッグレベルの損失以外にも、LPPの主流となる方法論は、予測によって形成された擬似ラベルに補助的なインスタンスレベルの損失を組み込むことである。
残念なことに,特に大袋サイズのシナリオでは,擬似ラベルが過度な平滑化によって不正確な場合が多く,分類器の誘導が損なわれることが経験的に観察された。
この問題を軽減するために,我々は,Lanning from Label Proportions with Auxiliary High-confident Instance-level Loss (L^2P-AHIL)を提案する。
具体的には、擬似ラベルの信頼度を適応的に測定するための二重エントロピーベース重み(DEW)法を提案する。
同時にバッグレベルで正確な予測を強調し、過度に滑らかな予測を避ける。
次に、Dewで高信頼のインスタンスレベルの損失を発生させ、バッグレベルの損失を自己学習的に共同で最適化する。
ベンチマークデータセットを用いた実験結果から,L^2P-AHILは既存のベースライン法を上回り,バッグサイズが大きくなるにつれて性能が向上する可能性が示唆された。
関連論文リスト
- Theoretical Proportion Label Perturbation for Learning from Label Proportions in Large Bags [5.842419815638353]
ラベルパーセンテージ(LLP)からの学習は、バッグのラベルパーセンテージからインスタンスレベルの分類器を訓練する弱い教師付き学習である。
LLPの課題は、バッグ(バッグサイズ)のインスタンス数が多すぎると発生するため、従来のLPPメソッドはGPUメモリの制限のために困難である。
本研究の目的は,大型バッグから学習可能なLPP手法の開発である。
論文 参考訳(メタデータ) (2024-08-26T09:24:36Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - MixBag: Bag-Level Data Augmentation for Learning from Label Proportions [4.588028371034407]
ラベルパーセンテージ(LLP)からの学習は、有望な教師付き学習問題である。
そこで本研究では,MixBagと呼ばれるLPPのバッグレベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T07:06:50Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Semi-supervised Object Detection via Virtual Category Learning [68.26956850996976]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
具体的には、各混乱したサンプルに仮想圏(VC)が割り当てられる。
トレーニングサンプルと仮想カテゴリの間の埋め込み距離を指定することに起因する。
論文 参考訳(メタデータ) (2022-07-07T16:59:53Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Two-stage Training for Learning from Label Proportions [18.78148397471913]
ラベルパーセンテージ(LLP)からの学習は、グループ化されたトレーニングデータにおいてラベルパーセンテージを持つインスタンスレベルの分類器を学習することを目的としている。
ラベルノイズをさらに低減するために,混合戦略と対称クロスエントロピーを導入する。
我々のフレームワークはモデルに依存しず、広範な実験において魅力的なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2021-05-22T03:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。