論文の概要: MixBag: Bag-Level Data Augmentation for Learning from Label Proportions
- arxiv url: http://arxiv.org/abs/2308.08822v1
- Date: Thu, 17 Aug 2023 07:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 17:33:42.780950
- Title: MixBag: Bag-Level Data Augmentation for Learning from Label Proportions
- Title(参考訳): MixBag:ラベル提供から学ぶためのバグレベルデータ拡張
- Authors: Takanori Asanomi, Shinnosuke Matsuo, Daiki Suehiro, Ryoma Bise
- Abstract要約: ラベルパーセンテージ(LLP)からの学習は、有望な教師付き学習問題である。
そこで本研究では,MixBagと呼ばれるLPPのバッグレベルのデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 4.588028371034407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from label proportions (LLP) is a promising weakly supervised
learning problem. In LLP, a set of instances (bag) has label proportions, but
no instance-level labels are given. LLP aims to train an instance-level
classifier by using the label proportions of the bag. In this paper, we propose
a bag-level data augmentation method for LLP called MixBag, based on the key
observation from our preliminary experiments; that the instance-level
classification accuracy improves as the number of labeled bags increases even
though the total number of instances is fixed. We also propose a confidence
interval loss designed based on statistical theory to use the augmented bags
effectively. To the best of our knowledge, this is the first attempt to propose
bag-level data augmentation for LLP. The advantage of MixBag is that it can be
applied to instance-level data augmentation techniques and any LLP method that
uses the proportion loss. Experimental results demonstrate this advantage and
the effectiveness of our method.
- Abstract(参考訳): ラベル比例(LLP)からの学習は、有望な教師付き学習問題である。
LLPでは、一連のインスタンス(bag)はラベル比を持つが、インスタンスレベルのラベルは与えられない。
LLPは、バッグのラベル比を使ってインスタンスレベルの分類器を訓練することを目的としている。
本稿では,予備実験から得られた重要観測に基づいて,llpのバッグレベルのデータ拡張手法であるmixbagを提案し,全インスタンス数が固定されてもラベル付きバッグ数が増えるとインスタンスレベルの分類精度が向上することを示す。
また,拡張バッグを効果的に使用するための統計理論に基づく信頼区間損失を提案する。
我々の知る限り、これはLPPのためのバッグレベルのデータ拡張を提案する最初の試みである。
MixBagの利点は、インスタンスレベルのデータ拡張技術や比例損失を使用する任意のLPPメソッドに適用できる点である。
実験の結果,本手法の利点と有効性が示された。
関連論文リスト
- Learning from Label Proportions: Bootstrapping Supervised Learners via Belief Propagation [18.57840057487926]
LLP(Learning from Label Proportions)は、トレーニング中にバッグと呼ばれるインスタンスのグループに対して、アグリゲートレベルのラベルしか利用できない学習問題である。
この設定は、プライバシー上の配慮から、広告や医療などの領域で発生する。
本稿では,この問題に対して,反復的に2つの主要なステップを実行する新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T06:09:26Z) - Disambiguated Attention Embedding for Multi-Instance Partial-Label
Learning [68.56193228008466]
多くの実世界のタスクでは、関連するオブジェクトは、候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現することができる。
既存のMIPLアプローチは、各インスタンスに拡張候補ラベルセットを割り当て、インスタンスレベルのラベルからバッグレベルのラベルを集約することで、インスタンス空間のパラダイムに従っている。
本稿では,DEMIPLという直感的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T13:25:17Z) - Learning from Label Proportion with Online Pseudo-Label Decision by
Regret Minimization [14.318471874603212]
本稿では,後悔最小化を伴うオンライン擬似ラベル法に基づくLLP(Learning from Label Proportions)手法を提案する。
従来のLPP法とは対照的に,バッグサイズが大きくても効果的に機能する。
論文 参考訳(メタデータ) (2023-02-17T15:30:13Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Fast learning from label proportions with small bags [0.0]
ラベルパーセンテージ(LLP)から学ぶ場合、インスタンスはバッグにグループ化され、トレーニングバッグの相対クラスパーセンテージが与えられたインスタンス分類器を学習する。
本研究では,全ての一貫したラベルの組み合わせを明示的に考慮し,より効率的なアルゴリズムを設計できる小袋の事例に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-07T13:11:18Z) - Two-stage Training for Learning from Label Proportions [18.78148397471913]
ラベルパーセンテージ(LLP)からの学習は、グループ化されたトレーニングデータにおいてラベルパーセンテージを持つインスタンスレベルの分類器を学習することを目的としている。
ラベルノイズをさらに低減するために,混合戦略と対称クロスエントロピーを導入する。
我々のフレームワークはモデルに依存しず、広範な実験において魅力的なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2021-05-22T03:55:35Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。