論文の概要: MixBag: Bag-Level Data Augmentation for Learning from Label Proportions
- arxiv url: http://arxiv.org/abs/2308.08822v1
- Date: Thu, 17 Aug 2023 07:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 17:33:42.780950
- Title: MixBag: Bag-Level Data Augmentation for Learning from Label Proportions
- Title(参考訳): MixBag:ラベル提供から学ぶためのバグレベルデータ拡張
- Authors: Takanori Asanomi, Shinnosuke Matsuo, Daiki Suehiro, Ryoma Bise
- Abstract要約: ラベルパーセンテージ(LLP)からの学習は、有望な教師付き学習問題である。
そこで本研究では,MixBagと呼ばれるLPPのバッグレベルのデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 4.588028371034407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from label proportions (LLP) is a promising weakly supervised
learning problem. In LLP, a set of instances (bag) has label proportions, but
no instance-level labels are given. LLP aims to train an instance-level
classifier by using the label proportions of the bag. In this paper, we propose
a bag-level data augmentation method for LLP called MixBag, based on the key
observation from our preliminary experiments; that the instance-level
classification accuracy improves as the number of labeled bags increases even
though the total number of instances is fixed. We also propose a confidence
interval loss designed based on statistical theory to use the augmented bags
effectively. To the best of our knowledge, this is the first attempt to propose
bag-level data augmentation for LLP. The advantage of MixBag is that it can be
applied to instance-level data augmentation techniques and any LLP method that
uses the proportion loss. Experimental results demonstrate this advantage and
the effectiveness of our method.
- Abstract(参考訳): ラベル比例(LLP)からの学習は、有望な教師付き学習問題である。
LLPでは、一連のインスタンス(bag)はラベル比を持つが、インスタンスレベルのラベルは与えられない。
LLPは、バッグのラベル比を使ってインスタンスレベルの分類器を訓練することを目的としている。
本稿では,予備実験から得られた重要観測に基づいて,llpのバッグレベルのデータ拡張手法であるmixbagを提案し,全インスタンス数が固定されてもラベル付きバッグ数が増えるとインスタンスレベルの分類精度が向上することを示す。
また,拡張バッグを効果的に使用するための統計理論に基づく信頼区間損失を提案する。
我々の知る限り、これはLPPのためのバッグレベルのデータ拡張を提案する最初の試みである。
MixBagの利点は、インスタンスレベルのデータ拡張技術や比例損失を使用する任意のLPPメソッドに適用できる点である。
実験の結果,本手法の利点と有効性が示された。
関連論文リスト
- Learning from Label Proportions and Covariate-shifted Instances [12.066922664696445]
ラベル比(LLP)から学ぶ場合、アグリゲートラベルはバッグ内のインスタンスラベルの平均である。
我々は,対象のバッグラベルとソースのインスタンスラベルを自然に組み込むハイブリッドLPの手法を開発した。
論文 参考訳(メタデータ) (2024-11-19T08:36:34Z) - Forming Auxiliary High-confident Instance-level Loss to Promote Learning from Label Proportions [17.36538357653019]
ラベルパーセンテージ(LLP)からの学習は、各インスタンスのアノテートラベルではなく、インスタンスのバッグとバッグ内のクラスの割合を使用して分類器をトレーニングすることを目的としている。
本稿では,L2P-AHILを用いたLLP手法を提案する。
我々は,L2P-AHILが既存のベースライン法を超越し,バッグサイズが大きくなるにつれて性能向上がさらに重要であることを示す。
論文 参考訳(メタデータ) (2024-11-15T17:14:18Z) - Weak to Strong Learning from Aggregate Labels [9.804335415337071]
本研究では,そのような学習袋にアグリゲートラベルを付けた弱い学習者を用いて,強力な学習者を得るという課題について検討する。
弱い学習者はトレーニングバッグに一定精度1を有し、強い学習者の精度は任意に1に近づくことができる。
我々の研究は、LLPで同じことを達成するアルゴリズムを用いて、アグリゲーションラベルから弱いから強い学習を理論的に研究した最初のものである。
論文 参考訳(メタデータ) (2024-11-09T14:56:09Z) - Theoretical Proportion Label Perturbation for Learning from Label Proportions in Large Bags [5.842419815638353]
ラベルパーセンテージ(LLP)からの学習は、バッグのラベルパーセンテージからインスタンスレベルの分類器を訓練する弱い教師付き学習である。
LLPの課題は、バッグ(バッグサイズ)のインスタンス数が多すぎると発生するため、従来のLPPメソッドはGPUメモリの制限のために困難である。
本研究の目的は,大型バッグから学習可能なLPP手法の開発である。
論文 参考訳(メタデータ) (2024-08-26T09:24:36Z) - Disambiguated Attention Embedding for Multi-Instance Partial-Label
Learning [68.56193228008466]
多くの実世界のタスクでは、関連するオブジェクトは、候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現することができる。
既存のMIPLアプローチは、各インスタンスに拡張候補ラベルセットを割り当て、インスタンスレベルのラベルからバッグレベルのラベルを集約することで、インスタンス空間のパラダイムに従っている。
本稿では,DEMIPLという直感的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T13:25:17Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Fast learning from label proportions with small bags [0.0]
ラベルパーセンテージ(LLP)から学ぶ場合、インスタンスはバッグにグループ化され、トレーニングバッグの相対クラスパーセンテージが与えられたインスタンス分類器を学習する。
本研究では,全ての一貫したラベルの組み合わせを明示的に考慮し,より効率的なアルゴリズムを設計できる小袋の事例に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-07T13:11:18Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。