論文の概要: On the Robustness of Average Losses for Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2106.06152v1
- Date: Fri, 11 Jun 2021 03:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:11:46.997879
- Title: On the Robustness of Average Losses for Partial-Label Learning
- Title(参考訳): 部分ラベル学習における平均損失のロバスト性について
- Authors: Jiaqi Lv, Lei Feng, Miao Xu, Bo An, Gang Niu, Xin Geng, Masashi
Sugiyama
- Abstract要約: 識別ベースの戦略(IBS)は、各ラベルセットを精製し、真のラベルを抽出する。
平均ベースの戦略(ABS)は、全ての候補者を平等に訓練するために扱う。
本稿では、ABSを理論的に解析し、損失関数のロバスト性という意味でも有望であることを示す。
- 参考スコア(独自算出の注目度): 125.673497808475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label (PL) learning is a typical weakly supervised classification
problem, where a PL of an instance is a set of candidate labels such that a
fixed but unknown candidate is the true label. For PL learning, there are two
lines of research: (a) the identification-based strategy (IBS) purifies each
label set and extracts the true label; (b) the average-based strategy (ABS)
treats all candidates equally for training. In the past two decades, IBS was a
much hotter topic than ABS, since it was believed that IBS is more promising.
In this paper, we theoretically analyze ABS and find it also promising in the
sense of the robustness of its loss functions. Specifically, we consider five
problem settings for the generation of clean or noisy PLs, and we prove that
average PL losses with bounded multi-class losses are always robust under mild
assumptions on the domination of true labels, while average PL losses with
unbounded multi-class losses (e.g., the cross-entropy loss) may not be robust.
We also conduct experiments to validate our theoretical findings. Note that IBS
is heuristic, and we cannot prove its robustness by a similar proof technique;
hence, ABS is more advantageous from a theoretical point of view, and it is
worth paying attention to the design of more advanced PL learning methods
following ABS.
- Abstract(参考訳): 部分ラベル(pl)学習は典型的な弱い教師付き分類問題であり、例のplは固定だが未知の候補が真のラベルであるような候補ラベルの集合である。
pl学習には、2つの研究線がある: (a) 識別ベース戦略(ibs) 各ラベル集合を純化し、真のラベルを抽出する; (b) 平均ベース戦略(abs) すべての候補をトレーニングのために等しく扱う。
過去20年間、IBSはABSよりもずっとホットな話題だった。
本稿では,ABSを理論的に解析し,損失関数のロバスト性という意味でも有望であることを示す。
具体的には、クリーンまたはノイズのplを生成するための5つの問題設定を検討し、境界付きマルチクラス損失を含む平均pl損失は、真のラベル支配下では常に頑健であるが、非境界型マルチクラス損失(例えば、クロスエントロピー損失)を伴う平均pl損失は堅牢ではないことを証明した。
理論的な結果を検証する実験も行います。
IBSはヒューリスティックであり、同様の証明手法によってその堅牢性を証明できないので、ABSは理論的な観点からより有利であり、ABSに続くより先進的なPL学習手法の設計に注意を払う価値がある。
関連論文リスト
- Robust Long-Tailed Learning via Label-Aware Bounded CVaR [36.26100472960534]
そこで本研究では,長期学習の性能向上のための2つの新しい手法を提案する。
具体的には,従来のCVaRの悲観的な結果を克服するために,ラベル認識境界CVaRの損失を導入する。
また,最適化プロセスの安定化を図るため,ロジット調整付きLAB-CVaRを提案する。
論文 参考訳(メタデータ) (2023-08-29T16:07:18Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Semi-supervised binary classification with latent distance learning [0.0]
そこで本稿では,ランダムなk対クロス距離学習機構を持つラベルを用いて,二項分類問題を解くための新しい学習表現を提案する。
ラベルが少なく、データ拡張技術がないため、提案手法は最先端の半教師あり自己教師あり学習法より優れていた。
論文 参考訳(メタデータ) (2022-11-28T09:05:26Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Leveraged Weighted Loss for Partial Label Learning [64.85763991485652]
部分ラベル学習は、各インスタンスに候補ラベルのセットが割り当てられるデータを扱うが、そのうちの1つだけが真実である。
部分ラベルからの学習に関する多くの方法論の研究にもかかわらず、リスク一貫した性質に関する理論的理解はいまだに欠けている。
本稿では,テキスト重み付き損失(LW)と呼ばれる損失関数のファミリーを提案する。これはまず,部分ラベル上の損失と非部分的な損失とのトレードオフを検討するために,レバレッジパラメータ$beta$を導入する。
論文 参考訳(メタデータ) (2021-06-10T13:25:13Z) - Sample Selection with Uncertainty of Losses for Learning with Noisy
Labels [145.06552420999986]
ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。
しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失をオンザフライで発生させるため、大容量のデータはおそらく正しくないが、確実に誤りではない。
本稿では,損失点推定の代わりに間隔推定を採用することにより,損失の不確実性を取り入れる。
論文 参考訳(メタデータ) (2021-06-01T12:53:53Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。