論文の概要: A Consistent Lebesgue Measure for Multi-label Learning
- arxiv url: http://arxiv.org/abs/2402.00324v1
- Date: Thu, 1 Feb 2024 04:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 16:38:50.959258
- Title: A Consistent Lebesgue Measure for Multi-label Learning
- Title(参考訳): 複数ラベル学習のための一貫したルベーグ尺度
- Authors: Kaan Demir, Bach Nguyen, Bing Xue, Mengjie Zhang
- Abstract要約: 多ラベル損失関数は微分不可能であり、勾配に基づく最適化のために代理損失関数を必要とする。
CLML(Consistent Lebesgue Measure-based Multi-label Learner)を提案する。
CLMLがベイズリスクフレームワークの下で理論的整合性を達成できることを実証する。
- 参考スコア(独自算出の注目度): 5.544038300579187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label loss functions are usually non-differentiable, requiring
surrogate loss functions for gradient-based optimisation. The consistency of
surrogate loss functions is not proven and is exacerbated by the conflicting
nature of multi-label loss functions. To directly learn from multiple related,
yet potentially conflicting multi-label loss functions, we propose a Consistent
Lebesgue Measure-based Multi-label Learner (CLML) and prove that CLML can
achieve theoretical consistency under a Bayes risk framework. Empirical
evidence supports our theory by demonstrating that: (1) CLML can consistently
achieve state-of-the-art results; (2) the primary performance factor is the
Lebesgue measure design, as CLML optimises a simpler feedforward model without
additional label graph, perturbation-based conditioning, or semantic
embeddings; and (3) an analysis of the results not only distinguishes CLML's
effectiveness but also highlights inconsistencies between the surrogate and the
desired loss functions.
- Abstract(参考訳): マルチラベル損失関数は通常微分不能であり、勾配に基づく最適化にはサーロゲート損失関数を必要とする。
代理損失関数の整合性は証明されず、多ラベル損失関数の矛盾する性質により悪化する。
本稿では,複数の関連性を持つ多ラベル損失関数から直接学習するために,一貫したLebesgue Measure-based Multi-label Learner (CLML)を提案し,ベイズリスクフレームワークの下でCLMLが理論的整合性を実現することを証明した。
1) clmlは最先端の成果を一貫して達成できること,(2)clmlはラベルグラフや摂動条件付け,意味埋め込みを伴わない単純なフィードフォワードモデルに最適化すること,(3)clmlの有効性を区別するだけでなく,サロゲートと所望の損失関数との矛盾を強調すること,の2つの主な性能要因はルベーグ測度設計である。
関連論文リスト
- Likelihood-based Differentiable Structure Learning [38.25218464260965]
有向非巡回グラフ(DAG)の微分可能な構造学習への既存のアプローチは、強い識別可能性仮定に依存している。
一般確率下での微分可能非周期制約プログラムの挙動を解析することにより,これらの問題を説明・改善する。
論文 参考訳(メタデータ) (2024-10-08T16:08:24Z) - ICL-TSVD: Bridging Theory and Practice in Continual Learning with Pre-trained Models [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
私たちは、経験的に強いアプローチを原則化されたフレームワークに統合することで、このギャップを埋めます。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - Boosting Single Positive Multi-label Classification with Generalized Robust Loss [12.942661993684881]
MLL(Multi-label Learning)は、完全入手が難しい包括的なマルチセマンティックアノテーションを必要とする。
本稿では,各画像が1つの正のラベルに関連付けられているSPML(Single Positive Multi-label Learning)について検討する。
既存のSPML手法は、ハードな擬似ラベルやロバストな損失といったメカニズムを用いて、損失を設計することのみに焦点を当てている。
論文 参考訳(メタデータ) (2024-05-06T14:13:38Z) - Learning the Unlearned: Mitigating Feature Suppression in Contrastive Learning [45.25602203155762]
自己監督型コントラスト学習は、ラベルのないデータから高品質な表現を導き出すのに有効であることが証明されている。
単目的学習とマルチモーダル学習の両方を妨げる大きな課題は、特徴抑制である。
本稿では,新しいモデルに依存しないマルチステージコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:13:33Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Simple and Robust Loss Design for Multi-Label Learning with Missing
Labels [14.7306301893944]
モデルが学習中に欠落したラベルを識別できる観察結果に基づいて,ロバストな損失設計による簡易かつ効果的な2つの手法を提案する。
1つ目は、ヒルの損失(ヒルの損失)であり、これは、偽陰性の影響を軽減するために丘の形状の負を再び重み付けするものである。
第2の手法はSPLC法であり、失ったラベルの近似分布の下で最大度基準から得られた損失を利用する。
論文 参考訳(メタデータ) (2021-12-13T11:39:19Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。