論文の概要: Curiosity Meets Cooperation: A Game-Theoretic Approach to Long-Tail Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2510.17520v1
- Date: Mon, 20 Oct 2025 13:21:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.463559
- Title: Curiosity Meets Cooperation: A Game-Theoretic Approach to Long-Tail Multi-Label Learning
- Title(参考訳): Curiosityがコラボレーションに挑戦 - 長期学習型マルチラベル学習へのゲーム理論的アプローチ
- Authors: Canran Xiao, Chuangxin Zhao, Zong Ke, Fei Shen,
- Abstract要約: 長い尾の不均衡は多ラベル学習に固有である。
私たちはそのタスクを協力的な潜在的なゲームとみなした。
我々は,CD-GTMLLがマルチラベル予測において,長距離ロバスト性に対する原則的かつスケーラブルな経路を提供することを示す。
- 参考スコア(独自算出の注目度): 7.787238560440755
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Long-tail imbalance is endemic to multi-label learning: a few head labels dominate the gradient signal, while the many rare labels that matter in practice are silently ignored. We tackle this problem by casting the task as a cooperative potential game. In our Curiosity-Driven Game-Theoretic Multi-Label Learning (CD-GTMLL) framework, the label space is split among several cooperating players that share a global accuracy payoff yet earn additional curiosity rewards that rise with label rarity and inter-player disagreement. These curiosity bonuses inject gradient on under-represented tags without hand-tuned class weights. We prove that gradient best-response updates ascend a differentiable potential and converge to tail-aware stationary points that tighten a lower bound on the expected Rare-F1. Extensive experiments on conventional benchmarks and three extreme-scale datasets show consistent state-of-the-art gains, delivering up to +4.3% Rare-F1 and +1.6% P@3 over the strongest baselines, while ablations reveal emergent division of labour and faster consensus on rare classes. CD-GTMLL thus offers a principled, scalable route to long-tail robustness in multi-label prediction.
- Abstract(参考訳): 長い尾の不均衡は多ラベル学習に固有であり、いくつかのヘッドラベルが勾配信号を支配し、実際に重要な多くのレアラベルは静かに無視される。
我々は,タスクを協調可能なゲームとしてキャストすることでこの問題に対処する。
Curiosity-Driven Game-Theoretic Multi-Label Learning (CD-GTMLL) フレームワークでは、ラベル空間は、グローバルな精度のペイオフを共有しながら、ラベルの希薄さやプレイヤー間の不一致に伴う追加の好奇心の報酬を得る複数の協力的なプレイヤーに分割されています。
これらの好奇心のボーナスは、手書きのクラスウェイトを使わずに、下記のタグに勾配を注入する。
我々は、勾配の最適応答更新が微分可能なポテンシャルを上昇し、期待されるRare-F1の下位境界を締め付けるテールアウェアの定常点に収束することを証明した。
従来のベンチマークと3つの極端なデータセットによる大規模な実験では、最強のベースラインに対して+4.3%のRare-F1と+1.6%のP@3を達成し、労働力の突発的な分割と稀なクラスに対するより早いコンセンサスを実現している。
したがって、CD-GTMLLはマルチラベル予測において、長距離ロバスト性への原則付きスケーラブルな経路を提供する。
関連論文リスト
- More Reliable Pseudo-labels, Better Performance: A Generalized Approach to Single Positive Multi-label Learning [12.20473357505283]
マルチラベル学習は、各画像に複数のカテゴリを割り当てる必要がある、難しいコンピュータビジョンタスクである。
ノイズを軽減しつつ,多様な擬似ラベルから効果的に学習する新しい損失関数を提案する。
我々のフレームワークは多言語分類を著しく進歩させ、最先端の結果を得る。
論文 参考訳(メタデータ) (2025-08-28T03:07:57Z) - Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Confidence Self-Calibration for Multi-Label Class-Incremental Learning [21.104984143597882]
MLCIL(Multi-Label Class-Incremental Learning)におけるラベルの課題は、トレーニング中に新しいクラスのみをラベル付けする場合に発生する。
この問題は、誤って高い信頼度を持つマルチラベル予測による偽陽性エラーの増大につながる。
MLCILのマルチラベル信頼度校正を改良するための信頼性自己校正(CSC)手法を提案する。
論文 参考訳(メタデータ) (2024-03-19T09:14:52Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Imbalanced Continual Learning with Partitioning Reservoir Sampling [46.427023757892336]
シーケンシャルなデータストリームからの継続的な学習は、機械学習研究にとって重要な課題である。
予測不能な逆性は,多くの多ラベルデータセットにおいて自然に存在し,長い尾の分布を推定する。
本稿では,Reservoir Smpling (PRS) というリプレイ型アプローチのための新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-08T10:28:18Z) - Long-tail learning via logit adjustment [67.47668112425225]
現実世界の分類問題は通常、不均衡または長い尾のラベルの分布を示す。
これは、そのようなラベルを一般化する上での課題であり、また、支配的なラベルに偏った「学習」をもたらさせる。
これらの課題に対処するために、標準的なソフトマックスクロスエントロピートレーニングの2つの簡単な修正を提案する。
論文 参考訳(メタデータ) (2020-07-14T19:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。