論文の概要: AUC Optimization from Multiple Unlabeled Datasets
- arxiv url: http://arxiv.org/abs/2305.15776v3
- Date: Fri, 15 Sep 2023 05:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:15:14.625537
- Title: AUC Optimization from Multiple Unlabeled Datasets
- Title(参考訳): 複数のラベルなしデータセットからのAUC最適化
- Authors: Zheng Xie, Yu Liu, Ming Li
- Abstract要約: U$m$-AUCは、U$m$データを多ラベルAUC最適化問題に変換するAUC最適化手法である。
提案したU$m$-AUCは理論的および実験的に有効であることを示す。
- 参考スコア(独自算出の注目度): 14.318887072787938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised learning aims to empower machine learning when the perfect
supervision is unavailable, which has drawn great attention from researchers.
Among various types of weak supervision, one of the most challenging cases is
to learn from multiple unlabeled (U) datasets with only a little knowledge of
the class priors, or U$^m$ learning for short. In this paper, we study the
problem of building an AUC (area under ROC curve) optimization model from
multiple unlabeled datasets, which maximizes the pairwise ranking ability of
the classifier. We propose U$^m$-AUC, an AUC optimization approach that
converts the U$^m$ data into a multi-label AUC optimization problem, and can be
trained efficiently. We show that the proposed U$^m$-AUC is effective
theoretically and empirically.
- Abstract(参考訳): 弱い教師付き学習は、完璧な監督が利用できない時に機械学習を強化することを目的としており、研究者から大きな注目を集めている。
様々な弱い監督のうち、最も難しい事例の1つは、クラス事前の知識がほとんどない複数のラベルのない(u)データセットから学ぶか、略してu$^m$学習するかである。
本稿では,複数のラベル付きデータセットから auc (area under roc curve) 最適化モデルを構築する際の問題点について検討する。
U$^m$-AUCは、U$^m$データを多ラベルAUC最適化問題に変換するAUC最適化手法であり、効率的に訓練することができる。
提案したU$^m$-AUCは理論的および実験的に有効であることを示す。
関連論文リスト
- DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Balanced Self-Paced Learning for AUC Maximization [88.53174245457268]
既存のセルフパッチ方式は、ポイントワイズAUCに限られている。
我々のアルゴリズムは閉形式解に基づいて定常点に収束する。
論文 参考訳(メタデータ) (2022-07-08T02:09:32Z) - AdAUC: End-to-end Adversarial AUC Optimization Against Long-tail
Problems [102.95119281306893]
我々は、AUCを最適化するための敵の訓練方法を探求するための早期トライアルを提示する。
我々は、AUC最適化問題をサドル点問題として再構成し、目的がインスタンスワイズ関数となる。
我々の分析は, min-max問題の勾配を計算して, 逆例を生成するアルゴリズムが求められているため, 既存の研究と異なる。
論文 参考訳(メタデータ) (2022-06-24T09:13:39Z) - Evolutionary Multitasking AUC Optimization [10.279426529746667]
本稿では,構築した安価で高価なタスクの情報をフル活用して高い性能を得るための進化的EMT(termed EMT)を開発する。
提案手法の性能をバイナリ分類データセットで評価する。
論文 参考訳(メタデータ) (2022-01-04T14:14:13Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - GLISTER: Generalization based Data Subset Selection for Efficient and
Robust Learning [11.220278271829699]
GeneraLIzationベースのデータSubset selecTion for Efficient and Robust LearningフレームワークであるGlisterを紹介します。
パラメータ更新とともに反復的にデータ選択を行う反復オンラインアルゴリズムglister-onlineを提案する。
筆者らのフレームワークは,(a) と (c) の場合に) 効率, 精度の両面で向上し, 他の最先端の堅牢な学習アルゴリズムと比較して, より効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-19T08:41:34Z) - Online AUC Optimization for Sparse High-Dimensional Datasets [32.77252579365118]
エリア・アンダー・オブ・ザ・ROC曲線(AUC)は、不均衡な分類のための広く使われている性能指標である。
現在のオンラインAUC最適化アルゴリズムは、イテレーションあたりのコストが$mathcalO(d)$である。
本稿では,新しいアルゴリズムである textscFTRL-AUC を提案する。
論文 参考訳(メタデータ) (2020-09-23T00:50:01Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。