論文の概要: Principled Algorithms for Optimizing Generalized Metrics in Binary Classification
- arxiv url: http://arxiv.org/abs/2512.23133v1
- Date: Mon, 29 Dec 2025 01:33:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.372128
- Title: Principled Algorithms for Optimizing Generalized Metrics in Binary Classification
- Title(参考訳): 二項分類における一般化計量の最適化のための原理的アルゴリズム
- Authors: Anqi Mao, Mehryar Mohri, Yutao Zhong,
- Abstract要約: 一般化されたメトリクスを最適化するアルゴリズムを導入し、$H$-consistency と finite-sample generalization bounds をサポートする。
提案手法は,メトリクス最適化を一般化したコスト依存学習問題として再検討する。
我々は,理論性能を保証する新しいアルゴリズムMETROを開発した。
- 参考スコア(独自算出の注目度): 53.604375124674796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In applications with significant class imbalance or asymmetric costs, metrics such as the $F_β$-measure, AM measure, Jaccard similarity coefficient, and weighted accuracy offer more suitable evaluation criteria than standard binary classification loss. However, optimizing these metrics present significant computational and statistical challenges. Existing approaches often rely on the characterization of the Bayes-optimal classifier, and use threshold-based methods that first estimate class probabilities and then seek an optimal threshold. This leads to algorithms that are not tailored to restricted hypothesis sets and lack finite-sample performance guarantees. In this work, we introduce principled algorithms for optimizing generalized metrics, supported by $H$-consistency and finite-sample generalization bounds. Our approach reformulates metric optimization as a generalized cost-sensitive learning problem, enabling the design of novel surrogate loss functions with provable $H$-consistency guarantees. Leveraging this framework, we develop new algorithms, METRO (Metric Optimization), with strong theoretical performance guarantees. We report the results of experiments demonstrating the effectiveness of our methods compared to prior baselines.
- Abstract(参考訳): 有意なクラス不均衡や非対称なコストを持つアプリケーションでは、$F_β$- measure, AM measure, Jaccard similarity coefficient, 重み付き精度といった指標が標準的な二項分類損失よりも適切な評価基準を提供する。
しかし、これらのメトリクスを最適化することは、計算と統計的に重要な課題をもたらす。
既存のアプローチは、しばしばベイズ最適分類器の特性に依存し、最初にクラス確率を推定し、次に最適なしきい値を求めるしきい値ベースの方法を使用する。
これにより、制限された仮説セットに適合せず、有限サンプル性能保証が欠如するアルゴリズムが導かれる。
本研究では,H$一貫性と有限サンプル一般化境界によって支えられる一般化メトリクスを最適化するアルゴリズムを提案する。
提案手法は,パラメータ最適化を一般化したコスト依存学習問題として再設計し,新しいサロゲート損失関数の設計を可能にする。
この枠組みを応用して,理論性能保証の強いMETRO(Metric Optimization)という新しいアルゴリズムを開発した。
提案手法の有効性を従来のベースラインと比較した実験結果について報告する。
関連論文リスト
- Achieving $\widetilde{\mathcal{O}}(\sqrt{T})$ Regret in Average-Reward POMDPs with Known Observation Models [69.1820058966619]
平均逆無限水平POMDPを未知の遷移モデルで扱う。
この障壁を克服する斬新でシンプルな推定器を提示する。
論文 参考訳(メタデータ) (2025-01-30T22:29:41Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Best Arm Identification in Stochastic Bandits: Beyond $\beta-$optimality [31.359578768463752]
本稿では,固定信頼設定における多腕バンディットにおけるベストアーム識別(BAI)の非装飾的側面について検討する。
帯域幅アルゴリズムを評価するための2つの重要な指標は、計算効率と性能最適性である。
本稿では,BAIのためのフレームワークとアルゴリズムを導入し,計算効率のよい決定ルールセットを用いて最適性能を実現する。
論文 参考訳(メタデータ) (2023-01-10T05:02:49Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - A Stochastic Sequential Quadratic Optimization Algorithm for Nonlinear
Equality Constrained Optimization with Rank-Deficient Jacobians [11.03311584463036]
滑らかな非線形等式制約最適化問題の解法として, 逐次2次最適化アルゴリズムを提案する。
数値実験の結果、このアルゴリズムは一般的な代替品と比較して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-24T13:46:52Z) - Soft-Robust Algorithms for Batch Reinforcement Learning [36.78967245470449]
強化学習では、限られたデータによる堅牢な意思決定問題は、通常パーセンタイル基準によって計算される。
平均性能を最適化し無視することが難しいため、パーセンタイル基準は理論的ではないことを示す。
パーセンタイル基準を最適化するアルゴリズムを2つ提案し,解析する。
論文 参考訳(メタデータ) (2020-11-30T01:36:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。