論文の概要: Efficient Large-Scale Learning of Minimax Risk Classifiers
- arxiv url: http://arxiv.org/abs/2511.17626v1
- Date: Tue, 18 Nov 2025 22:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.304428
- Title: Efficient Large-Scale Learning of Minimax Risk Classifiers
- Title(参考訳): 最小リスク分類器の大規模学習
- Authors: Kartheek Bondugula, Santiago Mazuelas, Aritz Pérez,
- Abstract要約: 制約と列生成を組み合わせた学習アルゴリズムを提案する。
複数のベンチマークデータセットの実験により、提案アルゴリズムは、一般的な大規模データに対して最大10倍のスピードアップと、多数のクラスを持つ100倍のスピードアップを提供することが示された。
- 参考スコア(独自算出の注目度): 10.648049177775684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning with large-scale data usually leads to complex optimization problems, especially for classification tasks with multiple classes. Stochastic subgradient methods can enable efficient learning with a large number of samples for classification techniques that minimize the average loss over the training samples. However, recent techniques, such as minimax risk classifiers (MRCs), minimize the maximum expected loss and are not amenable to stochastic subgradient methods. In this paper, we present a learning algorithm based on the combination of constraint and column generation that enables efficient learning of MRCs with large-scale data for classification tasks with multiple classes. Experiments on multiple benchmark datasets show that the proposed algorithm provides upto a 10x speedup for general large-scale data and around a 100x speedup with a sizeable number of classes.
- Abstract(参考訳): 大規模データによる教師付き学習は通常、特に複数のクラスを持つ分類タスクにおいて、複雑な最適化問題を引き起こす。
確率的下位段階法は、トレーニングサンプルに対する平均損失を最小限に抑える分類技術のために、多数のサンプルで効率的な学習を可能にする。
しかし, 最小リスク分類器 (MRCs) のような近年の手法では, 最大損失を最小限に抑え, 確率的下位段階法には適さない。
本稿では,制約と列生成を組み合わせた学習アルゴリズムを提案する。
複数のベンチマークデータセットの実験により、提案アルゴリズムは、一般的な大規模データに対して最大10倍のスピードアップと、多数のクラスを持つ100倍のスピードアップを提供することが示された。
関連論文リスト
- Adaptive Sampled Softmax with Inverted Multi-Index: Methods, Theory and Applications [79.53938312089308]
MIDX-Samplerは、逆多重インデックスアプローチに基づく新しい適応型サンプリング戦略である。
本手法は, サンプリングバイアス, 勾配バイアス, 収束速度, 一般化誤差境界などの重要な問題に対処するため, 厳密な理論的解析によって裏付けられている。
論文 参考訳(メタデータ) (2025-01-15T04:09:21Z) - Smooth Ranking SVM via Cutting-Plane Method [6.946903076677842]
我々は,AUCを最大化するために,Randing SVMと類似した切削平面法に依存するプロトタイプ学習手法を開発した。
本アルゴリズムは,切削面を反復的に導入することで,より単純なモデルを学ぶ。
73のバイナリ分類データセットを用いて行った実験から,本手法は競合する25のデータセットの中で最高のAUCが得られる。
論文 参考訳(メタデータ) (2024-01-25T18:47:23Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Efficient Learning of Minimax Risk Classifiers in High Dimensions [3.093890460224435]
高次元データは、医療やゲノム学など、数万もの特徴を持つ領域で一般的である。
本稿では,このような手法を用いて,最近提案されたミニマックスリスク分類器の効率的な学習アルゴリズムを提案する。
複数の高次元データセットに対する実験により,提案アルゴリズムは高次元シナリオにおいて効率的であることが示された。
論文 参考訳(メタデータ) (2023-06-11T11:08:20Z) - Scalable Clustering: Large Scale Unsupervised Learning of Gaussian
Mixture Models with Outliers [5.478764356647437]
本稿では,損失最小化に基づくロバストなクラスタリングアルゴリズムを提案する。
これはアルゴリズムが高い確率で高い精度を得るという理論的保証を提供する。
実世界の大規模データセットの実験では、アルゴリズムの有効性が示されている。
論文 参考訳(メタデータ) (2023-02-28T14:39:18Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Continual Learning For On-Device Environmental Sound Classification [63.81276321857279]
デバイス上での環境音の分類のための簡易かつ効率的な連続学習法を提案する。
本手法は,サンプルごとの分類の不確実性を測定することにより,トレーニングの履歴データを選択する。
論文 参考訳(メタデータ) (2022-07-15T12:13:04Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Hyperspherical embedding for novel class classification [1.5952956981784217]
本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-05T15:42:13Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。