論文の概要: Generalization for multiclass classification with overparameterized
linear models
- arxiv url: http://arxiv.org/abs/2206.01399v1
- Date: Fri, 3 Jun 2022 05:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 13:32:36.360957
- Title: Generalization for multiclass classification with overparameterized
linear models
- Title(参考訳): 過パラメータ線形モデルを用いた多クラス分類の一般化
- Authors: Vignesh Subramanian, Rahul Arya and Anant Sahai
- Abstract要約: クラスが多すぎる限り、多クラス分類は二分分類のように振る舞うことが示される。
様々な技術的課題に加えて、二項分類設定との大きな違いは、クラス数が増加するにつれて、各クラスの正のトレーニング例がマルチクラス設定で比較的少ないことである。
- 参考スコア(独自算出の注目度): 3.3434274586532515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Via an overparameterized linear model with Gaussian features, we provide
conditions for good generalization for multiclass classification of
minimum-norm interpolating solutions in an asymptotic setting where both the
number of underlying features and the number of classes scale with the number
of training points. The survival/contamination analysis framework for
understanding the behavior of overparameterized learning problems is adapted to
this setting, revealing that multiclass classification qualitatively behaves
like binary classification in that, as long as there are not too many classes
(made precise in the paper), it is possible to generalize well even in some
settings where the corresponding regression tasks would not generalize. Besides
various technical challenges, it turns out that the key difference from the
binary classification setting is that there are relatively fewer positive
training examples of each class in the multiclass setting as the number of
classes increases, making the multiclass problem "harder" than the binary one.
- Abstract(参考訳): ガウス的特徴を持つ過度パラメータ化線形モデルを用いて、基礎となる特徴の数と学習点数の両方がスケールする漸近的条件下で、最小ノルム補間解の多重クラス分類を適切に一般化する条件を提供する。
過剰パラメータ学習問題の振る舞いを理解するためのサバイバル/汚染分析フレームワークは、この設定に適合しており、マルチクラス分類は、(論文で正確に記述されている)クラスが多すぎる限り、対応する回帰タスクが一般化しないいくつかの設定でもうまく一般化することができる。
様々な技術的課題に加えて、バイナリ分類設定との主な違いは、クラス数が増加するにつれて、マルチクラス設定における各クラスのポジティブなトレーニング例が比較的少ないことであり、マルチクラス問題はバイナリ設定よりも「困難」である。
関連論文リスト
- Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Precise Asymptotic Generalization for Multiclass Classification with
Overparameterized Linear Models [4.093769373833101]
Subramanian et al.'22 の予想では、データポイント、特徴、クラスの数はすべて一緒になる。
我々の新しい下限は情報理論の強い逆に似ており、それらは誤分類率が0か1に近づくことを証明している。
厳密な解析の鍵はハンソン・ライトの不等式の新しい変種であり、スパースラベルの多重クラス問題に広く有用である。
論文 参考訳(メタデータ) (2023-06-23T00:59:15Z) - A Multi-Class SWAP-Test Classifier [0.0]
この研究は、そのバイナリ前駆体と最近の研究におけるラベル状態の使用に触発された最初のマルチクラスSWAP-Test分類器を示す。
従来の研究とは対照的に、必要な量子ビット数、測定戦略、使用する回路の位相はクラス数に不変である。
解析結果と数値シミュレーションの両方で、この分類器は多様な分類問題に適用されるだけでなく、特定の雑音に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2023-02-06T18:31:43Z) - Generalization Error Bounds for Multiclass Sparse Linear Classifiers [7.360807642941714]
スパース多項ロジスティック回帰による高次元多クラス分類を考察する。
本稿では,ペナル化最大可能性に基づく計算可能な特徴選択手法を提案する。
特に、グローバル・スパシティ、ダブル・行ワイド・スパシティ、ロー・ランク・スパシティについて検討する。
論文 参考訳(メタデータ) (2022-04-13T09:25:03Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - Adversarial Multi-Binary Neural Network for Multi-class Classification [19.298875915675502]
マルチタスクフレームワークを使用して、マルチクラス分類に対処する。
我々は,クラス固有の特徴とクラスに依存しない特徴を識別するために,対人訓練を実践する。
論文 参考訳(メタデータ) (2020-03-25T02:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。