論文の概要: Gradient-based Quadratic Multiform Separation
- arxiv url: http://arxiv.org/abs/2110.13006v2
- Date: Tue, 26 Oct 2021 11:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 11:47:17.772622
- Title: Gradient-based Quadratic Multiform Separation
- Title(参考訳): 勾配に基づく擬似多形分離
- Authors: Wen-Teng Chang
- Abstract要約: 我々はMichael Fanらによって最近提案された分類法である準多重形式分離(QMS)に注目した。
本稿では,QMSに基づく最適化手法であるAdamを用いて,QMS固有の損失関数を最小限に抑える分類器を提案する。
実験の結果,QMSは精度の点で,ほとんどの分類法に匹敵する性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Classification as a supervised learning concept is an important content in
machine learning. It aims at categorizing a set of data into classes. There are
several commonly-used classification methods nowadays such as k-nearest
neighbors, random forest, and support vector machine. Each of them has its own
pros and cons, and none of them is invincible for all kinds of problems. In
this thesis, we focus on Quadratic Multiform Separation (QMS), a classification
method recently proposed by Michael Fan et al. (2019). Its fresh concept, rich
mathematical structure, and innovative definition of loss function set it apart
from the existing classification methods. Inspired by QMS, we propose utilizing
a gradient-based optimization method, Adam, to obtain a classifier that
minimizes the QMS-specific loss function. In addition, we provide suggestions
regarding model tuning through explorations of the relationships between
hyperparameters and accuracies. Our empirical result shows that QMS performs as
good as most classification methods in terms of accuracy. Its superior
performance is almost comparable to those of gradient boosting algorithms that
win massive machine learning competitions.
- Abstract(参考訳): 教師付き学習概念としての分類は、機械学習において重要なコンテンツである。
データのセットをクラスに分類することを目的としている。
現在、k-アネレスト隣人、ランダムフォレスト、サポートベクターマシンなどの一般的な分類方法がいくつかある。
それぞれに独自の長所と短所があり、あらゆる種類の問題に対して無敵ではない。
本稿では,Michael Fan et al. (2019) が最近提案した分類法である Quadratic Multiform separation (QMS) に焦点を当てる。
その新しい概念、リッチな数学的構造、および損失関数の革新的な定義は、既存の分類法とは分離した。
QMSにインスパイアされた我々は、QMS固有の損失関数を最小限に抑える分類器を得るために勾配に基づく最適化手法Adamを提案する。
さらに,ハイパーパラメータとアキュラティシーの関係を探究し,モデルチューニングに関する提案を行う。
実験の結果,QMSは精度の点で,ほとんどの分類法に匹敵する性能を示した。
その優れたパフォーマンスは、大規模な機械学習コンペで優勝した勾配向上アルゴリズムにほぼ匹敵する。
関連論文リスト
- MISS: Multiclass Interpretable Scoring Systems [13.902264070785986]
MISS(Multiclass Interpretable Scoring Systems)構築のための機械学習手法を提案する。
MISSは、シングルクラス、スパース、ユーザフレンドリーなスコアリングシステムのための、完全なデータ駆動の方法論である。
結果から,本手法は他の機械学習モデルと性能指標の分類において競合し,高い校正率のクラス確率が得られたことが示唆された。
論文 参考訳(メタデータ) (2024-01-10T10:57:12Z) - Multi-class Support Vector Machine with Maximizing Minimum Margin [67.51047882637688]
Support Vector Machine (SVM) は、パターン認識タスクに広く応用されている機械学習技術である。
本稿では,クラス損失のペア化と最小マージンの最大化を両立するマルチクラスSVMの新たな手法を提案する。
実験により,提案手法の有効性と優位性を示す。
論文 参考訳(メタデータ) (2023-12-11T18:09:55Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Online Hyperparameter Optimization for Class-Incremental Learning [99.70569355681174]
クラス増分学習(Class-incremental Learning, CIL)は、クラス数がフェーズごとに増加する一方で、分類モデルを訓練することを目的としている。
CILの固有の課題は、安定性と塑性のトレードオフである。すなわち、CILモデルは古い知識を保ち、新しい知識を吸収するためにプラスチックを保たなければならない。
本稿では,事前設定を知らずにトレードオフを適応的に最適化するオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-11T17:58:51Z) - Hierarchical classification at multiple operating points [1.520694326234112]
階層内の各クラスにスコアを割り当てる任意のメソッドに対して,演算特性曲線を生成する効率的なアルゴリズムを提案する。
2つの新しい損失関数を提案し、構造的ヒンジ損失のソフトな変形が平坦なベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-10-19T23:36:16Z) - Rank4Class: A Ranking Formulation for Multiclass Classification [26.47229268790206]
マルチクラス分類(MCC)は基本的な機械学習問題である。
ランキングのレンズを通した新しい定式化により,MCCの性能を向上させることは容易であることを示す。
論文 参考訳(メタデータ) (2021-12-17T19:22:37Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification [0.0]
min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-04-21T09:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。