論文の概要: Solving for multi-class using orthogonal coding matrices
- arxiv url: http://arxiv.org/abs/1801.09055v6
- Date: Wed, 17 May 2023 15:54:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 21:41:29.844351
- Title: Solving for multi-class using orthogonal coding matrices
- Title(参考訳): 直交符号化行列を用いたマルチクラス解法
- Authors: Peter Mills
- Abstract要約: 誤り訂正符号(英語: Error correcting code, ECC)は、バイナリを多クラス分類に一般化する一般的な方法である。
ここでは、7つの異なるデータセット上で2種類の直交ECCをテストする。
1対1の1対1の1対1の1対1の1対1の1対1とランダムなECCの3つの方法と比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common method of generalizing binary to multi-class classification is the
error correcting code (ECC). ECCs may be optimized in a number of ways, for
instance by making them orthogonal. Here we test two types of orthogonal ECCs
on seven different datasets using three types of binary classifier and compare
them with three other multi-class methods: 1 vs. 1, one-versus-the-rest and
random ECCs. The first type of orthogonal ECC, in which the codes contain no
zeros, admits a fast and simple method of solving for the probabilities.
Orthogonal ECCs are always more accurate than random ECCs as predicted by
recent literature. Improvments in uncertainty coefficient (U.C.) range between
0.4--17.5% (0.004--0.139, absolute), while improvements in Brier score between
0.7--10.7%. Unfortunately, orthogonal ECCs are rarely more accurate than 1 vs.
1. Disparities are worst when the methods are paired with logistic regression,
with orthogonal ECCs never beating 1 vs. 1. When the methods are paired with
SVM, the losses are less significant, peaking at 1.5%, relative, 0.011 absolute
in uncertainty coefficient and 6.5% in Brier scores. Orthogonal ECCs are always
the fastest of the five multi-class methods when paired with linear
classifiers. When paired with a piecewise linear classifier, whose
classification speed does not depend on the number of training samples,
classifications using orthogonal ECCs were always more accurate than the other
methods and also faster than 1 vs. 1. Losses against 1 vs. 1 here were higher,
peaking at 1.9% (0.017, absolute), in U.C. and 39% in Brier score. Gains in
speed ranged between 1.1% and over 100%. Whether the speed increase is worth
the penalty in accuracy will depend on the application.
- Abstract(参考訳): 二進法を多クラス分類に一般化する一般的な方法は誤り訂正符号(ECC)である。
例えば、ECCを直交させることによって、様々な方法で最適化することができる。
ここでは,2種類の直交ECCを7種類のデータセット上で2種類のバイナリ分類器を用いてテストし,他の3種類のマルチクラス手法と比較する。
符号がゼロを含まない最初の直交ECCは、確率の高速で単純な解法である。
直交ECCは最近の文献で予測されるランダムECCよりも常に正確である。
不確実性係数(U.C.)の改善は0.4--17.5%(0.004--0.139、絶対)、ブリアスコアの改善は0.7--10.7%である。
残念なことに、直交ECCは1対1よりも正確ではない。
メソッドがロジスティック回帰とペアになっていて、直交のECCは1対1の差はない。
SVMと組み合わせた場合、損失は1.5%、相対値が0.011、不確実性係数が0.011、ブライアスコアが6.5%である。
直交ECCは、線形分類器とペアリングする場合、常に5つのマルチクラスメソッドのうち最速である。
分類速度がトレーニングサンプル数に依存しない分別線形分類器とペアを組む場合、直交ECCを用いた分類は、他の方法よりも常に正確であり、1対1より高速であった。
ここでの1対1の損失は、米国では1.9%(絶対値0.017)、ブライアスコアでは39%だった。
速度の利得は1.1%から100%以上である。
スピードアップが正確さに値するかどうかは、アプリケーションによって異なります。
関連論文リスト
- MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Block-regularized 5$\times$2 Cross-validated McNemar's Test for
Comparing Two Classification Algorithms [5.7490445900906835]
クロスバリデーション法はHO法を複数回繰り返し,安定な推定を行う。
ブロック規則化された5$times$2 CV (BCV) は、他のCV法よりも優れていることを示す多くの先行研究で示されている。
提案した5$times$2 BCV McNemarのシミュレーションおよび実世界のデータセットにおける有意な型I誤差と有望なパワーを実証する。
論文 参考訳(メタデータ) (2023-04-08T11:35:19Z) - Orthogonal SVD Covariance Conditioning and Latent Disentanglement [65.67315418971688]
SVDメタ層をニューラルネットワークに挿入すると、共分散が不調和になる。
我々は最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-12-11T20:31:31Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Random Convolution Kernels with Multi-Scale Decomposition for Preterm
EEG Inter-burst Detection [0.0]
ランダム畳み込みカーネルを持つ線形分類器は、設計やドメイン知識を必要としない計算効率の良い方法である。
最近提案されたRandOm Convolutional KErnel Transformsは、時系列データセットの範囲で高い精度を示している。
本稿では,高周波数成分と低周波数成分を併用したマルチスケールバージョンを提案する。
論文 参考訳(メタデータ) (2021-08-04T13:07:41Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - A Link between Coding Theory and Cross-Validation with Applications [2.287027904771153]
正確な解答は誤り検出符号の理論によって与えられることを示す。
即時的な応用として,学習アルゴリズムのための新しいLPOCVベースのランダム化テストを開発した。
論文 参考訳(メタデータ) (2021-03-22T13:57:45Z) - FROCC: Fast Random projection-based One-Class Classification [4.312746668772342]
高速ランダムプロジェクションに基づく一クラス分類(FROCC)は一クラス分類の効率的な方法である。
FROCCは最大3.1%向上し、トレーニング時間とテスト時間では1.2-67.8倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2020-11-29T08:56:59Z) - Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification [1.4146420810689422]
VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
論文 参考訳(メタデータ) (2020-11-24T17:00:30Z) - Re-Assessing the "Classify and Count" Quantification Method [88.60021378715636]
分類とカウント(CC)は、しばしば偏りのある推定器である。
以前の作業では、CCの適切に最適化されたバージョンを適切に使用できなかった。
最先端の手法に劣っているものの、ほぼ最先端の精度を実現している、と我々は主張する。
論文 参考訳(メタデータ) (2020-11-04T21:47:39Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。