論文の概要: Constructing Multiclass Classifiers using Binary Classifiers Under
Log-Loss
- arxiv url: http://arxiv.org/abs/2102.08184v1
- Date: Tue, 16 Feb 2021 14:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:08:08.774178
- Title: Constructing Multiclass Classifiers using Binary Classifiers Under
Log-Loss
- Title(参考訳): ログロス下におけるバイナリクラシファイアを用いたマルチクラスクラシファイアの構築
- Authors: Assaf Ben-Yishai and Or Ordentlich
- Abstract要約: ベイズ最適ログロスに関して定義された後悔によって性能が定量化されることを示す。
条件付きOVA(Conditional OVA)と呼ばれる新しい手法を提案し、その後悔は構成二項分類器に対応する後悔の重み付け和によって与えられることを証明した。
- 参考スコア(独自算出の注目度): 14.264737570114631
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The construction of multiclass classifiers from binary classifiers is studied
in this paper, and performance is quantified by the regret, defined with
respect to the Bayes optimal log-loss. We start by proving that the regret of
the well known One vs. All (OVA) method is upper bounded by the sum of the
regrets of its constituent binary classifiers. We then present a new method
called Conditional OVA (COVA), and prove that its regret is given by the
weighted sum of the regrets corresponding to the constituent binary
classifiers. Lastly, we present a method termed Leveraged COVA (LCOVA),
designated to reduce the regret of a multiclass classifier by breaking it down
to independently optimized binary classifiers.
- Abstract(参考訳): バイナリ分類器からのマルチクラス分類器の構築について検討し、ベイズ最適ログ損失に関して定義された後悔によって性能を定量化する。
まず、よく知られたOne vs. All(OVA)メソッドの後悔は、その構成二項分類器の後悔の総和によって上限づけられていることを証明する。
次に、条件付きOVA(COVA)と呼ばれる新しい手法を提案し、その後悔は構成二項分類器に対応する後悔の重み付け和によって与えられることを証明した。
最後に、Leveraged COVA (LCOVA) と呼ばれる手法を提示し、独立して最適化されたバイナリ分類器に分解することで、マルチクラス分類器の後悔を減らす。
関連論文リスト
- Unified Classification and Rejection: A One-versus-All Framework [47.58109235690227]
我々は,オープンな集合分類器を構築するための統一的なフレームワークを構築した。
K の $-class 問題を $ K $ 1-versus-all (OVA) のバイナリ分類タスクに分解することにより、OVA 分類器のスコアを組み合わせることで、$ (K+1) の $-class rear 確率が得られることを示す。
一般的なOSRおよびOOD検出データセットの実験により、提案するフレームワークは、単一のマルチクラス分類器を使用して、競合性能を得ることを示した。
論文 参考訳(メタデータ) (2023-11-22T12:47:12Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Multiple Classifiers Based Maximum Classifier Discrepancy for
Unsupervised Domain Adaptation [25.114533037440896]
本稿では、2つの分類器の構造を複数の分類器に拡張し、その性能をさらに向上することを提案する。
平均的に、3つの分類器の構造を採用すると、精度と効率のトレードオフとして最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-02T03:00:13Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification [1.4146420810689422]
VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
論文 参考訳(メタデータ) (2020-11-24T17:00:30Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Meet MASKS: A novel Multi-Classifier's verification approach [2.588063924663932]
複数の分類器から構成されるマルチエージェントシステムは、安全性の満足度を検証するために設計されている。
分散知識の集約に関する推論を考察する論理モデルが提案されている。
厳密な評価として、Fashion-MNIST、MNIST、Fruit-360データセットに適用した。
論文 参考訳(メタデータ) (2020-07-03T10:47:40Z) - Open-Set Recognition with Gaussian Mixture Variational Autoencoders [91.3247063132127]
推論において、オープンセット分類は、サンプルをトレーニングから既知のクラスに分類するか、未知のクラスとして拒絶するかのどちらかである。
我々は,協調的に再構築を学習し,潜在空間におけるクラスベースのクラスタリングを行うよう,我々のモデルを訓練する。
我々のモデルは、より正確で堅牢なオープンセット分類結果を実現し、平均的なF1改善率は29.5%である。
論文 参考訳(メタデータ) (2020-06-03T01:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。