論文の概要: Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification
- arxiv url: http://arxiv.org/abs/2011.12208v1
- Date: Tue, 24 Nov 2020 17:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:56:35.978804
- Title: Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification
- Title(参考訳): 一級分類のための最小分散組込み自己結合型カーネルエクストリームラーニングマシン
- Authors: Pratik K. Mishra, Chandan Gautam, Aruna Tiwari
- Abstract要約: VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
- 参考スコア(独自算出の注目度): 1.4146420810689422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class classification (OCC) needs samples from only a single class to
train the classifier. Recently, an auto-associative kernel extreme learning
machine was developed for the OCC task. This paper introduces a novel extension
of this classifier by embedding minimum variance information within its
architecture and is referred to as VAAKELM. The minimum variance embedding
forces the network output weights to focus in regions of low variance and
reduces the intra-class variance. This leads to a better separation of target
samples and outliers, resulting in an improvement in the generalization
performance of the classifier. The proposed classifier follows a
reconstruction-based approach to OCC and minimizes the reconstruction error by
using the kernel extreme learning machine as the base classifier. It uses the
deviation in reconstruction error to identify the outliers. We perform
experiments on 15 small-size and 10 medium-size one-class benchmark datasets to
demonstrate the efficiency of the proposed classifier. We compare the results
with 13 existing one-class classifiers by considering the mean F1 score as the
comparison metric. The experimental results show that VAAKELM consistently
performs better than the existing classifiers, making it a viable alternative
for the OCC task.
- Abstract(参考訳): 1クラス分類(OCC)は、分類器を訓練するために単一のクラスからのサンプルを必要とする。
近年,OCCタスクのための自己連想型カーネル極端学習マシンが開発されている。
本稿では,最小分散情報をアーキテクチャ内に埋め込むことにより,この分類器の新たな拡張を提案し,VAAKELMと呼ぶ。
最小分散埋め込みはネットワーク出力重みを低分散領域に集中させ、クラス内分散を減少させる。
これにより、ターゲットサンプルと外れ値の分離が改善され、分類器の一般化性能が向上した。
提案する分類器は,OCCに対する再構成に基づくアプローチに従って,カーネル極端学習マシンをベース分類器として使用することにより,再構成誤差を最小化する。
復元誤差の偏差を利用して外れ値を特定する。
提案する分類器の効率性を示すために,中小1クラスベンチマークデータセット15セットを対象に実験を行った。
比較基準として平均F1スコアを考慮し,既存の13の1クラス分類器と比較した。
実験の結果,VAAKELMは既存の分類器よりも優れた性能を示し,OCCタスクの代替として有効であることがわかった。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers [12.121885324463388]
インクリメンタルラーニングのための識別・比較可能な1クラス分類器(DisCOIL)という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、他の確立された1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用している。
この利点により、DisCOILは新クラスのVAEと対照的に新クラスのVAEを訓練し、新クラスのVAEは新クラスのサンプルに対してより良い再構築を強いるが、旧クラスの偽のサンプルではさらに悪化し、改良された。
論文 参考訳(メタデータ) (2022-01-05T07:16:34Z) - Does Adversarial Oversampling Help us? [10.210871872870737]
本稿では,データセットのクラス不均衡を処理するために,3人のプレイヤーによるゲームベースのエンドツーエンド手法を提案する。
本稿では,敵対的マイノリティ・オーバーサンプリングではなく,敵対的オーバーサンプリング (AO) とデータ空間・オーバーサンプリング (DO) のアプローチを提案する。
提案手法の有効性を高次元・高不均衡・大規模マルチクラスデータセットを用いて検証した。
論文 参考訳(メタデータ) (2021-08-20T05:43:17Z) - Multiple Classifiers Based Maximum Classifier Discrepancy for
Unsupervised Domain Adaptation [25.114533037440896]
本稿では、2つの分類器の構造を複数の分類器に拡張し、その性能をさらに向上することを提案する。
平均的に、3つの分類器の構造を採用すると、精度と効率のトレードオフとして最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-02T03:00:13Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Predicting Classification Accuracy When Adding New Unobserved Classes [8.325327265120283]
そこで本研究では,より大規模で未観測のクラスに対して,期待する精度を推定するために,分類器の性能をどのように利用することができるかを検討する。
ニューラルネットワークに基づく頑健なアルゴリズム "CleaneX" を定式化し,任意のサイズのクラスに対して,そのような分類器の精度を推定する。
論文 参考訳(メタデータ) (2020-10-28T14:37:25Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Open-Set Recognition with Gaussian Mixture Variational Autoencoders [91.3247063132127]
推論において、オープンセット分類は、サンプルをトレーニングから既知のクラスに分類するか、未知のクラスとして拒絶するかのどちらかである。
我々は,協調的に再構築を学習し,潜在空間におけるクラスベースのクラスタリングを行うよう,我々のモデルを訓練する。
我々のモデルは、より正確で堅牢なオープンセット分類結果を実現し、平均的なF1改善率は29.5%である。
論文 参考訳(メタデータ) (2020-06-03T01:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。