論文の概要: Average Localised Proximity: a new data descriptor with good default
one-class classification performance
- arxiv url: http://arxiv.org/abs/2101.11037v1
- Date: Tue, 26 Jan 2021 19:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 20:02:54.232346
- Title: Average Localised Proximity: a new data descriptor with good default
one-class classification performance
- Title(参考訳): Average Localized Proximity: デフォルトの1クラス分類性能の良い新しいデータ記述子
- Authors: Oliver Urs Lenz, Daniel Peralta, Chris Cornelis
- Abstract要約: 一級分類は機械学習の難しい部分分野である。
データディスクリプタは、そのクラスのポジティブな例のみに基づいて、クラスのメンバシップを予測するために使用される。
- 参考スコア(独自算出の注目度): 4.894976692426517
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One-class classification is a challenging subfield of machine learning in
which so-called data descriptors are used to predict membership of a class
based solely on positive examples of that class, and no counter-examples. A
number of data descriptors that have been shown to perform well in previous
studies of one-class classification, like the Support Vector Machine (SVM),
require setting one or more hyperparameters. There has been no systematic
attempt to date to determine optimal default values for these hyperparameters,
which limits their ease of use, especially in comparison with
hyperparameter-free proposals like the Isolation Forest (IF). We address this
issue by determining optimal default hyperparameter values across a collection
of 246 one-class classification problems derived from 50 different real-world
datasets. In addition, we propose a new data descriptor, Average Localised
Proximity (ALP) to address certain issues with existing approaches based on
nearest neighbour distances. Finally, we evaluate classification performance
using a leave-one-dataset-out procedure, and find strong evidence that ALP
outperforms IF and a number of other data descriptors, as well as weak evidence
that it outperforms SVM, making ALP a good default choice.
- Abstract(参考訳): ワンクラス分類は、いわゆるデータ記述子を使用してクラスの正の例のみに基づいてクラスのメンバシップを予測する機械学習の挑戦的なサブフィールドであり、反例はありません。
サポートベクターマシン(SVM)のような1クラス分類の以前の研究でうまく機能することが示されているデータ記述子の多くは、1つ以上のハイパーパラメータを設定する必要があります。
これらのハイパーパラメータの最適デフォルト値を決定するための体系的な試みはなく、特にアイソレーションフォレスト(IF)のようなハイパーパラメータフリーの提案と比較して、使いやすさを制限している。
我々は,50の異なる実世界のデータセットから抽出した246の1クラス分類問題の集合から,最適デフォルトのハイパーパラメータ値を決定することでこの問題に対処する。
さらに, 近距離に基づく既存アプローチの課題を解決するために, 新しいデータ記述子 Average Localized Proximity (ALP) を提案する。
最後に,ref-one-dataset-out 法を用いて分類性能を評価し,if および他のデータ記述子よりも alp が優れていることを示す強い証拠と,それが svm を上回るという弱い証拠を見いだし,alp が既定の選択肢となるようにした。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Cost-sensitive probabilistic predictions for support vector machines [1.743685428161914]
サポートベクターマシン(SVM)は広く使われており、最もよく検討され使用されている機械学習モデルの一つである。
本稿では,SVMの確率的出力を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:00:17Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Self-Adaptive Label Augmentation for Semi-supervised Few-shot
Classification [121.63992191386502]
Few-shotの分類は、ラベル付きサンプルがわずかにあれば、新しいタスクをうまく一般化できるモデルを学ぶことを目的としている。
そこで本研究では,手動で定義した指標を用いて,ラベルのない各サンプルに適切なラベルを割り当てる半教師付き小ショット分類手法を提案する。
SALAの目新しいところは、タスク適応計量であり、エンドツーエンドの方法で異なるタスクに対するメトリックを適応的に学習することができる。
論文 参考訳(メタデータ) (2022-06-16T13:14:03Z) - Decision Making for Hierarchical Multi-label Classification with
Multidimensional Local Precision Rate [4.812468844362369]
我々は,各クラスの各対象に対して,多次元局所精度率 (mLPR) と呼ばれる新しい統計モデルを導入する。
我々は,mLPRの下位順序でクラス間でオブジェクトをソートするだけで,クラス階層を確実にすることができることを示す。
これに対し、階層を尊重しながら推定mLPRを用いてCATCHの実証バージョンを最大化する新しいアルゴリズムであるHierRankを導入する。
論文 参考訳(メタデータ) (2022-05-16T17:43:35Z) - Data structure > labels? Unsupervised heuristics for SVM hyperparameter
estimation [0.9208007322096532]
Support Vector Machineは多くの機械学習アプローチのデファクト参照である。
パラメータの選択は通常、時間を要するグリッドサーチクロスバリデーション手順(GSCV)によって達成される
我々は、SVMパラメータ選択の改善を提案し、GSCVと、30以上の標準分類データセット上で、最先端のアーティファクトに対してテストした。
論文 参考訳(メタデータ) (2021-11-03T12:04:03Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Optimised one-class classification performance [4.894976692426517]
SVM(Support Vector Machine)、NND(Nearest Neighbour Distance)、ALP(Average Localized Proximity)の3つのデータ記述子の最適化を扱う。
我々は,50個のデータセットから抽出した246個の分類問題を用いて,ハイパーパラメータ最適化の効果を実験的に評価した。
論文 参考訳(メタデータ) (2021-02-04T14:08:20Z) - A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification [0.0]
min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-04-21T09:40:38Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。