論文の概要: Optimised one-class classification performance
- arxiv url: http://arxiv.org/abs/2102.02618v1
- Date: Thu, 4 Feb 2021 14:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:42:13.773410
- Title: Optimised one-class classification performance
- Title(参考訳): 最適一級分類性能
- Authors: Oliver Urs Lenz, Daniel Peralta, Chris Cornelis
- Abstract要約: SVM(Support Vector Machine)、NND(Nearest Neighbour Distance)、ALP(Average Localized Proximity)の3つのデータ記述子の最適化を扱う。
我々は,50個のデータセットから抽出した246個の分類問題を用いて,ハイパーパラメータ最適化の効果を実験的に評価した。
- 参考スコア(独自算出の注目度): 4.894976692426517
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We provide a thorough treatment of hyperparameter optimisation for three data
descriptors with a good track-record in the literature: Support Vector Machine
(SVM), Nearest Neighbour Distance (NND) and Average Localised Proximity (ALP).
The hyperparameters of SVM have to be optimised through cross-validation, while
NND and ALP allow the reuse of a single nearest-neighbour query and an
efficient form of leave-one-out validation. We experimentally evaluate the
effect of hyperparameter optimisation with 246 classification problems drawn
from 50 datasets. From a selection of optimisation algorithms, the recent
Malherbe-Powell proposal optimises the hyperparameters of all three data
descriptors most efficiently. We calculate the increase in test AUROC and the
amount of overfitting as a function of the number of hyperparameter
evaluations. After 50 evaluations, ALP and SVM both significantly outperform
NND. The performance of ALP and SVM is comparable, but ALP can be optimised
more efficiently, while a choice between ALP and SVM based on validation AUROC
gives the best overall result. This distils the many variables of one-class
classification with hyperparameter optimisation down to a clear choice with a
known trade-off, allowing practitioners to make informed decisions.
- Abstract(参考訳): 本稿では、SVM(Support Vector Machine)、NND(Nearest Neighbour Distance)、ALP(Average Localized Proximity)の3つのデータ記述子に対するハイパーパラメータ最適化の徹底的な処理について述べる。
SVMのハイパーパラメータはクロスバリデーションによって最適化されなければならないが、NNDとALPは1つの最寄りのクエリを再利用できる。
50個のデータセットから抽出した246個の分類問題に対するハイパーパラメータ最適化の効果を実験的に評価する。
最適化アルゴリズムの選択から、最近のMalherbe-Powell提案は、3つのデータディスクリプタのハイパーパラメータを最も効率的に最適化します。
ハイパーパラメータ評価の数の関数として、テストAUROCの増加とオーバーフィットの量を計算します。
50回の評価の後、ALPとSVMは共にNNDを著しく上回った。
ALPとSVMのパフォーマンスは同等ですが、ALPはより効率的に最適化できます。
これは、ハイパーパラメータ最適化を伴う1クラス分類の多くの変数を、既知のトレードオフによる明確な選択へと分解し、実践者がインフォームドな決定を行えるようにする。
関連論文リスト
- Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - BO4IO: A Bayesian optimization approach to inverse optimization with uncertainty quantification [5.031974232392534]
この研究はデータ駆動逆最適化(IO)に対処する。
目的は最適化モデルにおける未知のパラメータを、最適あるいは準最適と仮定できる観測された決定から推定することである。
論文 参考訳(メタデータ) (2024-05-28T06:52:17Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Multi-objective hyperparameter optimization with performance uncertainty [62.997667081978825]
本稿では,機械学習アルゴリズムの評価における不確実性を考慮した多目的ハイパーパラメータ最適化の結果について述べる。
木構造型Parzen Estimator(TPE)のサンプリング戦略と、ガウス過程回帰(GPR)と異種雑音の訓練後に得られたメタモデルを組み合わせる。
3つの解析的テスト関数と3つのML問題の実験結果は、多目的TPEとGPRよりも改善したことを示している。
論文 参考訳(メタデータ) (2022-09-09T14:58:43Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Robust Multi-Objective Bayesian Optimization Under Input Noise [27.603887040015888]
多くの製造プロセスにおいて、設計パラメータはランダムな入力ノイズを受けており、結果として製品は期待よりも性能が低い。
本研究では,入力雑音に頑健な最初の多目的BO法を提案する。
論文 参考訳(メタデータ) (2022-02-15T16:33:48Z) - Average Localised Proximity: a new data descriptor with good default
one-class classification performance [4.894976692426517]
一級分類は機械学習の難しい部分分野である。
データディスクリプタは、そのクラスのポジティブな例のみに基づいて、クラスのメンバシップを予測するために使用される。
論文 参考訳(メタデータ) (2021-01-26T19:14:14Z) - Multi-Objective Hyperparameter Tuning and Feature Selection using Filter
Ensembles [0.8029049649310213]
特徴選択を多目的最適化タスクとして扱う。
まず、多目的モデルベースの最適化を使用する。
第二に、NSGA-IIベースのラッパーアプローチによる特徴選択である。
論文 参考訳(メタデータ) (2019-12-30T13:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。