論文の概要: Towards Unsupervised HPO for Outlier Detection
- arxiv url: http://arxiv.org/abs/2208.11727v1
- Date: Wed, 24 Aug 2022 18:11:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:35:28.922907
- Title: Towards Unsupervised HPO for Outlier Detection
- Title(参考訳): 外乱検出のための教師なしHPOに向けて
- Authors: Yue Zhao, Leman Akoglu
- Abstract要約: 我々はメタラーニングに基づくHPODと呼ばれる最初の体系的アプローチを提案する。
HPODは、既存のODベンチマークデータセット上でのHPの大規模なコレクションの以前のパフォーマンスを生かしている。
将来性のあるHPを効率的に特定するために、シーケンシャルなモデルベースの最適化(元々は教師付き)を適用する。
- 参考スコア(独自算出の注目度): 23.77292404327994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an unsupervised outlier detection (OD) algorithm, how can we optimize
its hyperparameter(s) (HP) on a new dataset, without any labels? In this work,
we address this challenging hyperparameter optimization for unsupervised OD
problem, and propose the first systematic approach called HPOD that is based on
meta-learning. HPOD capitalizes on the prior performance of a large collection
of HPs on existing OD benchmark datasets, and transfers this information to
enable HP evaluation on a new dataset without labels. Moreover, HPOD adapts
(originally supervised) sequential model-based optimization to identify
promising HPs efficiently. Extensive experiments show that HPOD works with both
deep (e.g., Robust AutoEncoder) and shallow (e.g., Local Outlier Factor (LOF)
and Isolation Forest (iForest)) OD algorithms on both discrete and continuous
HP spaces, and outperforms a wide range of baselines with on average 58% and
66% performance improvement over the default HPs of LOF and iForest.
- Abstract(参考訳): 教師なしの外れ値検出(OD)アルゴリズムを考えると、ラベルなしで新しいデータセット上でハイパーパラメータ(HP)を最適化するにはどうすればよいのか?
本研究では,非教師付きOD問題に対するこの挑戦的なハイパーパラメータ最適化に取り組み,メタ学習に基づくHPODと呼ばれる最初の体系的アプローチを提案する。
HPODは既存のODベンチマークデータセット上でのHPの大規模なコレクションの事前のパフォーマンスを活かし、ラベルのない新しいデータセットでのHP評価を可能にするために、この情報を転送する。
さらにHPODは、将来性のあるHPを効率的に特定するために、シーケンシャルなモデルベースの最適化(元々は教師付き)を適用する。
広範囲な実験により、hpodは(ロバストオートエンコーダなど)深部と浅部(lof)と孤立林(iforest)の両方で、離散型と連続型のhp空間の両方のodアルゴリズムで動作し、lofとiforestのデフォルトのhpsよりも平均58%と66%のパフォーマンス改善で、幅広いベースラインよりも優れていることが示されている。
関連論文リスト
- Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - Fast Unsupervised Deep Outlier Model Selection with Hypernetworks [32.15262629879272]
我々はDODモデルのチューニングにHYPERを導入し、監視なしでの検証とHP/モデル空間の効率的な探索という2つの基本的な課題に対処する。
鍵となるアイデアは、HPをメインのDODモデルの最適な重みにマッピングする新しいハイパーネットワーク(HN)を設計し、訓練することである。
HYPERは、多くのDODモデルの重みを動的に生成できる単一のHNを利用する。
論文 参考訳(メタデータ) (2023-07-20T02:07:20Z) - PriorBand: Practical Hyperparameter Optimization in the Age of Deep
Learning [49.92394599459274]
我々は,Deep Learning(DL)パイプラインに適したHPOアルゴリズムであるPresideBandを提案する。
各種のDLベンチマークでその堅牢性を示し、情報的専門家のインプットと、専門家の信条の低さに対してその利得を示す。
論文 参考訳(メタデータ) (2023-06-21T16:26:14Z) - Hyperparameter Sensitivity in Deep Outlier Detection: Analysis and a
Scalable Hyper-Ensemble Solution [21.130842136324528]
我々は,Deep OD法のHP感度に関する最初の大規模解析を行った。
我々は,HP 構成の異なるモデルを組み立てる ROBOD と呼ばれる HP-robust でスケーラブルな深層アンサンブルモデルを設計する。
論文 参考訳(メタデータ) (2022-06-15T16:46:00Z) - FedHPO-B: A Benchmark Suite for Federated Hyperparameter Optimization [50.12374973760274]
本稿では,包括的FLタスクを組み込んだベンチマークスイートFedHPO-Bを提案する。
我々はまた、FedHPO-Bに基づく広範な実験を行い、いくつかのHPO法をベンチマークする。
論文 参考訳(メタデータ) (2022-06-08T15:29:10Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Hyperparameter Optimization: Foundations, Algorithms, Best Practices and
Open Challenges [5.139260825952818]
本稿では,グリッドやランダム検索,進化アルゴリズム,ベイズ最適化,ハイパーバンド,レースなどの重要なHPO手法について述べる。
HPOアルゴリズム自体、パフォーマンス評価、HPOとMLパイプラインの結合方法、ランタイムの改善、並列化など、HPOの実行時に行うべき重要な選択について、実用的なレコメンデーションを提供する。
論文 参考訳(メタデータ) (2021-07-13T04:55:47Z) - DEHB: Evolutionary Hyberband for Scalable, Robust and Efficient
Hyperparameter Optimization [33.80873355096445]
我々はDHBと呼ばれる新しいHPO法を提案する。
従来のHPO法よりもはるかに強靭な性能を実現している。
また、計算時間でも効率的であり、概念的にはシンプルで実装が容易であり、新しいデフォルトHPO法に位置づけられる。
論文 参考訳(メタデータ) (2021-05-20T15:13:30Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - Practical and sample efficient zero-shot HPO [8.41866793161234]
利用可能なアプローチの概要と、この問題に対処する2つの新しいテクニックを紹介します。
1つは、サロゲートモデルに基づいて、クエリのためのデータセットと設定のペアを適応的に選択する。
2つ目は、サロゲートモデルの検出、チューニング、テストが問題となる設定のためのもので、HyperBandとサブモジュラー最適化を組み合わせた多要素技術である。
論文 参考訳(メタデータ) (2020-07-27T08:56:55Z) - HyperSTAR: Task-Aware Hyperparameters for Deep Networks [52.50861379908611]
HyperSTARは、ディープニューラルネットワークのためのHPOをウォームスタートするタスク認識方式である。
生の画像から直接、データセット(タスク)表現とパフォーマンス予測器を学習する。
既存のメソッドと比較して、最高のパフォーマンスを達成するために、構成を50%少なく評価する。
論文 参考訳(メタデータ) (2020-05-21T08:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。