論文の概要: Exploratory Landscape Analysis is Strongly Sensitive to the Sampling
Strategy
- arxiv url: http://arxiv.org/abs/2006.11135v1
- Date: Fri, 19 Jun 2020 13:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 03:22:32.376687
- Title: Exploratory Landscape Analysis is Strongly Sensitive to the Sampling
Strategy
- Title(参考訳): 探索的景観分析はサンプリング戦略に強く敏感である
- Authors: Quentin Renau, Carola Doerr, Johann Dreo, Benjamin Doerr
- Abstract要約: 明示的な問題表現が利用できないブラックボックス最適化では、少数のサンプルポイントから特徴値を近似する必要がある。
本研究では,サンプリング法とサンプルサイズが特徴値の近似値の品質に与える影響を解析する。
- 参考スコア(独自算出の注目度): 8.246980996934347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploratory landscape analysis (ELA) supports supervised learning approaches
for automated algorithm selection and configuration by providing sets of
features that quantify the most relevant characteristics of the optimization
problem at hand. In black-box optimization, where an explicit problem
representation is not available, the feature values need to be approximated
from a small number of sample points. In practice, uniformly sampled random
point sets and Latin hypercube constructions are commonly used sampling
strategies. In this work, we analyze how the sampling method and the sample
size influence the quality of the feature value approximations and how this
quality impacts the accuracy of a standard classification task. While, not
unexpectedly, increasing the number of sample points gives more robust
estimates for the feature values, to our surprise we find that the feature
value approximations for different sampling strategies do not converge to the
same value. This implies that approximated feature values cannot be interpreted
independently of the underlying sampling strategy. As our classification
experiments show, this also implies that the feature approximations used for
training a classifier must stem from the same sampling strategy as those used
for the actual classification tasks. As a side result we show that classifiers
trained with feature values approximated by Sobol' sequences achieve higher
accuracy than any of the standard sampling techniques. This may indicate
improvement potential for ELA-trained machine learning models.
- Abstract(参考訳): 探索ランドスケープ分析(ELA)は,最適化問題の最も関連性の高い特徴を定量化する機能セットを提供することにより,自動アルゴリズム選択と構成のための教師付き学習手法をサポートする。
明示的な問題表現が利用できないブラックボックス最適化では、少数のサンプルポイントから特徴値を近似する必要がある。
実際には、一様にサンプリングされたランダム点集合とラテンハイパーキューブ構成はサンプリング戦略として一般的に用いられる。
本研究では,サンプリング手法とサンプルサイズが特徴値の近似値の品質に与える影響と,この品質が標準分類タスクの精度に与える影響を解析する。
意外なことに、サンプル点数の増加は、特徴値に対するより堅牢な見積もりをもたらすが、我々の驚きは、異なるサンプリング戦略に対する特徴値近似が同じ値に収束しないことである。
これは、近似された特徴値は、基礎となるサンプリング戦略とは独立に解釈できないことを意味する。
分類実験が示すように、これは分類器の訓練に使用される特徴近似が、実際の分類タスクで使用されるものと同じサンプリング戦略に由来することも示唆する。
その結果,ソボル系列に近似した特徴量を持つ分類器は,従来のサンプリング手法よりも高い精度が得られることがわかった。
これは、ERA学習機械学習モデルの改善可能性を示す可能性がある。
関連論文リスト
- Absolute convergence and error thresholds in non-active adaptive
sampling [0.27624021966289597]
非アクティブ適応サンプリングは、トレーニングベースから機械学習モデルを構築する方法である。
絶対収束と誤差しきい値を計算するための提案について述べる。
テストは私たちの期待に応え、自然言語処理の領域における提案を説明する。
論文 参考訳(メタデータ) (2024-02-04T15:10:34Z) - Gradient and Uncertainty Enhanced Sequential Sampling for Global Fit [0.0]
本稿では、GUESS(Gradient and Uncertainty Enhanced Sequential Smpling)と呼ばれる、グローバル適合のための新しいサンプリング戦略を提案する。
GUESSは, 実験例における他のサロゲート型戦略と比較して, 平均的な試料効率で達成された。
論文 参考訳(メタデータ) (2023-09-29T19:49:39Z) - Efficient Failure Pattern Identification of Predictive Algorithms [15.02620042972929]
本稿では,人間のアノテータチームとシーケンシャルレコメンデーションアルゴリズムからなる人間機械協調フレームワークを提案する。
その結果、様々な信号対雑音比で複数のデータセット上でのフレームワークの競合性能を実証的に実証した。
論文 参考訳(メタデータ) (2023-06-01T14:54:42Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - HardVis: Visual Analytics to Handle Instance Hardness Using
Undersampling and Oversampling Techniques [74.09665819220567]
HardVisは、主に不均衡な分類シナリオでインスタンスの硬さを処理するために設計されたビジュアル分析システムである。
ユーザはさまざまな視点からデータのサブセットを探索して、これらのパラメータをすべて決定できる。
HardVisの有効性と有効性は仮説的利用シナリオとユースケースで実証される。
論文 参考訳(メタデータ) (2022-03-29T17:04:16Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Optimal Importance Sampling for Federated Learning [57.14673504239551]
フェデレートラーニングには、集中型と分散化された処理タスクが混在する。
エージェントとデータのサンプリングは概して一様であるが、本研究では一様でないサンプリングについて考察する。
エージェント選択とデータ選択の両方に最適な重要サンプリング戦略を導出し、置換のない一様サンプリングが元のFedAvgアルゴリズムの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-10-26T14:15:33Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。