論文の概要: Exploratory Landscape Analysis is Strongly Sensitive to the Sampling
Strategy
- arxiv url: http://arxiv.org/abs/2006.11135v1
- Date: Fri, 19 Jun 2020 13:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 03:22:32.376687
- Title: Exploratory Landscape Analysis is Strongly Sensitive to the Sampling
Strategy
- Title(参考訳): 探索的景観分析はサンプリング戦略に強く敏感である
- Authors: Quentin Renau, Carola Doerr, Johann Dreo, Benjamin Doerr
- Abstract要約: 明示的な問題表現が利用できないブラックボックス最適化では、少数のサンプルポイントから特徴値を近似する必要がある。
本研究では,サンプリング法とサンプルサイズが特徴値の近似値の品質に与える影響を解析する。
- 参考スコア(独自算出の注目度): 8.246980996934347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploratory landscape analysis (ELA) supports supervised learning approaches
for automated algorithm selection and configuration by providing sets of
features that quantify the most relevant characteristics of the optimization
problem at hand. In black-box optimization, where an explicit problem
representation is not available, the feature values need to be approximated
from a small number of sample points. In practice, uniformly sampled random
point sets and Latin hypercube constructions are commonly used sampling
strategies. In this work, we analyze how the sampling method and the sample
size influence the quality of the feature value approximations and how this
quality impacts the accuracy of a standard classification task. While, not
unexpectedly, increasing the number of sample points gives more robust
estimates for the feature values, to our surprise we find that the feature
value approximations for different sampling strategies do not converge to the
same value. This implies that approximated feature values cannot be interpreted
independently of the underlying sampling strategy. As our classification
experiments show, this also implies that the feature approximations used for
training a classifier must stem from the same sampling strategy as those used
for the actual classification tasks. As a side result we show that classifiers
trained with feature values approximated by Sobol' sequences achieve higher
accuracy than any of the standard sampling techniques. This may indicate
improvement potential for ELA-trained machine learning models.
- Abstract(参考訳): 探索ランドスケープ分析(ELA)は,最適化問題の最も関連性の高い特徴を定量化する機能セットを提供することにより,自動アルゴリズム選択と構成のための教師付き学習手法をサポートする。
明示的な問題表現が利用できないブラックボックス最適化では、少数のサンプルポイントから特徴値を近似する必要がある。
実際には、一様にサンプリングされたランダム点集合とラテンハイパーキューブ構成はサンプリング戦略として一般的に用いられる。
本研究では,サンプリング手法とサンプルサイズが特徴値の近似値の品質に与える影響と,この品質が標準分類タスクの精度に与える影響を解析する。
意外なことに、サンプル点数の増加は、特徴値に対するより堅牢な見積もりをもたらすが、我々の驚きは、異なるサンプリング戦略に対する特徴値近似が同じ値に収束しないことである。
これは、近似された特徴値は、基礎となるサンプリング戦略とは独立に解釈できないことを意味する。
分類実験が示すように、これは分類器の訓練に使用される特徴近似が、実際の分類タスクで使用されるものと同じサンプリング戦略に由来することも示唆する。
その結果,ソボル系列に近似した特徴量を持つ分類器は,従来のサンプリング手法よりも高い精度が得られることがわかった。
これは、ERA学習機械学習モデルの改善可能性を示す可能性がある。
関連論文リスト
- Differentiating Policies for Non-Myopic Bayesian Optimization [5.793371273485735]
本稿では,ロールアウト関数とその勾配を効率的に推定し,サンプリングポリシを実現する方法を示す。
本稿では,ロールアウト関数とその勾配を効率的に推定し,サンプリングポリシを実現する方法について述べる。
論文 参考訳(メタデータ) (2024-08-14T21:00:58Z) - Revisiting Score Function Estimators for $k$-Subset Sampling [5.464421236280698]
離散フーリエ変換を用いて,$k$-subset分布のスコア関数を効率的に計算する方法を示す。
得られた推定器は、正確なサンプルと偏りのない勾配推定の両方を提供する。
特徴選択の実験は、仮定が弱いにもかかわらず、現在の手法と競合する結果を示している。
論文 参考訳(メタデータ) (2024-07-22T21:26:39Z) - Dataset Quantization with Active Learning based Adaptive Sampling [11.157462442942775]
また, 不均一なサンプル分布であっても, 性能維持が可能であることを示す。
サンプル選択を最適化するために,新しい能動的学習に基づく適応型サンプリング手法を提案する。
提案手法は,最先端のデータセット圧縮手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-09T23:09:18Z) - Gradient and Uncertainty Enhanced Sequential Sampling for Global Fit [0.0]
本稿では、GUESS(Gradient and Uncertainty Enhanced Sequential Smpling)と呼ばれる、グローバル適合のための新しいサンプリング戦略を提案する。
GUESSは, 実験例における他のサロゲート型戦略と比較して, 平均的な試料効率で達成された。
論文 参考訳(メタデータ) (2023-09-29T19:49:39Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Optimal Importance Sampling for Federated Learning [57.14673504239551]
フェデレートラーニングには、集中型と分散化された処理タスクが混在する。
エージェントとデータのサンプリングは概して一様であるが、本研究では一様でないサンプリングについて考察する。
エージェント選択とデータ選択の両方に最適な重要サンプリング戦略を導出し、置換のない一様サンプリングが元のFedAvgアルゴリズムの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-10-26T14:15:33Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。