論文の概要: Sensitivity Analysis of RF+clust for Leave-one-problem-out Performance
Prediction
- arxiv url: http://arxiv.org/abs/2305.19375v1
- Date: Tue, 30 May 2023 19:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 19:45:51.661467
- Title: Sensitivity Analysis of RF+clust for Leave-one-problem-out Performance
Prediction
- Title(参考訳): RF+クラストの応答特性予測のための感度解析
- Authors: Ana Nikolikj, Michal Pluh\'a\v{c}ek, Carola Doerr, Peter Koro\v{s}ec,
and Tome Eftimov
- Abstract要約: LOPO(Left-one-problem-out)パフォーマンス予測では、機械学習(ML)モデルを使用して、アルゴリズムのパフォーマンスを一連のトレーニング問題から、これまで見つからなかった問題に推定する。
近年の研究では、テスト問題に類似したトレーニング問題に対するアルゴリズムの性能の重み付け平均による標準ランダムフォレスト(RF)性能回帰モデルの拡張が提案されている。
ここでは、性能回帰のための特徴の重要性を考慮し、距離ベース重みを調整することにより、RF+クラストアプローチを拡張した。
- 参考スコア(独自算出の注目度): 0.7046417074932257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leave-one-problem-out (LOPO) performance prediction requires machine learning
(ML) models to extrapolate algorithms' performance from a set of training
problems to a previously unseen problem. LOPO is a very challenging task even
for state-of-the-art approaches. Models that work well in the easier
leave-one-instance-out scenario often fail to generalize well to the LOPO
setting. To address the LOPO problem, recent work suggested enriching standard
random forest (RF) performance regression models with a weighted average of
algorithms' performance on training problems that are considered similar to a
test problem. More precisely, in this RF+clust approach, the weights are chosen
proportionally to the distances of the problems in some feature space. Here in
this work, we extend the RF+clust approach by adjusting the distance-based
weights with the importance of the features for performance regression. That
is, instead of considering cosine distance in the feature space, we consider a
weighted distance measure, with weights depending on the relevance of the
feature for the regression model. Our empirical evaluation of the modified
RF+clust approach on the CEC 2014 benchmark suite confirms its advantages over
the naive distance measure. However, we also observe room for improvement, in
particular with respect to more expressive feature portfolios.
- Abstract(参考訳): LOPO(Leave-one-problem-out)パフォーマンス予測では、アルゴリズムのパフォーマンスを一連のトレーニング問題から、これまで見つからなかった問題に推定するために、機械学習(ML)モデルが必要となる。
LOPOは最先端のアプローチであっても非常に難しいタスクです。
安易な1回のインスタンスアウトシナリオでうまく機能するモデルは、しばしばLOPO設定によく当てはまらない。
LOPO問題に対処するために、最近の研究は、テスト問題に類似していると考えられるトレーニング問題に対するアルゴリズムの性能の重み付け平均による標準ランダムフォレスト(RF)性能回帰モデルの拡張を提案した。
より正確には、この rf+clust のアプローチでは、重みはいくつかの特徴空間における問題の距離に比例して選択される。
本稿では,性能回帰の重要度に応じて距離ベース重みを調整することにより,RF+クラストアプローチを拡張する。
すなわち、特徴空間における余弦距離を考慮する代わりに、回帰モデルにおける特徴の関連性に依存する重み付き距離測度を考える。
CEC 2014ベンチマークスイートにおけるRF+クラスト修正手法の実証評価により, 実測値に対する利点が確認された。
しかし、特により表現力のある機能ポートフォリオに関して、改善の余地も観察しています。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - RF+clust for Leave-One-Problem-Out Performance Prediction [0.9281671380673306]
本稿では,LOPO(Left-one-problem-out)のパフォーマンス予測について検討する。
我々は、標準ランダムフォレスト(RF)モデル予測が性能値の重み付き平均値で校正することで改善できるかどうかを解析する。
論文 参考訳(メタデータ) (2023-01-23T16:14:59Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Reducing the Amortization Gap in Variational Autoencoders: A Bayesian
Random Function Approach [38.45568741734893]
GPモデルの推論は、セミアモタイズ法よりもはるかに高速な1つのフィードフォワードパスによって行われる。
提案手法は,複数のベンチマークデータセットの最先端データよりも高い確率でテストデータが得られることを示す。
論文 参考訳(メタデータ) (2021-02-05T13:01:12Z) - Robust priors for regularized regression [12.945710636153537]
尾根回帰のような罰則化された回帰アプローチは0に向かって縮小するが、0重みは通常は意味のある先行ではない。
人間が使用する単純で堅牢な決定にインスパイアされた私たちは、ペナル化された回帰モデルのための非ゼロの事前計算を構築しました。
頑丈な先行モデルでは、最悪のパフォーマンスに優れていた。
論文 参考訳(メタデータ) (2020-10-06T10:43:14Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。