論文の概要: Algorithm Selection with Probing Trajectories: Benchmarking the Choice of Classifier Model
- arxiv url: http://arxiv.org/abs/2501.11414v1
- Date: Mon, 20 Jan 2025 11:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:05.264632
- Title: Algorithm Selection with Probing Trajectories: Benchmarking the Choice of Classifier Model
- Title(参考訳): 探索軌道を用いたアルゴリズム選択:分類器モデルの選択のベンチマーク
- Authors: Quentin Renau, Emma Hart,
- Abstract要約: BBOBベンチマークスイートを用いた分類タスクにおいて、17の異なる分類器と3種類のトラジェクトリを用いてベンチマーク研究を行う。
分類器の選択は、特徴ベースのモデルと間隔ベースのモデルが最良の選択であることを示している。
- 参考スコア(独自算出の注目度): 0.20718016474717196
- License:
- Abstract: Recent approaches to training algorithm selectors in the black-box optimisation domain have advocated for the use of training data that is algorithm-centric in order to encapsulate information about how an algorithm performs on an instance, rather than relying on information derived from features of the instance itself. Probing-trajectories that consist of a sequence of objective performance per function evaluation obtained from a short run of an algorithm have recently shown particular promise in training accurate selectors. However, training models on this type of data requires an appropriately chosen classifier given the sequential nature of the data. There are currently no clear guidelines for choosing the most appropriate classifier for algorithm selection using time-series data from the plethora of models available. To address this, we conduct a large benchmark study using 17 different classifiers and three types of trajectory on a classification task using the BBOB benchmark suite using both leave-one-instance out and leave-one-problem out cross-validation. In contrast to previous studies using tabular data, we find that the choice of classifier has a significant impact, showing that feature-based and interval-based models are the best choices.
- Abstract(参考訳): ブラックボックス最適化領域におけるアルゴリズムセレクタのトレーニングへの最近のアプローチは、インスタンス自体の特徴から派生した情報に頼るのではなく、インスタンス上でアルゴリズムがどのように動作するかに関する情報をカプセル化するために、アルゴリズム中心のトレーニングデータを使用することを提唱している。
アルゴリズムのショートランから得られた関数評価毎の目的性能のシーケンスからなる探索軌道は、最近、精度の高いセレクタのトレーニングにおいて特に有望であることが示されている。
しかし、このタイプのデータに対するトレーニングモデルは、データのシーケンシャルな性質を考慮し、適切に選択された分類器を必要とする。
現在、利用可能な多数のモデルから時系列データを使用してアルゴリズムの選択に最も適した分類子を選択するための明確なガイドラインはない。
そこで本研究では,BBOBベンチマークスイートを用いて,17の異なる分類器と3種類のトラジェクトリを用いた大規模なベンチマーク研究を行う。
表付きデータを用いた従来の研究とは対照的に、分類器の選択は大きな影響を与え、特徴に基づくモデルと区間ベースのモデルが最良の選択であることを示す。
関連論文リスト
- TSDS: Data Selection for Task-Specific Model Finetuning [39.19448080265558]
タスク固有の微調整の有効性は、適切なトレーニングデータの選択に大きく依存する。
本稿では,タスク固有のモデル微調整のためのデータ選択フレームワークであるTSDS(Task-Specific Data Selection)を提案する。
提案手法で選択したデータを用いて,1%選択率で命令チューニングを行う場合,全データセットで処理性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-15T05:54:17Z) - Interpretable classifiers for tabular data via discretization and feature selection [4.195816579137846]
表データから人間の解釈可能かつ正確な分類器を即座に計算する手法を提案する。
本稿では,12の実験を通じて,ランダムな森林,XGBoost,および文献における同じデータセットに対する既存の結果と同等の精度で,そのアプローチを実証する。
論文 参考訳(メタデータ) (2024-02-08T13:58:16Z) - DsDm: Model-Aware Dataset Selection with Datamodels [81.01744199870043]
標準的なプラクティスは、データ品質という人間の考え方にマッチする例をフィルタリングすることです。
質の高い"データソースとの類似性に応じた選択は、ランダムに選択するデータに比べてパフォーマンスが向上しない(さらに傷つく)可能性がある。
我々のフレームワークは、データ品質に関する手作業による概念を回避し、学習プロセスがターゲットタスクの予測にデータポイントをトレーニングする方法を明確にモデル化する。
論文 参考訳(メタデータ) (2024-01-23T17:22:00Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Active Learning for Non-Parametric Choice Models [9.737139416043949]
本研究では,消費者の判断に基づいて,非パラメトリック選択モデルを積極的に学習する問題について検討する。
このような選択モデルが識別できない可能性があることを示す否定的な結果を示す。
論文 参考訳(メタデータ) (2022-08-05T18:26:33Z) - Automated Algorithm Selection: from Feature-Based to Feature-Free
Approaches [0.5801044612920815]
本稿では,データ中に暗黙的なシーケンシャル情報がカプセル化されている最適化に適用可能な,アルゴリズム選択のための新しい手法を提案する。
我々は、よく知られた4つのドメインから選択して、オンラインビンパッキングのパッキングを予測するために、2種類のリカレントニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-03-24T23:59:50Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Pattern Sampling for Shapelet-based Time Series Classification [4.94950858749529]
時系列分類アルゴリズムは、正確かつ解釈可能なモデルを提供する。
これらのアルゴリズムは、高度に識別されたサブシーケンスの徹底的な探索に基づいている。
パターン爆発現象を緩和するための効果的な代替手段としてパターンサンプリングが提案されている。
論文 参考訳(メタデータ) (2021-02-16T23:35:10Z) - Online Active Model Selection for Pre-trained Classifiers [72.84853880948894]
我々は,任意のラウンドにおいて高い確率で最良のモデルをラベル付けし,出力する情報的サンプルを積極的に選択するオンライン選択的サンプリング手法を設計する。
我々のアルゴリズムは、敵とストリームの両方のオンライン予測タスクに利用できる。
論文 参考訳(メタデータ) (2020-10-19T19:53:15Z) - Run2Survive: A Decision-theoretic Approach to Algorithm Selection based
on Survival Analysis [75.64261155172856]
生存分析(SA)は、自然に検閲されたデータをサポートし、アルゴリズムランタイムの分散モデルを学習するためにそのようなデータを使用する適切な方法を提供する。
我々は、アルゴリズム選択に対する洗練された決定論的アプローチの基礎として、そのようなモデルを活用し、Run2Surviveを疑う。
標準ベンチマークASlibによる広範な実験では、我々のアプローチは競争力が高く、多くの場合、最先端のASアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-06T15:20:17Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。