論文の概要: MementoML: Performance of selected machine learning algorithm
configurations on OpenML100 datasets
- arxiv url: http://arxiv.org/abs/2008.13162v1
- Date: Sun, 30 Aug 2020 13:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:00:31.392348
- Title: MementoML: Performance of selected machine learning algorithm
configurations on OpenML100 datasets
- Title(参考訳): MementoML: OpenML100データセット上の選択された機械学習アルゴリズム構成のパフォーマンス
- Authors: Wojciech Kretowicz, Przemys{\l}aw Biecek
- Abstract要約: 本稿では,異なるMLアルゴリズムの性能を示すベンチマークデータを生成するプロトコルを提案する。
このように収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。
- 参考スコア(独自算出の注目度): 5.802346990263708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding optimal hyperparameters for the machine learning algorithm can often
significantly improve its performance. But how to choose them in a
time-efficient way? In this paper we present the protocol of generating
benchmark data describing the performance of different ML algorithms with
different hyperparameter configurations. Data collected in this way is used to
study the factors influencing the algorithm's performance.
This collection was prepared for the purposes of the study presented in the
EPP study. We tested algorithms performance on dense grid of hyperparameters.
Tested datasets and hyperparameters were chosen before any algorithm has run
and were not changed. This is a different approach than the one usually used in
hyperparameter tuning, where the selection of candidate hyperparameters depends
on the results obtained previously. However, such selection allows for
systematic analysis of performance sensitivity from individual hyperparameters.
This resulted in a comprehensive dataset of such benchmarks that we would
like to share. We hope, that computed and collected result may be helpful for
other researchers. This paper describes the way data was collected. Here you
can find benchmarks of 7 popular machine learning algorithms on 39 OpenML
datasets.
The detailed data forming this benchmark are available at:
https://www.kaggle.com/mi2datalab/mementoml.
- Abstract(参考訳): 機械学習アルゴリズムの最適ハイパーパラメータを見つけることは、しばしばその性能を著しく向上させる。
しかし、どのようにして時間効率の良い方法を選ぶのか?
本稿では,ハイパーパラメータ構成が異なる異なるmlアルゴリズムの性能を記述するベンチマークデータを生成するプロトコルを提案する。
この方法で収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。
このコレクションはEPP研究で示された研究のために準備された。
ハイパーパラメータの高密度グリッド上でのアルゴリズム性能を検証した。
テストデータセットとハイパーパラメータは、アルゴリズムの実行前に選択され、変更されなかった。
これは、通常ハイパーパラメータチューニングで使用されるものとは異なるアプローチであり、候補のハイパーパラメータの選択は以前に得られた結果に依存する。
しかし、このような選択は個々のハイパーパラメータのパフォーマンス感度を体系的に解析することができる。
この結果、私たちが共有したいベンチマークの包括的なデータセットが生まれました。
計算され、収集された結果が、他の研究者にとって役立つことを願っている。
本稿では,データの収集方法について述べる。
39のopenmlデータセット上で人気のある7つの機械学習アルゴリズムのベンチマークを見ることができる。
このベンチマークを構成する詳細なデータは、https://www.kaggle.com/mi2datalab/mementoml.com/で入手できる。
関連論文リスト
- Bayesian Optimization for Simultaneous Selection of Machine Learning Algorithms and Hyperparameters on Shared Latent Space [16.257223975129513]
機械学習(ML)アルゴリズムとそのハイパーパラメータは、高性能なMLシステムの開発に不可欠である。
多くの既存研究では、探索を加速するためにベイズ最適化(BO)を使用している。
提案手法は,BOの代用マルチタスクモデルを推定し,異なるハイパーパラメータ空間を共有潜在空間に埋め込む。
このアプローチは、より少ない総観測数で効率的な最適化が期待できる、異なるMLアルゴリズムからの観測情報を共有することができる。
論文 参考訳(メタデータ) (2025-02-13T13:43:52Z) - Transfer Learning in $\ell_1$ Regularized Regression: Hyperparameter Selection Strategy based on Sharp Asymptotic Analysis [3.5374094795720854]
転送学習技術は、複数の関連するデータセットからの情報を活用し、ターゲットデータセットに対する予測品質を向上させることを目的としている。
トランス・ラッソ(Trans-Lasso)とプレトレーニング・ラッソ(Pretraining Lasso)である。
レプリカ法を用いて解析することにより,高次元環境下でのアルゴリズムの徹底的,精密な研究を行う。
微調整段階に転送される2種類の情報の1つを無視することは、一般化性能にはほとんど影響しない。
論文 参考訳(メタデータ) (2024-09-26T10:20:59Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - A Comparative study of Hyper-Parameter Optimization Tools [2.6097538974670935]
我々は、4つのpythonライブラリ、すなわちOptuna、Hyperopt、Optunity、およびシーケンシャルモデルアルゴリズム構成(SMAC)の性能を比較した。
私たちは、OptunaがCASH問題とNeurIPSのブラックボックス最適化の課題に対してより良いパフォーマンスを持つことを発見した。
論文 参考訳(メタデータ) (2022-01-17T14:49:36Z) - Meta-Learning for Symbolic Hyperparameter Defaults [2.928016570228877]
機械学習(ML)におけるハイパーパラメータ最適化は、データから最適なアルゴリズム構成を経験的に学習する問題を扱う。
本稿では,メタラーン記号のデフォルトパラメータ設定に対するゼロショット法を提案し,データセットの特性の観点から表現する。
これにより、MLアルゴリズムのより高速で、なおデータ依存的な構成が可能になる。
論文 参考訳(メタデータ) (2021-06-10T14:20:28Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - How to tune the RBF SVM hyperparameters?: An empirical evaluation of 18
search algorithms [4.394728504061753]
本稿では,実生活115個のバイナリデータセットを対象とした18の探索アルゴリズムを提案する。
Parssは、グリッドに関して、同じツリーに関して、時間的にわずかにしか増加せずに、よりよく検索できることに気付きました。
また,検索アルゴリズムによって1つ以上のデータを見つけると,最適なデータ集合に対して異なる手順に有意な差はないことがわかった。
論文 参考訳(メタデータ) (2020-08-26T16:28:48Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。