論文の概要: MementoML: Performance of selected machine learning algorithm
configurations on OpenML100 datasets
- arxiv url: http://arxiv.org/abs/2008.13162v1
- Date: Sun, 30 Aug 2020 13:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:00:31.392348
- Title: MementoML: Performance of selected machine learning algorithm
configurations on OpenML100 datasets
- Title(参考訳): MementoML: OpenML100データセット上の選択された機械学習アルゴリズム構成のパフォーマンス
- Authors: Wojciech Kretowicz, Przemys{\l}aw Biecek
- Abstract要約: 本稿では,異なるMLアルゴリズムの性能を示すベンチマークデータを生成するプロトコルを提案する。
このように収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。
- 参考スコア(独自算出の注目度): 5.802346990263708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding optimal hyperparameters for the machine learning algorithm can often
significantly improve its performance. But how to choose them in a
time-efficient way? In this paper we present the protocol of generating
benchmark data describing the performance of different ML algorithms with
different hyperparameter configurations. Data collected in this way is used to
study the factors influencing the algorithm's performance.
This collection was prepared for the purposes of the study presented in the
EPP study. We tested algorithms performance on dense grid of hyperparameters.
Tested datasets and hyperparameters were chosen before any algorithm has run
and were not changed. This is a different approach than the one usually used in
hyperparameter tuning, where the selection of candidate hyperparameters depends
on the results obtained previously. However, such selection allows for
systematic analysis of performance sensitivity from individual hyperparameters.
This resulted in a comprehensive dataset of such benchmarks that we would
like to share. We hope, that computed and collected result may be helpful for
other researchers. This paper describes the way data was collected. Here you
can find benchmarks of 7 popular machine learning algorithms on 39 OpenML
datasets.
The detailed data forming this benchmark are available at:
https://www.kaggle.com/mi2datalab/mementoml.
- Abstract(参考訳): 機械学習アルゴリズムの最適ハイパーパラメータを見つけることは、しばしばその性能を著しく向上させる。
しかし、どのようにして時間効率の良い方法を選ぶのか?
本稿では,ハイパーパラメータ構成が異なる異なるmlアルゴリズムの性能を記述するベンチマークデータを生成するプロトコルを提案する。
この方法で収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。
このコレクションはEPP研究で示された研究のために準備された。
ハイパーパラメータの高密度グリッド上でのアルゴリズム性能を検証した。
テストデータセットとハイパーパラメータは、アルゴリズムの実行前に選択され、変更されなかった。
これは、通常ハイパーパラメータチューニングで使用されるものとは異なるアプローチであり、候補のハイパーパラメータの選択は以前に得られた結果に依存する。
しかし、このような選択は個々のハイパーパラメータのパフォーマンス感度を体系的に解析することができる。
この結果、私たちが共有したいベンチマークの包括的なデータセットが生まれました。
計算され、収集された結果が、他の研究者にとって役立つことを願っている。
本稿では,データの収集方法について述べる。
39のopenmlデータセット上で人気のある7つの機械学習アルゴリズムのベンチマークを見ることができる。
このベンチマークを構成する詳細なデータは、https://www.kaggle.com/mi2datalab/mementoml.com/で入手できる。
関連論文リスト
- Data Classification With Multiprocessing [6.513930657238705]
Pythonのマルチプロセッシングは、異なる分類アルゴリズムでこの仮説をテストするために使われる。
我々は、アンサンブルは精度を向上し、マルチプロセッシングは選択したアルゴリズムの実行時間を短縮する、と結論付けた。
論文 参考訳(メタデータ) (2023-12-23T03:42:13Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - A Comparative study of Hyper-Parameter Optimization Tools [2.6097538974670935]
我々は、4つのpythonライブラリ、すなわちOptuna、Hyperopt、Optunity、およびシーケンシャルモデルアルゴリズム構成(SMAC)の性能を比較した。
私たちは、OptunaがCASH問題とNeurIPSのブラックボックス最適化の課題に対してより良いパフォーマンスを持つことを発見した。
論文 参考訳(メタデータ) (2022-01-17T14:49:36Z) - Experimental Investigation and Evaluation of Model-based Hyperparameter
Optimization [0.3058685580689604]
本稿では、一般的な機械学習アルゴリズムの理論的および実践的な結果の概要を述べる。
Rパッケージmlrは機械学習モデルの統一インターフェースとして使用される。
論文 参考訳(メタデータ) (2021-07-19T11:37:37Z) - Meta-Learning for Symbolic Hyperparameter Defaults [2.928016570228877]
機械学習(ML)におけるハイパーパラメータ最適化は、データから最適なアルゴリズム構成を経験的に学習する問題を扱う。
本稿では,メタラーン記号のデフォルトパラメータ設定に対するゼロショット法を提案し,データセットの特性の観点から表現する。
これにより、MLアルゴリズムのより高速で、なおデータ依存的な構成が可能になる。
論文 参考訳(メタデータ) (2021-06-10T14:20:28Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - How to tune the RBF SVM hyperparameters?: An empirical evaluation of 18
search algorithms [4.394728504061753]
本稿では,実生活115個のバイナリデータセットを対象とした18の探索アルゴリズムを提案する。
Parssは、グリッドに関して、同じツリーに関して、時間的にわずかにしか増加せずに、よりよく検索できることに気付きました。
また,検索アルゴリズムによって1つ以上のデータを見つけると,最適なデータ集合に対して異なる手順に有意な差はないことがわかった。
論文 参考訳(メタデータ) (2020-08-26T16:28:48Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。