論文の概要: Consolidated learning -- a domain-specific model-free optimization
strategy with examples for XGBoost and MIMIC-IV
- arxiv url: http://arxiv.org/abs/2201.11815v1
- Date: Thu, 27 Jan 2022 21:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 15:43:22.227642
- Title: Consolidated learning -- a domain-specific model-free optimization
strategy with examples for XGBoost and MIMIC-IV
- Title(参考訳): 統合学習 - XGBoostとMIMIC-IVの例によるドメイン固有のモデルフリー最適化戦略
- Authors: Katarzyna Wo\'znica, Mateusz Grzyb, Zuzanna Trafas and Przemys{\l}aw
Biecek
- Abstract要約: 本稿では,統合学習と呼ばれるチューニング問題の新たな定式化を提案する。
このような設定では、単一のタスクをチューニングするよりも、全体の最適化時間に関心があります。
我々は,XGBoostアルゴリズムの実証研究とMIMIC-IV医療データベースから抽出した予測タスクの収集を通じて,このアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 4.370097023410272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many machine learning models, a choice of hyperparameters is a crucial
step towards achieving high performance. Prevalent meta-learning approaches
focus on obtaining good hyperparameters configurations with a limited
computational budget for a completely new task based on the results obtained
from the prior tasks. This paper proposes a new formulation of the tuning
problem, called consolidated learning, more suited to practical challenges
faced by model developers, in which a large number of predictive models are
created on similar data sets. In such settings, we are interested in the total
optimization time rather than tuning for a single task. We show that a
carefully selected static portfolio of hyperparameters yields good results for
anytime optimization, maintaining ease of use and implementation. Moreover, we
point out how to construct such a portfolio for specific domains. The
improvement in the optimization is possible due to more efficient transfer of
hyperparameter configurations between similar tasks. We demonstrate the
effectiveness of this approach through an empirical study for XGBoost algorithm
and the collection of predictive tasks extracted from the MIMIC-IV medical
database; however, consolidated learning is applicable in many others fields.
- Abstract(参考訳): 多くの機械学習モデルにおいて、ハイパーパラメータの選択はハイパフォーマンスを達成するための重要なステップである。
一般的なメタラーニングアプローチは、以前のタスクから得られた結果に基づいて、完全に新しいタスクのための限られた計算予算で、優れたハイパーパラメータの構成を得ることに重点を置いている。
本稿では,モデル開発者が直面している実践的課題に適合し,類似したデータセット上に多数の予測モデルを生成する,統合学習と呼ばれるチューニング問題の新たな定式化を提案する。
このような設定では、単一のタスクをチューニングするよりも、全体の最適化時間に関心があります。
我々は、慎重に選択されたハイパーパラメータの静的ポートフォリオが、常に最適化し、使いやすさと実装を維持できることを示す。
さらに、特定のドメインに対してそのようなポートフォリオを構築する方法も指摘する。
最適化の改善は、同様のタスク間でのハイパーパラメータ構成のより効率的な転送によって可能となる。
本手法の有効性をxgboostアルゴリズムの実証実験とmuse-iv医療データベースから抽出した予測タスクの収集により実証するが,他の多くの分野では統合学習が適用できる。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Fairer and More Accurate Tabular Models Through NAS [14.147928131445852]
本稿では,多目的ニューラルアーキテクチャサーチ (NAS) とハイパーパラメータ最適化 (HPO) を,表データの非常に困難な領域への最初の応用として提案する。
我々はNASで精度のみに最適化されたモデルが、本質的に公正な懸念に対処できないことをしばしば示している。
公平性、正確性、あるいは両方において、最先端のバイアス緩和手法を一貫して支配するアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-10-18T17:56:24Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Automatic tuning of hyper-parameters of reinforcement learning
algorithms using Bayesian optimization with behavioral cloning [0.0]
強化学習(RL)では、学習エージェントが収集したデータの情報内容は多くのハイパーパラメータの設定に依存する。
本研究では,ベイズ最適化を用いた自律的ハイパーパラメータ設定手法を提案する。
実験は、他の手作業による調整や最適化ベースのアプローチと比較して、有望な結果を示している。
論文 参考訳(メタデータ) (2021-12-15T13:10:44Z) - Improving Hyperparameter Optimization by Planning Ahead [3.8673630752805432]
本稿では,モデルに基づく強化学習の文脈内で定義された新しい伝達学習手法を提案する。
本稿では,シンプルなルックアヘッド戦略をポリシーとして用いたモデル予測制御法を提案する。
最新のHPOアルゴリズムと比較した3つのメタデータセット実験により,提案手法が全ベースラインを上回り得ることを示す。
論文 参考訳(メタデータ) (2021-10-15T11:46:14Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。