論文の概要: Dynamic Design of Machine Learning Pipelines via Metalearning
- arxiv url: http://arxiv.org/abs/2508.13436v1
- Date: Tue, 19 Aug 2025 01:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.760112
- Title: Dynamic Design of Machine Learning Pipelines via Metalearning
- Title(参考訳): メタラーニングによる機械学習パイプラインの動的設計
- Authors: Edesio Alcobaça, André C. P. L. F. de Carvalho,
- Abstract要約: 本稿では,AutoMLシステムのための探索空間を動的に設計するメタラーニング手法を提案する。
提案手法は,履歴メタ知識を用いて探索空間の有望な領域を選定し,最適化プロセスを高速化する。
本研究により,提案手法はランダム検索および検索空間において,ランタイムを89%削減できることがわかった。
- 参考スコア(独自算出の注目度): 1.1356542363919058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated machine learning (AutoML) has democratized the design of machine learning based systems, by automating model selection, hyperparameter tuning and feature engineering. However, the high computational cost associated with traditional search and optimization strategies, such as Random Search, Particle Swarm Optimization and Bayesian Optimization, remains a significant challenge. Moreover, AutoML systems typically explore a large search space, which can lead to overfitting. This paper introduces a metalearning method for dynamically designing search spaces for AutoML system. The proposed method uses historical metaknowledge to select promising regions of the search space, accelerating the optimization process. According to experiments conducted for this study, the proposed method can reduce runtime by 89\% in Random Search and search space by (1.8/13 preprocessor and 4.3/16 classifier), without compromising significant predictive performance. Moreover, the proposed method showed competitive performance when adapted to Auto-Sklearn, reducing its search space. Furthermore, this study encompasses insights into meta-feature selection, meta-model explainability, and the trade-offs inherent in search space reduction strategies.
- Abstract(参考訳): Automated Machine Learning (AutoML)は、モデル選択、ハイパーパラメータチューニング、機能エンジニアリングを自動化することで、機械学習ベースのシステムの設計を民主化した。
しかし、Random Search、Particle Swarm Optimization、Bayesian Optimizationといった従来の検索と最適化戦略に関連する高い計算コストは、依然として大きな課題である。
さらに、AutoMLシステムは一般的に大規模な検索スペースを探索し、過度に適合する可能性がある。
本稿では,AutoMLシステムのための探索空間を動的に設計するメタラーニング手法を提案する。
提案手法は,履歴メタ知識を用いて探索空間の有望な領域を選定し,最適化プロセスを高速化する。
本研究により,提案手法は, (1.8/13プリプロセッサと4.3/16分類器) によるランダム検索と検索空間において, 予測性能を損なうことなく, 実行時間を89\%削減できることがわかった。
さらに,Auto-Sklearnに適用した場合の競合性能を示し,検索スペースを削減した。
さらに, メタ機能選択, メタモデル説明可能性, 検索空間削減戦略に固有のトレードオフについて考察した。
関連論文リスト
- An experimental survey and Perspective View on Meta-Learning for Automated Algorithms Selection and Parametrization [0.0]
我々は、この継続的な発展途上の分野における芸術の状況について概観する。
AutoMLは、高度な分析を適用することに興味があるドメイン科学者が機械学習技術にアクセスできるようにする。
論文 参考訳(メタデータ) (2025-04-08T16:51:22Z) - A Survey of Automatic Prompt Optimization with Instruction-focused Heuristic-based Search Algorithm [13.332569343755075]
大規模言語モデルは、様々な自然言語処理タスクにおいて顕著な成果をもたらしています。
手動の手法は効果的であるが、通常は直感に頼り、時間とともに自動的にプロンプトを洗練しない。
検索アルゴリズムを用いた自動プロンプト最適化は、人間の監視を最小限に抑えて、システマティックにプロンプトを探索し改善することができる。
論文 参考訳(メタデータ) (2025-02-26T01:42:08Z) - Deep Memory Search: A Metaheuristic Approach for Optimizing Heuristic Search [0.0]
本稿では,メタヒューリスティック検索をメモリ駆動プロセスとしてモデル化するDeep Heuristic Search (DHS) という新しい手法を提案する。
DHSは複数の探索層とメモリベースの探索探索機構を用いて、大きな動的探索空間をナビゲートする。
論文 参考訳(メタデータ) (2024-10-22T14:16:49Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - A Meta-Level Learning Algorithm for Sequential Hyper-Parameter Space
Reduction in AutoML [2.06188179769701]
本稿では,AutoMLツールの予測性能を損なうことなく,AutoMLツールのスペースを削減するアルゴリズムを提案する。
SHSRは284の分類と375の回帰問題に基づいて評価され、約30%の実行時間を短縮し、性能低下は0.1%未満であった。
論文 参考訳(メタデータ) (2023-12-11T11:26:43Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Evolving Search Space for Neural Architecture Search [70.71153433676024]
最適化された検索空間サブセットを維持することにより,前回の取り組みから得られた結果を増幅するニューラルサーチ空間進化(NSE)方式を提案する。
我々は333万のFLOPでImageNet上で77.3%のトップ1リトレーニング精度を実現し、最先端の性能を得た。
遅延制約が適用された場合、我々の結果は、77.9%のTop-1再トレーニング精度を持つ、以前の最高のパフォーマンスのモバイルモデルよりも優れた性能が得られる。
論文 参考訳(メタデータ) (2020-11-22T01:11:19Z) - RandomNet: Towards Fully Automatic Neural Architecture Design for
Multimodal Learning [7.5352209570833555]
完全自動マルチモーダルニューラルアーキテクチャ探索におけるランダム探索手法の有効性について検討する。
提案手法は,手作業による特徴抽出に頼っている従来の手法と比較して,人間の監督を最小限に抑えた大規模検索空間から各モダリティを選択する。
論文 参考訳(メタデータ) (2020-03-02T20:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。