論文の概要: Multi-Agent Automated Machine Learning
- arxiv url: http://arxiv.org/abs/2210.09084v1
- Date: Mon, 17 Oct 2022 13:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:33:25.435304
- Title: Multi-Agent Automated Machine Learning
- Title(参考訳): マルチエージェント自動機械学習
- Authors: Zhaozhi Wang, Kefan Su, Jian Zhang, Huizhu Jia, Qixiang Ye, Xiaodong
Xie, and Zongqing Lu
- Abstract要約: 自動機械学習(AutoML)におけるモジュールの共同最適化のためのマルチエージェント自動機械学習(MA2ML)を提案する。
MA2MLはモジュール間の協力を強化するために各エージェントにクレジットを明示的に割り当て、検索効率を向上させるために政治外の学習を取り入れている。
実験により、MA2MLは計算コストの制約の下でImageNet上で最先端のトップ1の精度が得られることが示された。
- 参考スコア(独自算出の注目度): 54.14038920246645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose multi-agent automated machine learning (MA2ML) with
the aim to effectively handle joint optimization of modules in automated
machine learning (AutoML). MA2ML takes each machine learning module, such as
data augmentation (AUG), neural architecture search (NAS), or hyper-parameters
(HPO), as an agent and the final performance as the reward, to formulate a
multi-agent reinforcement learning problem. MA2ML explicitly assigns credit to
each agent according to its marginal contribution to enhance cooperation among
modules, and incorporates off-policy learning to improve search efficiency.
Theoretically, MA2ML guarantees monotonic improvement of joint optimization.
Extensive experiments show that MA2ML yields the state-of-the-art top-1
accuracy on ImageNet under constraints of computational cost, e.g.,
$79.7\%/80.5\%$ with FLOPs fewer than 600M/800M. Extensive ablation studies
verify the benefits of credit assignment and off-policy learning of MA2ML.
- Abstract(参考訳): 本稿では,自動機械学習(AutoML)におけるモジュールの協調最適化を効果的に行うことを目的としたマルチエージェント自動機械学習(MA2ML)を提案する。
MA2MLは、データ拡張(AUG)、ニューラルアーキテクチャサーチ(NAS)、ハイパーパラメータ(HPO)などの各機械学習モジュールをエージェントとして、最終的なパフォーマンスを報酬として、マルチエージェント強化学習問題を定式化する。
MA2MLはモジュール間の協力を強化するために各エージェントにクレジットを明示的に割り当て、検索効率を向上させるために政治外の学習を取り入れている。
理論的には、MA2MLは関節最適化の単調な改善を保証する。
大規模な実験により、MA2MLは計算コストの制約の下でImageNetの最先端のトップ-1精度(例えば、FLOPが600M/800M未満の$79.7\%/80.5\%)を得ることが示された。
広範なアブレーション研究は、ma2mlの信用割当とオフポリシー学習の利点を検証する。
関連論文リスト
- AutoMMLab: Automatically Generating Deployable Models from Language
Instructions for Computer Vision Tasks [39.71649832548044]
AutoMMLabは、ユーザの言語命令に従う汎用LLMベースのAutoMLシステムである。
提案する AutoMMLab システムは,AutoML と OpenMMLab コミュニティを結ぶブリッジとして LLM を効果的に利用している。
実験の結果、AutoMMLabシステムは汎用的で、さまざまなメインストリームタスクをカバーしています。
論文 参考訳(メタデータ) (2024-02-23T14:38:19Z) - GEVO-ML: Optimizing Machine Learning Code with Evolutionary Computation [6.525197444717069]
GEVO-MLは、最適化の機会を発見し、機械学習カーネルのパフォーマンスをチューニングするためのツールである。
モデルトレーニングと予測の両方のために、GEVO-MLを2つの異なるMLワークロードでデモする。
GEVO-MLはこれらのモデルに大きな改善を加え、モデル精度が2%の緩和で90.43%の性能向上を達成した。
論文 参考訳(メタデータ) (2023-10-16T09:24:20Z) - Multi-Microgrid Collaborative Optimization Scheduling Using an Improved
Multi-Agent Soft Actor-Critic Algorithm [8.461537684562776]
マルチマイクログリッド (MMG) システムは、異なる操作実体に属する複数の再生可能エネルギーマイクログリッドで構成されている。
本稿では,マルチエージェント集中型分散実行フレームワークに基づくMMG協調最適化モデルを提案する。
論文 参考訳(メタデータ) (2023-04-01T22:44:52Z) - Mixed Autoencoder for Self-supervised Visual Representation Learning [95.98114940999653]
Masked Autoencoder (MAE) は、画像パッチと再構成をランダムにマスキングすることで、様々な視覚タスクにおいて優れた性能を示す。
本稿では,MAEのミキシング強化について検討する。
論文 参考訳(メタデータ) (2023-03-30T05:19:43Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - MAMBPO: Sample-efficient multi-robot reinforcement learning using
learned world models [4.84279798426797]
マルチロボットシステムは、少数の試験で行動を学ぶ強化学習(RL)アルゴリズムの恩恵を受けることができます。
マルチエージェントモデルベースポリシー最適化(MAMBPO)という新しいマルチエージェントモデルベースRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-05T13:37:23Z) - Robusta: Robust AutoML for Feature Selection via Reinforcement Learning [24.24652530951966]
強化学習(RL)に基づく初の堅牢なAutoMLフレームワークRobostaを提案します。
このフレームワークは,良性サンプルの競争精度を維持しつつ,モデルロバスト性を最大22%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-01-15T03:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。