論文の概要: Parametric-Task MAP-Elites
- arxiv url: http://arxiv.org/abs/2402.01275v2
- Date: Thu, 4 Apr 2024 14:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 19:33:50.169188
- Title: Parametric-Task MAP-Elites
- Title(参考訳): Parametric-Task MAP-Elites
- Authors: Timothée Anne, Jean-Baptiste Mouret,
- Abstract要約: Parametric-Task MAP-Elites (PT-ME) は連続マルチタスク最適化問題に対する新しいブラックボックスアルゴリズムである。
PT-ME は2つのパラメトリックタスクの玩具問題に対する深層強化学習アルゴリズム PPO やシミュレーションにおけるロボット問題など,すべてのベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 3.499042782396682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing a set of functions simultaneously by leveraging their similarity is called multi-task optimization. Current black-box multi-task algorithms only solve a finite set of tasks, even when the tasks originate from a continuous space. In this paper, we introduce Parametric-Task MAP-Elites (PT-ME), a new black-box algorithm for continuous multi-task optimization problems. This algorithm (1) solves a new task at each iteration, effectively covering the continuous space, and (2) exploits a new variation operator based on local linear regression. The resulting dataset of solutions makes it possible to create a function that maps any task parameter to its optimal solution. We show that PT-ME outperforms all baselines, including the deep reinforcement learning algorithm PPO on two parametric-task toy problems and a robotic problem in simulation.
- Abstract(参考訳): 類似性を利用して関数の集合を同時に最適化することは、マルチタスク最適化(multi-task optimization)と呼ばれる。
現在のブラックボックスマルチタスクアルゴリズムは、タスクが連続空間から派生した場合でも、有限のタスクのみを解く。
本稿では,連続マルチタスク最適化問題に対する新しいブラックボックスアルゴリズムであるParametric-Task MAP-Elites (PT-ME)を提案する。
本アルゴリズムは,(1)連続空間を効果的にカバーし,(2)局所線形回帰に基づく新しい変分演算子を利用する。
結果として得られるソリューションのデータセットは、任意のタスクパラメータを最適なソリューションにマッピングする関数を作成することができる。
PT-ME は2つのパラメトリックタスクの玩具問題に対する深層強化学習アルゴリズム PPO やシミュレーションにおけるロボット問題など,すべてのベースラインより優れていることを示す。
関連論文リスト
- Multi-Objective Optimization for Sparse Deep Multi-Task Learning [0.0]
重み付きチェビシェフスキャラライゼーションを用いたディープニューラルネットワーク(DNN)のトレーニングのための多目的最適化アルゴリズムを提案する。
本研究の目的は,DNNモデルの持続可能性問題,特にDeep Multi-Taskモデルに焦点をあてることである。
論文 参考訳(メタデータ) (2023-08-23T16:42:27Z) - FAMO: Fast Adaptive Multitask Optimization [48.59232177073481]
本稿では,動的重み付け手法であるFast Adaptive Multitask Optimization FAMOを導入する。
この結果から,FAMOは最先端の勾配操作技術に匹敵する,あるいは優れた性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:39:54Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Min-Max Bilevel Multi-objective Optimization with Applications in
Machine Learning [30.25074797092709]
本稿では,min-maxバイレベル多目的最適化フレームワークを提案する。
表現学習と超目的学習の応用を強調している。
論文 参考訳(メタデータ) (2022-03-03T18:56:13Z) - New Tight Relaxations of Rank Minimization for Multi-Task Learning [161.23314844751556]
2つの正規化項に基づく2つの新しいマルチタスク学習定式化を提案する。
本手法は,タスク間で共有される低ランク構造を正確に復元し,関連するマルチタスク学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-09T07:29:57Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - No-regret Algorithms for Multi-task Bayesian Optimization [26.13594355150718]
非パラメトリックベイズ最適化における未知ベクトル値関数の多目的最適化(MOO)を考える。
目的のランダムなスキャラライズに基づく2つの新しいBOアルゴリズムを開発した。
合成MOO問題と実時間MOO問題の両方にアルゴリズムをベンチマークし、マルチタスクカーネルで学習することで得られる利点を示す。
論文 参考訳(メタデータ) (2020-08-20T10:55:20Z) - Quality Diversity for Multi-task Optimization [4.061135251278186]
本稿では,マルチタスクMAP-Elitesと呼ばれるMAP-Elitesアルゴリズムの拡張を提案する。
擬似パラメータ化された平面アーム(10次元探索空間、5000タスク)と、異なる長さの脚を持つ擬似6脚ロボット(36次元探索空間、2000タスク)で評価する。
論文 参考訳(メタデータ) (2020-03-09T20:48:07Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。