論文の概要: Learning to Transfer for Evolutionary Multitasking
- arxiv url: http://arxiv.org/abs/2406.14359v2
- Date: Sat, 22 Jun 2024 11:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 13:26:35.262772
- Title: Learning to Transfer for Evolutionary Multitasking
- Title(参考訳): 進化的マルチタスクのためのトランスファーの学習
- Authors: Sheng-Hao Wu, Yuxiao Huang, Xingyu Wu, Liang Feng, Zhi-Hui Zhan, Kay Chen Tan,
- Abstract要約: 進化的マルチタスク(EMT)は、マルチタスク最適化問題(MTOP)を解決するための新しいアプローチである。
暗黙のEMTにおける現在のアプローチは、限られた数の進化演算子を使用するため、適応性の課題に直面している。
本稿では,MTOPの効率的なKTポリシーを自動検出する新しいLearning to Transfer(L2T)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.01466615418299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolutionary multitasking (EMT) is an emerging approach for solving multitask optimization problems (MTOPs) and has garnered considerable research interest. The implicit EMT is a significant research branch that utilizes evolution operators to enable knowledge transfer (KT) between tasks. However, current approaches in implicit EMT face challenges in adaptability, due to the use of a limited number of evolution operators and insufficient utilization of evolutionary states for performing KT. This results in suboptimal exploitation of implicit KT's potential to tackle a variety of MTOPs. To overcome these limitations, we propose a novel Learning to Transfer (L2T) framework to automatically discover efficient KT policies for the MTOPs at hand. Our framework conceptualizes the KT process as a learning agent's sequence of strategic decisions within the EMT process. We propose an action formulation for deciding when and how to transfer, a state representation with informative features of evolution states, a reward formulation concerning convergence and transfer efficiency gain, and the environment for the agent to interact with MTOPs. We employ an actor-critic network structure for the agent and learn it via proximal policy optimization. This learned agent can be integrated with various evolutionary algorithms, enhancing their ability to address a range of new MTOPs. Comprehensive empirical studies on both synthetic and real-world MTOPs, encompassing diverse inter-task relationships, function classes, and task distributions are conducted to validate the proposed L2T framework. The results show a marked improvement in the adaptability and performance of implicit EMT when solving a wide spectrum of unseen MTOPs.
- Abstract(参考訳): 進化的マルチタスク(EMT)は、マルチタスク最適化問題(MTOP)を解決するための新しいアプローチであり、かなりの研究関心を集めている。
暗黙のEMTは、進化演算子を用いてタスク間の知識伝達(KT)を可能にする重要な研究分野である。
しかしながら、暗黙のEMTにおける現在のアプローチは、限られた数の進化演算子を使用し、KTを実行するための進化状態の不十分な利用のため、適応性の課題に直面している。
これにより、様々なMTOPに対処する暗黙的なKTのポテンシャルを最適に活用できる。
これらの制約を克服するために,MTOPの効率的なKTポリシーを自動的に発見する新しいLearning to Transfer(L2T)フレームワークを提案する。
本フレームワークは,EMTプロセス内でのKT過程を,学習エージェントの戦略決定のシーケンスとして概念化する。
本稿では、いつ、どのように転送するかを決定するためのアクション定式化、進化状態の情報的特徴を持つ状態表現、収束と転送効率向上に関する報酬定式化、MTOPと対話するエージェントの環境を提案する。
我々はエージェントにアクター・クリティカル・ネットワーク構造を採用し、近似ポリシー最適化により学習する。
この学習されたエージェントは、様々な進化的アルゴリズムと統合することができ、新しいMTOPに対処する能力を高めることができる。
提案したL2Tフレームワークを検証するために,多種多様なタスク間関係,機能クラス,タスク分布を含む,総合的および実世界のMTOPに関する実証的研究を行った。
その結果,未確認MTOPの広帯域化にともなう暗黙EMTの適応性と性能は顕著に向上した。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z) - Optimizing Collaboration of LLM based Agents for Finite Element Analysis [1.5039745292757671]
本稿では,Large Language Models (LLM) 内の複数のエージェント間の相互作用について,プログラミングおよびコーディングタスクの文脈で検討する。
我々はAutoGenフレームワークを利用してエージェント間の通信を容易にし、各セットアップの40のランダムランからの成功率に基づいて異なる構成を評価する。
論文 参考訳(メタデータ) (2024-08-23T23:11:08Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - Towards Multi-Objective High-Dimensional Feature Selection via
Evolutionary Multitasking [63.91518180604101]
本稿では,高次元特徴選択問題,すなわちMO-FSEMTのための新しいEMTフレームワークを開発する。
タスク固有の知識伝達機構は、各タスクの利点情報を活用するように設計され、高品質なソリューションの発見と効果的な伝達を可能にする。
論文 参考訳(メタデータ) (2024-01-03T06:34:39Z) - Multitasking Evolutionary Algorithm Based on Adaptive Seed Transfer for
Combinatorial Problem [2.869730777051168]
進化的マルチタスク最適化(EMTO)は、ECコミュニティで新たなトピックとなっている。
M TEA-ASTは、同じドメインとクロスドメインのマルチタスク環境の両方において、知識を適応的に転送することができる。
提案手法は,4つのCOPによる実験において,他の最先端EMTOと比較して競合性能を示す。
論文 参考訳(メタデータ) (2023-08-24T08:43:32Z) - On the Energy and Communication Efficiency Tradeoffs in Federated and
Multi-Task Learning [42.37180749113699]
マルチタスク学習(MTL)は、従来の伝達学習手法と比較して、タスク間の共通性を利用して効率を向上させる。
本稿では,MAML(Model-Agnostic Meta-Learning)パラダイムによって駆動され,分散無線ネットワークに実装されるMTLプロセスのエネルギーコストについて,初めて考察する。
論文 参考訳(メタデータ) (2022-12-02T09:40:17Z) - Lean Evolutionary Reinforcement Learning by Multitasking with Importance
Sampling [20.9680985132322]
本稿では,新しいニューロ進化的マルチタスク(NuEMT)アルゴリズムを導入し,一連の補助タスクからターゲット(フル長)RLタスクへ情報を伝達する。
我々は、NuEMTアルゴリズムがデータ-リーン進化RLであり、高価なエージェント-環境相互作用データ要求を減らすことを実証する。
論文 参考訳(メタデータ) (2022-03-21T10:06:16Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。