論文の概要: Task Adaptation of Reinforcement Learning-based NAS Agents through Transfer Learning
- arxiv url: http://arxiv.org/abs/2412.01420v1
- Date: Mon, 02 Dec 2024 12:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:43:29.319160
- Title: Task Adaptation of Reinforcement Learning-based NAS Agents through Transfer Learning
- Title(参考訳): 伝達学習による強化学習型NASエージェントのタスク適応
- Authors: Amber Cassimon, Siegfried Mercelis, Kevin Mets,
- Abstract要約: 異なるタスク間を移動させる強化学習エージェントの能力を評価する。
1つのタスクを除いて1つのタスクでエージェントを事前訓練することは、他のタスクにおけるエージェントのパフォーマンスに有益であることがわかった。
また、エージェントのトレーニング手順を、他のタスクで事前訓練することで、大幅に短縮できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recently, a novel paradigm has been proposed for reinforcement learning-based NAS agents, that revolves around the incremental improvement of a given architecture. We assess the abilities of such reinforcement learning agents to transfer between different tasks. We perform our evaluation using the Trans-NASBench-101 benchmark, and consider the efficacy of the transferred agents, as well as how quickly they can be trained. We find that pretraining an agent on one task benefits the performance of the agent in another task in all but 1 task when considering final performance. We also show that the training procedure for an agent can be shortened significantly by pretraining it on another task. Our results indicate that these effects occur regardless of the source or target task, although they are more pronounced for some tasks than for others. Our results show that transfer learning can be an effective tool in mitigating the computational cost of the initial training procedure for reinforcement learning-based NAS agents.
- Abstract(参考訳): 近年,あるアーキテクチャの漸進的改善を中心に,強化学習に基づくNASエージェントのための新しいパラダイムが提案されている。
このような強化学習エージェントの異なるタスク間の移動能力を評価する。
我々は、Trans-NASBench-101ベンチマークを用いて評価を行い、転送されたエージェントの有効性と、どの程度の速さでトレーニングできるかを検討する。
1つのタスクにおけるエージェントの事前訓練は、最終性能を考慮した場合の1つのタスクを除いて、他のタスクにおけるエージェントのパフォーマンスに有益であることがわかった。
また、エージェントのトレーニング手順を、他のタスクで事前訓練することで、大幅に短縮できることを示す。
結果から,これらの効果はソースや目標タスクによらず発生することが示唆された。
この結果から,トランスファーラーニングは,強化学習に基づくNASエージェントの初期訓練手順の計算コストを軽減できる可能性が示唆された。
関連論文リスト
- Unprejudiced Training Auxiliary Tasks Makes Primary Better: A Multi-Task Learning Perspective [55.531894882776726]
マルチタスク学習方法は、補助的なタスクを使用して、特定の一次タスク上でのニューラルネットワークのパフォーマンスを高めることを推奨する。
以前の方法では、しばしば補助的なタスクを慎重に選択するが、訓練中に二次的なものとして扱う。
本研究では,不確実性に基づく公平な学習手法を提案する。
論文 参考訳(メタデータ) (2024-12-27T09:27:18Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Adaptive Transfer Learning on Graph Neural Networks [4.233435459239147]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な表現を学ぶために広く利用されている。
近年の研究では、自己教師型タスクから下流タスクへの知識伝達により、グラフ表現がさらに改善されることが示されている。
本稿では,GNN 上での移動学習パラダイムを提案する。これは,目標タスクを支援するための補助タスクとして,自己教師型タスクを効果的に活用することができる。
論文 参考訳(メタデータ) (2021-07-19T11:46:28Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。