論文の概要: SwitchMT: An Adaptive Context Switching Methodology for Scalable Multi-Task Learning in Intelligent Autonomous Agents
- arxiv url: http://arxiv.org/abs/2504.13541v1
- Date: Fri, 18 Apr 2025 08:12:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 16:47:21.906281
- Title: SwitchMT: An Adaptive Context Switching Methodology for Scalable Multi-Task Learning in Intelligent Autonomous Agents
- Title(参考訳): SwitchMT: インテリジェント自律エージェントにおけるスケーラブルなマルチタスク学習のための適応型コンテキストスイッチング手法
- Authors: Avaneesh Devkota, Rachmad Vidya Wicaksana Putra, Muhammad Shafique,
- Abstract要約: 自律エージェントにおけるRLに基づくマルチタスク学習のための適応型タスクスイッチング手法を提案する。
SwitchMTは、アクティブなデンドライトとデュエル構造を備えたDeep Spiking Q-Networkを使用して、特別なサブネットワークを作成する。
最先端の手法に比べてマルチタスク学習において優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 5.343921650701002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to train intelligent autonomous agents (such as mobile robots) on multiple tasks is crucial for adapting to dynamic real-world environments. However, state-of-the-art reinforcement learning (RL) methods only excel in single-task settings, and still struggle to generalize across multiple tasks due to task interference. Moreover, real-world environments also demand the agents to have data stream processing capabilities. Toward this, a state-of-the-art work employs Spiking Neural Networks (SNNs) to improve multi-task learning by exploiting temporal information in data stream, while enabling lowpower/energy event-based operations. However, it relies on fixed context/task-switching intervals during its training, hence limiting the scalability and effectiveness of multi-task learning. To address these limitations, we propose SwitchMT, a novel adaptive task-switching methodology for RL-based multi-task learning in autonomous agents. Specifically, SwitchMT employs the following key ideas: (1) a Deep Spiking Q-Network with active dendrites and dueling structure, that utilizes task-specific context signals to create specialized sub-networks; and (2) an adaptive task-switching policy that leverages both rewards and internal dynamics of the network parameters. Experimental results demonstrate that SwitchMT achieves superior performance in multi-task learning compared to state-of-the-art methods. It achieves competitive scores in multiple Atari games (i.e., Pong: -8.8, Breakout: 5.6, and Enduro: 355.2) compared to the state-of-the-art, showing its better generalized learning capability. These results highlight the effectiveness of our SwitchMT methodology in addressing task interference while enabling multi-task learning automation through adaptive task switching, thereby paving the way for more efficient generalist agents with scalable multi-task learning capabilities.
- Abstract(参考訳): 複数のタスクでインテリジェントな自律エージェント(例えば移動ロボット)を訓練する能力は、動的な現実世界環境に適応するために不可欠である。
しかし、最先端強化学習(RL)手法はシングルタスク設定でのみ優れており、タスクの干渉により複数のタスクをまたいだ一般化に苦慮している。
さらに、現実世界の環境は、エージェントにデータストリーム処理機能を持つことを要求する。
これに向けて、最先端の作業では、スパイキングニューラルネットワーク(SNN)を使用して、データストリーム内の時間情報を活用することでマルチタスク学習を改善し、低消費電力/高エネルギなイベントベース操作を実現している。
しかし、トレーニング中のコンテキスト/タスクスイッチング間隔の固定に依存するため、マルチタスク学習のスケーラビリティと有効性は制限される。
これらの制約に対処するため、自律エージェントにおけるRLに基づくマルチタスク学習のための新しい適応型タスクスイッチング手法であるSwitchMTを提案する。
具体的には,(1)アクティブなデンドライトとデュエル構造を備えたディープスパイキングQ-ネットワーク,(2)ネットワークパラメータの報酬と内部ダイナミクスの両方を活用する適応型タスクスイッチングポリシ。
実験結果から,SwitchMTはマルチタスク学習において最先端の手法に比べて優れた性能を発揮することが示された。
複数のAtariゲーム(Pong:-8.8、Breakout:5.6、Enduro:355.2)で、最先端の学習能力と比較すると、より汎用的な学習能力を示している。
これらの結果から,適応型タスク切替によるマルチタスク学習自動化を実現しつつ,タスク干渉に対処するSwitchMT手法の有効性を強調し,スケーラブルなマルチタスク学習機能を備えたより効率的なジェネラリストエージェントの道を開いた。
関連論文リスト
- MMTL-UniAD: A Unified Framework for Multimodal and Multi-Task Learning in Assistive Driving Perception [22.18509264125815]
MMTL-UniADはマルチモーダルなマルチタスク学習フレームワークである。
ドライバーの行動(例えば、周りを見回したり話したり)、ドライバーの感情(例えば、不安、幸福)、車両の挙動(例えば、駐車、旋回)、交通状況(例えば、交通渋滞、交通のスムーズさ)を同時に認識する。
論文 参考訳(メタデータ) (2025-04-03T04:23:27Z) - MTSpark: Enabling Multi-Task Learning with Spiking Neural Networks for Generalist Agents [5.343921650701002]
本稿では,スパイクネットワークを用いたマルチタスクRLを実現する新しい手法MTSparkを提案する。
具体的には、タスク固有のコンテキスト信号を活用することで、アクティブなデンドライトとデュエル構造を備えたディープスパイキングQ-ネットワーク(DSQN)を開発する。
実験の結果,MTSparkは最先端のタスクよりも高いパフォーマンスで複数のタスクを効果的に学習できることがわかった。
論文 参考訳(メタデータ) (2024-12-06T08:35:33Z) - Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - Dynamic Transformer Architecture for Continual Learning of Multimodal
Tasks [27.59758964060561]
トランスフォーマーニューラルネットワークは、さまざまなデータモダリティの幅広いアプリケーションにおいて、以前のアーキテクチャを置き換える傾向にある。
連続学習(CL)は、自律学習エージェントに順次到着するタスク間で知識の伝達を容易にすることで、ソリューションとして現れる。
本稿では,視覚と言語の両方に関わる学習タスクに着目したトランスフォーマーベースのCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:03:30Z) - $\pi$-Tuning: Transferring Multimodal Foundation Models with Optimal
Multi-task Interpolation [30.551283402200657]
$pi$-Tuningは、視覚、言語、視覚言語タスクのための普遍的なパラメータ効率の伝達学習手法である。
ターゲットの下流タスクを支援するために、同様のタスクから学んだ軽量なタスク固有の専門家のパラメータを集約する。
論文 参考訳(メタデータ) (2023-04-27T17:49:54Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Navigating the Trade-Off between Multi-Task Learning and Learning to
Multitask in Deep Neural Networks [9.278739724750343]
マルチタスク学習(マルチタスクきゅう、英: Multi-task learning)とは、機械学習において、ネットワークがタスクの取得を容易にするために様々なタスクで訓練されるパラダイムである。
マルチタスクは、特に認知科学の文献において、複数のタスクを同時に実行する能力を示すために用いられる。
深層ネットワークでも同様の緊張が生じていることを示し、エージェントが不慣れな環境でこのトレードオフを管理するためのメタ学習アルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-07-20T23:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。