論文の概要: Modulation of temporal decision-making in a deep reinforcement learning agent under the dual-task paradigm
- arxiv url: http://arxiv.org/abs/2511.01415v1
- Date: Mon, 03 Nov 2025 10:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.216137
- Title: Modulation of temporal decision-making in a deep reinforcement learning agent under the dual-task paradigm
- Title(参考訳): 二重タスクパラダイムに基づく深層強化学習エージェントにおける時間的意思決定の変調
- Authors: Amrapali Pednekar, Álvaro Garrido-Pérez, Yara Khaluf, Pieter Simoens,
- Abstract要約: 本研究では、人工知能(AI)の観点から、デュアルタスクパラダイムにおける時間的処理の干渉について検討する。
2つの深層強化学習(DRL)エージェントがそれぞれ個別に訓練された。
これらのエージェントは、人間のタイミング研究と一致した創発的行動を示した。
- 参考スコア(独自算出の注目度): 4.398170461093707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study explores the interference in temporal processing within a dual-task paradigm from an artificial intelligence (AI) perspective. In this context, the dual-task setup is implemented as a simplified version of the Overcooked environment with two variations, single task (T) and dual task (T+N). Both variations involve an embedded time production task, but the dual task (T+N) additionally involves a concurrent number comparison task. Two deep reinforcement learning (DRL) agents were separately trained for each of these tasks. These agents exhibited emergent behavior consistent with human timing research. Specifically, the dual task (T+N) agent exhibited significant overproduction of time relative to its single task (T) counterpart. This result was consistent across four target durations. Preliminary analysis of neural dynamics in the agents' LSTM layers did not reveal any clear evidence of a dedicated or intrinsic timer. Hence, further investigation is needed to better understand the underlying time-keeping mechanisms of the agents and to provide insights into the observed behavioral patterns. This study is a small step towards exploring parallels between emergent DRL behavior and behavior observed in biological systems in order to facilitate a better understanding of both.
- Abstract(参考訳): 本研究では、人工知能(AI)の観点から、デュアルタスクパラダイムにおける時間的処理の干渉について検討する。
この文脈では、デュアルタスク設定はオーバークッキング環境の単純化されたバージョンとして実装され、2つのバリエーション、単一タスク(T)と二重タスク(T+N)がある。
どちらのバリエーションも組込み時間生成タスクを含むが、二重タスク(T+N)は同時数比較タスクも含む。
2つの深層強化学習(DRL)エージェントがそれぞれ個別に訓練された。
これらのエージェントは、人間のタイミング研究と一致した創発的行動を示した。
具体的には,2つのタスク (T+N) エージェントは, 単一タスク (T) と比べ, かなりの過剰生産を示した。
この結果は4つの目標期間にわたって一貫していた。
エージェントのLSTM層における神経力学の予備解析では、専用または本質的なタイマーの明確な証拠は明らかにされなかった。
したがって、エージェントの根底にある時間維持機構をよりよく理解し、観察された行動パターンに関する洞察を与えるために、さらなる調査が必要である。
本研究は,生物系において観察されるDRL行動と行動の並列性を探究するための小さなステップであり,両者の理解を深めるものである。
関連論文リスト
- Emergent time-keeping mechanisms in a deep reinforcement learning agent performing an interval timing task [4.398170461093707]
時間的時間的タスクを実行する深層強化学習(DRL)エージェントの時間的処理について検討する。
体内状態の分析により、生物学的システムにおけるユビキタスパターンである神経活性化が明らかになった。
エージェントの時間維持戦略とストリアタルビート周波数(SBF)モデルとの並列性を持つ。
論文 参考訳(メタデータ) (2025-08-06T13:56:41Z) - A Two-Stage Learning-to-Defer Approach for Multi-Task Learning [3.4289478404209826]
本稿では,マルチタスク学習のための新しい2段階L2Dフレームワークを提案する。
提案手法は2段階のサロゲート損失ファミリーを利用し,Bayes-consistentと$(mathcalG, MathcalR)$-consistentの両方を証明した。
論文 参考訳(メタデータ) (2024-10-21T07:44:57Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges [27.474011433615317]
連続学習(CL)は、一連のタスクから学習するモデルやエージェントの開発を可能にする。
タスクに依存しないCLとマルチタスク(MTL)エージェントのパフォーマンス差に寄与する要因について検討する。
論文 参考訳(メタデータ) (2022-05-28T17:59:00Z) - On the relationship between disentanglement and multi-task learning [62.997667081978825]
ハードパラメータ共有に基づくマルチタスク学習と絡み合いの関係について,より詳しく検討する。
マルチタスクニューラルネットワークトレーニングの過程において, 絡み合いが自然に現れることを示す。
論文 参考訳(メタデータ) (2021-10-07T14:35:34Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。