論文の概要: Decentralized Multi-Agent Reinforcement Learning for Task Offloading
Under Uncertainty
- arxiv url: http://arxiv.org/abs/2107.08114v1
- Date: Fri, 16 Jul 2021 20:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 10:15:27.579341
- Title: Decentralized Multi-Agent Reinforcement Learning for Task Offloading
Under Uncertainty
- Title(参考訳): 不確実性下におけるタスクオフロードのための分散マルチエージェント強化学習
- Authors: Yuanchao Xu, Amal Feriani, and Ekram Hossain
- Abstract要約: MARL(Multi-Agent Reinforcement Learning)は、強化学習の課題である。
タスクオフロード問題を解くために、ディープMARLアルゴリズムが適用されている。
報奨信号の摂動は, 完全報奨学習と比較して, 性能の低下を招き得ることを示す。
- 参考スコア(独自算出の注目度): 24.083871784808473
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-Agent Reinforcement Learning (MARL) is a challenging subarea of
Reinforcement Learning due to the non-stationarity of the environments and the
large dimensionality of the combined action space. Deep MARL algorithms have
been applied to solve different task offloading problems. However, in
real-world applications, information required by the agents (i.e. rewards and
states) are subject to noise and alterations. The stability and the robustness
of deep MARL to practical challenges is still an open research problem. In this
work, we apply state-of-the art MARL algorithms to solve task offloading with
reward uncertainty. We show that perturbations in the reward signal can induce
decrease in the performance compared to learning with perfect rewards. We
expect this paper to stimulate more research in studying and addressing the
practical challenges of deploying deep MARL solutions in wireless
communications systems.
- Abstract(参考訳): MARL(Multi-Agent Reinforcement Learning)は、環境の非定常性と複合行動空間の大きな次元性により、強化学習の挑戦的なサブ領域である。
タスクオフロード問題を解くために、ディープMARLアルゴリズムが適用されている。
しかし、現実世界のアプリケーションでは、エージェント(すなわち、エージェント)が必要とする情報である。
報酬と状態)はノイズと変更の対象となる。
深部MARLの実用的課題に対する安定性と堅牢性は、まだオープンな研究課題である。
本研究では,最先端のmarlアルゴリズムを適用し,報酬の不確実性を伴うタスクオフロードを解決する。
報奨信号の摂動は, 完全報奨学習と比較して, 性能の低下を招き得ることを示す。
本稿では,無線通信システムに深層MARLソリューションをデプロイする実践的課題を研究・解決するためのさらなる研究を期待する。
関連論文リスト
- WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - GOV-REK: Governed Reward Engineering Kernels for Designing Robust Multi-Agent Reinforcement Learning Systems [2.867517731896504]
マルチエージェント強化学習システムにおけるエージェントに報酬分布を動的に割り当てるGOVerned Reward Engineering Kernels (GOV-REK)を提案する。
我々はまた、意味のあるエージェント報酬分布を割り当てるために、状態または共同アクション空間の基盤構造を利用するガバナンスカーネルも導入する。
我々の実験は、有意義な報奨が、異なるMARL問題を効果的に学習する学習プロセスを開始することを実証している。
論文 参考訳(メタデータ) (2024-04-01T14:19:00Z) - Decentralized Online Learning in Task Assignment Games for Mobile
Crowdsensing [55.07662765269297]
モバイルクラウドセンシングプラットフォーム(MCSP)は、センサオファーをMCSPに送り返してタスクに参加する意思を示すための、利用可能なモバイルユニット(MU)に順次、センシングタスクを発行する。
安定したタスク割り当ては、MCSPとMUの相反する目標、およびMUの要求する努力と嗜好の不確実性という2つの課題に対処する必要がある。
これらの課題を克服するために,衝突回避型マルチアームバンディットと戦略的自由センシング(CA-MAB-SFS)という,マッチング理論とオンライン学習を組み合わせた新たな分散アプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T13:07:15Z) - Semantically Aligned Task Decomposition in Multi-Agent Reinforcement
Learning [56.26889258704261]
我々は,MARL(SAMA)における意味的アライズされたタスク分解という,新しい「不整合」意思決定手法を提案する。
SAMAは、潜在的な目標を示唆し、適切な目標分解とサブゴールアロケーションを提供するとともに、自己回帰に基づくリプランニングを提供する、チェーン・オブ・シントによる事前訓練された言語モデルを促進する。
SAMAは, 最先端のASG法と比較して, 試料効率に有意な優位性を示す。
論文 参考訳(メタデータ) (2023-05-18T10:37:54Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Strangeness-driven Exploration in Multi-Agent Reinforcement Learning [0.0]
我々は,任意の集中型トレーニングと分散実行(CTDE)に基づくMARLアルゴリズムに容易に組み込むことのできる,奇異性のある新たな探索手法を提案する。
探索ボーナスは奇異性から得られ,提案手法はMARLタスクでよく見られる遷移の影響を受けない。
論文 参考訳(メタデータ) (2022-12-27T11:08:49Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - Solving Compositional Reinforcement Learning Problems via Task Reduction [18.120631058025406]
構成強化学習の課題を解決するための新しい学習パラダイムであるSelf-Imitation via reduction (SIR)を提案する。
SIRは、タスクの削減と自己模倣の2つのコアアイデアに基づいています。
実験の結果、sirは様々な難易度の低い連続制御問題の学習を著しく加速し改善できることが示されている。
論文 参考訳(メタデータ) (2021-03-13T03:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。