論文の概要: Deep Reinforcement Model Selection for Communications Resource
Allocation in On-Site Medical Care
- arxiv url: http://arxiv.org/abs/2111.06680v1
- Date: Fri, 12 Nov 2021 12:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 19:45:47.236926
- Title: Deep Reinforcement Model Selection for Communications Resource
Allocation in On-Site Medical Care
- Title(参考訳): 現場医療におけるコミュニケーション資源配分のための深部強化モデル選択
- Authors: Steffen Gracla, Edgar Beck, Carsten Bockelmann, Armin Dekorsy
- Abstract要約: 本稿では、スケジューラが接続されたユーザ間で混合性能指標のバランスをとる必要があるリソース割り当てシナリオについて検討する。
本稿では,異なるモデルベーススケジューリングアルゴリズムを適応的に切り替えるスケジューラを提案する。
結果として得られるアンサンブルスケジューラは、その構成アルゴリズムを組み合わせて、総コスト関数を最大化することができる。
- 参考スコア(独自算出の注目度): 8.564319625930892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Greater capabilities of mobile communications technology enable
interconnection of on-site medical care at a scale previously unavailable.
However, embedding such critical, demanding tasks into the already complex
infrastructure of mobile communications proves challenging. This paper explores
a resource allocation scenario where a scheduler must balance mixed performance
metrics among connected users. To fulfill this resource allocation task, we
present a scheduler that adaptively switches between different model-based
scheduling algorithms. We make use of a deep Q-Network to learn the benefit of
selecting a scheduling paradigm for a given situation, combining advantages
from model-driven and data-driven approaches. The resulting ensemble scheduler
is able to combine its constituent algorithms to maximize a sum-utility cost
function while ensuring performance on designated high-priority users.
- Abstract(参考訳): モバイル通信技術のさらなる能力は、これまで利用できなかった規模での現場医療の相互接続を可能にする。
しかし、そのような重要で要求の多いタスクを、モバイルコミュニケーションのすでに複雑なインフラに組み込むことは、難しい。
本稿では、スケジューラが接続されたユーザ間で混合性能指標のバランスをとる必要があるリソース割り当てシナリオについて検討する。
このリソース割り当てタスクを達成するために,異なるモデルベースのスケジューリングアルゴリズムを適応的に切り替えるスケジューラを提案する。
モデル駆動型アプローチとデータ駆動型アプローチの利点を組み合わせることで、特定の状況でスケジューリングパラダイムを選択する利点を学ぶために、深いqネットワークを利用する。
得られたアンサンブルスケジューラは、その構成アルゴリズムを組み合わせることで、指定された高優先度ユーザの性能を確保しつつ、合計ユーティリティコスト関数を最大化することができる。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Load Balancing in Federated Learning [3.2999744336237384]
Federated Learning(FL)は、複数のリモートデバイスに分散したデータからの学習を可能にする、分散機械学習フレームワークである。
本稿では,情報時代に基づくスケジューリングポリシーの負荷指標を提案する。
マルコフ連鎖モデルの最適パラメータを確立し、シミュレーションによりアプローチを検証する。
論文 参考訳(メタデータ) (2024-08-01T00:56:36Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Learning Resource Scheduling with High Priority Users using Deep
Deterministic Policy Gradients [7.570246812206769]
本稿では,通信資源スケジューリングアルゴリズムの学習にDeep Deterministic Policy Gradient(ddpg)法を適用した。
一般的なDeep-Q-Networkメソッドとは異なり、ddpgは連続的に評価された出力を生成することができる。
論文 参考訳(メタデータ) (2023-04-19T08:18:11Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Learning Robust Scheduling with Search and Attention [6.217548079545464]
物理層リソースをチャネル品質、バッファサイズ、要求および制約に基づいてユーザに割り当てることは、無線リソースの管理における中心的な最適化問題の1つである。
MU-MIMOスケジューリングでは、スケジューラが複数のユーザを同じ時間周波数の物理リソースに割り当てることができる。
本稿では,MU-MIMOスケジューリング問題を木構造問題として扱うとともに,AlphaGo Zeroの最近の成功から借用して,最高の実行ソリューションを探す可能性について検討する。
論文 参考訳(メタデータ) (2021-11-15T20:46:26Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Adaptive Scheduling for Machine Learning Tasks over Networks [1.4271989597349055]
本論文では, 線形回帰タスクに資源を効率的に割り当てるアルゴリズムを, データのインフォマティビティ性を利用して検討する。
アルゴリズムは、信頼性の高い性能保証による学習タスクの適応スケジューリングを可能にする。
論文 参考訳(メタデータ) (2021-01-25T10:59:00Z) - Deep Reinforcement Learning for Resource Constrained Multiclass
Scheduling in Wireless Networks [0.0]
セットアップでは、ランダムに到着するサービス要求に対応するために、利用可能な限られた帯域幅のリソースを割り当てます。
本稿では,Deep Setsと組み合わせた分布型Deep Deterministic Policy Gradient (DDPG)アルゴリズムを提案する。
提案アルゴリズムは, 合成データと実データの両方で検証し, 従来手法に対する一貫した利得を示す。
論文 参考訳(メタデータ) (2020-11-27T09:49:38Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。