論文の概要: DeepEdge: A Deep Reinforcement Learning based Task Orchestrator for Edge
Computing
- arxiv url: http://arxiv.org/abs/2110.01863v1
- Date: Tue, 5 Oct 2021 07:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 13:56:31.730563
- Title: DeepEdge: A Deep Reinforcement Learning based Task Orchestrator for Edge
Computing
- Title(参考訳): DeepEdge:エッジコンピューティングのための深層強化学習ベースのタスクオーケストレーション
- Authors: Baris Yamansavascilar, Ahmet Cihat Baktir, Cagatay Sonmez, Atay
Ozgovde, and Cem Ersoy
- Abstract要約: 我々は,ヒューマンインタラクションを必要とせずに,異なるタスク要件を満たすことを学ぶ,深層強化学習ベースのタスクオーケストレータであるDeepEdgeを開発した。
DeepEdgeの堅牢性を評価するために、ネットワーク内の画像レンダリング、インフォテインメント、広範健康、拡張現実の4つの異なるアプリケーションを試した。
以上の結果から,DeepEdgeは完成度の高いタスクの割合で競合他社を上回っていることがわかった。
- 参考スコア(独自算出の注目度): 6.654949459658243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The improvements in the edge computing technology pave the road for
diversified applications that demand real-time interaction. However, due to the
mobility of the end-users and the dynamic edge environment, it becomes
challenging to handle the task offloading with high performance. Moreover,
since each application in mobile devices has different characteristics, a task
orchestrator must be adaptive and have the ability to learn the dynamics of the
environment. For this purpose, we develop a deep reinforcement learning based
task orchestrator, DeepEdge, which learns to meet different task requirements
without needing human interaction even under the heavily-loaded stochastic
network conditions in terms of mobile users and applications. Given the dynamic
offloading requests and time-varying communication conditions, we successfully
model the problem as a Markov process and then apply the Double Deep Q-Network
(DDQN) algorithm to implement DeepEdge. To evaluate the robustness of DeepEdge,
we experiment with four different applications including image rendering,
infotainment, pervasive health, and augmented reality in the network under
various loads. Furthermore, we compare the performance of our agent with the
four different task offloading approaches in the literature. Our results show
that DeepEdge outperforms its competitors in terms of the percentage of
satisfactorily completed tasks.
- Abstract(参考訳): エッジコンピューティング技術の改善は、リアルタイムインタラクションを必要とする多様なアプリケーションへの道を開く。
しかし,エンドユーザの移動性や動的エッジ環境のため,タスクオフロードを高い性能で処理することが困難になる。
さらに,モバイル機器の各アプリケーションには異なる特性があるため,タスクオーケストレータは適応的であり,環境のダイナミクスを学習する能力を有する必要がある。
この目的のために我々は,モバイルユーザやアプリケーションの観点から,高負荷の確率的ネットワーク条件下でもヒューマンインタラクションを必要とせずに,異なるタスク要件を満たすことを学ぶ,深層強化型タスクオーケストレータdeepedgeを開発した。
動的オフロード要求と時間変化通信条件を考慮し、マルコフプロセスとしてこの問題をモデル化し、DeepEdgeを実装するためにDouble Deep Q-Network (DDQN)アルゴリズムを適用した。
deepedgeのロバスト性を評価するために、画像レンダリング、インフォテインメント、広汎性ヘルス、ネットワーク内の拡張現実の4つのアプリケーションを様々な負荷で実験した。
さらに,本論文では,エージェントの性能を4つの異なるタスクオフロードアプローチと比較した。
以上の結果から,DeepEdgeは完成度の高いタスクの割合で競合他社を上回っていることがわかった。
関連論文リスト
- Task-Aware Harmony Multi-Task Decision Transformer for Offline Reinforcement Learning [70.96345405979179]
オフラインマルチタスク強化学習(MTRL)の目的は、オンライン環境相互作用を必要とせず、多様なタスクに適用可能な統一されたポリシーを開発することである。
タスクの内容と複雑さの変化は、政策の定式化において重大な課題を引き起こします。
本稿では,各タスクに対するパラメータの最適な調和部分空間を特定するための新しいソリューションであるHarmoDT(Harmony Multi-Task Decision Transformer)を紹介する。
論文 参考訳(メタデータ) (2024-11-02T05:49:14Z) - Online Learning for Autonomous Management of Intent-based 6G Networks [39.135195293229444]
本稿では,階層型マルチアームバンディットアプローチに基づくオンライン学習手法を提案する。
提案アルゴリズムは,資源配分と意図的期待の満足度に関する効果的なアプローチであることを示す。
論文 参考訳(メタデータ) (2024-07-25T04:48:56Z) - Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - Graph Neural Networks and Reinforcement Learning for Proactive Application Image Placement [0.688159574162779]
本稿では,グラフニューラルネットワークとアクタ批判強化学習を組み合わせた能動的画像配置手法を提案する。
その結果,提案手法は特定のシナリオにおいて実行時間が長くなる可能性があるが,アプリケーション配置の観点からも優れた結果が得られることが示唆された。
論文 参考訳(メタデータ) (2024-04-23T13:06:09Z) - Task Graph offloading via Deep Reinforcement Learning in Mobile Edge Computing [6.872434270841794]
本稿では,エッジコンピューティングデバイスの時間変化を考慮したMECにおけるタスクグラフのオフロードについて検討する。
環境変化に対応するために,計算オフロードのためのタスクグラフスケジューリングをマルコフ決定プロセスとしてモデル化する。
そこで我々は,環境とのインタラクションからタスクスケジューリング戦略を学習するために,深層強化学習アルゴリズム(SATA-DRL)を設計する。
論文 参考訳(メタデータ) (2023-09-19T12:26:56Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Controllable Dynamic Multi-Task Architectures [92.74372912009127]
本稿では,そのアーキテクチャと重みを動的に調整し,所望のタスク選択とリソース制約に適合させる制御可能なマルチタスクネットワークを提案する。
本稿では,タスク親和性と分岐正規化損失を利用した2つのハイパーネットの非交互トレーニングを提案し,入力の嗜好を取り入れ,適応重み付き木構造モデルを予測する。
論文 参考訳(メタデータ) (2022-03-28T17:56:40Z) - DyTox: Transformers for Continual Learning with DYnamic TOken eXpansion [89.92242000948026]
本稿では,専用エンコーダ/デコーダフレームワークに基づくトランスフォーマアーキテクチャを提案する。
特別なトークンを動的に拡張することで、タスク分布上でデコーダネットワークの各前方を特殊化する。
私たちの戦略は、無視可能なメモリと時間オーバーヘッドを抱えながら、多数のタスクにスケールします。
論文 参考訳(メタデータ) (2021-11-22T16:29:06Z) - Robust and Scalable Routing with Multi-Agent Deep Reinforcement Learning
for MANETs [1.8375389588718993]
DeepCQ+ルーティングは、新しいマルチエージェントディープラーニング技術を既存のQラーニングベースのルーティングプロトコルに統合します。
これは、限られた範囲のネットワークパラメータと条件でのみトレーニングしながら、幅広いMANET構成で持続的に高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-01-09T02:26:14Z) - SideInfNet: A Deep Neural Network for Semi-Automatic Semantic
Segmentation with Side Information [83.03179580646324]
本稿では,新たなディープニューラルネットワークアーキテクチャであるSideInfNetを提案する。
画像から学習した機能とユーザアノテーションから抽出したサイド情報を統合する。
提案手法を評価するために,提案したネットワークを3つのセマンティックセグメンテーションタスクに適用し,ベンチマークデータセットに対する広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-07T06:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。