論文の概要: Decentralized Task Offloading in Edge Computing: A Multi-User
Multi-Armed Bandit Approach
- arxiv url: http://arxiv.org/abs/2112.11818v1
- Date: Wed, 22 Dec 2021 11:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:28:32.444184
- Title: Decentralized Task Offloading in Edge Computing: A Multi-User
Multi-Armed Bandit Approach
- Title(参考訳): エッジコンピューティングにおける分散タスクオフロード:マルチユーザマルチタスク帯域幅アプローチ
- Authors: Xiong Wang, Jiancheng Ye, John C.S. Lui
- Abstract要約: 未知のシステム側情報を考慮したマルチユーザオフロードフレームワークを開発した。
具体的には、動的タスク配置をオンラインマルチユーザーマルチアームバンディットプロセスとして定式化する。
我々は,DEBOが最適なユーザサーバ割り当てを導出できることを示す。
- 参考スコア(独自算出の注目度): 29.211635895407753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile edge computing facilitates users to offload computation tasks to edge
servers for meeting their stringent delay requirements. Previous works mainly
explore task offloading when system-side information is given (e.g., server
processing speed, cellular data rate), or centralized offloading under system
uncertainty. But both generally fall short to handle task placement involving
many coexisting users in a dynamic and uncertain environment. In this paper, we
develop a multi-user offloading framework considering unknown yet stochastic
system-side information to enable a decentralized user-initiated service
placement. Specifically, we formulate the dynamic task placement as an online
multi-user multi-armed bandit process, and propose a decentralized epoch based
offloading (DEBO) to optimize user rewards which are subjected under network
delay. We show that DEBO can deduce the optimal user-server assignment, thereby
achieving a close-to-optimal service performance and tight O(log T) offloading
regret. Moreover, we generalize DEBO to various common scenarios such as
unknown reward gap, dynamic entering or leaving of clients, and fair reward
distribution, while further exploring when users' offloaded tasks require
heterogeneous computing resources. Particularly, we accomplish a sub-linear
regret for each of these instances. Real measurements based evaluations
corroborate the superiority of our offloading schemes over state-of-the-art
approaches in optimizing delay-sensitive rewards.
- Abstract(参考訳): モバイルエッジコンピューティングは、計算タスクをエッジサーバにオフロードし、厳密な遅延要件を満たすことができる。
以前の作業は主に、システム側情報(例えば、サーバー処理速度、セルレート)が与えられるときのタスクオフロードや、システム不確実性の下で集中的なオフロードを探索する。
しかし、両者とも、動的で不確実な環境で、多くの既存ユーザーを含むタスク配置を扱うには、一般的には不足している。
本稿では,未知だが確率的なシステム側情報を考慮し,分散したユーザ主導型サービス配置を実現するマルチユーザオフロードフレームワークを開発した。
具体的には、オンラインマルチユーザマルチアームバンディットプロセスとして動的タスク配置を定式化し、ネットワーク遅延を受けるユーザの報酬を最適化する分散型エポックベースオフロード(DEBO)を提案する。
我々は、deboが最適なユーザサーバ割り当てを推論できることを示し、それによって、サービス性能が最適に近く、後悔を解消するo(log t)を締めくくることを可能にした。
さらに,denoを,未知の報酬ギャップ,クライアントの動的入退出,公平な報酬分配など,さまざまな一般的なシナリオに一般化するとともに,ユーザのオフロードタスクが異種コンピューティングリソースを必要とする場合の状況についても検討する。
特に、これらのインスタンスのそれぞれに対して、サブ線形後悔を達成しています。
実測値に基づく評価は,遅延に敏感な報酬の最適化において,最先端のアプローチよりもオフロード方式の優れていることを裏付ける。
関連論文リスト
- Decentralized Task Offloading and Load-Balancing for Mobile Edge Computing in Dense Networks [48.160716521203256]
本稿では,多数のデバイスとエッジサーバを備えた高密度ネットワークにおける分散タスクオフロードとロードバランシングの問題について検討する。
提案手法は,平均フィールドマルチエージェントマルチアームバンディット(MAB)ゲームと,サーバの報酬を調整するロードバランシング技術を組み合わせることで,ターゲットの人口プロファイルを実現する。
論文 参考訳(メタデータ) (2024-06-24T08:18:36Z) - Computation Offloading for Multi-server Multi-access Edge Vehicular Networks: A DDQN-based Method [24.929044360625685]
元の問題を,オフロード決定段階と要求スケジューリング段階の2つの段階に分ける。
本稿では、最適なオフロードサーバを選択するために、モビリティパラメータとサーバ負荷の両方に基づくサーバ評価機構を導入する。
サーバリソースをフル活用するために,Double Deep Q-network(DDQN)ベースの報酬評価アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-21T04:41:46Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Who Would be Interested in Services? An Entity Graph Learning System for
User Targeting [16.37151863041569]
我々は、説明可能なユーザターゲティング機能を提供するために、エンティティグラフ学習(EGL)システムを設計する。
オンラインの段階では、オフラインのステージからエンティティグラフに基づいてリアルタイムでユーザーターゲティングを行うことができる。
大規模なオフライン実験とオンラインA/Bテストは、提案したEGLシステムの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-30T06:24:50Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Multi-user Co-inference with Batch Processing Capable Edge Server [26.813145949399427]
エネルギー制約のあるモバイルデバイスが推論タスクをGPUでエッジサーバにオフロードするという,新たなシナリオに注目した。
推論タスクは、オフロードとスケジューリングのより細かい粒度のためにサブタスクに分割される。
各ユーザのオフロードポリシを独立して最適化し,同じサブタスクをすべてひとつのバッチで集約することが最適であることが証明された。
実験の結果、IP-SSAはオフライン環境でのユーザエネルギー消費を94.9%削減することがわかった。
論文 参考訳(メタデータ) (2022-06-03T15:40:32Z) - Proactive Tasks Management based on a Deep Learning Model [9.289846887298852]
要求に基づいて,知的かつ積極的なタスク管理モデルを提案する。
私たちはDeep Machine Learning(DML)モデル、より具体的にはLong Short Term Memory(LSTM)ネットワークに依存しています。
提案手法は,最も効率的なアロケーションを導出しながら,ハエを決定できることを示す。
論文 参考訳(メタデータ) (2020-07-25T05:28:14Z) - An Online Algorithm for Computation Offloading in Non-Stationary
Environments [12.843328612860244]
計算タスクをアウトソーシングするユーザ機器に複数のサーバが利用可能なタスクオフロードシナリオにおいて,レイテンシの問題を考慮する。
無線リンクの時間的動的性質と計算資源の可用性を考慮し、サーバ選択をマルチアームバンディット(MAB)問題としてモデル化する。
本研究では,不確実性に直面した楽観主義の原理に基づく新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T07:00:47Z) - Federated Learning for Task and Resource Allocation in Wireless High
Altitude Balloon Networks [160.96150373385768]
移動エッジコンピューティング(MEC)対応バルーンネットワークにおいて,タスク計算と伝送におけるエネルギーと時間消費の最小化の問題について検討した。
サポートベクトルマシン(SVM)に基づくフェデレーション学習(FL)アルゴリズムを提案する。
提案したSVMベースのFL法では,各HABが協調してSVMモデルを構築し,すべてのユーザアソシエーションを決定できる。
論文 参考訳(メタデータ) (2020-03-19T14:18:25Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。