論文の概要: Attention-Based Model and Deep Reinforcement Learning for Distribution
of Event Processing Tasks
- arxiv url: http://arxiv.org/abs/2112.03835v1
- Date: Tue, 7 Dec 2021 17:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 16:36:44.775062
- Title: Attention-Based Model and Deep Reinforcement Learning for Distribution
of Event Processing Tasks
- Title(参考訳): イベント処理タスクの分散のための注意モデルと深層強化学習
- Authors: A. Mazayev, F. Al-Tam, N. Correia
- Abstract要約: イベント処理は、動的でレスポンシブなモノのインターネット(IoT)の基盤である
本稿では,タスクを公平に分散するためのディープラーニングの利用について検討する。
効率的な負荷分散ソリューションを生成するために,注目に基づくニューラルネットワークモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event processing is the cornerstone of the dynamic and responsive Internet of
Things (IoT). Recent approaches in this area are based on representational
state transfer (REST) principles, which allow event processing tasks to be
placed at any device that follows the same principles. However, the tasks
should be properly distributed among edge devices to ensure fair resources
utilization and guarantee seamless execution. This article investigates the use
of deep learning to fairly distribute the tasks. An attention-based neural
network model is proposed to generate efficient load balancing solutions under
different scenarios. The proposed model is based on the Transformer and Pointer
Network architectures, and is trained by an advantage actor-critic
reinforcement learning algorithm. The model is designed to scale to the number
of event processing tasks and the number of edge devices, with no need for
hyperparameters re-tuning or even retraining. Extensive experimental results
show that the proposed model outperforms conventional heuristics in many key
performance indicators. The generic design and the obtained results show that
the proposed model can potentially be applied to several other load balancing
problem variations, which makes the proposal an attractive option to be used in
real-world scenarios due to its scalability and efficiency.
- Abstract(参考訳): イベント処理は、動的で応答性の高いモノのインターネット(IoT)の基盤となる。
この領域における最近のアプローチは、同じ原則に従う任意のデバイスにイベント処理タスクを配置できる表現的状態転送(REST)の原則に基づいている。
しかし、タスクはエッジデバイス間で適切に分散し、適切なリソース利用とシームレスな実行を保証する必要がある。
本稿では,タスクを公平に分配するためのディープラーニングの利用について検討する。
異なるシナリオで効率的な負荷分散ソリューションを生成するために,注意に基づくニューラルネットワークモデルを提案する。
提案手法はTransformer と Pointer Network アーキテクチャに基づいており,アクター・クリティカルな強化学習アルゴリズムによって訓練されている。
このモデルは、イベント処理タスクの数とエッジデバイス数にスケールするように設計されており、ハイパーパラメータの再チューニングや再トレーニングも不要である。
実験結果から,提案手法は従来のヒューリスティックよりも優れた性能を示すことが示された。
汎用設計と得られた結果から,提案モデルが他のロードバランシング問題にも適用可能である可能性が示唆された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Unleashing the Power of Task-Specific Directions in Parameter Efficient Fine-tuning [65.31677646659895]
本稿では,タスク固有の方向性 (TSD) の概念に着目し,大規模モデルを事前学習状態からPEFTにおけるタスク固有の拡張へ移行させる。
本稿では,微調整過程におけるTSDの影響を最大化し,目標タスクにおけるモデル性能を向上させることを目的とした新しいアプローチであるLoRA-Dashを紹介する。
論文 参考訳(メタデータ) (2024-09-02T08:10:51Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Multi-Objective Decision Transformers for Offline Reinforcement Learning [7.386356540208436]
オフラインRLは、リアルタイム環境相互作用を必要とせずに、静的な軌道データからポリシーを導出するように構成されている。
オフラインRLを多目的最適化問題として再構成し、予測を状態と戻り値に拡張する。
D4RLベンチマークロコモーションタスクの実験により,提案手法がトランスモデルにおけるアテンションメカニズムをより効果的に活用できることが判明した。
論文 参考訳(メタデータ) (2023-08-31T00:47:58Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - A Generic Performance Model for Deep Learning in a Distributed
Environment [0.7829352305480285]
本稿では,アプリケーション実行時間の汎用表現を用いた分散環境におけるアプリケーションの汎用性能モデルを提案する。
提案手法を3つのディープラーニングフレームワーク(MXnetとPytorch)で評価した。
論文 参考訳(メタデータ) (2023-05-19T13:30:34Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Analyzing the Performance of Deep Encoder-Decoder Networks as Surrogates
for a Diffusion Equation [0.0]
本研究では,エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)を定常拡散解法の代用として利用することを検討した。
その結果,トレーニングセットのサイズが大きくなると,性能変動や全体的な誤差の低減に大きく影響することが示唆された。
論文 参考訳(メタデータ) (2023-02-07T22:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。