論文の概要: Graph Reinforcement Learning-based CNN Inference Offloading in Dynamic
Edge Computing
- arxiv url: http://arxiv.org/abs/2210.13464v1
- Date: Mon, 24 Oct 2022 07:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:04:34.978338
- Title: Graph Reinforcement Learning-based CNN Inference Offloading in Dynamic
Edge Computing
- Title(参考訳): 動的エッジコンピューティングにおけるグラフ強化学習に基づくcnn推論オフロード
- Authors: Nan Li, Alexandros Iosifidis, Qi Zhang
- Abstract要約: 本稿では,動的マルチアクセスエッジコンピューティング(MEC)ネットワークにおけるCNN推論の計算オフロードについて述べる。
本稿では,グラフ強化学習に基づく早期退避機構(GRLE)を提案する。
実験の結果,GRLEはグラフ強化学習(GRL)の3.41倍,DROOEの1.45倍の平均精度が得られた。
- 参考スコア(独自算出の注目度): 93.67044879636093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the computational offloading of CNN inference in dynamic
multi-access edge computing (MEC) networks. To address the uncertainties in
communication time and Edge servers' available capacity, we use early-exit
mechanism to terminate the computation earlier to meet the deadline of
inference tasks. We design a reward function to trade off the communication,
computation and inference accuracy, and formulate the offloading problem of CNN
inference as a maximization problem with the goal of maximizing the average
inference accuracy and throughput in long term. To solve the maximization
problem, we propose a graph reinforcement learning-based early-exit mechanism
(GRLE), which outperforms the state-of-the-art work, deep reinforcement
learning-based online offloading (DROO) and its enhanced method, DROO with
early-exit mechanism (DROOE), under different dynamic scenarios. The
experimental results show that GRLE achieves the average accuracy up to 3.41x
over graph reinforcement learning (GRL) and 1.45x over DROOE, which shows the
advantages of GRLE for offloading decision-making in dynamic MEC.
- Abstract(参考訳): 本稿では,動的マルチアクセスエッジコンピューティング(MEC)ネットワークにおけるCNN推論の計算オフロードについて検討する。
通信時間とエッジサーバの利用可能な容量の不確実性に対処するために、早期終了機構を用いて、推論タスクの期限に間に合うように計算を早期終了させる。
我々は,通信,計算,推論の精度をトレードオフする報奨関数を設計し,CNN推論のオフロード問題を長期平均推定精度とスループットの最大化を目的とし,最大化問題として定式化する。
この最大化問題を解決するために,グラフ強化学習に基づく早期退避機構(GRLE)を提案する。これは,最先端の作業,深層強化学習に基づくオンラインオフロード(DROO),およびその拡張手法であるDROOと早期退避機構(DROOE)を異なる動的シナリオ下で上回る。
実験結果から,grleは最大3.41倍のグラフ強化学習(grl)と1.45倍のdrooeを達成し,動的mecにおける意思決定のオフロードに対するgrleのアドバンテージを示した。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Unlearning Graph Classifiers with Limited Data Resources [39.29148804411811]
制御されたデータ削除は、データに敏感なWebアプリケーションのための機械学習モデルの重要機能になりつつある。
グラフニューラルネットワーク(GNN)の効率的な機械学習を実現する方法はまだほとんど知られていない。
我々の主な貢献は GST に基づく非線形近似グラフアンラーニング法である。
第2の貢献は、提案した未学習機構の計算複雑性の理論解析である。
第3のコントリビューションは広範囲なシミュレーションの結果であり、削除要求毎のGNNの完全再トレーニングと比較して、新しいGSTベースのアプローチは平均10.38倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-11-06T20:46:50Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - GNN at the Edge: Cost-Efficient Graph Neural Network Processing over
Distributed Edge Servers [24.109721494781592]
グラフニューラルネットワーク(GNN)はまだ探索中であり、その広範な採用に対する大きな違いを示している。
本稿では,多層ヘテロジニアスエッジネットワーク上での分散GNN処理のコスト最適化について検討する。
提案手法は, 高速収束速度で95.8%以上のコスト削減を行い, デファクトベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-31T13:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。