論文の概要: Knowledge Distillation for Mobile Edge Computation Offloading
- arxiv url: http://arxiv.org/abs/2004.04366v1
- Date: Thu, 9 Apr 2020 04:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:20:17.540000
- Title: Knowledge Distillation for Mobile Edge Computation Offloading
- Title(参考訳): モバイルエッジ計算オフロードのための知識蒸留
- Authors: Haowei Chen, Liekang Zeng, Shuai Yu, and Xu Chen
- Abstract要約: 本稿では,Deep Imitation Learning(DIL)とKD(Knowledge Distillation)に基づくエッジ計算のオフロードフレームワークを提案する。
我々のモデルはすべての政策の中で最短の推論遅延を持っている。
- 参考スコア(独自算出の注目度): 14.417463848473494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge computation offloading allows mobile end devices to put execution of
compute-intensive task on the edge servers. End devices can decide whether
offload the tasks to edge servers, cloud servers or execute locally according
to current network condition and devices' profile in an online manner. In this
article, we propose an edge computation offloading framework based on Deep
Imitation Learning (DIL) and Knowledge Distillation (KD), which assists end
devices to quickly make fine-grained decisions to optimize the delay of
computation tasks online. We formalize computation offloading problem into a
multi-label classification problem. Training samples for our DIL model are
generated in an offline manner. After model is trained, we leverage knowledge
distillation to obtain a lightweight DIL model, by which we further reduce the
model's inference delay. Numerical experiment shows that the offloading
decisions made by our model outperforms those made by other related policies in
latency metric. Also, our model has the shortest inference delay among all
policies.
- Abstract(参考訳): エッジ計算のオフロードにより、モバイル端末はエッジサーバに計算集約タスクを実行することができる。
エンドデバイスは、タスクをエッジサーバやクラウドサーバにオフロードするか、現在のネットワーク状態やデバイスのプロファイルに応じてローカルに実行するかを、オンライン形式で決定できる。
本稿では,エンドデバイスが計算タスクの遅延を最適化するための細かな決定を迅速に行うことを支援する,deep imitation learning (dil) と knowledge distillation (kd) に基づくエッジ計算オフローディングフレームワークを提案する。
計算オフロード問題をマルチラベル分類問題に形式化する。
DILモデルのトレーニングサンプルはオフラインで生成される。
モデルが訓練された後、我々は知識蒸留を利用して軽量dilモデルを得る。
数値実験により,モデルによるオフロード決定が,他の関連ポリシーによるレイテンシ指標よりも優れていることが示された。
また、我々のモデルはすべてのポリシーの中で最も短い推論遅延を持つ。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Fractional Deep Reinforcement Learning for Age-Minimal Mobile Edge
Computing [11.403989519949173]
本研究は,AOI( Age-of-Information)によって測定された計算集約更新の時系列に焦点をあてる。
我々は,AoIのタスク更新とオフロードポリシを分断形式で共同で最適化する方法について検討する。
実験の結果,提案アルゴリズムは,いくつかの非フラクタルベンチマークと比較して平均AoIを57.6%削減できることがわかった。
論文 参考訳(メタデータ) (2023-12-16T11:13:40Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - Scheduling Inference Workloads on Distributed Edge Clusters with
Reinforcement Learning [11.007816552466952]
本稿では,エッジネットワークにおける予測クエリを短時間でスケジューリングする問題に焦点をあてる。
シミュレーションにより,大規模ISPの現実的なネットワーク設定とワークロードにおけるいくつかのポリシーを解析する。
我々は、強化学習に基づくスケジューリングアルゴリズムASETを設計し、システム条件に応じてその決定を適応させることができる。
論文 参考訳(メタデータ) (2023-01-31T13:23:34Z) - Graph Reinforcement Learning-based CNN Inference Offloading in Dynamic
Edge Computing [93.67044879636093]
本稿では,動的マルチアクセスエッジコンピューティング(MEC)ネットワークにおけるCNN推論の計算オフロードについて述べる。
本稿では,グラフ強化学習に基づく早期退避機構(GRLE)を提案する。
実験の結果,GRLEはグラフ強化学習(GRL)の3.41倍,DROOEの1.45倍の平均精度が得られた。
論文 参考訳(メタデータ) (2022-10-24T07:17:20Z) - Online Learning for Orchestration of Inference in Multi-User
End-Edge-Cloud Networks [3.6076391721440633]
ディープラーニングのためのコラボレーション型のエッジクラウドコンピューティングは、さまざまなパフォーマンスと効率を提供する。
本稿では、最適オフロードポリシーを学習する強化学習に基づく計算オフロードソリューションを提案する。
我々のソリューションは、平均応答時間において、0.9%未満の精度で、最先端技術と比較して35%のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-02-21T21:41:29Z) - Offloading Algorithms for Maximizing Inference Accuracy on Edge Device
Under a Time Constraint [15.038891477389535]
近似アルゴリズム AMR2 を提案し,最大 2T でメイスパンが得られることを示す。
概念実証として,MobileNetを搭載したRaspberry PiにAMR2を実装し,ResNetを搭載したサーバに接続し,画像分類用AMR2の総合的精度とメースパン性能について検討した。
論文 参考訳(メタデータ) (2021-12-21T18:21:24Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Real-Time Edge Classification: Optimal Offloading under Token Bucket
Constraints [13.583977689847433]
厳密なレイテンシ制約の下でオフロード決定を行うためのMarkov Decision Processベースのフレームワークを導入します。
また、同一アクセススイッチに接続された複数のデバイスがバースト割り当てを共有できるようにする手法を提案する。
我々は,標準イメージネット画像分類ベンチマークにおいて,このフレームワークを用いて得られたポリシーを評価し,分析する。
論文 参考訳(メタデータ) (2020-10-26T17:25:29Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。