論文の概要: Mobility and Cost Aware Inference Accelerating Algorithm for Edge
Intelligence
- arxiv url: http://arxiv.org/abs/2312.16497v1
- Date: Wed, 27 Dec 2023 10:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:17:31.712014
- Title: Mobility and Cost Aware Inference Accelerating Algorithm for Edge
Intelligence
- Title(参考訳): エッジインテリジェンスのためのモビリティとコスト対応推論アルゴリズム
- Authors: Xin Yuan, Ning Li, kang Wei, Wenchao Xu, Quan Chen, Hao Chen, Song Guo
- Abstract要約: 近年,エッジインテリジェンス(EI)が広く採用されている。デバイス,エッジサーバ,クラウド間のモデルを分割することで,EIの性能が大幅に向上する。
ユーザモビリティのないモデルセグメンテーションは,これまでにも深く研究されてきた。
本稿では,エッジでの推論を高速化するためのモビリティとコストを考慮したモデルセグメンテーションと資源配分アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 24.512525338942158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The edge intelligence (EI) has been widely applied recently. Spliting the
model between device, edge server, and cloud can improve the performance of EI
greatly. The model segmentation without user mobility has been investigated
deeply by previous works. However, in most use cases of EI, the end devices are
mobile. Only a few works have been carried out on this aspect. These works
still have many issues, such as ignoring the energy consumption of mobile
device, inappropriate network assumption, and low effectiveness on adaptiving
user mobility, etc. Therefore, for addressing the disadvantages of model
segmentation and resource allocation in previous works, we propose mobility and
cost aware model segmentation and resource allocation algorithm for
accelerating the inference at edge (MCSA). Specfically, in the scenario without
user mobility, the loop interation gradient descent (Li-GD) algorithm is
provided. When the mobile user has a large model inference task needs to be
calculated, it will take the energy consumption of mobile user, the
communication and computing resource renting cost, and the inference delay into
account to find the optimal model segmentation and resource allocation
strategy. In the scenario with user mobility, the mobiity aware Li-GD (MLi-GD)
algorithm is proposed to calculate the optimal strategy. Then, the properties
of the proposed algorithms are investigated, including convergence, complexity,
and approximation ratio. The experimental results demonstrate the effectiveness
of the proposed algorithms.
- Abstract(参考訳): エッジインテリジェンス(EI)は最近広く応用されている。
デバイス、エッジサーバ、クラウド間でモデルを分割することで、eiの性能が大幅に向上する。
ユーザモビリティのないモデルセグメンテーションは,これまでにも深く研究されてきた。
しかし、EIのほとんどのユースケースでは、エンドデバイスはモバイルである。
この点に関しては、いくつかの作品しか行われていない。
これらの作業には、モバイルデバイスのエネルギー消費の無視、不適切なネットワーク仮定、ユーザモビリティへの適応効果の低さなど、多くの課題がある。
そこで,先行研究におけるモデルセグメンテーションと資源配分の欠点に対処するために,移動性とコストを考慮したモデルセグメンテーションと資源割当アルゴリズムを提案する。
ユーザモビリティのないシナリオでは、ループ間勾配勾配降下(Li-GD)アルゴリズムが提供される。
モバイルユーザが大きなモデル推論タスクを計算しなければならない場合、最適なモデルセグメンテーションとリソース割り当て戦略を見つけるために、モバイルユーザのエネルギー消費量、通信と計算リソースのレンタルコスト、推論遅延を考慮に入れる。
ユーザモビリティのシナリオでは,モビリティを考慮したLi-GD (MLi-GD) アルゴリズムが最適戦略を計算するために提案される。
そこで,提案アルゴリズムの特性について,収束率,複雑性,近似比について検討した。
実験の結果,提案アルゴリズムの有効性が示された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - A QoE-Aware Split Inference Accelerating Algorithm for NOMA-based Edge Intelligence [20.67035066213381]
本稿では,エッジインテリジェンスにおける分割推論の高速化を目的として,効率的な資源割当アルゴリズムを提案する。
ERAは、最適なモデル分割戦略とリソース割り当て戦略を見つけるために、リソース消費、QoE、および推論遅延を考慮に入れます。
実験結果から,ERAの性能は従来の研究よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-25T01:09:45Z) - Resource Management for Low-latency Cooperative Fine-tuning of Foundation Models at the Network Edge [35.40849522296486]
大規模ファウンデーションモデル(FoMos)は、人間のような知性を実現することができる。
FoMosは微調整技術により、特定の下流タスクに適応する必要がある。
デバイスエッジ協調微調整パラダイムにおける多デバイス連携を提唱する。
論文 参考訳(メタデータ) (2024-07-13T12:47:14Z) - High Efficiency Inference Accelerating Algorithm for NOMA-based Mobile
Edge Computing [23.88527790721402]
デバイス、エッジサーバ、クラウド間の推論モデルを分割することで、EIの性能を大幅に向上させることができる。
B5G/6Gのキーとなる技術であるNOMAは、膨大な接続と高スペクトル効率を実現することができる。
本稿では,エッジでのモデル推論を高速化する効果的な通信資源割当アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-26T02:05:52Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Fast and computationally efficient generative adversarial network
algorithm for unmanned aerial vehicle-based network coverage optimization [1.2853186701496802]
移動ネットワークにおける動的な交通需要の課題は、無人航空機をベースとした移動セルに対処されている。
将来,無人航空機の膨大な可能性を考えると,カバー範囲最適化のための新しいアルゴリズムを提案する。
提案アルゴリズムは,一意の多層和プーリング損失関数を持つ条件付き生成逆ニューラルネットワークに基づいて実装された。
論文 参考訳(メタデータ) (2022-03-25T12:13:21Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。