論文の概要: High Efficiency Inference Accelerating Algorithm for NOMA-based Mobile
Edge Computing
- arxiv url: http://arxiv.org/abs/2312.15850v1
- Date: Tue, 26 Dec 2023 02:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:06:48.476925
- Title: High Efficiency Inference Accelerating Algorithm for NOMA-based Mobile
Edge Computing
- Title(参考訳): nomaベースモバイルエッジコンピューティングのための高効率推論高速化アルゴリズム
- Authors: Xin Yuan, Ning Li, Tuo Zhang, Muqing Li, Yuwen Chen, Jose Fernan
Martinez Ortega, Song Guo
- Abstract要約: デバイス、エッジサーバ、クラウド間の推論モデルを分割することで、EIの性能を大幅に向上させることができる。
B5G/6Gのキーとなる技術であるNOMAは、膨大な接続と高スペクトル効率を実現することができる。
本稿では,エッジでのモデル推論を高速化する効果的な通信資源割当アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 23.88527790721402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Splitting the inference model between device, edge server, and cloud can
improve the performance of EI greatly. Additionally, the non-orthogonal
multiple access (NOMA), which is the key supporting technologies of B5G/6G, can
achieve massive connections and high spectrum efficiency. Motivated by the
benefits of NOMA, integrating NOMA with model split in MEC to reduce the
inference latency further becomes attractive. However, the NOMA based
communication during split inference has not been properly considered in
previous works. Therefore, in this paper, we integrate the NOMA into split
inference in MEC, and propose the effective communication and computing
resource allocation algorithm to accelerate the model inference at edge.
Specifically, when the mobile user has a large model inference task needed to
be calculated in the NOMA-based MEC, it will take the energy consumption of
both device and edge server and the inference latency into account to find the
optimal model split strategy, subchannel allocation strategy (uplink and
downlink), and transmission power allocation strategy (uplink and downlink).
Since the minimum inference delay and energy consumption cannot be satisfied
simultaneously, and the variables of subchannel allocation and model split are
discrete, the gradient descent (GD) algorithm is adopted to find the optimal
tradeoff between them. Moreover, the loop iteration GD approach (Li-GD) is
proposed to reduce the complexity of GD algorithm that caused by the parameter
discrete. Additionally, the properties of the proposed algorithm are also
investigated, which demonstrate the effectiveness of the proposed algorithms.
- Abstract(参考訳): デバイス、エッジサーバ、クラウド間の推論モデルを分割することで、EIの性能を大幅に向上させることができる。
さらに、B5G/6Gの重要なサポート技術である非直交多重アクセス(NOMA)は、膨大な接続と高スペクトル効率を実現することができる。
NOMAの利点によって、MECでモデル分割とNOMAを統合することで、推論遅延をさらに減らすことができる。
しかし、従来の研究では分割推論におけるNOMAベースのコミュニケーションは適切に考慮されていない。
そこで本研究では,mecの分割推論にnomaを統合し,エッジにおけるモデル推論を高速化する効果的な通信・計算資源割当てアルゴリズムを提案する。
具体的には、モバイルユーザが、NOMAベースのMECで計算するために必要な大規模なモデル推論タスクがある場合、デバイスとエッジサーバの双方のエネルギー消費と推論遅延を考慮に入れ、最適なモデル分割戦略、サブチャネル割り当て戦略(アップリンクとダウンリンク)、送信電力割り当て戦略(アップリンクとダウンリンク)を見つける。
最小推論遅延とエネルギー消費を同時に満たすことができず、サブチャネル割り当てとモデル分割の変数は離散的であるので、それらの間の最適なトレードオフを見つけるために勾配降下(GD)アルゴリズムを採用する。
さらに,パラメータ離散化に起因するGDアルゴリズムの複雑性を低減するために,ループ反復GD手法(Li-GD)を提案する。
また,提案アルゴリズムの特性についても検討し,提案アルゴリズムの有効性を実証した。
関連論文リスト
- A QoE-Aware Split Inference Accelerating Algorithm for NOMA-based Edge Intelligence [20.67035066213381]
本稿では,エッジインテリジェンスにおける分割推論の高速化を目的として,効率的な資源割当アルゴリズムを提案する。
ERAは、最適なモデル分割戦略とリソース割り当て戦略を見つけるために、リソース消費、QoE、および推論遅延を考慮に入れます。
実験結果から,ERAの性能は従来の研究よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-25T01:09:45Z) - Mobility and Cost Aware Inference Accelerating Algorithm for Edge
Intelligence [24.512525338942158]
近年,エッジインテリジェンス(EI)が広く採用されている。デバイス,エッジサーバ,クラウド間のモデルを分割することで,EIの性能が大幅に向上する。
ユーザモビリティのないモデルセグメンテーションは,これまでにも深く研究されてきた。
本稿では,エッジでの推論を高速化するためのモビリティとコストを考慮したモデルセグメンテーションと資源配分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-27T10:04:02Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Active RIS-aided EH-NOMA Networks: A Deep Reinforcement Learning
Approach [66.53364438507208]
アクティブな再構成可能なインテリジェントサーフェス(RIS)支援マルチユーザダウンリンク通信システムについて検討した。
非直交多重アクセス(NOMA)はスペクトル効率を向上させるために使用され、活性RISはエネルギー回収(EH)によって駆動される。
ユーザの動的通信状態を予測するために,高度なLSTMベースのアルゴリズムを開発した。
増幅行列と位相シフト行列RISを結合制御するためにDDPGに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-11T13:16:28Z) - High-Speed Resource Allocation Algorithm Using a Coherent Ising Machine
for NOMA Systems [3.6406488220483326]
NOMA手法の有効性を十分に活用する上で重要な課題は、リソース割り当ての最適化である。
NOMAシステムにおけるチャネル割り当てのためのコヒーレントIsing Machine(CIM)に基づく最適化手法を提案する。
提案手法は, 高速化と最適解の両面において優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T09:22:54Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Data-Driven Random Access Optimization in Multi-Cell IoT Networks with
NOMA [78.60275748518589]
非直交多重アクセス(NOMA)は、5Gネットワーク以降で大規模なマシンタイプ通信(mMTC)を可能にする重要な技術です。
本稿では,高密度空間分散マルチセル無線IoTネットワークにおけるランダムアクセス効率向上のために,NOMAを適用した。
ユーザ期待容量の幾何学的平均を最大化するために,各IoTデバイスの伝送確率を調整したランダムチャネルアクセス管理の新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-01-02T15:21:08Z) - Multi-Agent Reinforcement Learning in NOMA-aided UAV Networks for
Cellular Offloading [59.32570888309133]
複数の無人航空機(UAV)によるセルローディングのための新しい枠組みの提案
非直交多重アクセス(NOMA)技術は、無線ネットワークのスペクトル効率をさらに向上するために、各UAVに採用されている。
相互深いQ-network (MDQN) アルゴリズムは,UAVの最適3次元軌道と電力配分を共同で決定するために提案される。
論文 参考訳(メタデータ) (2020-10-18T20:22:05Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Distributed Optimization, Averaging via ADMM, and Network Topology [0.0]
センサローカライゼーションの現実問題において,ネットワークトポロジと異なるアルゴリズムの収束率の関係について検討する。
また、ADMMと持ち上げマルコフ連鎖の間の興味深い関係を示すとともに、その収束を明示的に特徴づける。
論文 参考訳(メタデータ) (2020-09-05T21:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。