論文の概要: Dynamic Compression Ratio Selection for Edge Inference Systems with Hard
Deadlines
- arxiv url: http://arxiv.org/abs/2005.12235v1
- Date: Mon, 25 May 2020 17:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:40:10.422248
- Title: Dynamic Compression Ratio Selection for Edge Inference Systems with Hard
Deadlines
- Title(参考訳): ハードデッドラインを有するエッジ推論システムの動的圧縮比選択
- Authors: Xiufeng Huang, Sheng Zhou
- Abstract要約: 本稿では,ハード期限付きエッジ推論システムの動的圧縮比選択手法を提案する。
誤り推論により少ない圧縮データを再送信する情報拡張を提案し,精度向上を図る。
無線伝送エラーを考慮し、パケット損失による性能劣化を低減する再送信方式を更に設計する。
- 参考スコア(独自算出の注目度): 9.585931043664363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implementing machine learning algorithms on Internet of things (IoT) devices
has become essential for emerging applications, such as autonomous driving,
environment monitoring. But the limitations of computation capability and
energy consumption make it difficult to run complex machine learning algorithms
on IoT devices, especially when latency deadline exists. One solution is to
offload the computation intensive tasks to the edge server. However, the
wireless uploading of the raw data is time consuming and may lead to deadline
violation. To reduce the communication cost, lossy data compression can be
exploited for inference tasks, but may bring more erroneous inference results.
In this paper, we propose a dynamic compression ratio selection scheme for edge
inference system with hard deadlines. The key idea is to balance the tradeoff
between communication cost and inference accuracy. By dynamically selecting the
optimal compression ratio with the remaining deadline budgets for queued tasks,
more tasks can be timely completed with correct inference under limited
communication resources. Furthermore, information augmentation that retransmits
less compressed data of task with erroneous inference, is proposed to enhance
the accuracy performance. While it is often hard to know the correctness of
inference, we use uncertainty to estimate the confidence of the inference, and
based on that, jointly optimize the information augmentation and compression
ratio selection. Lastly, considering the wireless transmission errors, we
further design a retransmission scheme to reduce performance degradation due to
packet losses. Simulation results show the performance of the proposed schemes
under different deadlines and task arrival rates.
- Abstract(参考訳): モノのインターネット(IoT)デバイス上での機械学習アルゴリズムの実装は、自律運転や環境監視といった新興アプリケーションにとって不可欠になっている。
しかし、計算能力とエネルギー消費の制限により、特に遅延期限が存在する場合、IoTデバイス上で複雑な機械学習アルゴリズムを実行するのが難しくなる。
ひとつの解決策は、計算集約的なタスクをエッジサーバにオフロードすることだ。
しかし、生データのワイヤレスアップロードには時間がかかり、期限違反につながる可能性がある。
通信コストを削減するために、データ圧縮の損失を推論タスクに利用することができるが、誤った推論結果をもたらす可能性がある。
本稿では,ハードデッドラインを有するエッジ推論システムに対する動的圧縮比選択方式を提案する。
鍵となるアイデアは、通信コストと推論精度のトレードオフをバランスさせることです。
待ち行列タスクの残期限予算と最適圧縮比を動的に選択することにより、限られた通信リソースの下で正しい推論でより多くのタスクをタイムリーに完了させることができる。
さらに,タスクの圧縮少ないデータを誤推論で再送信し,精度を向上させる情報拡張手法を提案する。
推論の正確性を知ることはしばしば難しいが、不確実性を用いて推論の信頼性を推定し、それに基づいて情報拡張と圧縮比の選択を共同で最適化する。
最後に,無線伝送の誤りを考慮し,パケット損失による性能低下を低減させる再送方式を更に設計する。
シミュレーションの結果,提案手法の期限とタスク到着率の異なる性能を示す。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Progressive Neural Compression for Adaptive Image Offloading under
Timing Constraints [9.903309560890317]
タイミング制約下での機械学習アプリケーションの推論性能を最大化する適応的アプローチを開発することが重要である。
本稿では,画像分類を対象とし,この問題の効率的な解法としてプログレッシブ・ニューラル・圧縮(PNC)を提案する。
我々は、最先端のニューラル圧縮アプローチとテストベッド上の従来の圧縮手法に対するPNCの利点を実証する。
論文 参考訳(メタデータ) (2023-10-08T22:58:31Z) - A Robust Adaptive Workload Orchestration in Pure Edge Computing [0.0]
エッジデバイスのモビリティと計算能力の制限は、緊急かつ計算集約的なタスクをサポートする上での課題となる。
エッジノードが可能な限り多くのレイテンシに敏感なタスクを完了させることは不可欠です。
本稿では,納期ミスやデータ損失を最小限に抑えるために,ロバスト適応ワークロードオーケストレーション(R-AdWOrch)モデルを提案する。
論文 参考訳(メタデータ) (2023-08-15T20:04:18Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Online Learning for Adaptive Probing and Scheduling in Dense WLANs [4.585894579981477]
既存のネットワークスケジューリングソリューションは、スケジューリング決定が下される前に、瞬時リンクレートが完全に知られていると仮定する。
探索決定が適応的でない場合に性能を保証する近似アルゴリズムを開発する。
我々は、未知のリンクレート分布でオンライン設定にソリューションを拡張し、文脈帯域ベースのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-12-27T19:12:17Z) - Deep Reinforcement Learning for Trajectory Path Planning and Distributed
Inference in Resource-Constrained UAV Swarms [6.649753747542209]
本研究の目的は,UAVSwarmにおける分散協調推論要求と経路計画のためのモデルの設計である。
定式化問題はNPハードであるため、最適解を見つけることは極めて複雑である。
我々は、広範囲なシミュレーションを行い、その結果を、我々のモデルが競合モデルより優れていることを示す最先端の研究と比較する。
論文 参考訳(メタデータ) (2022-12-21T17:16:42Z) - An Intelligent Deterministic Scheduling Method for Ultra-Low Latency
Communication in Edge Enabled Industrial Internet of Things [19.277349546331557]
時間知覚ネットワーク (TSN) は, 決定論的スケジューリングによる低遅延通信を実現するために最近研究されている。
非衝突理論に基づく決定論的スケジューリング (NDS) 法を提案し, 時間に敏感な流れに対する超低遅延通信を実現する。
実験の結果,NDS/DQSは決定論的超低レイテンシサービスを十分にサポートし,帯域幅の有効利用を保証できることがわかった。
論文 参考訳(メタデータ) (2022-07-17T16:52:51Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。