論文の概要: Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels
- arxiv url: http://arxiv.org/abs/2106.00995v1
- Date: Wed, 2 Jun 2021 07:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:18:00.703758
- Title: Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels
- Title(参考訳): 時変チャネル上での協調推論のためのエネルギー効率の高いモデル圧縮と分割
- Authors: Mounssif Krouka, Anis Elgabli, Chaouki Ben Issaid and Mehdi Bennis
- Abstract要約: 本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
- 参考スコア(独自算出の注目度): 52.60092598312894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Today's intelligent applications can achieve high performance accuracy using
machine learning (ML) techniques, such as deep neural networks (DNNs).
Traditionally, in a remote DNN inference problem, an edge device transmits raw
data to a remote node that performs the inference task. However, this may incur
high transmission energy costs and puts data privacy at risk. In this paper, we
propose a technique to reduce the total energy bill at the edge device by
utilizing model compression and time-varying model split between the edge and
remote nodes. The time-varying representation accounts for time-varying
channels and can significantly reduce the total energy at the edge device while
maintaining high accuracy (low loss). We implement our approach in an image
classification task using the MNIST dataset, and the system environment is
simulated as a trajectory navigation scenario to emulate different channel
conditions. Numerical simulations show that our proposed solution results in
minimal energy consumption and $CO_2$ emission compared to the considered
baselines while exhibiting robust performance across different channel
conditions and bandwidth regime choices.
- Abstract(参考訳): 今日のインテリジェントアプリケーションは、ディープニューラルネットワーク(DNN)などの機械学習(ML)技術を使用して、高いパフォーマンスを実現することができる。
伝統的に、リモートDNN推論問題では、エッジデバイスは、推論タスクを実行するリモートノードに生データを送信する。
しかし、これは高い送信エネルギーコストを発生させ、データのプライバシーを危険にさらす可能性がある。
本稿では,エッジノードとリモートノードを分割したモデル圧縮と時間変動モデルを用いて,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
時間変化表現は時間変化チャネルを考慮し、高精度(低損失)を維持しつつエッジデバイス全体のエネルギーを大幅に削減することができる。
提案手法はMNISTデータセットを用いて画像分類タスクに実装し,異なるチャネル条件をエミュレートするための軌道ナビゲーションシナリオとしてシステム環境をシミュレートする。
数値シミュレーションにより,提案手法は,異なるチャネル条件および帯域幅選択において頑健な性能を示しながら,検討したベースラインと比較して最小のエネルギー消費とCO_2$エミッションをもたらすことが示された。
関連論文リスト
- UL-VIO: Ultra-lightweight Visual-Inertial Odometry with Noise Robust Test-time Adaptation [12.511829774226113]
視覚-慣性整合性に基づくテスト時間適応(TTA)が可能な超軽量 (1M) 視覚慣性オドメトリー (VIO) ネットワークを提案する。
KITTIデータセットで1分間のエラー増加 – 1% – で、最先端のネットワークサイズよりも36倍小さなネットワークサイズを実現している。
論文 参考訳(メタデータ) (2024-09-19T22:24:14Z) - SDP: Spiking Diffusion Policy for Robotic Manipulation with Learnable Channel-Wise Membrane Thresholds [7.4357764462464635]
本稿では,ロボット操作のためのスパイキング拡散ポリシー(SDP)学習手法を提案する。
SDPは、Spyking NeuronsとLearnerable Channel-wise membrane Thresholds (LCMT)を拡散ポリシーモデルに統合する。
我々は、ベースラインSNN法よりも高速な収束速度とともに、ANN法に匹敵する結果を得る。
論文 参考訳(メタデータ) (2024-09-17T13:53:36Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - Best of Both Worlds: Hybrid SNN-ANN Architecture for Event-based Optical Flow Estimation [12.611797572621398]
非同期イベント駆動型計算でニューラルネットワーク(SNN)をスパイクすることは、イベントストリームから機能を抽出する大きな可能性を秘めている。
本稿では,両者の強みを組み合わせた新しいSNN-ANNハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-05T15:26:02Z) - Non-Coherent Over-the-Air Decentralized Gradient Descent [0.0]
無線システムにおける分散グラディエントDescentの実装は、ノイズ、フェーディング、帯域幅の制限により困難である。
本稿では,スケジューリング,トポロジ情報,CSIの必要性を解消するスケーラブルなDGDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-19T19:15:34Z) - Time-Correlated Sparsification for Efficient Over-the-Air Model
Aggregation in Wireless Federated Learning [23.05003652536773]
Federated Edge Learning(FEEL)は、エッジインテリジェンスアプリケーションを駆動するための有望な分散機械学習(ML)フレームワークである。
通信効率の高いFEELのためのハイブリッドアグリゲーション(TCS-H)を用いた時間相関スペーシングを提案する。
論文 参考訳(メタデータ) (2022-02-17T02:48:07Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。