論文の概要: FrankenSplit: Saliency Guided Neural Feature Compression with Shallow
Variational Bottleneck Injection
- arxiv url: http://arxiv.org/abs/2302.10681v1
- Date: Tue, 21 Feb 2023 14:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:03:28.484158
- Title: FrankenSplit: Saliency Guided Neural Feature Compression with Shallow
Variational Bottleneck Injection
- Title(参考訳): FrankenSplit: 低変量ボトルネック注入によるサリエンシ誘導ニューラル特徴圧縮
- Authors: Alireza Furutanpey, Philipp Raith, Schahram Dustdar
- Abstract要約: 軽量ニューラルネットワークは、予測強度のために高速な推論を交換する。
大きなディープニューラルネットワークは、リソース制約されたデバイス上での推論時間と高エネルギー消費を引き起こします。
本研究は,モバイルエッジコンピューティングにおける高性能推論の必要性に,既存の手法が適切に対処できない理由を実証する。
- 参考スコア(独自算出の注目度): 2.94790896864764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lightweight neural networks exchange fast inference for predictive strength.
Conversely, large deep neural networks have low prediction error but incur
prolonged inference times and high energy consumption on resource-constrained
devices. This trade-off is unacceptable for latency-sensitive and
performance-critical applications. Offloading inference tasks to a server is
unsatisfactory due to the inevitable network congestion by high-dimensional
data competing for limited bandwidth and leaving valuable client-side resources
idle. This work demonstrates why existing methods cannot adequately address the
need for high-performance inference in mobile edge computing. Then, we show how
to overcome current limitations by introducing a novel training method to
reduce bandwidth consumption in Machine-to-Machine communication and a
generalizable design heuristic for resource-conscious compression models. We
extensively evaluate our proposed method against a wide range of baselines for
latency and compressive strength in an environment with asymmetric resource
distribution between edge devices and servers. Despite our edge-oriented
lightweight encoder, our method achieves considerably better compression rates.
- Abstract(参考訳): 軽量ニューラルネットワークは予測強度の高速推論を交換する。
逆に、大きな深層ニューラルネットワークは予測誤差が低いが、長大な推論時間とリソース制約のあるデバイスでの高エネルギー消費がある。
このトレードオフは、レイテンシに敏感でパフォーマンスクリティカルなアプリケーションには受け入れられない。
サーバに推論タスクをオフロードするのは、限られた帯域幅と競合する高次元データによるネットワークの混雑が避けられないため不満足である。
本研究は,モバイルエッジコンピューティングにおける高性能推論の必要性に,既存の手法が適切に対処できない理由を示す。
そこで本研究では,機械間通信における帯域幅の削減と,リソース意識型圧縮モデルの汎用設計ヒューリスティックを導入することにより,現在の制約を克服する方法を示す。
エッジデバイスとサーバ間の非対称なリソース分布を有する環境において,提案手法を幅広いベースラインに対して広範囲に評価した。
エッジ指向の軽量エンコーダにもかかわらず,本手法は圧縮率を大幅に向上させる。
関連論文リスト
- Progressive Neural Compression for Adaptive Image Offloading under
Timing Constraints [9.903309560890317]
タイミング制約下での機械学習アプリケーションの推論性能を最大化する適応的アプローチを開発することが重要である。
本稿では,画像分類を対象とし,この問題の効率的な解法としてプログレッシブ・ニューラル・圧縮(PNC)を提案する。
我々は、最先端のニューラル圧縮アプローチとテストベッド上の従来の圧縮手法に対するPNCの利点を実証する。
論文 参考訳(メタデータ) (2023-10-08T22:58:31Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Lightweight compression of neural network feature tensors for
collaborative intelligence [32.03465747357384]
協調インテリジェンスアプリケーションでは、ディープニューラルネットワーク(DNN)の一部は、携帯電話やエッジデバイスなどの比較的低い複雑さのデバイスにデプロイされます。
本稿では,スプリットdnn層のアクティベーションをコード化するために設計された新しい軽量圧縮技術を提案する。
論文 参考訳(メタデータ) (2021-05-12T23:41:35Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。