論文の概要: Mobiprox: Supporting Dynamic Approximate Computing on Mobiles
- arxiv url: http://arxiv.org/abs/2303.11291v1
- Date: Thu, 16 Mar 2023 21:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 14:23:24.067089
- Title: Mobiprox: Supporting Dynamic Approximate Computing on Mobiles
- Title(参考訳): Mobiprox: モバイルでの動的近似コンピューティングのサポート
- Authors: Matev\v{z} Fabjan\v{c}i\v{c}, Octavian Machidon, Hashim Sharif, Yifan
Zhao, Sa\v{s}a Misailovi\'c, Veljko Pejovi\'c
- Abstract要約: デバイス上での深層学習において,フレキシブルな精度を実現するフレームワークMobiproxを提案する。
Mobiproxはテンソル演算の調整可能な近似を実装し、個々のネットワーク層の実行時適応を可能にする。
推定精度に最小限の影響を及ぼすことなく、最大15%のシステムワイドエネルギーを節約できることを実証した。
- 参考スコア(独自算出の注目度): 16.00032354659232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Runtime-tunable context-dependent network compression would make mobile deep
learning adaptable to often varying resource availability, input "difficulty",
or user needs. The existing compression techniques significantly reduce the
memory, processing, and energy tax of deep learning, yet, the resulting models
tend to be permanently impaired, sacrificing the inference power for reduced
resource usage. The existing tunable compression approaches, on the other hand,
require expensive re-training, seldom provide mobile-ready implementations, and
do not support arbitrary strategies for adapting the compression.
In this paper we present Mobiprox, a framework enabling flexible-accuracy
on-device deep learning. Mobiprox implements tunable approximations of tensor
operations and enables runtime adaptation of individual network layers. A
profiler and a tuner included with Mobiprox identify the most promising neural
network approximation configurations leading to the desired inference quality
with the minimal use of resources. Furthermore, we develop control strategies
that depending on contextual factors, such as the input data difficulty,
dynamically adjust the approximation level of a model. We implement Mobiprox in
Android OS and through experiments in diverse mobile domains, including human
activity recognition and spoken keyword detection, demonstrate that it can save
up to 15% system-wide energy with a minimal impact on the inference accuracy.
- Abstract(参考訳): 実行時変更可能なコンテキスト依存ネットワーク圧縮により、モバイルのディープラーニングは、しばしばリソースの可用性、入力の"難易度"、あるいはユーザニーズに適応できる。
既存の圧縮技術はディープラーニングのメモリ、処理、エネルギー税を大幅に削減するが、結果として得られたモデルは恒久的に障害を受ける傾向にあり、リソース使用量を減らすための推論パワーを犠牲にする。
一方、既存のチューニング可能な圧縮アプローチでは、高価な再トレーニングが必要であり、モバイル対応実装を提供することはほとんどなく、圧縮を適用するための任意の戦略をサポートしない。
本稿では,デバイス上での柔軟な深層学習を実現するフレームワークMobiproxを提案する。
Mobiproxはテンソル演算の調整可能な近似を実装し、個々のネットワーク層の実行時適応を可能にする。
Mobiproxに付属するプロファイラとチューナーは、リソースの最小使用量で所望の推論品質につながる最も有望なニューラルネットワーク近似構成を特定する。
さらに,入力データの難易度などの文脈要因に応じて,モデルの近似レベルを動的に調整する制御戦略を開発する。
我々はAndroid OSにMobiproxを実装し、人間の活動認識や音声キーワード検出など様々なモバイル領域の実験を通じて、推論精度に最小限の影響を伴って最大15%のシステム全体のエネルギーを節約できることを実証した。
関連論文リスト
- AdaFlow: Opportunistic Inference on Asynchronous Mobile Data with Generalized Affinity Control [16.944584145880793]
AdaFlowは、階層解析に基づく正規化行列を用いて、モバイルコンテキストにおける構造化されたモダリティ親和性の定式化を開拓した。
AdaFlowは推論遅延を最大79.9%削減し、精度を61.9%向上させ、ステータスクオアプローチを上回っている。
論文 参考訳(メタデータ) (2024-10-31T15:28:22Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - FrankenSplit: Efficient Neural Feature Compression with Shallow Variational Bottleneck Injection for Mobile Edge Computing [5.815300670677979]
資源依存型圧縮モデルのための新しいフレームワークを導入し,非対称環境下での手法を広範囲に評価する。
提案手法は精度を低下させることなく最先端のSC法よりも60%低く,既存の標準のオフロードよりも16倍高速である。
論文 参考訳(メタデータ) (2023-02-21T14:03:22Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Fed-LAMB: Layerwise and Dimensionwise Locally Adaptive Optimization
Algorithm [24.42828071396353]
FL(Federated Learning)の新たなパラダイムでは、モバイルデバイスなどの大量のクライアントが、それぞれのデータに基づいてトレーニングされている。
低帯域幅のため、分散最適化手法は計算負荷をそれらのクライアントからサーバにシフトさせる必要がある。
我々は階層的なディープニューラルネットワークに基づく新しい学習手法であるFed-LAMBを提案する。
論文 参考訳(メタデータ) (2021-10-01T16:54:31Z) - Remote Multilinear Compressive Learning with Adaptive Compression [107.87219371697063]
MultiIoT Compressive Learning (MCL)は、多次元信号に対する効率的な信号取得および学習パラダイムである。
MCLモデルにそのような機能を実現するための新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2021-09-02T19:24:03Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - MDLdroid: a ChainSGD-reduce Approach to Mobile Deep Learning for
Personal Mobile Sensing [14.574274428615666]
デバイス上でのディープラーニングの実行には、データのプライバシ保護や、モデルの堅牢性とアップデートの両方に対する低レイテンシ応答など、いくつかのメリットがある。
パーソナルモバイルセンシングアプリケーションは、主にユーザ固有であり、環境の影響を受けやすい。
我々は,デバイス上での協調学習を実現するために,新たな分散モバイルディープラーニングフレームワークであるMDLdroidを提案する。
論文 参考訳(メタデータ) (2020-02-07T16:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。