論文の概要: Work in Progress: Mobile or FPGA? A Comprehensive Evaluation on Energy
Efficiency and a Unified Optimization Framework
- arxiv url: http://arxiv.org/abs/2106.09166v1
- Date: Wed, 16 Jun 2021 22:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 07:23:14.186583
- Title: Work in Progress: Mobile or FPGA? A Comprehensive Evaluation on Energy
Efficiency and a Unified Optimization Framework
- Title(参考訳): 進行中の作業:モバイルかFPGAか?
エネルギー効率の包括的評価と統一最適化枠組み
- Authors: Geng Yuan, Peiyan Dong, Mengshu Sun, Wei Niu, Zhengang Li, Yuxuan Cai,
Jun Liu, Weiwen Jiang, Xue Lin, Bin Ren, Xulong Tang, Yanzhi Wang
- Abstract要約: 本稿では,FPGAベースおよびモバイルベースDeep Neural Networks(DNN)実行のエネルギー効率を質的かつ定量的に比較する。
- 参考スコア(独自算出の注目度): 38.128999867946156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient deployment of Deep Neural Networks (DNNs) on edge devices (i.e.,
FPGAs and mobile platforms) is very challenging, especially under a recent
witness of the increasing DNN model size and complexity. Although various
optimization approaches have been proven to be effective in many DNNs on edge
devices, most state-of-the-art work focuses on ad-hoc optimizations, and there
lacks a thorough study to comprehensively reveal the potentials and constraints
of different edge devices when considering different optimizations. In this
paper, we qualitatively and quantitatively compare the energy-efficiency of
FPGA-based and mobile-based DNN executions, and provide detailed analysis.
- Abstract(参考訳): エッジデバイス(fpgaやモバイルプラットフォーム)へのディープニューラルネットワーク(dnn)の効率的なデプロイは、特に最近のdnnモデルのサイズと複雑さの増加の目撃の下で、非常に難しい。
エッジデバイス上の多くのdnnにおいて、様々な最適化アプローチが有効であることが証明されているが、最先端のほとんどの作業はアドホック最適化に焦点を当てており、異なる最適化を検討する際に異なるエッジデバイスの可能性と制約を包括的に明らかにするための徹底的な研究が欠けている。
本稿ではFPGAとモバイルDNNのエネルギー効率を質的に定量的に比較し,詳細な分析を行う。
関連論文リスト
- CARIn: Constraint-Aware and Responsive Inference on Heterogeneous Devices for Single- and Multi-DNN Workloads [4.556037016746581]
本稿では,モバイルデバイス上でのディープニューラルネットワーク(DNN)の実行を最適化する上での課題に対処する。
CARInはシングルDNNアプリケーションとマルチDNNアプリケーションの両方を最適化するための新しいフレームワークである。
現状のOODInフレームワークとは対照的に,単一モデルの設計では1.92倍,最大10.69倍となる。
論文 参考訳(メタデータ) (2024-09-02T09:18:11Z) - Hardware-Aware Neural Dropout Search for Reliable Uncertainty Prediction on FPGA [11.123116470454079]
この分野では、ドロップアウトベースのベイズニューラルネットワーク(BayesNN)が顕著であり、確実な不確実性推定を提供する。
既存のドロップアウトベースのベイズNNは、通常、異なる層にまたがる均一なドロップアウト設計を採用しており、亜最適性能をもたらす。
本稿では,ByesNNとFPGA上でのハードウェア実装の両方を自動最適化するニューラルドロップアウト検索フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-23T19:33:19Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Scaling Up Deep Neural Network Optimization for Edge Inference [20.9711130126031]
ディープニューラルネットワーク(DNN)は、携帯電話、ドローン、ロボット、ウェアラブルといったエッジデバイスにますますデプロイされ、統合されている。
DNN推論を直接エッジデバイス(エッジ推論)で実行するためには、DNN設計を最適化することが不可欠である。
まず、プロキシデバイス上に構築された性能予測器を再利用し、性能単調性を利用してDNN最適化をスケールアップする。
第2のアプローチでは、見積もりが可能なスケーラブルなパフォーマンス予測器を構築します。
論文 参考訳(メタデータ) (2020-09-01T07:47:22Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。