論文の概要: SemifreddoNets: Partially Frozen Neural Networks for Efficient Computer
Vision Systems
- arxiv url: http://arxiv.org/abs/2006.06888v1
- Date: Fri, 12 Jun 2020 00:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:06:02.508986
- Title: SemifreddoNets: Partially Frozen Neural Networks for Efficient Computer
Vision Systems
- Title(参考訳): SemifreddoNets: 効率的なコンピュータビジョンシステムのための部分凍結ニューラルネットワーク
- Authors: Leo F Isikdogan, Bhavin V Nayak, Chyuan-Tyng Wu, Joao Peralta Moreira,
Sushma Rao, Gilad Michael
- Abstract要約: 部分凍結重みを持つ固定位相ニューラルネットワークからなるシステムを提案する。
SemifreddoNetsは、効率的なハードウェア実装に最適化された、完全にピペリン化されたハードウェアブロックとして機能する。
- 参考スコア(独自算出の注目度): 3.262230127283453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a system comprised of fixed-topology neural networks having
partially frozen weights, named SemifreddoNets. SemifreddoNets work as
fully-pipelined hardware blocks that are optimized to have an efficient
hardware implementation. Those blocks freeze a certain portion of the
parameters at every layer and replace the corresponding multipliers with fixed
scalers. Fixing the weights reduces the silicon area, logic delay, and memory
requirements, leading to significant savings in cost and power consumption.
Unlike traditional layer-wise freezing approaches, SemifreddoNets make a
profitable trade between the cost and flexibility by having some of the weights
configurable at different scales and levels of abstraction in the model.
Although fixing the topology and some of the weights somewhat limits the
flexibility, we argue that the efficiency benefits of this strategy outweigh
the advantages of a fully configurable model for many use cases. Furthermore,
our system uses repeatable blocks, therefore it has the flexibility to adjust
model complexity without requiring any hardware change. The hardware
implementation of SemifreddoNets provides up to an order of magnitude reduction
in silicon area and power consumption as compared to their equivalent
implementation on a general-purpose accelerator.
- Abstract(参考訳): 本研究では,半凍結重みを持つ固定位相ニューラルネットワーク(SemifreddoNets)を提案する。
semifreddonetsは、効率的なハードウェア実装に最適化された完全にパイプライン化されたハードウェアブロックとして動作する。
これらのブロックは各レイヤのパラメータの一部を凍結し、対応する乗算器を固定スケーラに置き換える。
重みを固定すると、シリコン領域、ロジック遅延、メモリ要求が減少し、コストと消費電力が大幅に削減される。
従来のレイヤ単位で凍結するアプローチとは異なり、セミフレドネッツは、異なるスケールで構成可能な重みとモデルの抽象化レベルによって、コストと柔軟性の間に利益をもたらす。
トポロジーの修正といくつかの重み付けは柔軟性を多少制限するが、この戦略の効率性は、多くのユースケースで完全に構成可能なモデルの利点よりも優れていると主張する。
さらに,本システムは繰り返しブロックを使用するため,ハードウェア変更を必要とせず,モデルの複雑さを調整する柔軟性がある。
SemifreddoNetsのハードウェア実装は、汎用アクセラレーターにおける同等の実装と比較して、シリコン領域と電力消費の桁違いの削減を提供する。
関連論文リスト
- FFSplit: Split Feed-Forward Network For Optimizing Accuracy-Efficiency
Trade-off in Language Model Inference [57.119047493787185]
本稿では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56times$wall clock time speedupを無視できる精度低下で実現する方法を示す。
実際、本手法では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56Times$wall clock time speedupを無視できる精度で実現している。
論文 参考訳(メタデータ) (2024-01-08T17:29:16Z) - Quantization of Deep Neural Networks to facilitate self-correction of
weights on Phase Change Memory-based analog hardware [0.0]
乗法重みの集合を近似するアルゴリズムを開発する。
これらの重みは、性能の損失を最小限に抑えながら、元のネットワークの重みを表現することを目的としている。
その結果、オンチップパルス発生器と組み合わせると、私たちの自己補正ニューラルネットワークはアナログ認識アルゴリズムで訓練されたものと同等に機能することがわかった。
論文 参考訳(メタデータ) (2023-09-30T10:47:25Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Compact Multi-level Sparse Neural Networks with Input Independent
Dynamic Rerouting [33.35713740886292]
疎いディープニューラルネットワークは、モデルの複雑さとメモリ消費を大幅に減らすことができる。
現実の課題に直面する中で,複数のスパースレベルをサポートするスパースモデルをトレーニングすることを提案する。
このようにして、推論中に適切なスパーシティレベルを動的に選択でき、ストレージコストを最小のスパースサブモデルで抑えることができる。
論文 参考訳(メタデータ) (2021-12-21T01:35:51Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - Joslim: Joint Widths and Weights Optimization for Slimmable Neural
Networks [37.09353669633368]
本稿では,スリム化可能なネットワークの幅構成と重みの両面での協調最適化を実現するための汎用フレームワークを提案する。
本フレームワークは,従来およびNASをベースとしたスリム化可能なメソッドを特殊なケースとして仮定し,既存のメソッドよりも柔軟性を向上する。
ImageNetデータセットの1.7%と8%の改善は、FLOPとメモリフットプリントを考慮してMobileNetV2で達成できる。
論文 参考訳(メタデータ) (2020-07-23T02:05:03Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。