論文の概要: Optimizing the Whole-life Cost in End-to-end CNN Acceleration
- arxiv url: http://arxiv.org/abs/2104.05541v1
- Date: Mon, 12 Apr 2021 15:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 20:33:40.459137
- Title: Optimizing the Whole-life Cost in End-to-end CNN Acceleration
- Title(参考訳): エンドツーエンドcnn加速における全寿命コストの最適化
- Authors: Jiaqi Zhang, Xiangru Chen, Sandip Ray, Tao Li
- Abstract要約: 本稿では,GCONV Chainモデルを包括的に分析し,GCONV Chainをサポートするフルスタック実装を提案する。
GCONV Chainは既存のCNNアクセラレータの性能とエネルギー効率を平均3.4倍と3.2倍に改善した。
一方、GCONV Chainは、開発者の努力とユーザーに対する総所有コストの両方を含むCNNアクセラレーションのライフサイクルコストを低くすることを示しています。
- 参考スコア(独自算出の注目度): 8.106141248434561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The acceleration of CNNs has gained increasing atten-tion since their success
in computer vision. With the heterogeneous functional layers that cannot be
pro-cessed by the accelerators proposed for convolution layers only, modern
end-to-end CNN acceleration so-lutions either transform the diverse computation
into matrix/vector arithmetic, which loses data reuse op-portunities in
convolution, or introduce dedicated functional unit to each kind of layer,
which results in underutilization and high update expense. To enhance the
whole-life cost efficiency, we need an acceleration solution that is efficient
in processing CNN layers and has the generality to apply to all kinds of
existing and emerging layers. To this end, we pro-pose GCONV Chain, a method to
convert the entire CNN computation into a chain of standard general
convolutions (GCONV) that can be efficiently pro-cessed by the existing CNN
accelerators. This paper comprehensively analyzes the GCONV Chain model and
proposes a full-stack implementation to support GCONV Chain. On one hand, the
results on seven var-ious CNNs demonstrate that GCONV Chain improves the
performance and energy efficiency of existing CNN accelerators by an average of
3.4x and 3.2x re-spectively. On the other hand, we show that GCONV Chain
provides low whole-life costs for CNN accelera-tion, including both developer
efforts and total cost of ownership for the users.
- Abstract(参考訳): CNNの加速はコンピュータビジョンの成功以来、緊張が高まっている。
畳み込み層のみのために提案された加速器によってプロシースできない不均一な機能層により、現代のCNN加速器は、多種多様な計算を行列/ベクトル演算に変換するか、畳み込みにおけるデータ再利用の機会を失うか、あるいは各層に専用の機能ユニットを導入し、不使用と高更新コストをもたらす。
全体のコスト効率を高めるためには、cnn層を効率的に処理し、あらゆる種類の既存および新興層に適用できる汎用性を持つ加速ソリューションが必要である。
この目的のために、我々は、既存のCNNアクセラレーターによって効率的にプロシース可能な、CNN全体の計算を標準的畳み込み(GCONV)の連鎖に変換する手法であるGCONV Chainを提案する。
本稿では,GCONV Chainモデルを包括的に分析し,GCONV Chainをサポートするフルスタック実装を提案する。
一方、7つのvar-ious cnnの結果は、gconvチェーンが既存のcnn加速器の性能とエネルギー効率を平均3.4倍と3.2倍に改善していることを示している。
一方、gconv chainはcnn accelera-tionに対して、開発者の努力とユーザに対する総所有コストの両方を含む、低寿命のコストを提供する。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - An automated approach for improving the inference latency and energy
efficiency of pretrained CNNs by removing irrelevant pixels with focused
convolutions [0.8706730566331037]
本稿では,事前学習したCNNを再学習せずによりエネルギー効率良くするための,新しい自動化手法を提案する。
修正された集中畳み込み操作は、様々なトレーニング済みCNNにおいて、推論遅延(25%まで)とエネルギーコスト(最大22%まで)を節約します。
論文 参考訳(メタデータ) (2023-10-11T18:07:37Z) - An Efficient Evolutionary Deep Learning Framework Based on Multi-source
Transfer Learning to Evolve Deep Convolutional Neural Networks [8.40112153818812]
畳み込みニューラルネットワーク(CNN)は、より複雑なトポロジを導入し、より深くより広いCNNへのキャパシティを拡大することで、長年にわたって、より優れたパフォーマンスを実現してきた。
計算コストは依然としてCNNを自動設計するボトルネックである。
本稿では, CNNを効率的に進化させるために, トランスファーラーニングにヒントを得て, 新たな進化的計算ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-07T20:22:58Z) - Photonic Reconfigurable Accelerators for Efficient Inference of CNNs
with Mixed-Sized Tensors [0.22843885788439797]
光マイクロリング共振器(MRR)ベースのハードウェアアクセラレータは、破壊的なスピードアップとエネルギー効率の改善をもたらすことが示されている。
従来のMRRベースのCNNアクセラレータは、混合サイズのテンソルを持つCNNに対して、効率的な適応性を提供できない。
MRRベースのCNNアクセラレータに再構成性を導入する新しい方法を提案する。
論文 参考訳(メタデータ) (2022-07-12T03:18:00Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Geometric Data Augmentation Based on Feature Map Ensemble [17.522601831197854]
既存のCNNのバックボーンを変更することなく、幾何学変換に対するロバスト性を向上できる新しいCNNアーキテクチャを提案する。
提案手法は, 最先端データ拡張アルゴリズムと組み合わせて, 性能向上に有効である。
論文 参考訳(メタデータ) (2021-07-22T08:48:54Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - 3D CNNs with Adaptive Temporal Feature Resolutions [83.43776851586351]
similarity Guided Sampling (SGS)モジュールは既存のCNNアーキテクチャにプラグインできる。
SGSは、時間的特徴の類似性を学び、類似した特徴をまとめることで、3D CNNに権限を与える。
評価の結果,提案モジュールは精度を保ちながら計算コスト(GFLOP)を半分に減らし,最先端化を実現していることがわかった。
論文 参考訳(メタデータ) (2020-11-17T14:34:05Z) - Implicit Convex Regularizers of CNN Architectures: Convex Optimization
of Two- and Three-Layer Networks in Polynomial Time [70.15611146583068]
本稿では,ReLUアクティベーションを用いた畳み込みニューラルネットワーク(CNN)のトレーニングについて検討する。
我々は,データサンプル数,ニューロン数,データ次元に関して,厳密な凸最適化を導入する。
論文 参考訳(メタデータ) (2020-06-26T04:47:20Z) - ZynqNet: An FPGA-Accelerated Embedded Convolutional Neural Network [0.0]
この論文はFPGAベースのCNNアクセラレーションの可能性を探るものである。
Zynq System-on-Chip上でのCNN実装の完全機能を示す。
論文 参考訳(メタデータ) (2020-05-14T11:54:04Z) - What Deep CNNs Benefit from Global Covariance Pooling: An Optimization
Perspective [102.37204254403038]
我々は最適化の観点から、GCPの深いCNNのメリットを理解する試みを行っている。
GCPは最適化のランドスケープをよりスムーズにし、勾配をより予測できることを示す。
多様なタスクに対して様々な深部CNNモデルを用いて広範な実験を行い,その結果を強く支持する。
論文 参考訳(メタデータ) (2020-03-25T07:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。