論文の概要: An automated approach for improving the inference latency and energy
efficiency of pretrained CNNs by removing irrelevant pixels with focused
convolutions
- arxiv url: http://arxiv.org/abs/2310.07782v1
- Date: Wed, 11 Oct 2023 18:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 14:23:15.170686
- Title: An automated approach for improving the inference latency and energy
efficiency of pretrained CNNs by removing irrelevant pixels with focused
convolutions
- Title(参考訳): 集中畳み込みによる無関係画素の除去による事前学習CNNの推論遅延とエネルギー効率向上のための自動アプローチ
- Authors: Caleb Tung, Nicholas Eliopoulos, Purvish Jajal, Gowri Ramshankar,
Chen-Yun Yang, Nicholas Synovic, Xuecen Zhang, Vipin Chaudhary, George K.
Thiruvathukal, Yung-Hsiang Lu
- Abstract要約: 本稿では,事前学習したCNNを再学習せずによりエネルギー効率良くするための,新しい自動化手法を提案する。
修正された集中畳み込み操作は、様々なトレーニング済みCNNにおいて、推論遅延(25%まで)とエネルギーコスト(最大22%まで)を節約します。
- 参考スコア(独自算出の注目度): 0.8706730566331037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision often uses highly accurate Convolutional Neural Networks
(CNNs), but these deep learning models are associated with ever-increasing
energy and computation requirements. Producing more energy-efficient CNNs often
requires model training which can be cost-prohibitive. We propose a novel,
automated method to make a pretrained CNN more energy-efficient without
re-training. Given a pretrained CNN, we insert a threshold layer that filters
activations from the preceding layers to identify regions of the image that are
irrelevant, i.e. can be ignored by the following layers while maintaining
accuracy. Our modified focused convolution operation saves inference latency
(by up to 25%) and energy costs (by up to 22%) on various popular pretrained
CNNs, with little to no loss in accuracy.
- Abstract(参考訳): コンピュータビジョンは、しばしば高精度畳み込みニューラルネットワーク(cnns)を使用するが、これらのディープラーニングモデルは、常にエネルギーと計算要件の増大と関連している。
よりエネルギー効率の良いcnnを作成するには、しばしばコストがかかるモデルトレーニングが必要である。
本稿では,事前学習したCNNを再学習せずにエネルギー効率を高めるための,新しい自動化手法を提案する。
事前学習されたcnnが与えられると、前のレイヤからのアクティベーションをフィルタリングするしきい値層を挿入して、無関係な画像の領域を識別します。
修正された集中畳み込み操作は、様々なトレーニング済みCNNにおいて、推論レイテンシ(25%まで)とエネルギーコスト(最大22%まで)を削減し、精度をほとんど、あるいは全く損なわない。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Convolutional Neural Networks Exploiting Attributes of Biological
Neurons [7.3517426088986815]
畳み込みニューラルネットワーク(CNN)のようなディープニューラルネットワークは、最前線として登場し、しばしば人間の能力を上回っている。
ここでは,生物ニューロンの原理をCNNの特定の層に統合する。
我々は,CNNの入力として使用する画像の特徴を抽出し,訓練効率の向上と精度の向上を期待する。
論文 参考訳(メタデータ) (2023-11-14T16:58:18Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - An Efficient Evolutionary Deep Learning Framework Based on Multi-source
Transfer Learning to Evolve Deep Convolutional Neural Networks [8.40112153818812]
畳み込みニューラルネットワーク(CNN)は、より複雑なトポロジを導入し、より深くより広いCNNへのキャパシティを拡大することで、長年にわたって、より優れたパフォーマンスを実現してきた。
計算コストは依然としてCNNを自動設計するボトルネックである。
本稿では, CNNを効率的に進化させるために, トランスファーラーニングにヒントを得て, 新たな進化的計算ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-07T20:22:58Z) - Transformed CNNs: recasting pre-trained convolutional layers with
self-attention [17.96659165573821]
視覚変換器(ViT)は、畳み込みネットワーク(CNN)の強力な代替手段として登場した。
本研究では、これらレイヤを畳み込み層として初期化することによって、これらのレイヤのトレーニングに要する時間を短縮するアイデアについて検討する。
微調整は50回しか行われず、結果として得られたT-CNNの性能は著しく向上した。
論文 参考訳(メタデータ) (2021-06-10T14:56:10Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - A CNN-based Feature Space for Semi-supervised Incremental Learning in
Assisted Living Applications [2.1485350418225244]
トレーニングデータセットから得られた特徴空間を用いて、問題のある画像を自動的にラベル付けする。
その結果、半教師付き漸進的な学習プロセスにより、新しいインスタンスの分類精度を40%向上させることができる。
論文 参考訳(メタデータ) (2020-11-11T12:31:48Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。