論文の概要: Reducing Inference Energy Consumption Using Dual Complementary CNNs
- arxiv url: http://arxiv.org/abs/2412.01039v1
- Date: Mon, 02 Dec 2024 01:46:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:30.580502
- Title: Reducing Inference Energy Consumption Using Dual Complementary CNNs
- Title(参考訳): 二重補完CNNを用いた推定エネルギー消費量の削減
- Authors: Michail Kinnas, John Violos, Ioannis Kompatsiaris, Symeon Papadopoulos,
- Abstract要約: 本稿では,CNNのエネルギー要求を低減させる新しい手法を提案する。
我々は、予測において互いの「弱さ」をカバーし、互いに協調する2つの小さな補完的CNNを採用。
私たちがJetson Nanoコンピュータで行った実験では、各サンプルが一度複製された修正データセット上で最大85.8%のエネルギー削減が達成された。
- 参考スコア(独自算出の注目度): 13.783950035836593
- License:
- Abstract: Energy efficiency of Convolutional Neural Networks (CNNs) has become an important area of research, with various strategies being developed to minimize the power consumption of these models. Previous efforts, including techniques like model pruning, quantization, and hardware optimization, have made significant strides in this direction. However, there remains a need for more effective on device AI solutions that balance energy efficiency with model performance. In this paper, we propose a novel approach to reduce the energy requirements of inference of CNNs. Our methodology employs two small Complementary CNNs that collaborate with each other by covering each other's "weaknesses" in predictions. If the confidence for a prediction of the first CNN is considered low, the second CNN is invoked with the aim of producing a higher confidence prediction. This dual-CNN setup significantly reduces energy consumption compared to using a single large deep CNN. Additionally, we propose a memory component that retains previous classifications for identical inputs, bypassing the need to re-invoke the CNNs for the same input, further saving energy. Our experiments on a Jetson Nano computer demonstrate an energy reduction of up to 85.8% achieved on modified datasets where each sample was duplicated once. These findings indicate that leveraging a complementary CNN pair along with a memory component effectively reduces inference energy while maintaining high accuracy.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)のエネルギー効率は研究の重要な領域となり、これらのモデルの消費電力を最小限に抑えるために様々な戦略が開発されている。
モデルプルーニング、量子化、ハードウェア最適化といった従来の取り組みは、この方向に大きく前進してきた。
しかしながら、エネルギー効率とモデルパフォーマンスのバランスをとるデバイスAIソリューションに、より効果的なものが必要である。
本稿では,CNNのエネルギー要求量を削減するための新しい手法を提案する。
提案手法では,予測において相互の「弱さ」をカバーし,相互に協調する2つの小さな補完的CNNを用いている。
第1のCNNの予測に対する信頼度が低ければ、第2のCNNは高い信頼度予測を生成するために呼び出される。
この二重CNNセットアップは、単一の大きなCNNを使用する場合と比較して、エネルギー消費を著しく削減する。
さらに、同じ入力に対して以前の分類を保持するメモリコンポーネントを提案し、同じ入力に対してCNNを再起動する必要をなくし、省エネルギー化を図る。
私たちがJetson Nanoコンピュータで行った実験では、各サンプルが一度複製された修正データセット上で最大85.8%のエネルギー削減が達成された。
これらの結果から, 相補的なCNNペアとメモリ成分を併用することで, 精度を維持しつつ, 推論エネルギーを効果的に低減できることが示唆された。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Deep Convolutional Neural Networks for Short-Term Multi-Energy Demand
Prediction of Integrated Energy Systems [0.0]
本稿では,多エネルギー消費予測のための畳み込みニューラルネットワーク(CNN)に基づく新しい6つの予測モデルを開発する。
これらのモデルは、新しい統合型電気・熱・ガスネットワークシステムに包括的に適用される。
論文 参考訳(メタデータ) (2023-12-24T14:56:23Z) - An automated approach for improving the inference latency and energy
efficiency of pretrained CNNs by removing irrelevant pixels with focused
convolutions [0.8706730566331037]
本稿では,事前学習したCNNを再学習せずによりエネルギー効率良くするための,新しい自動化手法を提案する。
修正された集中畳み込み操作は、様々なトレーニング済みCNNにおいて、推論遅延(25%まで)とエネルギーコスト(最大22%まで)を節約します。
論文 参考訳(メタデータ) (2023-10-11T18:07:37Z) - The Effects of Partitioning Strategies on Energy Consumption in
Distributed CNN Inference at The Edge [0.0]
多くのAIアプリケーションは、エッジの分散システム上での畳み込みニューラルネットワーク(CNN)推論を必要とする。
大規模なCNNモデルをパーティショニングし、エッジにある複数のデバイスで分散CNN推論を実行するために使用できる4つの主要なパーティショニング戦略がある。
本稿では,4つのパーティショニング戦略を利用する場合の分散システム上でのエッジにおけるCNNモデル推論のデバイス毎のエネルギー消費について検討・比較する。
論文 参考訳(メタデータ) (2022-10-15T22:54:02Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Rescaling CNN through Learnable Repetition of Network Parameters [2.137666194897132]
CNNのパラメータの学習可能な反復に基づく新しい再スケーリング戦略を提案する。
小ベースネットワークが再スケールされると、より深いネットワークの最適化パラメータの6%以下で、より深いネットワークに匹敵するパフォーマンスを提供できることを示す。
論文 参考訳(メタデータ) (2021-01-14T15:03:25Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - PENNI: Pruned Kernel Sharing for Efficient CNN Inference [41.050335599000036]
最先端(SOTA)CNNは、様々なタスクにおいて優れたパフォーマンスを達成する。
その高い計算要求と膨大な数のパラメータにより、リソース制約のあるデバイスにこれらのSOTA CNNをデプロイすることは困難である。
本稿では,CNNモデル圧縮フレームワークであるPENNIを提案する。
論文 参考訳(メタデータ) (2020-05-14T16:57:41Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。