論文の概要: CNNPruner: Pruning Convolutional Neural Networks with Visual Analytics
- arxiv url: http://arxiv.org/abs/2009.09940v1
- Date: Tue, 8 Sep 2020 02:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:39:26.883672
- Title: CNNPruner: Pruning Convolutional Neural Networks with Visual Analytics
- Title(参考訳): CNNPruner:ビジュアル分析による畳み込みニューラルネットワークの実行
- Authors: Guan Li, Junpeng Wang, Han-Wei Shen, Kaixin Chen, Guihua Shan, and
Zhonghua Lu
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクにおいて極めて優れた性能を示している。
CNNPrunerは、モデルのサイズや精度に関する望ましい目標に応じて、対話的にプルーニングプランを作成することができる。
- 参考スコア(独自算出の注目度): 13.38218193857018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have demonstrated extraordinarily good
performance in many computer vision tasks. The increasing size of CNN models,
however, prevents them from being widely deployed to devices with limited
computational resources, e.g., mobile/embedded devices. The emerging topic of
model pruning strives to address this problem by removing less important
neurons and fine-tuning the pruned networks to minimize the accuracy loss.
Nevertheless, existing automated pruning solutions often rely on a numerical
threshold of the pruning criteria, lacking the flexibility to optimally balance
the trade-off between model size and accuracy. Moreover, the complicated
interplay between the stages of neuron pruning and model fine-tuning makes this
process opaque, and therefore becomes difficult to optimize. In this paper, we
address these challenges through a visual analytics approach, named CNNPruner.
It considers the importance of convolutional filters through both instability
and sensitivity, and allows users to interactively create pruning plans
according to a desired goal on model size or accuracy. Also, CNNPruner
integrates state-of-the-art filter visualization techniques to help users
understand the roles that different filters played and refine their pruning
plans. Through comprehensive case studies on CNNs with real-world sizes, we
validate the effectiveness of CNNPruner.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクにおいて極めて優れた性能を示している。
しかし、cnnモデルのサイズが大きくなると、モバイル/組み込みデバイスのような限られた計算リソースを持つデバイスに広くデプロイされることがなくなる。
モデルプルーニングの話題は、重要でないニューロンを除去し、プルーニングされたネットワークを微調整することで、精度の損失を最小限に抑えることでこの問題に対処しようとしている。
それでも、既存の自動プルーニングソリューションは、しばしばプルーニング基準の数値しきい値に依存し、モデルサイズと精度の間のトレードオフを最適にバランスする柔軟性に欠ける。
さらに、ニューロンプルーニングの段階とモデル微調整の段階の間の複雑な相互作用は、この過程を不透明にし、最適化が困難になる。
本稿では,CNNPrunerというビジュアル分析手法を用いて,これらの課題に対処する。
不安定性と感度の両方を通じて畳み込みフィルタの重要性を考慮し、モデルサイズや精度の目標に従って、ユーザがインタラクティブにプランニングを作成できるようにする。
また、cnnprunerは最先端のフィルタ可視化技術を統合して、異なるフィルターが果たす役割を理解し、プランを洗練するのに役立つ。
実世界規模CNNの総合ケーススタディを通じて,CNNPrunerの有効性を検証する。
関連論文リスト
- Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - Go Beyond Multiple Instance Neural Networks: Deep-learning Models based
on Local Pattern Aggregation [0.0]
畳み込みニューラルネットワーク(CNN)は、臨床心電図(ECG)と話者非依存音声の処理においてブレークスルーをもたらした。
本稿では,局所的なパターン集約に基づくディープラーニングモデルを提案する。
LPANetと呼ばれる新しいネットワーク構造には、トリミングと集約操作が組み込まれている。
論文 参考訳(メタデータ) (2022-05-28T13:18:18Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - AntiDote: Attention-based Dynamic Optimization for Neural Network
Runtime Efficiency [42.00372941618975]
本稿では,ニューラルネットワークの注意機構に基づく動的CNN最適化フレームワークを提案する。
我々の方法では、様々なテストネットワークで無視できる精度の低下で37.4%から54.5%のFLOPを削減できる。
論文 参考訳(メタデータ) (2020-08-14T18:48:13Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。