論文の概要: CNNPruner: Pruning Convolutional Neural Networks with Visual Analytics
- arxiv url: http://arxiv.org/abs/2009.09940v1
- Date: Tue, 8 Sep 2020 02:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:39:26.883672
- Title: CNNPruner: Pruning Convolutional Neural Networks with Visual Analytics
- Title(参考訳): CNNPruner:ビジュアル分析による畳み込みニューラルネットワークの実行
- Authors: Guan Li, Junpeng Wang, Han-Wei Shen, Kaixin Chen, Guihua Shan, and
Zhonghua Lu
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクにおいて極めて優れた性能を示している。
CNNPrunerは、モデルのサイズや精度に関する望ましい目標に応じて、対話的にプルーニングプランを作成することができる。
- 参考スコア(独自算出の注目度): 13.38218193857018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have demonstrated extraordinarily good
performance in many computer vision tasks. The increasing size of CNN models,
however, prevents them from being widely deployed to devices with limited
computational resources, e.g., mobile/embedded devices. The emerging topic of
model pruning strives to address this problem by removing less important
neurons and fine-tuning the pruned networks to minimize the accuracy loss.
Nevertheless, existing automated pruning solutions often rely on a numerical
threshold of the pruning criteria, lacking the flexibility to optimally balance
the trade-off between model size and accuracy. Moreover, the complicated
interplay between the stages of neuron pruning and model fine-tuning makes this
process opaque, and therefore becomes difficult to optimize. In this paper, we
address these challenges through a visual analytics approach, named CNNPruner.
It considers the importance of convolutional filters through both instability
and sensitivity, and allows users to interactively create pruning plans
according to a desired goal on model size or accuracy. Also, CNNPruner
integrates state-of-the-art filter visualization techniques to help users
understand the roles that different filters played and refine their pruning
plans. Through comprehensive case studies on CNNs with real-world sizes, we
validate the effectiveness of CNNPruner.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクにおいて極めて優れた性能を示している。
しかし、cnnモデルのサイズが大きくなると、モバイル/組み込みデバイスのような限られた計算リソースを持つデバイスに広くデプロイされることがなくなる。
モデルプルーニングの話題は、重要でないニューロンを除去し、プルーニングされたネットワークを微調整することで、精度の損失を最小限に抑えることでこの問題に対処しようとしている。
それでも、既存の自動プルーニングソリューションは、しばしばプルーニング基準の数値しきい値に依存し、モデルサイズと精度の間のトレードオフを最適にバランスする柔軟性に欠ける。
さらに、ニューロンプルーニングの段階とモデル微調整の段階の間の複雑な相互作用は、この過程を不透明にし、最適化が困難になる。
本稿では,CNNPrunerというビジュアル分析手法を用いて,これらの課題に対処する。
不安定性と感度の両方を通じて畳み込みフィルタの重要性を考慮し、モデルサイズや精度の目標に従って、ユーザがインタラクティブにプランニングを作成できるようにする。
また、cnnprunerは最先端のフィルタ可視化技術を統合して、異なるフィルターが果たす役割を理解し、プランを洗練するのに役立つ。
実世界規模CNNの総合ケーススタディを通じて,CNNPrunerの有効性を検証する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Scale-Invariant Object Detection by Adaptive Convolution with Unified Global-Local Context [3.061662434597098]
本稿では,効率的なDetモデルに基づくSAC-Net(Switchable Atrous Convolutional Network)を用いたオブジェクト検出モデルを提案する。
提案したSAC-Netは,マルチスケールオブジェクト検出タスクの性能向上を実現するために,低レベル機能と高レベル機能の両方の利点をカプセル化している。
ベンチマークデータセットを用いた実験により,提案したSAC-Netは,精度の点で最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-17T10:08:37Z) - Application of Tensorized Neural Networks for Cloud Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、天気予報、コンピュータビジョン、自律運転、医療画像解析など、さまざまな分野で広く利用されている。
しかし、これらの領域におけるCNNの実装と商業化は、モデルのサイズ、過度な適合、計算時間に関連する課題によって妨げられている。
モデルサイズと計算時間を削減するため,CNN内の高密度層をテンソル化することによる画期的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-21T06:28:22Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - Go Beyond Multiple Instance Neural Networks: Deep-learning Models based
on Local Pattern Aggregation [0.0]
畳み込みニューラルネットワーク(CNN)は、臨床心電図(ECG)と話者非依存音声の処理においてブレークスルーをもたらした。
本稿では,局所的なパターン集約に基づくディープラーニングモデルを提案する。
LPANetと呼ばれる新しいネットワーク構造には、トリミングと集約操作が組み込まれている。
論文 参考訳(メタデータ) (2022-05-28T13:18:18Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。