論文の概要: ViNNPruner: Visual Interactive Pruning for Deep Learning
- arxiv url: http://arxiv.org/abs/2205.15731v1
- Date: Tue, 31 May 2022 12:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 20:51:43.502116
- Title: ViNNPruner: Visual Interactive Pruning for Deep Learning
- Title(参考訳): ViNNPruner: ディープラーニングのためのビジュアルインタラクティブプルーニング
- Authors: Udo Schlegel, Samuel Schiegg, Daniel A. Keim
- Abstract要約: プルーニング技術は、性能を可能な限り小さくすることで、ディープニューラルネットワークを小さなサイズに縮小するのに役立つ。
我々は,最先端のプルーニングアルゴリズムを実装した視覚対話型プルーニングアプリケーションViNNPrunerと,その知識に基づいて手動プルーニングを行うオプションを提案する。
- 参考スコア(独自算出の注目度): 11.232234265070755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks grow vastly in size to tackle more sophisticated tasks. In
many cases, such large networks are not deployable on particular hardware and
need to be reduced in size. Pruning techniques help to shrink deep neural
networks to smaller sizes by only decreasing their performance as little as
possible. However, such pruning algorithms are often hard to understand by
applying them and do not include domain knowledge which can potentially be bad
for user goals. We propose ViNNPruner, a visual interactive pruning application
that implements state-of-the-art pruning algorithms and the option for users to
do manual pruning based on their knowledge. We show how the application
facilitates gaining insights into automatic pruning algorithms and
semi-automatically pruning oversized networks to make them more efficient using
interactive visualizations.
- Abstract(参考訳): ニューラルネットワークは、より高度なタスクに取り組むために大きく成長する。
多くの場合、そのような大規模なネットワークは特定のハードウェアにデプロイできず、サイズを小さくする必要がある。
プルーニング技術は、パフォーマンスをできるだけ小さくすることで、ディープニューラルネットワークをより小さなサイズに縮小するのに役立つ。
しかし、そのような刈り取りアルゴリズムは、それらを適用することで理解しづらいことが多く、ユーザー目標に悪影響を与える可能性のあるドメイン知識を含まない。
我々は,最先端のプルーニングアルゴリズムを実装した視覚対話型プルーニングアプリケーションViNNPrunerと,その知識に基づいて手動プルーニングを行うオプションを提案する。
アプリケーションがどのようにして自動刈り込みアルゴリズムや半自動刈り込みネットワークの洞察を得やすくし、インタラクティブな視覚化によりより効率的に行うかを示す。
関連論文リスト
- NEPENTHE: Entropy-Based Pruning as a Neural Network Depth's Reducer [5.373015313199385]
深層ニューラルネットワークの計算負担を軽減するため,nEural Network depTHのrEducerとしてeNtropy-basEdプルーニングを提案する。
我々はMobileNetやSwin-Tといった一般的なアーキテクチャに対するアプローチを検証する。
論文 参考訳(メタデータ) (2024-04-24T09:12:04Z) - Can Unstructured Pruning Reduce the Depth in Deep Neural Networks? [5.869633234882029]
プルーニングは、パフォーマンスを維持しながら、ディープニューラルネットワークのサイズを減らすために広く使われているテクニックである。
本研究では,深層ニューラルネットワークのサイズを減らし,その性能を保ちつつ,革新的なエントロピー誘導型プルーニングアルゴリズムであるEGPを紹介する。
論文 参考訳(メタデータ) (2023-08-12T17:27:49Z) - Visual Saliency-Guided Channel Pruning for Deep Visual Detectors in
Autonomous Driving [3.236217153362305]
ディープニューラルネットワーク(DNN)プルーニングは、リソース制約のあるデバイスにデプロイするデファクトコンポーネントになっている。
本稿では,視覚的検出のための勾配に基づく新しいサリエンシ尺度を提案し,それをチャネルプルーニングのガイドに利用する。
KITTIおよびCOCOトラヒックデータセットの実験は、最先端の競合するアプローチよりもプルーニング手法の有効性と優位性を実証している。
論文 参考訳(メタデータ) (2023-03-04T22:08:22Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Neural Network Pruning Through Constrained Reinforcement Learning [3.2880869992413246]
本稿では,ニューラルネットワークを解析するための一般的な手法を提案する。
提案手法は、事前に定義された計算予算を尊重するためにニューラルネットワークを創出することができる。
標準画像分類データセットにおける最先端手法との比較により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-16T11:57:38Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - AttendNets: Tiny Deep Image Recognition Neural Networks for the Edge via
Visual Attention Condensers [81.17461895644003]
我々は、オンデバイス画像認識に適した、低精度でコンパクトなディープニューラルネットワークであるAttendNetsを紹介する。
AttendNetsは、視覚的注意の凝縮に基づく深い自己注意アーキテクチャを持っている。
その結果、AttendNetsは、いくつかのディープニューラルネットワークと比較して、アーキテクチャと計算の複雑さが著しく低いことが示された。
論文 参考訳(メタデータ) (2020-09-30T01:53:17Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - A Framework for Neural Network Pruning Using Gibbs Distributions [34.0576955010317]
Gibbs pruningは、ニューラルネットワークのプルーニングメソッドを表現および設計するための新しいフレームワークである。
学習したウェイトとプルーニングマスクが互いに順応するように、同時にネットワークを訓練し訓練することができる。
我々は、CIFAR-10データセットでResNet-56を刈り取るための、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2020-06-08T23:04:53Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。