論文の概要: Neuron Merging: Compensating for Pruned Neurons
- arxiv url: http://arxiv.org/abs/2010.13160v1
- Date: Sun, 25 Oct 2020 16:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:12:06.731464
- Title: Neuron Merging: Compensating for Pruned Neurons
- Title(参考訳): ニューロンの融合 : 切断ニューロンの補償
- Authors: Woojeong Kim, Suhyun Kim, Mincheol Park, Geonseok Jeon
- Abstract要約: 構造的ネットワークプルーニングは、ニューロン全体やフィルターを破棄し、精度を低下させる。
完全連結層と畳み込み層の両方に適用可能なニューロン融合の概念を提案する。
我々は93.16%の精度を達成し、微調整なしで総パラメータの64%を削減した。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network pruning is widely used to lighten and accelerate neural network
models. Structured network pruning discards the whole neuron or filter, leading
to accuracy loss. In this work, we propose a novel concept of neuron merging
applicable to both fully connected layers and convolution layers, which
compensates for the information loss due to the pruned neurons/filters. Neuron
merging starts with decomposing the original weights into two matrices/tensors.
One of them becomes the new weights for the current layer, and the other is
what we name a scaling matrix, guiding the combination of neurons. If the
activation function is ReLU, the scaling matrix can be absorbed into the next
layer under certain conditions, compensating for the removed neurons. We also
propose a data-free and inexpensive method to decompose the weights by
utilizing the cosine similarity between neurons. Compared to the pruned model
with the same topology, our merged model better preserves the output feature
map of the original model; thus, it maintains the accuracy after pruning
without fine-tuning. We demonstrate the effectiveness of our approach over
network pruning for various model architectures and datasets. As an example,
for VGG-16 on CIFAR-10, we achieve an accuracy of 93.16% while reducing 64% of
total parameters, without any fine-tuning. The code can be found here:
https://github.com/friendshipkim/neuron-merging
- Abstract(参考訳): ネットワークプルーニングは、ニューラルネットワークモデルの軽量化と高速化に広く使用されている。
構造化ネットワークの刈り取りはニューロン全体やフィルターを破棄し、精度を低下させる。
本研究では,完全結合層と畳み込み層の両方に適用可能なニューロン融合の新たな概念を提案する。
ニューロンの融合は、元の重みを2つのマトリックス/テンソルに分解することから始まる。
そのうちの1つは現在の層の新しい重みとなり、もう1つは私たちがスケーリングマトリックスと呼ぶもので、ニューロンの組み合わせを導くものです。
活性化関数がReLUであれば、特定の条件下でスケーリングマトリックスを次の層に吸収し、除去されたニューロンを補償することができる。
また、ニューロン間のコサイン類似性を利用して重量を分解するデータフリーで安価な方法を提案する。
同じトポロジを持つプルーニングモデルと比較して、マージしたモデルは元のモデルの出力特徴写像をよりよく保存し、微調整せずにプルーニング後の精度を維持できる。
様々なモデルアーキテクチャやデータセットに対するネットワークプルーニングに対するアプローチの有効性を示す。
例えば、CIFAR-10のVGG-16では、93.16%の精度を実現し、微調整なしで総パラメータの64%を削減した。
コードは以下のとおり。 https://github.com/friendshipkim/neuron-merging
関連論文リスト
- RelChaNet: Neural Network Feature Selection using Relative Change Scores [0.0]
本稿では、ニューラルネットワークの入力層にニューロンのプルーニングと再成長を利用する、新しくて軽量な特徴選択アルゴリズムであるRelChaNetを紹介する。
我々の手法は一般に現在の最先端手法よりも優れており、特にMNISTデータセットの平均精度を2%向上させる。
論文 参考訳(メタデータ) (2024-10-03T09:56:39Z) - Magnificent Minified Models [0.360953887026184]
本論文は、大規模なトレーニングニューラルネットワークを「圧縮」し、パラメータやニューロン全体を削除することで、より小さくするタスクを自覚する。
パラメータとニューロン選択の様々な方法を比較する:ドロップアウトベースニューロン損傷推定、ニューロンのマージ、絶対値ベース選択、ランダム選択。
ニューロンレベルのプルーニングでは、スクラッチから再トレーニングを行うことで、実験はずっと良くなりました。
論文 参考訳(メタデータ) (2023-06-16T21:00:44Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Synaptic Stripping: How Pruning Can Bring Dead Neurons Back To Life [0.0]
我々は、致命的な神経細胞問題に対処する手段として、シナプスストリッピングを導入する。
トレーニング中に問題のある接続を自動的に取り除くことで、死んだ神経細胞を再生することができる。
我々は,ネットワーク幅と深さの関数として,これらのダイナミクスを研究するために,いくつかのアブレーション研究を行っている。
論文 参考訳(メタデータ) (2023-02-11T23:55:50Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Receding Neuron Importances for Structured Pruning [11.375436522599133]
構造化プルーニングは、重要でないニューロンを特定して除去することで、ネットワークを効率的に圧縮する。
境界スケーリングパラメータを持つ単純なBatchNorm変動を導入し、低重要性のニューロンのみを抑制する新しい正規化項を設計する。
我々は、この方法でトレーニングされたニューラルネットワークを、より大きく、より少ない劣化で刈り取ることができることを示した。
論文 参考訳(メタデータ) (2022-04-13T14:08:27Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。