論文の概要: Multi-Prize Lottery Ticket Hypothesis: Finding Accurate Binary Neural
Networks by Pruning A Randomly Weighted Network
- arxiv url: http://arxiv.org/abs/2103.09377v1
- Date: Wed, 17 Mar 2021 00:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 22:24:55.759089
- Title: Multi-Prize Lottery Ticket Hypothesis: Finding Accurate Binary Neural
Networks by Pruning A Randomly Weighted Network
- Title(参考訳): マルチプライズ抽選券仮説:ランダム重み付きネットワークを用いた正確なバイナリニューラルネットワークの探索
- Authors: James Diffenderfer, Bhavya Kailkhura
- Abstract要約: マルチプライズチケット(MPT)の検索アルゴリズムを提案し,CIFAR-10およびImageNetデータセット上で一連の実験を行うことで試験する。
当社のMTTs-1/32は、新しいバイナリウェイトネットワーク最新(SOTA)Top-1精度(CIFAR-10では94.8%、ImageNetでは74.03%)を設定するだけでなく、それぞれ1.78%と0.76%に上る。
- 参考スコア(独自算出の注目度): 13.193734014710582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Frankle & Carbin (2019) demonstrated that randomly-initialized
dense networks contain subnetworks that once found can be trained to reach test
accuracy comparable to the trained dense network. However, finding these high
performing trainable subnetworks is expensive, requiring iterative process of
training and pruning weights. In this paper, we propose (and prove) a stronger
Multi-Prize Lottery Ticket Hypothesis:
A sufficiently over-parameterized neural network with random weights contains
several subnetworks (winning tickets) that (a) have comparable accuracy to a
dense target network with learned weights (prize 1), (b) do not require any
further training to achieve prize 1 (prize 2), and (c) is robust to extreme
forms of quantization (i.e., binary weights and/or activation) (prize 3).
This provides a new paradigm for learning compact yet highly accurate binary
neural networks simply by pruning and quantizing randomly weighted full
precision neural networks. We also propose an algorithm for finding multi-prize
tickets (MPTs) and test it by performing a series of experiments on CIFAR-10
and ImageNet datasets. Empirical results indicate that as models grow deeper
and wider, multi-prize tickets start to reach similar (and sometimes even
higher) test accuracy compared to their significantly larger and full-precision
counterparts that have been weight-trained. Without ever updating the weight
values, our MPTs-1/32 not only set new binary weight network state-of-the-art
(SOTA) Top-1 accuracy -- 94.8% on CIFAR-10 and 74.03% on ImageNet -- but also
outperform their full-precision counterparts by 1.78% and 0.76%, respectively.
Further, our MPT-1/1 achieves SOTA Top-1 accuracy (91.9%) for binary neural
networks on CIFAR-10. Code and pre-trained models are available at:
https://github.com/chrundle/biprop.
- Abstract(参考訳): frankle & carbin (2019) は、ランダムに初期化された密集ネットワークが、訓練された密集ネットワークに匹敵するテスト精度に達するように訓練できるサブネットワークを含むことを示した。
しかし、これらの高い性能のトレーニング可能なサブネットの発見は高価であり、トレーニングと刈り取りの反復的なプロセスが必要である。
本稿では,ランダム重みを持つ十分に過小評価されたニューラルネットワークは,いくつかのサブネットワーク (勝利チケット) を含み, (a) 学習重みを持つ密集したターゲットネットワークと同等の精度(プライズ1), (b) 賞1(プライズ2), (c) 極端な量子化(バイナリ重みと/またはアクティベーション)に頑健である,という,より強力なマルチプライズ抽選チケット仮説を提案し,実証する。
これは、ランダムに重み付けされた完全精度ニューラルネットワークを量子化することによって、コンパクトで高精度なバイナリニューラルネットワークを学習するための新しいパラダイムを提供する。
また,CIFAR-10 および ImageNet データセットを用いて,マルチプライズチケット (MPT) の探索とテストを行うアルゴリズムを提案する。
実験の結果、モデルがより深く、より広くなるにつれて、多目的チケットは、重量訓練済みの非常に大きくて完全な精度を持つチケットと比較して、同様の(時には高い)テスト精度に到達し始めることが示されている。
重量値を更新することなく、当社のmpts-1/32は、新たなバイナリ重みネットワークであるstate-of-the-art (sota) top-1の精度を、cifar-10では94.8%、imagenetでは74.03%と設定しました。
さらに,我々のMPT-1/1は,CIFAR-10上でのバイナリニューラルネットワークのSOTA Top-1精度(91.9%)を達成する。
コードと事前トレーニングされたモデルは以下の通りである。
関連論文リスト
- WeightMom: Learning Sparse Networks using Iterative Momentum-based
pruning [0.0]
本稿では,前回の繰り返しの運動量に基づいて徐々に重みを刈り取る,重みに基づくプルーニング手法を提案する。
我々は,CIFAR-10やCIFAR-100といった画像分類データセットを用いて,AlexNet,VGG16,ResNet50などのネットワークに対するアプローチを評価する。
論文 参考訳(メタデータ) (2022-08-11T07:13:59Z) - Dual Lottery Ticket Hypothesis [71.95937879869334]
Lottery Ticket hypothesis (LTH)は、スパースネットワークトレーニングを調査し、その能力を維持するための新しい視点を提供する。
本稿では,LTHの当選チケットをトレーニング可能なサブネットワークとして,その性能をベンチマークとして検討する。
本稿では,簡単なスパースネットワークトレーニング戦略であるランダムスパースネットワークトランスフォーメーション(RST)を提案し,DLTHを裏付ける。
論文 参考訳(メタデータ) (2022-03-08T18:06:26Z) - Bit-wise Training of Neural Network Weights [4.56877715768796]
ニューラルネットワークの重みを表す個々のビットを学習するアルゴリズムを導入する。
この方法は任意のビット深度で整数値で重みをトレーニングし、スパースネットワークを自然に発見する。
完全連結ネットワークを用いた標準的なトレーニング手法と,畳み込みネットワークや残留ネットワークの標準トレーニングと同等の性能を示す。
論文 参考訳(メタデータ) (2022-02-19T10:46:54Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Good Students Play Big Lottery Better [84.6111281091602]
宝くじの仮説は、高密度ニューラルネットワークは、元の高密度ネットのテスト精度に一致できる疎サブネットワークを含むことを示唆している。
近年の研究では、巻き戻し技術を用いてスパースサブネットワークが得られることが示されている。
本論文では,KDチケット (Knowledge Distillation Ticket) と呼ばれるサブネットワークを再訓練する手法を提案する。
論文 参考訳(メタデータ) (2021-01-08T23:33:53Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z) - Training highly effective connectivities within neural networks with
randomly initialized, fixed weights [4.56877715768796]
重みの符号を反転させてネットワークを訓練する新しい方法を提案する。
重みが一定等級であっても、高非対称分布から重みが引き出される場合でも良い結果が得られる。
論文 参考訳(メタデータ) (2020-06-30T09:41:18Z) - Proving the Lottery Ticket Hypothesis: Pruning is All You Need [56.25432563818297]
抽選券仮説では、ランダムなdネットワークには、独立した訓練を受けた場合、元のネットワークの性能と競合する小さなサブネットワークが含まれている。
我々は、全ての有界分布と、有界重みを持つ全ての対象ネットワークに対して、ランダム重みを持つ十分に過度にパラメータ化されたニューラルネットワークは、目標ネットワークとほぼ同じ精度のサブネットワークを、それ以上のトレーニングなしに含んでいることを証明し、さらに強い仮説を証明した。
論文 参考訳(メタデータ) (2020-02-03T07:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。