論文の概要: LOFT: Finding Lottery Tickets through Filter-wise Training
- arxiv url: http://arxiv.org/abs/2210.16169v1
- Date: Fri, 28 Oct 2022 14:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:57:59.889154
- Title: LOFT: Finding Lottery Tickets through Filter-wise Training
- Title(参考訳): LOFT:フィルターワイドトレーニングによる宝くじの発見
- Authors: Qihan Wang, Chen Dun, Fangshuo Liao, Chris Jermaine, Anastasios
Kyrillidis
- Abstract要約: 本稿では,このようなチケットの出現を効果的に識別し,この観測結果を用いて,効率的な事前学習アルゴリズムの設計を行う方法を示す。
We present the emphLOttery ticket through filter-wise Training algorithm, called textscLoFT。
textscLoFT $i)$は保存され、良い宝くじを見つける。
- 参考スコア(独自算出の注目度): 15.06694204377327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on the Lottery Ticket Hypothesis (LTH) shows that there exist
``\textit{winning tickets}'' in large neural networks. These tickets represent
``sparse'' versions of the full model that can be trained independently to
achieve comparable accuracy with respect to the full model. However, finding
the winning tickets requires one to \emph{pretrain} the large model for at
least a number of epochs, which can be a burdensome task, especially when the
original neural network gets larger.
In this paper, we explore how one can efficiently identify the emergence of
such winning tickets, and use this observation to design efficient pretraining
algorithms. For clarity of exposition, our focus is on convolutional neural
networks (CNNs). To identify good filters, we propose a novel filter distance
metric that well-represents the model convergence. As our theory dictates, our
filter analysis behaves consistently with recent findings of neural network
learning dynamics. Motivated by these observations, we present the
\emph{LOttery ticket through Filter-wise Training} algorithm, dubbed as
\textsc{LoFT}. \textsc{LoFT} is a model-parallel pretraining algorithm that
partitions convolutional layers by filters to train them independently in a
distributed setting, resulting in reduced memory and communication costs during
pretraining. Experiments show that \textsc{LoFT} $i)$ preserves and finds good
lottery tickets, while $ii)$ it achieves non-trivial computation and
communication savings, and maintains comparable or even better accuracy than
other pretraining methods.
- Abstract(参考訳): Lottery Ticket hypothesis (LTH) に関する最近の研究は、大規模ニューラルネットワークには ``\textit{winning ticket}' が存在することを示している。
これらのチケットはフルモデルの ``sparse'' バージョンを表しており、フルモデルに対して同等の精度を達成するために独立してトレーニングすることができる。
しかし、入賞チケットを見つけるには、少なくともいくつかのエポックに対して、大きめのモデルを1つ \emph{pretrain} する必要がある。
本稿では,入賞チケットの出現を効率的に識別する方法について検討し,この観察を用いて効率的な事前学習アルゴリズムを設計する。
エクスポジションを明確にするために、我々の焦点は畳み込みニューラルネットワーク(CNN)である。
良質なフィルタを特定するために,モデル収束をよく表現する新しいフィルタ距離メトリックを提案する。
我々の理論が示すように、フィルタ解析はニューラルネットワークの学習ダイナミクスの最近の発見と一貫して振る舞う。
これらの観測により,フィルタワイドトレーニングによる‘emph{LOttery ticket’(‘textsc{LoFT}’)を提案する。
\textsc{loft} は、畳み込み層をフィルタで分割して分散設定で独立にトレーニングするモデル並列プリトレーニングアルゴリズムで、プリトレーニング時のメモリと通信コストが削減される。
実験によると、 \textsc{loft} $i)$は良い宝くじを保存し発見し、$ii)$は自明な計算と通信の節約を実現し、他の事前学習方法と同等またはそれ以上の精度を維持する。
関連論文リスト
- Finding Lottery Tickets in Vision Models via Data-driven Spectral Foresight Pruning [14.792099973449794]
本稿では,スパースネットワークのトレーニングダイナミクスと高密度ネットワークのトレーニングダイナミクスを一致させるアルゴリズムを提案する。
NTKスペクトルにおける通常無視されるデータ依存成分がどのように考慮されるかを示す。
パスeXclusion(PX)は、高頻度でも宝くじを見つけることができる。
論文 参考訳(メタデータ) (2024-06-03T22:19:42Z) - No Free Prune: Information-Theoretic Barriers to Pruning at Initialization [8.125999058340998]
arXiv:2105.12806のロバスト性法則を,通常のパラメータカウントを$p_texteff$に置き換えたスパースネットワークに拡張する。
ニューラルネットワークの実験では、トレーニング中に得られた情報がモデル能力に影響を与える可能性があることが確認されている。
論文 参考訳(メタデータ) (2024-02-02T01:13:16Z) - Dual Lottery Ticket Hypothesis [71.95937879869334]
Lottery Ticket hypothesis (LTH)は、スパースネットワークトレーニングを調査し、その能力を維持するための新しい視点を提供する。
本稿では,LTHの当選チケットをトレーニング可能なサブネットワークとして,その性能をベンチマークとして検討する。
本稿では,簡単なスパースネットワークトレーニング戦略であるランダムスパースネットワークトランスフォーメーション(RST)を提案し,DLTHを裏付ける。
論文 参考訳(メタデータ) (2022-03-08T18:06:26Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - FreeTickets: Accurate, Robust and Efficient Deep Ensemble by Training
with Dynamic Sparsity [74.58777701536668]
我々は、疎い畳み込みニューラルネットワークの性能を、ネットワークの高密度な部分よりも大きなマージンで向上させることができるFreeTicketsの概念を紹介した。
本研究では, ダイナミックな間隔を持つ2つの新しい効率的なアンサンブル手法を提案し, スパーストレーニング過程において, 多数の多様かつ正確なチケットを「無償」で撮影する。
論文 参考訳(メタデータ) (2021-06-28T10:48:20Z) - The Elastic Lottery Ticket Hypothesis [106.79387235014379]
Lottery Ticket Hypothesisは、スパーストレーニング可能なワークスや優勝チケットの識別に注意を向けています。
そのような勝利チケットを識別する最も効果的な方法は、まだ反復マグニチュードベースのPruningです。
我々は,同じモデルファミリーの異なるネットワークから得られる当選チケットを微調整する様々な戦略を提案する。
論文 参考訳(メタデータ) (2021-03-30T17:53:45Z) - Lottery Ticket Implies Accuracy Degradation, Is It a Desirable
Phenomenon? [43.47794674403988]
ディープモデル圧縮では、最近の発見 "Lottery Ticket Hypothesis" (LTH) (Frankle & Carbin) は、勝利チケットが存在する可能性があることを指摘しました。
勝利特性の背後にある基礎的条件と理論的根拠を調査し,その基礎的理由が重みと最終訓練重みの相関関係に大きく関係していることを見いだした。
宝くじのスパーストレーニングを一貫して上回る"pruning & fine-tuning"方式を提案します。
論文 参考訳(メタデータ) (2021-02-19T14:49:46Z) - Good Students Play Big Lottery Better [84.6111281091602]
宝くじの仮説は、高密度ニューラルネットワークは、元の高密度ネットのテスト精度に一致できる疎サブネットワークを含むことを示唆している。
近年の研究では、巻き戻し技術を用いてスパースサブネットワークが得られることが示されている。
本論文では,KDチケット (Knowledge Distillation Ticket) と呼ばれるサブネットワークを再訓練する手法を提案する。
論文 参考訳(メタデータ) (2021-01-08T23:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。