論文の概要: Controlled Sparsity via Constrained Optimization or: How I Learned to
Stop Tuning Penalties and Love Constraints
- arxiv url: http://arxiv.org/abs/2208.04425v1
- Date: Mon, 8 Aug 2022 21:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:50:23.071112
- Title: Controlled Sparsity via Constrained Optimization or: How I Learned to
Stop Tuning Penalties and Love Constraints
- Title(参考訳): 制約付き最適化によるスパーシティの制御:ペナルティのチューニングと愛の制約を止める方法
- Authors: Jose Gallego-Posada and Juan Ramirez and Akram Erraqabi and Yoshua
Bengio and Simon Lacoste-Julien
- Abstract要約: スパースラーニングを行う際には,スパーシティのレベルを制御するタスクに焦点をあてる。
スパーシリティを誘発する罰則に基づく既存の方法は、ペナルティファクターの高価な試行錯誤チューニングを含む。
本稿では,学習目標と所望のスパーシリティ目標によって,エンドツーエンドでスペーシフィケーションをガイドする制約付き定式化を提案する。
- 参考スコア(独自算出の注目度): 81.46143788046892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of trained neural networks is robust to harsh levels of
pruning. Coupled with the ever-growing size of deep learning models, this
observation has motivated extensive research on learning sparse models. In this
work, we focus on the task of controlling the level of sparsity when performing
sparse learning. Existing methods based on sparsity-inducing penalties involve
expensive trial-and-error tuning of the penalty factor, thus lacking direct
control of the resulting model sparsity. In response, we adopt a constrained
formulation: using the gate mechanism proposed by Louizos et al. (2018), we
formulate a constrained optimization problem where sparsification is guided by
the training objective and the desired sparsity target in an end-to-end
fashion. Experiments on CIFAR-10/100, TinyImageNet, and ImageNet using
WideResNet and ResNet{18, 50} models validate the effectiveness of our proposal
and demonstrate that we can reliably achieve pre-determined sparsity targets
without compromising on predictive performance.
- Abstract(参考訳): トレーニングされたニューラルネットワークのパフォーマンスは、厳しいレベルの刈り取りに対して堅牢である。
この観察は、深層学習モデルの拡大と共に、スパースモデルの学習に関する広範な研究の動機となった。
本研究では,スパース学習を行う際のスパース性のレベルを制御するタスクに注目した。
ペナルティ誘導法に基づく既存の手法では、ペナルティ係数の試行錯誤チューニングが高価であり、結果として生じるモデルのペナルティを直接制御できない。
そこで,louizos et al. (2018) が提案したゲート機構を用いて,訓練目標と希望するスパーシティー目標によりスパーシフィケーションが導かれる制約付き最適化問題をエンドツーエンドで定式化する。
wideesnetとresnet{18,50}モデルを用いたcifar-10/100、tinyimagenet、imagenetの実験により、提案の有効性が検証され、予測性能を損なうことなく、事前決定されたスパーシティ目標を確実に達成できることが示されている。
関連論文リスト
- Pushing the Limits of Sparsity: A Bag of Tricks for Extreme Pruning [4.421875265386832]
ディープニューラルネットワークのプルーニングは、高密度ネットワークの性能の大部分を保ちながら、モデルサイズの削減に有効な手法である。
最近のスパース学習法では、95%や98%といった中等度の疎度レベルまで有望な性能を示している。
極端に間隔があっても精度が崩れることなくネットワークの連続的な学習を可能にする手法の集合を提案する。
論文 参考訳(メタデータ) (2024-11-20T18:54:53Z) - Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Dynamic Sparse Training via Balancing the Exploration-Exploitation
Trade-off [19.230329532065635]
スパーストレーニングは、モデルサイズを減らすことで、トレーニングコストを大幅に削減する可能性がある。
既存のスパーストレーニング方法は、主にランダムベースまたはグリーディベースのドロップ・アンド・グロー戦略を使用する。
本研究では,動的スパース学習をスパース接続探索問題として考察する。
実験の結果,提案手法により得られたスパースモデル(最大98%のスパース)は,SOTAスパース訓練法より優れていた。
論文 参考訳(メタデータ) (2022-11-30T01:22:25Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - DisCo: Remedy Self-supervised Learning on Lightweight Models with
Distilled Contrastive Learning [94.89221799550593]
SSL(Self-supervised representation Learning)はコミュニティから広く注目を集めている。
最近の研究では、モデルサイズが小さくなれば、その性能は低下すると主張している。
単純かつ効果的な蒸留コントラスト学習(DisCo)を提案し、問題を大きなマージンで緩和します。
論文 参考訳(メタデータ) (2021-04-19T08:22:52Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。