論文の概要: Efficient and Sparse Neural Networks by Pruning Weights in a
Multiobjective Learning Approach
- arxiv url: http://arxiv.org/abs/2008.13590v1
- Date: Mon, 31 Aug 2020 13:28:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:35:32.530111
- Title: Efficient and Sparse Neural Networks by Pruning Weights in a
Multiobjective Learning Approach
- Title(参考訳): 多目的学習アプローチにおける演算重みによる効率・スパースニューラルネットワーク
- Authors: Malena Reiners and Kathrin Klamroth and Michael Stiglmayr
- Abstract要約: 本稿では、予測精度とネットワーク複雑性を2つの個別目的関数として扱うことにより、ニューラルネットワークのトレーニングに関する多目的視点を提案する。
模範的畳み込みニューラルネットワークの予備的な数値結果から、ニューラルネットワークの複雑性の大幅な低減と精度の低下が可能であることが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overparameterization and overfitting are common concerns when designing and
training deep neural networks, that are often counteracted by pruning and
regularization strategies. However, these strategies remain secondary to most
learning approaches and suffer from time and computational intensive
procedures. We suggest a multiobjective perspective on the training of neural
networks by treating its prediction accuracy and the network complexity as two
individual objective functions in a biobjective optimization problem. As a
showcase example, we use the cross entropy as a measure of the prediction
accuracy while adopting an l1-penalty function to assess the total cost (or
complexity) of the network parameters. The latter is combined with an
intra-training pruning approach that reinforces complexity reduction and
requires only marginal extra computational cost. From the perspective of
multiobjective optimization, this is a truly large-scale optimization problem.
We compare two different optimization paradigms: On the one hand, we adopt a
scalarization-based approach that transforms the biobjective problem into a
series of weighted-sum scalarizations. On the other hand we implement
stochastic multi-gradient descent algorithms that generate a single Pareto
optimal solution without requiring or using preference information. In the
first case, favorable knee solutions are identified by repeated training runs
with adaptively selected scalarization parameters. Preliminary numerical
results on exemplary convolutional neural networks confirm that large
reductions in the complexity of neural networks with neglibile loss of accuracy
are possible.
- Abstract(参考訳): 過剰なパラメータ化と過剰フィッティングは、ディープニューラルネットワークの設計とトレーニングにおいて一般的な懸念である。
しかし、これらの戦略はほとんどの学習手法に準じ、時間と計算集約的な手順に悩まされている。
二目的最適化問題において、予測精度とネットワーク複雑性を2つの目的関数として扱うことにより、ニューラルネットワークのトレーニングに関する多目的視点を提案する。
例として,ネットワークパラメータの総コスト(あるいは複雑性)を評価するために,l1-ペナルティ関数を採用しながら予測精度の指標としてクロスエントロピーを用いる。
後者は、複雑さの低減を強化し、限界余分な計算コストだけを必要とする訓練中のプランニング手法と組み合わせられている。
多目的最適化の観点からは、これは本当に大規模な最適化問題である。
2つの異なる最適化パラダイムを比較する:一方、二目的問題から重み付きサムスカラー化へと変換するスカラー化ベースのアプローチを採用する。
一方,選好情報を必要とせず,単一のパレート最適解を生成する確率的多段階降下アルゴリズムを実装した。
第一に、適応的に選択されたスカラー化パラメータを用いた反復トレーニング実行により、好ましい膝溶液を同定する。
模範的畳み込みニューラルネットワークの予備的な数値計算結果から,ニューラルネットワークの複雑性の低減と精度低下の可能性が確認された。
関連論文リスト
- Self-Supervised Learning of Iterative Solvers for Constrained Optimization [0.0]
制約付き最適化のための学習型反復解法を提案する。
解法を特定のパラメトリック最適化問題にカスタマイズすることで、非常に高速で正確な解を得ることができる。
最適性のKarush-Kuhn-Tucker条件に基づく新しい損失関数を導入し、両ニューラルネットワークの完全な自己教師付きトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-09-12T14:17:23Z) - SequentialAttention++ for Block Sparsification: Differentiable Pruning
Meets Combinatorial Optimization [24.55623897747344]
ニューラルネットワークプルーニングは、大規模で拡張性があり、解釈可能で、一般化可能なモデルを構築するための重要な技術である。
群スパース最適化の非正規化として,既存の微分可能なプルーニング手法がいくつあるかを示す。
我々は、ImageNetとCriteoデータセット上の大規模ニューラルネットワークブロックワイドプルーニングタスクの最先端技術であるSequentialAttention++を提案する。
論文 参考訳(メタデータ) (2024-02-27T21:42:18Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Reducing the Need for Backpropagation and Discovering Better Optima With
Explicit Optimizations of Neural Networks [4.807347156077897]
本稿では,ニューラルネットワークの最適化のための計算効率のよい代替案を提案する。
我々は、単純なフィードフォワード言語モデルに対する明確な解決策を導出する。
実験では,明示的な解がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-11-13T17:38:07Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。