論文の概要: An Inexact Augmented Lagrangian Algorithm for Training Leaky ReLU Neural
Network with Group Sparsity
- arxiv url: http://arxiv.org/abs/2205.05428v1
- Date: Wed, 11 May 2022 11:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 21:19:50.194313
- Title: An Inexact Augmented Lagrangian Algorithm for Training Leaky ReLU Neural
Network with Group Sparsity
- Title(参考訳): グループスパルシリティを用いたリーク型reluニューラルネットワークの学習のための拡張ラグランジアンアルゴリズム
- Authors: Wei Liu, Xin Liu, Xiaojun Chen
- Abstract要約: 近年,グループ正規化期間を持つリーク型ReLUネットワークが広く利用されている。
定常点を決定論的に計算する手法が存在しないことを示す。
本稿では,新しいモデルを解くための不正確な拡張ラグランジアンアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 13.27709100571336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The leaky ReLU network with a group sparse regularization term has been
widely used in the recent years. However, training such a network yields a
nonsmooth nonconvex optimization problem and there exists a lack of approaches
to compute a stationary point deterministically. In this paper, we first
resolve the multi-layer composite term in the original optimization problem by
introducing auxiliary variables and additional constraints. We show the new
model has a nonempty and bounded solution set and its feasible set satisfies
the Mangasarian-Fromovitz constraint qualification. Moreover, we show the
relationship between the new model and the original problem. Remarkably, we
propose an inexact augmented Lagrangian algorithm for solving the new model and
show the convergence of the algorithm to a KKT point. Numerical experiments
demonstrate that our algorithm is more efficient for training sparse leaky ReLU
neural networks than some well-known algorithms.
- Abstract(参考訳): グループスパース正規化用語を用いたリーク型reluネットワークは近年広く利用されている。
しかし、そのようなネットワークのトレーニングは非滑らかな非凸最適化問題をもたらし、定常点を決定論的に計算するためのアプローチが欠如している。
本稿では,従来の最適化問題において,補助変数と追加制約を導入することで,まず多層合成項を解く。
新しいモデルは、空でない有界な解集合を持ち、その実現可能な集合は、マンガサリアン・オフショヴィッツ制約条件を満たす。
さらに,新しいモデルと本来の問題との関係を示す。
注目すべきは、新しいモデルを解くための不正確な拡張ラグランジアンアルゴリズムを提案し、アルゴリズムのKKT点への収束を示すことである。
数値実験により,本アルゴリズムは既知のアルゴリズムよりもばらばらなリーク型reluニューラルネットワークの訓練に有効であることが示された。
関連論文リスト
- Fast Convex Optimization for Two-Layer ReLU Networks: Equivalent Model
Classes and Cone Decompositions [41.337814204665364]
ReLUアクティベーション機能を持つ2層ニューラルネットワークの凸最適化アルゴリズムを開発した。
凸ゲート型ReLUモデルでは,ReLUトレーニング問題に対するデータ依存の近似バウンダリが得られることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:50:53Z) - Algorithms for Efficiently Learning Low-Rank Neural Networks [12.916132936159713]
低ランクニューラルネットワークの学習アルゴリズムについて検討する。
単層ReLUネットワークに最適な低ランク近似を学習するアルゴリズムを提案する。
低ランク$textitdeep$ネットワークをトレーニングするための新しい低ランクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-02T01:08:29Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Polygonal Unadjusted Langevin Algorithms: Creating stable and efficient
adaptive algorithms for neural networks [0.0]
本稿では,ニューラルネットワークの適応最適化アルゴリズムの新たなクラスとしてTH$varepsilon$O POULA(あるいは単にTheoPouLa)を提案する。
特に、この新しいクラスのアルゴリズムの収束特性について、漸近解析と完全な理論的保証を提供する。
いくつかの実験で異なる種類のANNが示され、多くの一般的な適応最適化アルゴリズムよりもTheoPouLaの優れた性能を示している。
論文 参考訳(メタデータ) (2021-05-28T15:58:48Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Community detection using fast low-cardinality semidefinite programming [94.4878715085334]
局所的な更新を一般化し、ライデン-k-カットから導かれる半定緩和を最大化する、新しい低カルチナリティアルゴリズムを提案する。
提案アルゴリズムはスケーラビリティが高く,最先端のアルゴリズムより優れ,実時間では性能が向上し,追加コストがほとんどない。
論文 参考訳(メタデータ) (2020-12-04T15:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。