論文の概要: Provable Convergence of Tensor Decomposition-Based Neural Network
Training
- arxiv url: http://arxiv.org/abs/2303.06815v1
- Date: Mon, 13 Mar 2023 02:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:51:01.934925
- Title: Provable Convergence of Tensor Decomposition-Based Neural Network
Training
- Title(参考訳): テンソル分解に基づくニューラルネットワークトレーニングの確率収束
- Authors: Chenyang Li, Bo Shen
- Abstract要約: 本稿では,テンソル分解に基づくニューラルネットワーク(NN)トレーニングのためのフレームワークを提案する。
O(1/k) における 10 k の大域収束は、k が反復数である Kka Lojasiewicz (Kojasiewicz) の性質で成立する。
- 参考スコア(独自算出の注目度): 8.976378010090817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced tensor decomposition, such as tensor train (TT), has been widely
studied for tensor decomposition-based neural network (NN) training, which is
one of the most common model compression methods. However, training NN with
tensor decomposition always suffers significant accuracy loss and convergence
issues. In this paper, a holistic framework is proposed for tensor
decomposition-based NN training by formulating TT decomposition-based NN
training as a nonconvex optimization problem. This problem can be solved by the
proposed tensor block coordinate descent (tenBCD) method, which is a
gradient-free algorithm. The global convergence of tenBCD to a critical point
at a rate of O(1/k) is established with the Kurdyka {\L}ojasiewicz (K{\L})
property, where k is the number of iterations. The theoretical results can be
extended to the popular residual neural networks (ResNets). The effectiveness
and efficiency of our proposed framework are verified through an image
classification dataset, where our proposed method can converge efficiently in
training and prevent overfitting.
- Abstract(参考訳): テンソル列(tt)のような高度なテンソル分解は、テンソル分解に基づくニューラルネットワーク(nn)トレーニングのために広く研究されてきた。
しかし、テンソル分解を伴うトレーニングNNは、常にかなりの精度の損失と収束の問題に悩まされる。
本稿では,tt分解に基づくnnトレーニングを非凸最適化問題として定式化することにより,テンソル分解に基づくnnトレーニングのための包括的枠組みを提案する。
この問題は、勾配のないアルゴリズムであるテンソルブロック座標降下法(tenBCD)によって解決できる。
10BCDのO(1/k) の臨界点への大域収束は、k を反復数とする Kurdyka {\L}ojasiewicz (K{\L}) 特性によって確立される。
理論結果は、一般的な残留ニューラルネットワーク(ResNets)に拡張することができる。
提案手法の有効性と有効性は,画像分類データセットを用いて検証され,提案手法はトレーニングにおいて効率よく収束し,オーバーフィッティングを防止することができる。
関連論文リスト
- Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Unfolded proximal neural networks for robust image Gaussian denoising [7.018591019975253]
本稿では,二元FBと二元Chambolle-Pockアルゴリズムの両方に基づいて,ガウス分母タスクのためのPNNを統一的に構築するフレームワークを提案する。
また、これらのアルゴリズムの高速化により、関連するNN層におけるスキップ接続が可能であることを示す。
論文 参考訳(メタデータ) (2023-08-06T15:32:16Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Algorithms for Efficiently Learning Low-Rank Neural Networks [12.916132936159713]
低ランクニューラルネットワークの学習アルゴリズムについて検討する。
単層ReLUネットワークに最適な低ランク近似を学習するアルゴリズムを提案する。
低ランク$textitdeep$ネットワークをトレーニングするための新しい低ランクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-02T01:08:29Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。