論文の概要: Cogradient Descent for Bilinear Optimization
- arxiv url: http://arxiv.org/abs/2006.09142v1
- Date: Tue, 16 Jun 2020 13:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:05:28.604093
- Title: Cogradient Descent for Bilinear Optimization
- Title(参考訳): 双線型最適化のための共勾配降下
- Authors: Li'an Zhuo, Baochang Zhang, Linlin Yang, Hanlin Chen, Qixiang Ye,
David Doermann, Guodong Guo, Rongrong Ji
- Abstract要約: 双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
- 参考スコア(独自算出の注目度): 124.45816011848096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional learning methods simplify the bilinear model by regarding two
intrinsically coupled factors independently, which degrades the optimization
procedure. One reason lies in the insufficient training due to the asynchronous
gradient descent, which results in vanishing gradients for the coupled
variables. In this paper, we introduce a Cogradient Descent algorithm (CoGD) to
address the bilinear problem, based on a theoretical framework to coordinate
the gradient of hidden variables via a projection function. We solve one
variable by considering its coupling relationship with the other, leading to a
synchronous gradient descent to facilitate the optimization procedure. Our
algorithm is applied to solve problems with one variable under the sparsity
constraint, which is widely used in the learning paradigm. We validate our CoGD
considering an extensive set of applications including image reconstruction,
inpainting, and network pruning. Experiments show that it improves the
state-of-the-art by a significant margin.
- Abstract(参考訳): 従来の学習方法は,2つの固有結合因子を独立に扱うことで,双線形モデルを単純化する。
一つの理由は、非同期勾配降下によるトレーニング不足であり、結果として結合変数の勾配が消失する。
本稿では,射影関数を介して隠れた変数の勾配を調整するための理論的枠組みに基づいて,双線形問題に対処するコグニエント降下アルゴリズム(cogd)を提案する。
一方の変数は、他方との結合関係を考慮し、同期勾配降下を導き、最適化手順を容易にすることで解決する。
本アルゴリズムは,学習パラダイムにおいて広く用いられている空間的制約の下で,一変数の問題を解くために応用される。
我々は,画像再構成,塗装,ネットワークプルーニングなど幅広い応用を考慮し,CoGDを検証する。
実験の結果、最先端の技術を著しく改善していることがわかった。
関連論文リスト
- Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Implicit regularization in AI meets generalized hardness of
approximation in optimization -- Sharp results for diagonal linear networks [0.0]
直交線形ネットワークの勾配流による暗黙の正規化について, 鋭い結果を示す。
これを近似の一般化硬度における相転移現象と関連付ける。
結果の非シャープ性は、基礎追従最適化問題に対して、GHA現象が起こらないことを意味する。
論文 参考訳(メタデータ) (2023-07-13T13:27:51Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - A conditional gradient homotopy method with applications to Semidefinite
Programming [1.6369790794838281]
ホモトピーに基づく条件勾配法による凸最適化問題の解法。
我々の理論的複雑さは、最先端のSDPに直面すると競合し、安価なプロジェクションフリーの決定的な利点がある。
論文 参考訳(メタデータ) (2022-07-07T05:48:27Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Conditional Gradient Methods for Convex Optimization with General Affine
and Nonlinear Constraints [8.643249539674612]
本稿では,一般アフィンおよび非線形制約を用いた凸最適化問題に対する条件勾配法を提案する。
まず、スムーズかつ構造化された非滑らかな関数制約凸最適化に対して、$cal O (1/epsilon2)$の反復複雑性を達成できる新しい制約外挿条件勾配(CoexCG)法を提案する。
さらに,制約外挿法と二重正規化条件勾配法(CoexDurCG)の新たな変種を開発した。
論文 参考訳(メタデータ) (2020-06-30T23:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。