論文の概要: Generalisations and improvements of New Q-Newton's method Backtracking
- arxiv url: http://arxiv.org/abs/2109.11395v1
- Date: Thu, 23 Sep 2021 14:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:44:21.920580
- Title: Generalisations and improvements of New Q-Newton's method Backtracking
- Title(参考訳): 新しいQ-Newton法バックトラックの一般化と改善
- Authors: Tuyen Trung Truong
- Abstract要約: 本稿では,新しいQ-Newtonの手法のバックトラッキングのための一般的なフレームワークを提案する。
例えば、1$ または $e_m(x)$'s は必ずしも $nabla 2f(x)$ の固有ベクトルではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a general framework for the algorithm New
Q-Newton's method Backtracking, developed in the author's previous work. For a
symmetric, square real matrix $A$, we define $minsp(A):=\min _{||e||=1}
||Ae||$. Given a $C^2$ cost function $f:\mathbb{R}^m\rightarrow \mathbb{R}$ and
a real number $0<\tau $, as well as $m+1$ fixed real numbers $\delta _0,\ldots
,\delta _m$, we define for each $x\in \mathbb{R}^m$ with $\nabla f(x)\not= 0$
the following quantities:
$\kappa :=\min _{i\not= j}|\delta _i-\delta _j|$;
$A(x):=\nabla ^2f(x)+\delta ||\nabla f(x)||^{\tau}Id$, where $\delta$ is the
first element in the sequence $\{\delta _0,\ldots ,\delta _m\}$ for which
$minsp(A(x))\geq \kappa ||\nabla f(x)||^{\tau}$;
$e_1(x),\ldots ,e_m(x)$ are an orthonormal basis of $\mathbb{R}^m$, chosen
appropriately;
$w(x)=$ the step direction, given by the formula: $$w(x)=\sum
_{i=1}^m\frac{<\nabla f(x),e_i(x)>}{||A(x)e_i(x)||}e_i(x);$$ (we can also
normalise by $w(x)/\max \{1,||w(x)||\}$ when needed)
$\gamma (x)>0$ learning rate chosen by Backtracking line search so that
Armijo's condition is satisfied: $$f(x-\gamma (x)w(x))-f(x)\leq
-\frac{1}{3}\gamma (x)<\nabla f(x),w(x)>.$$
The update rule for our algorithm is $x\mapsto H(x)=x-\gamma (x)w(x)$.
In New Q-Newton's method Backtracking, the choices are $\tau =1+\alpha >1$
and $e_1(x),\ldots ,e_m(x)$'s are eigenvectors of $\nabla ^2f(x)$. In this
paper, we allow more flexibility and generality, for example $\tau$ can be
chosen to be $<1$ or $e_1(x),\ldots ,e_m(x)$'s are not necessarily eigenvectors
of $\nabla ^2f(x)$.
New Q-Newton's method Backtracking (as well as Backtracking gradient descent)
is a special case, and some versions have flavours of quasi-Newton's methods.
Several versions allow good theoretical guarantees. An application to solving
systems of polynomial equations is given.
- Abstract(参考訳): 本稿では,著者の先行研究で開発された新しいq-newton法バックトラッキングアルゴリズムの汎用フレームワークを提案する。
対称な正方行列 $A$ に対して、$minsp(A):=\min _{||e||=1} ||Ae||$ を定義する。
Given a $C^2$ cost function $f:\mathbb{R}^m\rightarrow \mathbb{R}$ and a real number $0<\tau $, as well as $m+1$ fixed real numbers $\delta _0,\ldots ,\delta _m$, we define for each $x\in \mathbb{R}^m$ with $\nabla f(x)\not= 0$ the following quantities: $\kappa :=\min _{i\not= j}|\delta _i-\delta _j|$; $A(x):=\nabla ^2f(x)+\delta ||\nabla f(x)||^{\tau}Id$, where $\delta$ is the first element in the sequence $\{\delta _0,\ldots ,\delta _m\}$ for which $minsp(A(x))\geq \kappa ||\nabla f(x)||^{\tau}$; $e_1(x),\ldots ,e_m(x)$ are an orthonormal basis of $\mathbb{R}^m$, chosen appropriately; $w(x)=$ the step direction, given by the formula: $$w(x)=\sum _{i=1}^m\frac{<\nabla f(x),e_i(x)>}{||A(x)e_i(x)||}e_i(x);$$ (we can also normalise by $w(x)/\max \{1,||w(x)||\}$ when needed) $\gamma (x)>0$ learning rate chosen by Backtracking line search so that Armijo's condition is satisfied: $$f(x-\gamma (x)w(x))-f(x)\leq -\frac{1}{3}\gamma (x)<\nabla f(x),w(x)>.
$$ 我々のアルゴリズムの更新ルールは$x\mapsto H(x)=x-\gamma (x)w(x)$である。
new q-newton's method backtrackingでは、$\tau =1+\alpha >1$と$e_1(x),\ldots ,e_m(x)$'sは$\nabla ^2f(x)$の固有ベクトルである。
例えば、$\tau$ は $<1$ または $e_1(x),\ldots ,e_m(x)$'s は必ずしも $\nabla ^2f(x)$ の固有ベクトルではない。
新しいQ-ニュートン法(バックトラック勾配降下法)は特別な場合であり、いくつかのバージョンは準ニュートン法の風味を持つ。
いくつかのバージョンでは理論上の保証が良い。
多項式方程式の解系への応用が与えられる。
関連論文リスト
- Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - Distribution-Independent Regression for Generalized Linear Models with
Oblivious Corruptions [49.69852011882769]
一般化線形モデル (GLMs) の重畳雑音の存在下での回帰問題に対する最初のアルゴリズムを示す。
本稿では,この問題に最も一般的な分布非依存設定で対処するアルゴリズムを提案する。
これは、サンプルの半分以上を任意に破損させる難聴ノイズを持つGLMレグレッションに対する最初の新しいアルゴリズムによる結果である。
論文 参考訳(メタデータ) (2023-09-20T21:41:59Z) - An Over-parameterized Exponential Regression [18.57735939471469]
LLM(Large Language Models)の分野での最近の発展は、指数的アクティベーション関数の使用への関心を喚起している。
ニューラル関数 $F: mathbbRd times m times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRd times mathbbRdd
論文 参考訳(メタデータ) (2023-03-29T07:29:07Z) - A Nearly-Optimal Bound for Fast Regression with $\ell_\infty$ Guarantee [16.409210914237086]
行列 $Ain mathbbRntimes d$ とテンソル $bin mathbbRn$ が与えられたとき、 $ell_infty$ の回帰問題を考える。
このような$ell_infty$レグレッションの保証を得るためには、濃密なスケッチ行列を使わなければならない。
我々はまた、OCE(Oblivious Coordinate-wise Embedding)特性を利用した $ell_infty$ guarantee regression のための新しい分析フレームワークを開発した。
論文 参考訳(メタデータ) (2023-02-01T05:22:40Z) - An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815]
既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。
我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文 参考訳(メタデータ) (2022-12-29T19:26:12Z) - Algorithms for Discrepancy, Matchings, and Approximations: Fast, Simple,
and Practical [1.2183405753834562]
有限集合系 $(X,mathcal S)$ が与えられたとき、2色の $chi:Xto-1,1$ は数学的な S|chi(S)|$ において $max_S として定義される。
我々は、任意の$d>0$と$(X,mathcal S)$に対して、二重シャッター関数 $pi*(k)=O(kd)$ のランダム化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-02T15:59:09Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Low-Rank Approximation with $1/\epsilon^{1/3}$ Matrix-Vector Products [58.05771390012827]
我々は、任意のSchatten-$p$ノルムの下で、低ランク近似のためのクリロフ部分空間に基づく反復法について研究する。
我々の主な成果は、$tildeO(k/sqrtepsilon)$ matrix-vector productのみを使用するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-10T16:10:41Z) - On the Self-Penalization Phenomenon in Feature Selection [69.16452769334367]
カーネル群に基づく暗黙の空間性誘導機構について述べる。
アプリケーションとしては、この疎結合誘導機構を使用して、特徴選択に一貫性のあるアルゴリズムを構築します。
論文 参考訳(メタデータ) (2021-10-12T09:36:41Z) - Spiked Covariance Estimation from Modulo-Reduced Measurements [14.569322713960494]
我々は、ほとんどの方向において$bfu$と$nu=mathrmpoly(k)$に対して、$n=mathrmpoly(k)$測定を用いて、高い精度で$bfu$を推定するアルゴリズムを開発し、分析する。
数値実験により,非漸近的条件下でも良好な性能が得られた。
論文 参考訳(メタデータ) (2021-10-04T02:10:47Z) - A fast and simple modification of Newton's method helping to avoid
saddle points [0.0]
この論文は、$f$が$C3$でシーケンス$x_n$であれば、極限点は臨界点であり、サドル点ではなく、収束速度はニュートンの方法と同じである。
論文 参考訳(メタデータ) (2020-06-02T10:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。