論文の概要: Backtracking New Q-Newton's method, Newton's flow, Voronoi's diagram and
Stochastic root finding
- arxiv url: http://arxiv.org/abs/2401.01393v2
- Date: Mon, 8 Jan 2024 08:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:24:51.039938
- Title: Backtracking New Q-Newton's method, Newton's flow, Voronoi's diagram and
Stochastic root finding
- Title(参考訳): 新しいQ-ニュートン法,ニュートン流,ボロノイ図,確率的根発見のバックトラック
- Authors: John Erik Fornaess, Mi Hu, Tuyen Trung Truong, Takayuki Watanabe
- Abstract要約: ニュートン法の新しい変種 - Backtracking New Q-Newton's method (BNQN) は強力な理論的保証を持ち、実装が容易であり、優れた実験性能を有する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A new variant of Newton's method - named Backtracking New Q-Newton's method
(BNQN) - which has strong theoretical guarantee, is easy to implement, and has
good experimental performance, was recently introduced by the third author.
Experiments performed previously showed some remarkable properties of the
basins of attractions for finding roots of polynomials and meromorphic
functions, with BNQN. In general, they look more smooth than that of Newton's
method.
In this paper, we continue to experimentally explore in depth this remarkable
phenomenon, and connect BNQN to Newton's flow and Voronoi's diagram. This link
poses a couple of challenging puzzles to be explained. Experiments also
indicate that BNQN is more robust against random perturbations than Newton's
method and Random Relaxed Newton's method.
- Abstract(参考訳): new q-newton's method (bnqn) と呼ばれるニュートン法の新しい変種は、強力な理論的保証を持ち、実装が容易であり、実験性能も良いが、最近3人目の著者によって紹介された。
以前に行われた実験では、BNQN を用いて多項式やメロモルフィック関数の根を見つけるアトラクションの盆地のいくつかの顕著な特性を示した。
一般に、それらはニュートンの方法よりも滑らかに見えます。
本稿では、この顕著な現象を実験的に探求し、BNQNをニュートンの流れとボロノイ図に接続する。
このリンクは、説明すべきいくつかの難しいパズルを表している。
実験により、BNQNはニュートン法やランダム緩和ニュートン法よりもランダム摂動に対して強いことが示されている。
関連論文リスト
- Augmented Newton Method for Optimization: Global Linear Rate and
Momentum Interpretation [0.0]
制約のない問題を解くために,ニュートン法の2つの変種を提案する。
我々は、Penalty Newton法とAugmented Newton法という、ニュートン法の新しい変種を生成する。
論文 参考訳(メタデータ) (2022-05-23T04:34:10Z) - Learning Neural Hamiltonian Dynamics: A Methodological Overview [109.40968389896639]
Hamiltonian dynamicsは、ニューラルネットワークに正確な長期予測、解釈可能性、データ効率の学習を与える。
我々は最近提案したハミルトンニューラルネットワークモデルについて、特に方法論に焦点を当てて体系的に調査した。
論文 参考訳(メタデータ) (2022-02-28T22:54:39Z) - Inertial Newton Algorithms Avoiding Strict Saddle Points [0.7614628596146602]
ニュートン法と慣性勾配勾配を混合した二階アルゴリズムの挙動について検討した。
これらの手法のニュートン的振る舞いは、ほとんど常に厳密な点から逃れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T16:02:45Z) - Free Probability, Newton lilypads and Jacobians of neural networks [0.0]
我々は、関連するスペクトル密度を計算するための信頼性が高く、非常に高速な方法を提案する。
提案手法は,アトラクションの流域の発見と連鎖により,適応的なニュートン・ラフソン計画に基づく。
論文 参考訳(メタデータ) (2021-11-01T11:22:42Z) - New Q-Newton's method meets Backtracking line search: good convergence
guarantee, saddle points avoidance, quadratic rate of convergence, and easy
implementation [0.0]
ニュートン法 (Newton's method) は「ニュー・Q・ニュートン法 (New Q-Newton's method)」と名付けられ、サドル点を回避でき、2次収束率を持つ。
小さなスケールでの実験では、この手法は他のニュートンの方法のよく知られた修正と非常に競争的に機能することを示した。
論文 参考訳(メタデータ) (2021-08-23T15:39:00Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z) - Machine-Learning Non-Conservative Dynamics for New-Physics Detection [69.45430691069974]
未知の力によって支配される軌道を考えると、ニューラル・ニュー物理検出器(NNPhD)は新しい物理を検出することを目的としています。
我々はNNPhDが、力場を保守的かつ非保守的成分に分解することで、新しい物理学の発見に成功したことを実証する。
また,NNPhDと積分器の結合が,減衰二重振り子の将来を予測する従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-31T18:00:10Z) - Learning Unknown Physics of non-Newtonian Fluids [56.9557910899739]
我々は,2つの非ニュートン系の粘度モデルを学ぶために,物理インフォームドニューラルネットワーク(PINN)法を拡張した。
PINNで推論された粘度モデルは、絶対値が大きいが、せん断速度が0に近い場合の実験的モデルと一致する。
PINN法を用いて,境界条件のみを用いて非ニュートン流体の運動量保存方程式を解く。
論文 参考訳(メタデータ) (2020-08-26T20:41:36Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Information Newton's flow: second-order optimization method in
probability space [10.340665633567083]
確率空間におけるニュートンのフローのフレームワークについて,情報メトリクス,名前付き情報,ニュートンのフローについて紹介する。
既知の事実は、過剰なランゲヴィンの力学がクルバック・リーバーの発散のワッサーシュタイン勾配流に対応することである。
一次元空間とガウス族の両方におけるニュートンのランゲヴィン力学の例を示す。
論文 参考訳(メタデータ) (2020-01-13T15:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。