論文の概要: A Swarm Variant for the Schr\"odinger Solver
- arxiv url: http://arxiv.org/abs/2104.04795v1
- Date: Sat, 10 Apr 2021 15:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 09:43:03.089489
- Title: A Swarm Variant for the Schr\"odinger Solver
- Title(参考訳): Swarm Variant for the Schr\odinger Solver
- Authors: Urvil Nileshbhai Jivani, Omatharv Bharat Vaidya, Anwesh Bhattacharya,
Snehanshu Saha
- Abstract要約: 本稿では, ニューラルネットワークの微分自由導関数として, Exponentially Averaged Momentum Particle Swarm Optimization (EM-PSO) を適用する。
PSOの主な利点は、探索空間探索や、アダムのような勾配の輝きに比べて、局所的なミニマによる強靭性である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces application of the Exponentially Averaged Momentum
Particle Swarm Optimization (EM-PSO) as a derivative-free optimizer for Neural
Networks. It adopts PSO's major advantages such as search space exploration and
higher robustness to local minima compared to gradient-descent optimizers such
as Adam. Neural network based solvers endowed with gradient optimization are
now being used to approximate solutions to Differential Equations. Here, we
demonstrate the novelty of EM-PSO in approximating gradients and leveraging the
property in solving the Schr\"odinger equation, for the Particle-in-a-Box
problem. We also provide the optimal set of hyper-parameters supported by
mathematical proofs, suited for our algorithm.
- Abstract(参考訳): 本稿では, ニューラルネットワークの微分自由最適化手法として, Exponentially Averaged Momentum Particle Swarm Optimization (EM-PSO) を提案する。
探索空間探索や局所最小値に対するロバスト性などのPSOの大きな利点をアダムのような勾配勾配のオプティマイザと比較すると採用している。
勾配最適化を備えたニューラルネットワークベースの解法が微分方程式の解の近似に使われている。
本稿では, 勾配近似におけるem-psoの新規性を示し, 粒子-箱問題に対するschr\"odinger方程式の解法としての性質を活用する。
また,アルゴリズムに適した数学的証明によって支援される最適パラメータセットも提供する。
関連論文リスト
- SDEs for Minimax Optimization [11.290653315174382]
本稿では,微分方程式(SDE)を用いてミニマックス収束の解析と比較を行う。
グラディエント・ディキセント、エクストラグラディエント、ハミルトニアン・ディキセントのSDEモデルはアルゴリズムの近似である。
この観点はまた、伊藤計算の原理に基づく統一的で単純化された分析戦略を可能にする。
論文 参考訳(メタデータ) (2024-02-19T20:18:29Z) - Momentum Particle Maximum Likelihood [2.6831773062745863]
パラメータと確率分布の拡張空間上の自由エネルギー関数を最小化するための類似システムに基づくアプローチを提案する。
適切な仮定の下では、提案された系を連続時間における一意的な一意の最小化器に定量的に収束させる。
そこで本研究では,潜在変数モデルにおけるパラメータ推定に適用可能な数値的な離散化を提案する。
論文 参考訳(メタデータ) (2023-12-12T14:53:18Z) - Reweighted Interacting Langevin Diffusions: an Accelerated Sampling
Methodfor Optimization [28.25662317591378]
本稿では, サンプリング手法を高速化し, 難解な最適化問題の解法を提案する。
提案手法は, 後部分布サンプリングとLangevin Dynamicsを用いた最適化の関連性について検討する。
論文 参考訳(メタデータ) (2023-01-30T03:48:20Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Machine Learning For Elliptic PDEs: Fast Rate Generalization Bound,
Neural Scaling Law and Minimax Optimality [11.508011337440646]
楕円偏微分方程式(PDE)をランダムサンプルから解くための深層学習手法の統計的限界について検討する。
この問題を単純化するために、ディリクレ境界条件がゼロのハイパーキューブ上のシュル・オーディンガー方程式(英語版)という楕円型PDEのプロトタイプに焦点をあてる。
両手法の上限値と下限値を確立し,この問題に対して同時に開発された上限値を改善する。
論文 参考訳(メタデータ) (2021-10-13T17:26:31Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - AdaSwarm: Augmenting Gradient-Based optimizers in Deep Learning with
Swarm Intelligence [19.573380763700715]
本稿では,Adawarmがニューラルネットワークで採用しているAdawarmと同等あるいはそれ以上の性能を持つ,勾配のない数学的数学であるAdaSを紹介する。
本研究では, EMPSOのパラメータを用いて, 微分可能か否かに関わらず, 任意の関数の勾配を近似できることを示す。
また、AdaSは、最大絶対誤差(MAE)を含む、バックプロパゲーション中に様々な損失証明を処理可能であることを示す。
論文 参考訳(メタデータ) (2020-05-19T19:17:38Z) - Cross Entropy Hyperparameter Optimization for Constrained Problem
Hamiltonians Applied to QAOA [68.11912614360878]
QAOA(Quantum Approximate Optimization Algorithm)のようなハイブリッド量子古典アルゴリズムは、短期量子コンピュータを実用的に活用するための最も奨励的なアプローチの1つである。
このようなアルゴリズムは通常変分形式で実装され、古典的な最適化法と量子機械を組み合わせて最適化問題の優れた解を求める。
本研究では,クロスエントロピー法を用いてランドスケープを形作り,古典的パラメータがより容易により良いパラメータを発見でき,その結果,性能が向上することを示す。
論文 参考訳(メタデータ) (2020-03-11T13:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。