論文の概要: A Swarm Variant for the Schr\"odinger Solver
- arxiv url: http://arxiv.org/abs/2104.04795v1
- Date: Sat, 10 Apr 2021 15:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 09:43:03.089489
- Title: A Swarm Variant for the Schr\"odinger Solver
- Title(参考訳): Swarm Variant for the Schr\odinger Solver
- Authors: Urvil Nileshbhai Jivani, Omatharv Bharat Vaidya, Anwesh Bhattacharya,
Snehanshu Saha
- Abstract要約: 本稿では, ニューラルネットワークの微分自由導関数として, Exponentially Averaged Momentum Particle Swarm Optimization (EM-PSO) を適用する。
PSOの主な利点は、探索空間探索や、アダムのような勾配の輝きに比べて、局所的なミニマによる強靭性である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces application of the Exponentially Averaged Momentum
Particle Swarm Optimization (EM-PSO) as a derivative-free optimizer for Neural
Networks. It adopts PSO's major advantages such as search space exploration and
higher robustness to local minima compared to gradient-descent optimizers such
as Adam. Neural network based solvers endowed with gradient optimization are
now being used to approximate solutions to Differential Equations. Here, we
demonstrate the novelty of EM-PSO in approximating gradients and leveraging the
property in solving the Schr\"odinger equation, for the Particle-in-a-Box
problem. We also provide the optimal set of hyper-parameters supported by
mathematical proofs, suited for our algorithm.
- Abstract(参考訳): 本稿では, ニューラルネットワークの微分自由最適化手法として, Exponentially Averaged Momentum Particle Swarm Optimization (EM-PSO) を提案する。
探索空間探索や局所最小値に対するロバスト性などのPSOの大きな利点をアダムのような勾配勾配のオプティマイザと比較すると採用している。
勾配最適化を備えたニューラルネットワークベースの解法が微分方程式の解の近似に使われている。
本稿では, 勾配近似におけるem-psoの新規性を示し, 粒子-箱問題に対するschr\"odinger方程式の解法としての性質を活用する。
また,アルゴリズムに適した数学的証明によって支援される最適パラメータセットも提供する。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - A Simulation-Free Deep Learning Approach to Stochastic Optimal Control [12.699529713351287]
最適制御(SOC)における一般問題の解法のためのシミュレーションフリーアルゴリズムを提案する。
既存の手法とは異なり、我々の手法は随伴問題の解を必要としない。
論文 参考訳(メタデータ) (2024-10-07T16:16:53Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Dynamic Anisotropic Smoothing for Noisy Derivative-Free Optimization [0.0]
雑音のない微分自由最適化のための球平滑化法とガウス平滑化法を拡張した新しいアルゴリズムを提案する。
アルゴリズムはスムーズなカーネルの形状を動的に適応させ、局所最適関数の Hessian を近似する。
論文 参考訳(メタデータ) (2024-05-02T21:04:20Z) - SDEs for Minimax Optimization [11.290653315174382]
本稿では,微分方程式(SDE)を用いてミニマックス収束の解析と比較を行う。
グラディエント・ディキセント、エクストラグラディエント、ハミルトニアン・ディキセントのSDEモデルはアルゴリズムの近似である。
この観点はまた、伊藤計算の原理に基づく統一的で単純化された分析戦略を可能にする。
論文 参考訳(メタデータ) (2024-02-19T20:18:29Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - AdaSwarm: Augmenting Gradient-Based optimizers in Deep Learning with
Swarm Intelligence [19.573380763700715]
本稿では,Adawarmがニューラルネットワークで採用しているAdawarmと同等あるいはそれ以上の性能を持つ,勾配のない数学的数学であるAdaSを紹介する。
本研究では, EMPSOのパラメータを用いて, 微分可能か否かに関わらず, 任意の関数の勾配を近似できることを示す。
また、AdaSは、最大絶対誤差(MAE)を含む、バックプロパゲーション中に様々な損失証明を処理可能であることを示す。
論文 参考訳(メタデータ) (2020-05-19T19:17:38Z) - Cross Entropy Hyperparameter Optimization for Constrained Problem
Hamiltonians Applied to QAOA [68.11912614360878]
QAOA(Quantum Approximate Optimization Algorithm)のようなハイブリッド量子古典アルゴリズムは、短期量子コンピュータを実用的に活用するための最も奨励的なアプローチの1つである。
このようなアルゴリズムは通常変分形式で実装され、古典的な最適化法と量子機械を組み合わせて最適化問題の優れた解を求める。
本研究では,クロスエントロピー法を用いてランドスケープを形作り,古典的パラメータがより容易により良いパラメータを発見でき,その結果,性能が向上することを示す。
論文 参考訳(メタデータ) (2020-03-11T13:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。