論文の概要: Approximate optimization of MAXCUT with a local spin algorithm
- arxiv url: http://arxiv.org/abs/2008.06054v1
- Date: Thu, 13 Aug 2020 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 09:17:35.206816
- Title: Approximate optimization of MAXCUT with a local spin algorithm
- Title(参考訳): 局所スピンアルゴリズムによるMAXCUTの近似最適化
- Authors: Aniruddha Bapat and Stephen P. Jordan
- Abstract要約: 局所テンソル法は[Hastings,arXiv: 1905.07047v2]で導入された最適化アルゴリズムのクラスである。
MAXCUT問題のインスタンス上でのベンチマーク実験により,実際の性能について検討する。
局所テンソル法による解法は,広く使用されている商用最適化パッケージの解法とは全く関係がない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local tensor methods are a class of optimization algorithms that was
introduced in [Hastings,arXiv:1905.07047v2][1] as a classical analogue of the
quantum approximate optimization algorithm (QAOA). These algorithms treat the
cost function as a Hamiltonian on spin degrees of freedom and simulate the
relaxation of the system to a low energy configuration using local update rules
on the spins. Whereas the emphasis in [1] was on theoretical worst-case
analysis, we here investigate performance in practice through benchmarking
experiments on instances of the MAXCUT problem.Through heuristic arguments we
propose formulas for choosing the hyperparameters of the algorithm which are
found to be in good agreement with the optimal choices determined from
experiment. We observe that the local tensor method is closely related to
gradient descent on a relaxation of maxcut to continuous variables, but
consistently outperforms gradient descent in all instances tested. We find time
to solution achieved by the local tensor method is highly uncorrelated with
that achieved by a widely used commercial optimization package; on some MAXCUT
instances the local tensor method beats the commercial solver in time to
solution by up to two orders of magnitude and vice-versa. Finally, we argue
that the local tensor method closely follows discretized, imaginary-time
dynamics of the system under the problem Hamiltonian.
- Abstract(参考訳): 局所テンソル法は[hastings,arxiv: 1905.07047v2][1]で量子近似最適化アルゴリズム(qaoa)の古典的な類似として導入された最適化アルゴリズムのクラスである。
これらのアルゴリズムは、コスト関数をスピンの自由度に関するハミルトニアンとして扱い、スピンの局所更新規則を用いてシステムの緩和を低エネルギー構成にシミュレートする。
[1] が理論的最悪のケース分析に重点を置いているのに対して,本研究ではMAXCUT 問題の場合のベンチマーク実験を通じて,実験結果から決定される最適選択とよく一致しているアルゴリズムのハイパーパラメータを選択するための公式を提案する。
局所テンソル法は,maxcut を連続変数に緩和する上での勾配降下と密接に関係するが,すべての例で一貫して勾配降下を上回っている。
局所テンソル法によって達成された解の時間は、広く使われる商用最適化パッケージによって達成された解と非常に無関係であり、いくつかのmaxcutインスタンスでは、局所テンソル法は、最大2桁の桁数と逆数で解くまでに、商用の解法よりも優れている。
最後に、局所テンソル法は問題ハミルトニアンの下での系の離散化された虚時力学に密接に従っていると論じる。
関連論文リスト
- Dynamic Anisotropic Smoothing for Noisy Derivative-Free Optimization [0.0]
雑音のない微分自由最適化のための球平滑化法とガウス平滑化法を拡張した新しいアルゴリズムを提案する。
アルゴリズムはスムーズなカーネルの形状を動的に適応させ、局所最適関数の Hessian を近似する。
論文 参考訳(メタデータ) (2024-05-02T21:04:20Z) - PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating Scalable Curvature Estimates [17.777466668123886]
PROMISE ($textbfPr$econditioned $textbfO$ptimization $textbfM$ethods by $textbfI$ncorporating $textbfS$calable Curvature $textbfE$stimates)はスケッチベースの事前条件勾配アルゴリズムである。
PROMISEには、SVRG、SAGA、およびKatyushaのプレコンディション版が含まれている。
論文 参考訳(メタデータ) (2023-09-05T07:49:10Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Convergence Rates of Two-Time-Scale Gradient Descent-Ascent Dynamics for
Solving Nonconvex Min-Max Problems [2.0305676256390934]
連立勾配降下指数アルゴリズムの連続時間変動の有限時間特性を特徴付ける。
連続時間アルゴリズムの挙動に関する結果は、離散時間アルゴリズムの収束特性を高めるために用いられる。
論文 参考訳(メタデータ) (2021-12-17T15:51:04Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。