論文の概要: Power Homotopy for Zeroth-Order Non-Convex Optimizations
- arxiv url: http://arxiv.org/abs/2511.13592v1
- Date: Mon, 17 Nov 2025 16:54:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.620999
- Title: Power Homotopy for Zeroth-Order Non-Convex Optimizations
- Title(参考訳): ゼロ階非凸最適化のためのパワーホモトピー
- Authors: Chen Xu,
- Abstract要約: GS-Powerは非次元最適化問題に対する新しいゼロ階法である。
競合するアルゴリズムの上位3位に一貫してランクインしている。
ImageNetの画像に対するブラックボックス攻撃で、少なくとも1位を獲得した。
- 参考スコア(独自算出の注目度): 5.737648067191245
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce GS-PowerHP, a novel zeroth-order method for non-convex optimization problems of the form $\max_{x \in \mathbb{R}^d} f(x)$. Our approach leverages two key components: a power-transformed Gaussian-smoothed surrogate $F_{N,σ}(μ) = \mathbb{E}_{x\sim\mathcal{N}(μ,σ^2 I_d)}[e^{N f(x)}]$ whose stationary points cluster near the global maximizer $x^*$ of $f$ for sufficiently large $N$, and an incrementally decaying $σ$ for enhanced data efficiency. Under mild assumptions, we prove convergence in expectation to a small neighborhood of $x^*$ with the iteration complexity of $O(d^2 \varepsilon^{-2})$. Empirical results show our approach consistently ranks among the top three across a suite of competing algorithms. Its robustness is underscored by the final experiment on a substantially high-dimensional problem ($d=150,528$), where it achieved first place on least-likely targeted black-box attacks against images from ImageNet, surpassing all competing methods.
- Abstract(参考訳): GS-PowerHPは、$\max_{x \in \mathbb{R}^d} f(x)$という形の非凸最適化問題に対する新しいゼロ階法である。
我々のアプローチは、パワー変換されたガウスの滑らかなサロゲート $F_{N,σ}(μ) = \mathbb{E}_{x\sim\mathcal{N}(μ,σ^2 I_d)}[e^{N f(x)}]$ の2つの主要な成分を利用する。
穏やかな仮定の下では、$x^*$の小さな近傍に$O(d^2 \varepsilon^{-2})$の反復複雑性で収束することが証明される。
実証的な結果から、我々のアプローチは競合するアルゴリズムの上位3つに一貫してランク付けされている。
その堅牢性は、ほぼ高次元の問題(d=150,528$)に関する最終実験(d=150,528$)によって強調されている。
関連論文リスト
- Global Optimization with A Power-Transformed Objective and Gaussian Smoothing [4.275224221939364]
我々の手法は、$f$の大域的最適点の$delta$-neighborhoodの解に収束することを示す。
収束率は$O(d2sigma4varepsilon-2)$であり、標準および単一ループホモトピー法よりも高速である。
論文 参考訳(メタデータ) (2024-12-06T17:33:43Z) - Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization [77.3396841985172]
我々は、構造化された非極小最適化問題の解法として、2時間勾配上昇(TTGDA)を統一的に解析する。
我々の貢献はTTGDAアルゴリズムを設計することであり、設定を超えて効果的です。
論文 参考訳(メタデータ) (2024-08-21T20:14:54Z) - Oblivious Stochastic Composite Optimization [47.48197617884748]
我々のアルゴリズムは問題のパラメータに関する事前の知識なしで収束することを示す。
3つのアルゴリズムは全て、実現可能な集合の直径、リプシッツ定数、あるいは目的関数の滑らかさについて事前の知識なしに機能する。
我々は,フレームワークを比較的大規模に拡張し,大規模半確定プログラム上での手法の効率性と堅牢性を実証する。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Randomized Block-Coordinate Optimistic Gradient Algorithms for Root-Finding Problems [11.15373699918747]
大規模設定における非線形方程式の解を近似する2つの新しいアルゴリズムを開発した。
本稿では,機械学習,統計的学習,ネットワーク最適化などにおける顕著な応用を網羅した大規模有限サム包含のクラスに適用する。
論文 参考訳(メタデータ) (2023-01-08T21:46:27Z) - On the Complexity of Decentralized Smooth Nonconvex Finite-Sum Optimization [21.334985032433778]
分散最適化問題 $min_bf xinmathbb Rd f(bf x)triq frac1msum_i=1m f_i(bf x)triq frac1nsum_j=1n。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Second-Order Information in Non-Convex Stochastic Optimization: Power
and Limitations [54.42518331209581]
私たちは発見するアルゴリズムを見つけます。
epsilon$-approximate stationary point ($|nabla F(x)|le epsilon$) using
$(epsilon,gamma)$surimateランダムランダムポイント。
ここでの私たちの下限は、ノイズのないケースでも新規です。
論文 参考訳(メタデータ) (2020-06-24T04:41:43Z) - Maximizing Determinants under Matroid Constraints [69.25768526213689]
我々は、$det(sum_i in Sv_i v_i v_itop)$が最大になるような基底を$S$$$$M$とする問題を研究する。
この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。
論文 参考訳(メタデータ) (2020-04-16T19:16:38Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。