論文の概要: Softmax is $1/2$-Lipschitz: A tight bound across all $\ell_p$ norms
- arxiv url: http://arxiv.org/abs/2510.23012v1
- Date: Mon, 27 Oct 2025 05:16:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.458261
- Title: Softmax is $1/2$-Lipschitz: A tight bound across all $\ell_p$ norms
- Title(参考訳): Softmaxは1/2$-Lipschitz:すべての$\ell_p$ノルムの厳密な境界
- Authors: Pravin Nair,
- Abstract要約: 我々は、ソフトマックス関数がリプシッツ定数1/2$と縮約可能であることを証明した。
我々の知る限り、これはソフトマックスリプシッツ連続性の包括的ノルム・ユニフォーム解析である。
- 参考スコア(独自算出の注目度): 5.600982367387832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The softmax function is a basic operator in machine learning and optimization, used in classification, attention mechanisms, reinforcement learning, game theory, and problems involving log-sum-exp terms. Existing robustness guarantees of learning models and convergence analysis of optimization algorithms typically consider the softmax operator to have a Lipschitz constant of $1$ with respect to the $\ell_2$ norm. In this work, we prove that the softmax function is contractive with the Lipschitz constant $1/2$, uniformly across all $\ell_p$ norms with $p \ge 1$. We also show that the local Lipschitz constant of softmax attains $1/2$ for $p = 1$ and $p = \infty$, and for $p \in (1,\infty)$, the constant remains strictly below $1/2$ and the supremum $1/2$ is achieved only in the limit. To our knowledge, this is the first comprehensive norm-uniform analysis of softmax Lipschitz continuity. We demonstrate how the sharper constant directly improves a range of existing theoretical results on robustness and convergence. We further validate the sharpness of the $1/2$ Lipschitz constant of the softmax operator through empirical studies on attention-based architectures (ViT, GPT-2, Qwen3-8B) and on stochastic policies in reinforcement learning.
- Abstract(参考訳): ソフトマックス関数は機械学習と最適化の基本的な演算子であり、分類、注意機構、強化学習、ゲーム理論、対数-sum-exp項を含む問題に使用される。
既存の学習モデルのロバスト性保証と最適化アルゴリズムの収束解析は、通常、ソフトマックス作用素が$\ell_2$ノルムに対して1ドルのリプシッツ定数を持つとみなす。
この研究において、ソフトマックス函数はリプシッツ定数1/2$で、$p \ge 1$のすべての$\ell_p$ノルムに対して一様であることを示す。
また、ソフトマックスの局所リプシッツ定数は$p = 1$と$p = \infty$に対して1/2$に達し、$p \in (1,\infty)$の場合、その定数は厳密に1/2$未満であり、上限で1/2$が達成される。
我々の知る限り、これはソフトマックスリプシッツ連続性の包括的ノルム・ユニフォーム解析である。
よりシャープな定数は、ロバスト性および収束性に関する既存の理論結果の範囲を直接的に改善することを示す。
さらに、注意に基づくアーキテクチャ(ViT, GPT-2, Qwen3-8B)と強化学習における確率的ポリシに関する実証的研究を通じて、ソフトマックス演算子の1/2$リプシッツ定数のシャープさを検証した。
関連論文リスト
- Revisiting Inexact Fixed-Point Iterations for Min-Max Problems: Stochasticity and Structured Nonconvexity [18.427215139020632]
1L 1$は、マルチレベルなCarloイテレーションであっても、最先端の問題を改善するために使用できることを示す。
解に関する唯一のホールドが新しい1L 1$理論である場合、不正確なハルパーネス推定器を1L 1$で解析する。
論文 参考訳(メタデータ) (2024-02-07T18:22:41Z) - Near-Minimax-Optimal Risk-Sensitive Reinforcement Learning with CVaR [58.40575099910538]
本研究は,リスク許容度が$tau$のCVaR(Conditional Value at Risk)の目的に着目し,リスクに敏感な強化学習(RL)について検討する。
ミニマックスCVaRの後悔率は$Omega(sqrttau-1AK)$で、$A$はアクションの数、$K$はエピソード数である。
我々は,このアルゴリズムが連続性仮定の下で$widetilde O(tau-1sqrtSAK)$の最適後悔を達成し,一般に近似することを示す。
論文 参考訳(メタデータ) (2023-02-07T02:22:31Z) - Active Sampling for Linear Regression Beyond the $\ell_2$ Norm [70.49273459706546]
対象ベクトルの少数のエントリのみを問合せすることを目的とした線形回帰のためのアクティブサンプリングアルゴリズムについて検討する。
我々はこの$d$への依存が対数的要因まで最適であることを示す。
また、損失関数に対して最初の全感度上界$O(dmax1,p/2log2 n)$を提供し、最大で$p$成長する。
論文 参考訳(メタデータ) (2021-11-09T00:20:01Z) - Nearly Horizon-Free Offline Reinforcement Learning [97.36751930393245]
S$状態、$A$アクション、計画的地平$H$で、エピソードな時間同質なMarkov決定プロセスに関するオフライン強化学習を再考する。
経験的MDPを用いた評価と計画のための,約$H$自由なサンプル複雑性境界の最初の集合を得る。
論文 参考訳(メタデータ) (2021-03-25T18:52:17Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Instance-Dependent Bounds for Zeroth-order Lipschitz Optimization with
Error Certificates [0.0]
コンパクト部分集合 $mathcal X$ of $mathbb Rd$ 上で定義されるリプシッツ関数 $f$ のゼロ次(ブラックボックス)最適化の問題を研究する。
我々は、任意のリプシッツ関数 $f$ の評価の最適な個数を特徴付け、精度$varepsilon$ で$f$ の近似器を見つけて証明する。
論文 参考訳(メタデータ) (2021-02-03T09:51:03Z) - The Complexity of Constrained Min-Max Optimization [29.57458485068705]
十分大きな局所点 min-max が存在することが保証されていることを示す。
さらに重要なこととして、近似的な固定勾配 Descent/Ascent 近似が完成することを示す。
この結果は、2つの基本的な最適化問題の指数関数近似を初めて示したものである。
論文 参考訳(メタデータ) (2020-09-21T05:54:12Z) - Greedy Adversarial Equilibrium: An Efficient Alternative to
Nonconvex-Nonconcave Min-Max Optimization [28.431572772564518]
リプシッツの$varepsilon$-greedy逆数モデルは任意の出発点から$max_z f(x, z)$に収束することを示す。
また、リプシッツの$nabla_y f(x,y)$が$d$, $1/varepsilon$であり、$nabla2_y f(x,y)$上の境界は$nabla2_yであることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:03:41Z) - Learning Near Optimal Policies with Low Inherent Bellman Error [115.16037976819331]
エピソード強化学習における近似線形作用値関数を用いた探索問題について検討する。
我々は,検討した設定に対して最適な統計率を達成するアルゴリズムを用いて,Emphbatch仮定のみを用いて探索を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2020-02-29T02:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。