論文の概要: Symmetry-Breaking Descent for Invariant Cost Functionals
- arxiv url: http://arxiv.org/abs/2505.13578v1
- Date: Mon, 19 May 2025 15:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.456242
- Title: Symmetry-Breaking Descent for Invariant Cost Functionals
- Title(参考訳): ムノメトリブレーキングによるコスト関数の不変化
- Authors: Mikhail Osipov,
- Abstract要約: 我々は,大域対称性群$GサブセットのMathrmDiff(M)$の下でコストが不変である場合,Sobolev-classシグナル$S$上で定義されるタスクコスト関数$W(S)$の削減問題を考察する。
入力信号の明示的対称性を破る変形を構成するために,対称性構造を利用する変分法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study the problem of reducing a task cost functional $W(S)$, defined over Sobolev-class signals $S$, when the cost is invariant under a global symmetry group $G \subset \mathrm{Diff}(M)$ and accessible only as a black-box. Such scenarios arise in machine learning, imaging, and inverse problems, where cost metrics reflect model outputs or performance scores but are non-differentiable and model-internal. We propose a variational method that exploits the symmetry structure to construct explicit, symmetry-breaking deformations of the input signal. A gauge field $\phi$, obtained by minimizing an auxiliary energy functional, induces a deformation $h = A_\phi[S]$ that generically lies transverse to the $G$-orbit of $S$. We prove that, under mild regularity, the cost $W$ strictly decreases along this direction -- either via Clarke subdifferential descent or by escaping locally flat plateaus. The exceptional set of degeneracies has zero Gaussian measure. Our approach requires no access to model gradients or labels and operates entirely at test time. It provides a principled tool for optimizing invariant cost functionals via Lie-algebraic variational flows, with applications to black-box models and symmetry-constrained tasks.
- Abstract(参考訳): 我々は,グローバル対称性群$G \subset \mathrm{Diff}(M)$の下ではコストが不変であり,ブラックボックスとしてのみアクセス可能な場合,ソボレフ級信号$S$で定義されるタスクコスト関数$W(S)$の削減問題を考察する。
このようなシナリオは、コストメトリクスがモデル出力やパフォーマンススコアを反映するが、微分不可能でモデル内部的な機械学習、イメージング、逆問題に現れます。
入力信号の明示的対称性を破る変形を構成するために,対称性構造を利用する変分法を提案する。
補助エネルギー関数を最小化して得られるゲージ場$\phi$は、変形$h = A_\phi[S]$を誘導する。
穏やかな規則性の下では、コスト$W$はこの方向に沿って厳密に減少し、クラーク部分微分降下または局所平坦な台地から逃れることによって証明する。
例外的な退化の集合はガウス測度をゼロとする。
私たちのアプローチでは、モデル勾配やラベルへのアクセスは不要で、テスト時に完全に動作します。
これはリー代数的変動流による不変コスト汎関数を最適化するための原則化されたツールを提供し、ブラックボックスモデルや対称性に制約されたタスクに応用する。
関連論文リスト
- Transformers as Support Vector Machines [54.642793677472724]
自己アテンションの最適化幾何と厳密なSVM問題との間には,形式的等価性を確立する。
勾配降下に最適化された1層変圧器の暗黙バイアスを特徴付ける。
これらの発見は、最適なトークンを分離し選択するSVMの階層としてのトランスフォーマーの解釈を刺激していると信じている。
論文 参考訳(メタデータ) (2023-08-31T17:57:50Z) - EDGI: Equivariant Diffusion for Planning with Embodied Agents [17.931089055248062]
身体的エージェントは構造化された世界で動作し、しばしば空間的、時間的、置換的な対称性でタスクを解く。
本稿では,モデルに基づく強化学習のためのアルゴリズムであるEquivariant diffuser for Generating Interactions (EDGI)を紹介する。
EDGI は非同変モデルよりもかなり効率的なサンプルであり、対称性群全体にわたってより一般化される。
論文 参考訳(メタデータ) (2023-03-22T09:19:39Z) - Adaptive Stochastic Variance Reduction for Non-convex Finite-Sum
Minimization [52.25843977506935]
有限サム構造をもつ$L$-smooth, non-deuction関数に対して, AdaSpider と呼ばれる適応分散法を提案する。
そうすることで、$tildeOleft + st/epsilonコールで$epsilon-stationaryポイントを計算することができます。
論文 参考訳(メタデータ) (2022-11-03T14:41:46Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - Linear programming with unitary-equivariant constraints [2.0305676256390934]
ユニタリ同値(英: Unitary equivariance)は、物理学や数学において多くの文脈で発生する自然な対称性である。
追加の対称性の仮定の下では、この問題は、$d$でスケールしない時間で解決できる線形プログラムに還元されることを示す。
また,本手法を一般ユニタリ同変半定プログラムに拡張する可能性についても概説する。
論文 参考訳(メタデータ) (2022-07-12T17:37:04Z) - Machine learning a manifold [0.0]
人工ニューラルネットワークによる回帰によるデータセットの連続リー代数対称性の同定法を提案する。
我々の提案は、入力変数上の無限小対称性変換の下での出力変数のスケーリングを$mathcalO(epsilon2)$に活用する。
論文 参考訳(メタデータ) (2021-12-14T19:00:00Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。