論文の概要: Computing Fixpoints of Learned Functions: Chaotic Iteration and Simple Stochastic Games
- arxiv url: http://arxiv.org/abs/2601.16142v1
- Date: Thu, 22 Jan 2026 17:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.676787
- Title: Computing Fixpoints of Learned Functions: Chaotic Iteration and Simple Stochastic Games
- Title(参考訳): 学習関数の固定点の計算:カオス反復と単純な確率ゲーム
- Authors: Paolo Baldan, Sebastian Gurke, Barbara König, Florian Wittbold,
- Abstract要約: 我々は、減衰反復マンと呼ばれる反復スキームを一般化する。
削減された反復は、様々な確率モデルで期待される支払いを計算するために、すぐに適用されることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of determining the (least) fixpoint of (higher-dimensional) functions over the non-negative reals frequently occurs when dealing with systems endowed with a quantitative semantics. We focus on the situation in which the functions of interest are not known precisely but can only be approximated. As a first contribution we generalize an iteration scheme called dampened Mann iteration, recently introduced in the literature. The improved scheme relaxes previous constraints on parameter sequences, allowing learning rates to converge to zero or not converge at all. While seemingly minor, this flexibility is essential to enable the implementation of chaotic iterations, where only a subset of components is updated in each step, allowing to tackle higher-dimensional problems. Additionally, by allowing learning rates to converge to zero, we can relax conditions on the convergence speed of function approximations, making the method more adaptable to various scenarios. We also show that dampened Mann iteration applies immediately to compute the expected payoff in various probabilistic models, including simple stochastic games, not covered by previous work.
- Abstract(参考訳): 非負実数上の(高次元の)関数の(最小の)固定点を決定する問題は、定量的意味論によって与えられるシステムを扱うときに頻繁に発生する。
興味の関数が正確には分かっていないが、近似できる状況に焦点をあてる。
最初の貢献として、最近文献で紹介された「減衰マン反復」と呼ばれる反復スキームを一般化する。
改良されたスキームは、パラメータ列に関する以前の制約を緩和し、学習率が0に収束するか、全く収束しないかを許容する。
一見マイナーなように見えるが、この柔軟性はカオス的なイテレーションの実装を可能にするために不可欠である。
さらに、学習速度をゼロにすることで、関数近似の収束速度の条件を緩和し、様々なシナリオに適応させることができる。
また,従来の作業ではカバーされていなかった単純な確率ゲームを含む,様々な確率的モデルにおける期待された支払いを計算するために,減衰したマン反復が直ちに適用されることを示す。
関連論文リスト
- Approximating Fixpoints of Approximated Functions [0.31457219084519]
正確には知られていないが、それらに収束する近似関数列で表される関数の最小固定点を近似する方法を示す。
この結果は,確率的誤差境界で関心関数を近似できるシステムに対して,最小の固定点にほぼ確実に反復することができる。
論文 参考訳(メタデータ) (2025-01-15T16:52:21Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Restarts subject to approximate sharpness: A parameter-free and optimal scheme for first-order methods [0.6554326244334866]
シャープネス(Sharpness)は、目的関数の準最適性によってミニマからの距離を束縛する連続最適化における仮定である。
シャープネスは、通常不明な問題固有の定数を伴い、再起動スキームは通常収束率を減少させる。
対象関数の誤差に未知の定数摂動を組み込んだシャープネスの一般化である近似シャープネスの仮定を考察する。
論文 参考訳(メタデータ) (2023-01-05T19:01:41Z) - Optimal Algorithms for Stochastic Complementary Composite Minimization [55.26935605535377]
統計学と機械学習における正規化技術に触発され,補完的な複合化の最小化について検討した。
予測と高い確率で、新しい過剰なリスク境界を提供する。
我々のアルゴリズムはほぼ最適であり、このクラスの問題に対して、新しいより低い複雑性境界によって証明する。
論文 参考訳(メタデータ) (2022-11-03T12:40:24Z) - Cardinality-Minimal Explanations for Monotonic Neural Networks [25.212444848632515]
本稿では,単調関数を実装したニューラルモデルに着目して,トラクタビリティを回復できるかどうかを検討する。
関連する決定問題は引き続き難解であるが、有利な時間で解決可能であることを示すことができる。
論文 参考訳(メタデータ) (2022-05-19T23:47:25Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。