論文の概要: Stochastic Sample Approximations of (Local) Moduli of Continuity
- arxiv url: http://arxiv.org/abs/2509.15368v1
- Date: Thu, 18 Sep 2025 19:13:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.879911
- Title: Stochastic Sample Approximations of (Local) Moduli of Continuity
- Title(参考訳): 局所的な連続性のモジュライの確率的サンプル近似
- Authors: Rodion Nazarov, Allen Gehret, Robert Shorten, Jakub Marecek,
- Abstract要約: 一般化された微分と局所連続性のモジュライの間の関係を再検討し、局所連続性のモジュライに対する非一様近似を示す。
これは、ニューラルネットワークの堅牢性と、その繰り返しの使用の公正性を研究する上で重要である。
- 参考スコア(独自算出の注目度): 5.753120284841028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modulus of local continuity is used to evaluate the robustness of neural networks and fairness of their repeated uses in closed-loop models. Here, we revisit a connection between generalized derivatives and moduli of local continuity, and present a non-uniform stochastic sample approximation for moduli of local continuity. This is of importance in studying robustness of neural networks and fairness of their repeated uses.
- Abstract(参考訳): 局所連続性のモジュラリティは、ニューラルネットワークの堅牢性と、閉ループモデルにおける繰り返しの使用の公正性を評価するために用いられる。
ここでは、一般化された微分と局所連続性のモジュラーとの接続を再検討し、局所連続性のモジュラーに対する非一様確率的サンプル近似を示す。
これは、ニューラルネットワークの堅牢性と、その繰り返しの使用の公正性を研究する上で重要である。
関連論文リスト
- Learning Stochastic Nonlinear Dynamics with Embedded Latent Transfer Operators [5.074981199059028]
非線形力学系の演算子に基づく潜在マルコフ表現を考える。
埋め込みは、例えばフィードフォワードニューラルネットワークで構築された再生カーネルを使って同時に学習することができる。
また、非線形系における逐次状態推定の一般化や、演算子に基づくダイナミクスの固有モード分解についても論じる。
論文 参考訳(メタデータ) (2025-01-06T02:25:48Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Analyzing Neural Network-Based Generative Diffusion Models through Convex Optimization [45.72323731094864]
本稿では,2層ニューラルネットワークを用いた拡散モデル解析のための理論的枠組みを提案する。
我々は,1つの凸プログラムを解くことで,スコア予測のための浅層ニューラルネットワークのトレーニングが可能であることを証明した。
本結果は, ニューラルネットワークに基づく拡散モデルが漸近的でない環境で何を学習するかを, 正確に評価するものである。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Discretization Invariant Networks for Learning Maps between Neural
Fields [3.09125960098955]
離散化不変ニューラルネットワーク(DI-Net)の理解と設計のための新しいフレームワークを提案する。
我々の分析は、異なる有限離散化の下でのモデル出力の偏差の上限を確立する。
構成により、DI-Netsは可積分函数空間間の大きな写像のクラスを普遍的に近似することが証明される。
論文 参考訳(メタデータ) (2022-06-02T17:44:03Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。