論文の概要: Kernel Mean Embedding Topology: Weak and Strong Forms for Stochastic Kernels and Implications for Model Learning
- arxiv url: http://arxiv.org/abs/2502.13486v1
- Date: Wed, 19 Feb 2025 07:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:58:33.138894
- Title: Kernel Mean Embedding Topology: Weak and Strong Forms for Stochastic Kernels and Implications for Model Learning
- Title(参考訳): カーネル平均埋め込みトポロジー:確率的カーネルの弱弱強形式とモデル学習への応用
- Authors: Naci Saldi, Serdar Yuksel,
- Abstract要約: 我々はカーネルに対するカーネル平均埋め込みトポロジーと呼ばれる新しいトポロジーを弱強形式で導入する。
このトポロジーにはいくつかの性質があり、最適性、近似、頑健性、連続性の研究が理想的であることを示す。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License:
- Abstract: We introduce a novel topology, called Kernel Mean Embedding Topology, for stochastic kernels, in a weak and strong form. This topology, defined on the spaces of Bochner integrable functions from a signal space to a space of probability measures endowed with a Hilbert space structure, allows for a versatile formulation. This construction allows one to obtain both a strong and weak formulation. (i) For its weak formulation, we highlight the utility on relaxed policy spaces, and investigate connections with the Young narrow topology and Borkar (or \( w^* \))-topology, and establish equivalence properties. We report that, while both the \( w^* \)-topology and kernel mean embedding topology are relatively compact, they are not closed. Conversely, while the Young narrow topology is closed, it lacks relative compactness. (ii) We show that the strong form provides an appropriate formulation for placing topologies on spaces of models characterized by stochastic kernels with explicit robustness and learning theoretic implications on optimal stochastic control under discounted or average cost criteria. (iii) We show that this topology possesses several properties making it ideal to study optimality, approximations, robustness and continuity properties. In particular, the kernel mean embedding topology has a Hilbert space structure, which is particularly useful for approximating stochastic kernels through simulation data.
- Abstract(参考訳): 本稿では,確率的カーネルに対するカーネル平均埋め込みトポロジー(Kernel Mean Embedding Topology)と呼ばれる新しいトポロジーを,弱強形式で導入する。
この位相は、信号空間からヒルベルト空間構造によって与えられる確率測度の空間へのボヒナー可積分函数の空間上で定義され、多元的定式化が可能である。
この構成により、強い定式化と弱い定式化の両方を得ることができる。
(i) 弱定式化のために、緩和されたポリシー空間の効用を強調し、ヤング狭絡位相とボルカール位相(または、(w^* \))-位相との関係を調べ、同値性を確立する。
我々は、(w^* \)-位相とカーネル平均埋め込みトポロジーの両方が比較的コンパクトであるが、それらは閉でないことを報告している。
逆に、ヤング狭位相は閉であるが、相対コンパクト性に欠ける。
(II) 強靭性は, 確率的カーネルを特徴とするモデルの空間上に位相を配置するための適切な定式化と, 割引あるいは平均コスト条件下での最適確率制御に対する理論的含意を学習するためのものであることを示す。
3) このトポロジーには、最適性、近似、頑健性、連続性などを研究するのに理想的ないくつかの性質があることが示される。
特に、カーネル平均埋め込みトポロジーはヒルベルト空間構造を持ち、シミュレーションデータによる確率的カーネルの近似に特に有用である。
関連論文リスト
- Neural reproducing kernel Banach spaces and representer theorems for
deep networks [16.279502878600184]
ディープニューラルネットワークが適切な再生カーネルバナッハ空間を定義することを示す。
応用において一般的に用いられる有限アーキテクチャを正当化する代表者定理を導出する。
論文 参考訳(メタデータ) (2024-03-13T17:51:02Z) - Topological Obstructions and How to Avoid Them [22.45861345237023]
局所最適性は特異点や不正確な次数や巻数によって生じる可能性があることを示す。
本稿では,データポイントを幾何学空間上のマルチモーダル分布にマッピングするフローベースモデルを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:56:14Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Geometric Constraints in Probabilistic Manifolds: A Bridge from
Molecular Dynamics to Structured Diffusion Processes [0.0]
ユークリッド空間における任意の幾何制約の集合に厳密に固執する分布からのサンプリングを可能にする手法を提案する。
これは、制約プロジェクション演算子をDenoising Diffusion Probabilistic Modelsのよく考えられたアーキテクチャに統合することで達成される。
論文 参考訳(メタデータ) (2023-07-10T11:31:15Z) - Sparse Representer Theorems for Learning in Reproducing Kernel Banach
Spaces [7.695772976072261]
学習ソリューションのスパシティは、機械学習において望ましい機能である。
ある再生カーネルバナッハ空間(RKBS)はスパース学習法に適した仮説空間である。
論文 参考訳(メタデータ) (2023-05-21T22:36:32Z) - Recursive Estimation of Conditional Kernel Mean Embeddings [0.0]
カーネル平均埋め込みは、ヒルベルト空間(RKHS)を再現するカーネルの要素への確率分布を写像する
ヒルベルト空間における条件付きカーネル平均写像を、ボヒナー空間である$L$空間で推定する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-12T16:55:58Z) - Minimal Neural Atlas: Parameterizing Complex Surfaces with Minimal
Charts and Distortion [71.52576837870166]
我々は、新しいアトラスに基づく明示的なニューラルサーフェス表現であるミニマルニューラルアトラスを提案する。
その中核は完全学習可能なパラメトリック領域であり、パラメトリック空間の開平方上で定義された暗黙の確率的占有場によって与えられる。
我々の再構成は、トポロジーと幾何学に関する懸念の分離のため、全体的な幾何学の観点からより正確である。
論文 参考訳(メタデータ) (2022-07-29T16:55:06Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - A Unifying and Canonical Description of Measure-Preserving Diffusions [60.59592461429012]
ユークリッド空間における測度保存拡散の完全なレシピは、最近、いくつかのMCMCアルゴリズムを単一のフレームワークに統合した。
我々は、この構成を任意の多様体に改善し一般化する幾何学理論を開発する。
論文 参考訳(メタデータ) (2021-05-06T17:36:55Z) - Dynamical solitons and boson fractionalization in cold-atom topological
insulators [110.83289076967895]
Incommensurate densities において $mathbbZ$ Bose-Hubbard モデルについて検討する。
我々は、$mathbbZ$フィールドの欠陥が基底状態にどのように現れ、異なるセクターを接続するかを示す。
ポンピングの議論を用いて、有限相互作用においても生き残ることを示す。
論文 参考訳(メタデータ) (2020-03-24T17:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。