論文の概要: Kernelized Cumulants: Beyond Kernel Mean Embeddings
- arxiv url: http://arxiv.org/abs/2301.12466v2
- Date: Sun, 29 Oct 2023 09:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:29:05.343738
- Title: Kernelized Cumulants: Beyond Kernel Mean Embeddings
- Title(参考訳): Kernelized Cumulants: Kernel Mean Embeddingsを超えて
- Authors: Patric Bonnier, Harald Oberhauser, Zolt\'an Szab\'o
- Abstract要約: 我々は、テンソル代数のツールを用いて、累積をカーネルヒルベルト空間(RKHS)に拡張する。
我々は、次数1を超えることはいくつかの利点があり、同じ計算複雑性と最小限のオーバーヘッドで達成できると主張している。
- 参考スコア(独自算出の注目度): 11.448622437140022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In $\mathbb R^d$, it is well-known that cumulants provide an alternative to
moments that can achieve the same goals with numerous benefits such as lower
variance estimators. In this paper we extend cumulants to reproducing kernel
Hilbert spaces (RKHS) using tools from tensor algebras and show that they are
computationally tractable by a kernel trick. These kernelized cumulants provide
a new set of all-purpose statistics; the classical maximum mean discrepancy and
Hilbert-Schmidt independence criterion arise as the degree one objects in our
general construction. We argue both theoretically and empirically (on
synthetic, environmental, and traffic data analysis) that going beyond degree
one has several advantages and can be achieved with the same computational
complexity and minimal overhead in our experiments.
- Abstract(参考訳): $\mathbb R^d$ では、累積が、低分散推定器のような多くの利点で同じ目標を達成するモーメントの代替となることが知られている。
本稿では、テンソル代数のツールを用いて、累積をカーネルヒルベルト空間(RKHS)に拡張し、カーネルトリックによって計算可能となることを示す。
古典的な最大誤差とヒルベルト=シュミット独立基準は、我々の一般的な構成における次数 1 の対象として生じる。
理論上も実証的にも(合成、環境、交通データ分析において)、次数1を超えるといくつかの利点があり、同じ計算複雑性と最小のオーバーヘッドで達成できると論じている。
関連論文リスト
- The Minimax Rate of HSIC Estimation for Translation-Invariant Kernels [0.0]
連続有界変換不変特性核を持つガウス環を含むボレル測度に対する$mathbb Rd$のHSIC推定の最小値が$mathcal O!left(n-1/2right)$であることを証明する。
論文 参考訳(メタデータ) (2024-03-12T15:13:21Z) - Ito Diffusion Approximation of Universal Ito Chains for Sampling,
Optimization and Boosting [72.01080271666859]
この研究は、幾らかの微分方程式のオイラー・マルヤマ離散化のように見える、より一般で幅広いマルコフ連鎖、伊藤鎖を考える。
ほぼ任意の等方性ノイズと状態依存ノイズが伴うが、ほとんどの関連論文ではそうである。
我々の鎖のドリフトと拡散係数は、グラディエント・ランゲヴィン・ダイナミクス、サンプリング、グラディエント・ダイスティング、グラディエント・ブースティングのような広範囲の応用をカバーするために不完全である。
論文 参考訳(メタデータ) (2023-10-09T18:38:56Z) - Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - Nystr\"om $M$-Hilbert-Schmidt Independence Criterion [0.0]
カーネルをユビキタスにする主な特徴は、 (i) 設計された領域の数、 (ii) カーネルに関連する関数クラスのヒルベルト構造、 (iii) 情報を失うことなく確率分布を表現する能力である。
我々は、Mge 2$のケースを処理し、その一貫性を証明し、その適用性を実証する代替のNystr"omベースのHSIC推定器を提案する。
論文 参考訳(メタデータ) (2023-02-20T11:51:58Z) - Stationary Kernels and Gaussian Processes on Lie Groups and their
Homogeneous Spaces II: non-compact symmetric spaces [63.79710443490585]
対称性は、考慮できる事前情報の最も基本的な形態の1つである。
本研究では,非ユークリッド空間の非常に大きなクラス上に定常ガウス過程を構築するための構築的および実践的手法を開発する。
論文 参考訳(メタデータ) (2023-01-30T17:27:12Z) - Interpolation with the polynomial kernels [5.8720142291102135]
カーネルは機械学習で広く使われており、カーネルベースの回帰モデルを開発するためのデフォルトの選択肢の1つである。
厳密な正定性がないため、数値解析ではほとんど使われない。
本論文は,これらのカーネルとその関連アルゴリズムの研究において,いくつかの初期結果を確立することを目的としている。
論文 参考訳(メタデータ) (2022-12-15T08:30:23Z) - A Dynamical System View of Langevin-Based Non-Convex Sampling [84.61544861851907]
非サンプリングは機械学習における重要な課題であり、ディープラーニングにおける非レート最適化の中心であり、その重要性を近似する。
既存の保証は通常、より望ましい最終段階の反復よりも平均距離のみを保持する。
我々は、理論システムからいくつかのツールを活用することにより、上記の問題を解消する新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-25T09:43:36Z) - Revisiting Memory Efficient Kernel Approximation: An Indefinite Learning
Perspective [0.8594140167290097]
マトリックス近似は、大規模機械学習アプローチにおいて重要な要素である。
我々はMEKAをシフト不変カーネルだけでなく、非定常カーネルにも適用できるように拡張する。
我々は、安定な正の半定値MEKA近似を開発するために、スペクトルシフトのランツォスに基づく推定を提案する。
論文 参考訳(メタデータ) (2021-12-18T10:01:34Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Strong Uniform Consistency with Rates for Kernel Density Estimators with
General Kernels on Manifolds [11.927892660941643]
本稿では,ユーザによって設計されていない複雑なカーネルを用いて,カーネル密度推定の処理方法を示す。
本稿では,統計社会においてよく考慮されるVapnik-Chervonenkisクラスのカーネルとは異なる異方性カーネルについて述べる。
論文 参考訳(メタデータ) (2020-07-13T14:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。