論文の概要: On kernel-based statistical learning in the mean field limit
- arxiv url: http://arxiv.org/abs/2310.18074v1
- Date: Fri, 27 Oct 2023 11:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 13:54:29.780555
- Title: On kernel-based statistical learning in the mean field limit
- Title(参考訳): 平均場限におけるカーネルベース統計学習について
- Authors: Christian Fiedler, Michael Herty, Sebastian Trimpe
- Abstract要約: 機械学習の多くの応用において、多数の変数が考慮されている。
入力変数の数が無限大になる状況を考える。
特に、経験的および無限サンプル解の平均場収束性を示す。
- 参考スコア(独自算出の注目度): 7.2494787805712395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications of machine learning, a large number of variables are
considered. Motivated by machine learning of interacting particle systems, we
consider the situation when the number of input variables goes to infinity.
First, we continue the recent investigation of the mean field limit of kernels
and their reproducing kernel Hilbert spaces, completing the existing theory.
Next, we provide results relevant for approximation with such kernels in the
mean field limit, including a representer theorem. Finally, we use these
kernels in the context of statistical learning in the mean field limit,
focusing on Support Vector Machines. In particular, we show mean field
convergence of empirical and infinite-sample solutions as well as the
convergence of the corresponding risks. On the one hand, our results establish
rigorous mean field limits in the context of kernel methods, providing new
theoretical tools and insights for large-scale problems. On the other hand, our
setting corresponds to a new form of limit of learning problems, which seems to
have not been investigated yet in the statistical learning theory literature.
- Abstract(参考訳): 機械学習の多くの応用において、多くの変数が考慮される。
相互作用する粒子系の機械学習に動機づけられ,入力変数の数が無限になる状況について考察する。
まず、カーネルの平均場限とそれらの再生核ヒルベルト空間に関する最近の研究を継続し、既存の理論を完結させる。
次に、表現定理を含む平均場限界におけるそのようなカーネルとの近似に関する結果を提供する。
最後に,これらのカーネルを平均場限界における統計的学習の文脈で使用し,サポートベクターマシンに着目した。
特に,経験的および無限サンプル解の平均場収束と対応するリスクの収束を示す。
一方,カーネル手法の文脈における厳密な平均場限界を確立し,大規模問題に対する新たな理論ツールと洞察を提供する。
一方,この設定は,統計的学習理論の文献ではまだ研究されていないと思われる,学習問題の限界の新たな形態に対応している。
関連論文リスト
- A Statistical Learning Perspective on Semi-dual Adversarial Neural Optimal Transport Solvers [65.28989155951132]
本稿では,ミニマックス二次OT解法により得られた近似OT写像の一般化誤差の上限を確立する。
解析は二次 OT に焦点をあてるが、より一般的な OT の定式化のために類似した境界を導出できると考えている。
論文 参考訳(メタデータ) (2025-02-03T12:37:20Z) - Estimation of mutual information via quantum kernel method [0.0]
相互情報(MI)の推定は,複数の確率変数間の関係を非線形相関で調査する上で重要な役割を担っている。
本稿では,量子カーネルを用いた相互情報推定手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T00:53:16Z) - Improved learning theory for kernel distribution regression with two-stage sampling [9.468399367975984]
カーネルメソッドは分散回帰問題に取り組む方法として選択されている。
ヒルベルトの埋め込みに対して,新しい誤差境界を提供する新しい非バイアス条件を導入する。
この条件は、最適輸送と平均埋め込みに基づくカーネルの3つの重要なクラスに当てはまることを示す。
論文 参考訳(メタデータ) (2023-08-28T06:29:09Z) - Reproducing kernel Hilbert spaces in the mean field limit [6.844996517347866]
カーネルはカーネルによって生成される関数空間であり、再生カーネルヒルベルト空間と呼ばれる。
カーネルの厳密な平均場極限を示し、ヒルベルト空間を再現する極限の詳細な解析を行う。
論文 参考訳(メタデータ) (2023-02-28T09:46:44Z) - Kernelized Cumulants: Beyond Kernel Mean Embeddings [11.448622437140022]
我々は、テンソル代数のツールを用いて、累積をカーネルヒルベルト空間(RKHS)に拡張する。
我々は、次数1を超えることはいくつかの利点があり、同じ計算複雑性と最小限のオーバーヘッドで達成できると主張している。
論文 参考訳(メタデータ) (2023-01-29T15:31:06Z) - Interpolation with the polynomial kernels [5.8720142291102135]
カーネルは機械学習で広く使われており、カーネルベースの回帰モデルを開発するためのデフォルトの選択肢の1つである。
厳密な正定性がないため、数値解析ではほとんど使われない。
本論文は,これらのカーネルとその関連アルゴリズムの研究において,いくつかの初期結果を確立することを目的としている。
論文 参考訳(メタデータ) (2022-12-15T08:30:23Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Minimax Optimization: The Case of Convex-Submodular [50.03984152441271]
ミニマックス問題は連続領域を超えて連続離散領域や完全離散領域にまで拡張される。
連続変数に関して目的が凸であり、離散変数に関して部分モジュラーであるような凸-部分モジュラーミニマックス問題のクラスを導入する。
提案アルゴリズムは反復的であり、離散最適化と連続最適化の両方のツールを組み合わせる。
論文 参考訳(メタデータ) (2021-11-01T21:06:35Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。