論文の概要: Statistical Learning Theory for Distributional Classification
- arxiv url: http://arxiv.org/abs/2601.14818v1
- Date: Wed, 21 Jan 2026 09:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.319608
- Title: Statistical Learning Theory for Distributional Classification
- Title(参考訳): 分布分類のための統計的学習理論
- Authors: Christian Fiedler,
- Abstract要約: 分布入力を用いた教師付き学習では、入力は学習段階ではアクセスできないが、そのサンプルのみに限られる。
この問題は、まず分布やサンプルをヒルベルト空間に埋め込むカーネルベースの学習手法に特に当てはまる。
本稿では,SVMを用いた分布入力を用いた分類に着目し,後者の手法の理論解析に寄与する。
- 参考スコア(独自算出の注目度): 3.231986804142224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In supervised learning with distributional inputs in the two-stage sampling setup, relevant to applications like learning-based medical screening or causal learning, the inputs (which are probability distributions) are not accessible in the learning phase, but only samples thereof. This problem is particularly amenable to kernel-based learning methods, where the distributions or samples are first embedded into a Hilbert space, often using kernel mean embeddings (KMEs), and then a standard kernel method like Support Vector Machines (SVMs) is applied, using a kernel defined on the embedding Hilbert space. In this work, we contribute to the theoretical analysis of this latter approach, with a particular focus on classification with distributional inputs using SVMs. We establish a new oracle inequality and derive consistency and learning rate results. Furthermore, for SVMs using the hinge loss and Gaussian kernels, we formulate a novel variant of an established noise assumption from the binary classification literature, under which we can establish learning rates. Finally, some of our technical tools like a new feature space for Gaussian kernels on Hilbert spaces are of independent interest.
- Abstract(参考訳): 学習ベースの医療スクリーニングや因果学習などの応用に関係した2段階サンプリング設定における分布入力による教師あり学習では、学習段階において(確率分布である)入力はアクセスできないが、そのサンプルのみである。
この問題は、まず分布やサンプルをヒルベルト空間に埋め込んで、しばしばカーネル平均埋め込み(KME)を使い、次にヘルベルト空間上に定義されたカーネルを用いて、サポートベクトルマシン(SVM)のような標準的なカーネルメソッドを適用する、カーネルベースの学習手法に当てはまる。
本研究では,SVMを用いた分布入力を用いた分類に着目し,後者の手法の理論解析に寄与する。
我々は新しいオラクルの不平等を確立し、一貫性と学習率の結果を導出する。
さらに、ヒンジ損失とガウス核を用いたSVMに対して、二項分類文献から確立された雑音仮定の新しい変種を定式化し、学習率を確立する。
最後に、ヒルベルト空間上のガウス核の新機能空間のような技術的なツールには、独立した関心がある。
関連論文リスト
- Notes on Kernel Methods in Machine Learning [0.8435614464136675]
我々は、正定値カーネルの理論を開発し、カーネルヒルベルト空間(RKHS)とヒルベルト・シュミット作用素を再現する。
また、カーネル密度推定、分布のカーネル埋め込み、最大平均離散性(MMD)も導入する。
この展示は、ガウス過程、カーネルベイズ推論、モダン機械学習に対する機能解析的アプローチなど、より高度なトピックの基盤として機能するよう設計されている。
論文 参考訳(メタデータ) (2025-11-18T13:29:07Z) - On the Consistency of Kernel Methods with Dependent Observations [5.467140383171385]
本稿では,カーネル法においてこのような現象を説明する経験的弱収束(EWC)の概念を提案する。
EWCはランダムなデータ分布の存在を仮定し、フィールドにおける以前の仮定を厳格に弱める。
本研究は,学習過程の新たなクラスを統計的学習に開放し,i.d.以上の学習理論と混合の基礎として機能する。
論文 参考訳(メタデータ) (2024-06-10T08:35:01Z) - Improved learning theory for kernel distribution regression with two-stage sampling [10.371912403602735]
カーネルメソッドは分散回帰問題に取り組む方法として選択されている。
ヒルベルトの埋め込みに対して,新しい誤差境界を提供する新しい非バイアス条件を導入する。
この条件は、最適輸送と平均埋め込みに基づくカーネルの3つの重要なクラスに当てはまることを示す。
論文 参考訳(メタデータ) (2023-08-28T06:29:09Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Stationary Kernels and Gaussian Processes on Lie Groups and their Homogeneous Spaces II: non-compact symmetric spaces [43.877478563933316]
対称性は、考慮できる事前情報の最も基本的な形態の1つである。
本研究では,非ユークリッド空間の非常に大きなクラス上に定常ガウス過程を構築するための構築的および実践的手法を開発する。
論文 参考訳(メタデータ) (2023-01-30T17:27:12Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。