論文の概要: Supervised learning with probabilistic morphisms and kernel mean
embeddings
- arxiv url: http://arxiv.org/abs/2305.06348v1
- Date: Wed, 10 May 2023 17:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 11:56:42.048899
- Title: Supervised learning with probabilistic morphisms and kernel mean
embeddings
- Title(参考訳): 確率射とカーネル平均埋め込みによる教師付き学習
- Authors: H\^ong V\^an L\^e
- Abstract要約: 教師付き学習の生成モデルにおける正しい損失関数は、仮説空間の要素と監督演算子の相違を正確に測定する必要がある。
回帰モデルの学習可能性に関するCucker-Smaleによる結果の一般化を条件付き確率推定問題の設定に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper I propose a concept of a correct loss function in a generative
model of supervised learning for an input space $\mathcal{X}$ and a label space
$\mathcal{Y}$, which are measurable spaces. A correct loss function in a
generative model of supervised learning must correctly measure the discrepancy
between elements of a hypothesis space $\mathcal{H}$ of possible predictors and
the supervisor operator, which may not belong to $\mathcal{H}$. To define
correct loss functions, I propose a characterization of a regular conditional
probability measure $\mu_{\mathcal{Y}|\mathcal{X}}$ for a probability measure
$\mu$ on $\mathcal{X} \times \mathcal{Y}$ relative to the projection
$\Pi_{\mathcal{X}}: \mathcal{X}\times\mathcal{Y}\to \mathcal{X}$ as a solution
of a linear operator equation. If $\mathcal{Y}$ is a separable metrizable
topological space with the Borel $\sigma$-algebra $ \mathcal{B} (\mathcal{Y})$,
I propose another characterization of a regular conditional probability measure
$\mu_{\mathcal{Y}|\mathcal{X}}$ as a minimizer of a mean square error on the
space of Markov kernels, called probabilistic morphisms, from $\mathcal{X}$ to
$\mathcal{Y}$, using kernel mean embedding. Using these results and using inner
measure to quantify generalizability of a learning algorithm, I give a
generalization of a result due to Cucker-Smale, which concerns the learnability
of a regression model, to a setting of a conditional probability estimation
problem. I also give a variant of Vapnik's method of solving stochastic
ill-posed problem, using inner measure and discuss its applications.
- Abstract(参考訳): 本稿では,実測可能な空間である入力空間 $\mathcal{X}$ とラベル空間 $\mathcal{Y}$ に対する教師付き学習の生成モデルにおける正しい損失関数の概念を提案する。
教師付き学習の生成モデルにおける正しい損失関数は、可能な予測子の仮説空間 $\mathcal{h}$ と、$\mathcal{h}$ に属するかもしれないスーパーバイザ演算子の要素間の不一致を正しく測定しなければならない。
正しい損失関数を定義するために、確率測度 $\mu$ on $\mathcal{x} \times \mathcal{y}$ に対する正規条件付き確率測度 $\mu_{\mathcal{y}|\mathcal{x}}$ を、線型作用素方程式の解として、$\pi_{\mathcal{x}}: \mathcal{x}\times\mathcal{y}\to \mathcal{x}$ に対して特徴づける。
もし$\mathcal{y}$ が分離可能な距離化可能な位相空間で、ボレル $\sigma$-algebra $ \mathcal{b} (\mathcal{y})$ が成り立つなら、正規条件付き確率測度 $\mu_{\mathcal{y}|\mathcal{x}}$ を、マルコフ核の空間上の平均二乗誤差の最小値として、$\mathcal{x}$ から$\mathcal{y}$ に、カーネル平均埋め込みを用いた別の特徴付けを提案する。
これらの結果を用いて、学習アルゴリズムの一般化可能性の定量化に内部測度を用いて、回帰モデルの学習可能性に関するCucker-Smaleによる結果の一般化を条件付き確率推定問題の設定に与える。
また,vapnikの確率的不適切な問題を解く手法の変種を内的尺度を用いて提示し,その応用について考察する。
関連論文リスト
- Imitation Learning from Observations: An Autoregressive Mixture of Experts Approach [2.4427666827706074]
本稿では,観察から得られた模倣学習の新たなアプローチとして,専門家モデルの自己回帰混合を,その基礎となる方針に適合させる手法を提案する。
提案手法の有効性を,人間の実演から収集した2つの自律走行データセットを用いて検証した。
論文 参考訳(メタデータ) (2024-11-12T22:56:28Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Uniform Error and Posterior Variance Bounds for Gaussian Process
Regression with Application to Safe Control [11.42419064387567]
本論文では,Lipschitzを用いた新しい一様誤差と,大規模カーネルの後方分散関数の解析について述べる。
これらの結果は、未知の動的システムの安全な制御を保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-01-13T20:06:30Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Variance based sensitivity analysis for Monte Carlo and importance
sampling reliability assessment with Gaussian processes [0.0]
本稿では,2つの不確実性源に対する故障推定器の感度を定量的に評価する手法を提案する。
この分析により、故障確率推定に関連する全誤差を制御でき、推定の精度基準を提供する。
本手法は, モンテカルロ法と重要サンプリング法の両方で提案され, 希少事象確率の推定を改善することを目的としている。
論文 参考訳(メタデータ) (2020-11-30T17:06:28Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - A Contraction Approach to Model-based Reinforcement Learning [11.701145942745274]
本研究では, 累積報酬の誤差を縮尺法を用いて解析する。
分岐ロールアウトは、このエラーを減らすことができることを証明します。
本稿では,GAN型学習は,識別器が十分に訓練されている場合に,行動クローンよりも有利であることを示す。
論文 参考訳(メタデータ) (2020-09-18T02:03:14Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。