論文の概要: Controlling Wasserstein Distances by Kernel Norms with Application to
Compressive Statistical Learning
- arxiv url: http://arxiv.org/abs/2112.00423v3
- Date: Wed, 31 May 2023 09:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 23:35:30.291312
- Title: Controlling Wasserstein Distances by Kernel Norms with Application to
Compressive Statistical Learning
- Title(参考訳): カーネルノルムによるwaserstein距離の制御と圧縮統計的学習への応用
- Authors: Titouan Vayer, R\'emi Gribonval
- Abstract要約: 本稿では, ワッサーシュタイン距離をMDDノルムで制御できる条件を確立する。
CSLの既存の結果にインスパイアされ、H'older Lower Restricted Isometric Propertyを導入し、この性質が圧縮統計的学習に興味深い保証をもたらすことを示す。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Comparing probability distributions is at the crux of many machine learning
algorithms. Maximum Mean Discrepancies (MMD) and Wasserstein distances are two
classes of distances between probability distributions that have attracted
abundant attention in past years. This paper establishes some conditions under
which the Wasserstein distance can be controlled by MMD norms. Our work is
motivated by the compressive statistical learning (CSL) theory, a general
framework for resource-efficient large scale learning in which the training
data is summarized in a single vector (called sketch) that captures the
information relevant to the considered learning task. Inspired by existing
results in CSL, we introduce the H\"older Lower Restricted Isometric Property
and show that this property comes with interesting guarantees for compressive
statistical learning. Based on the relations between the MMD and the
Wasserstein distances, we provide guarantees for compressive statistical
learning by introducing and studying the concept of Wasserstein regularity of
the learning task, that is when some task-specific metric between probability
distributions can be bounded by a Wasserstein distance.
- Abstract(参考訳): 確率分布を比較することは、多くの機械学習アルゴリズムの要点である。
最大平均差 (MMD) とワッサーシュタイン距離 (Wasserstein distances) は、近年注目されている確率分布間の距離のクラスである。
本稿では,wasserstein距離をmmdノルムで制御できる条件について述べる。
我々の研究は、資源効率の高い大規模学習のための一般的なフレームワークである圧縮統計学習(CSL)理論によって動機付けられ、トレーニングデータを単一のベクトル(スケッチと呼ばれる)にまとめ、検討された学習タスクに関連する情報をキャプチャする。
CSLの既存の結果にインスパイアされ、H\"より古い下限等尺性を導入し、この性質が圧縮統計的学習の興味深い保証をもたらすことを示す。
mmdとwasserstein距離の関係に基づいて,学習タスクのwasserstein正規性の概念,すなわち確率分布間のタスク固有計量をwasserstein距離で境界づけることができる場合を紹介・検討することにより,圧縮的統計学習の保証を提供する。
関連論文リスト
- Near-Optimal Learning and Planning in Separated Latent MDPs [70.88315649628251]
我々は、潜在マルコフ決定過程(LMDP)の計算的および統計的側面について研究する。
このモデルでは、学習者は、未知のMDPの混合から各エポックの開始時に描画されたMDPと相互作用する。
論文 参考訳(メタデータ) (2024-06-12T06:41:47Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - Statistical, Robustness, and Computational Guarantees for Sliced
Wasserstein Distances [18.9717974398864]
スライスされたワッサーシュタイン距離は古典的なワッサーシュタイン距離の性質を保ちながら、高次元での計算と推定によりスケーラブルである。
このスケーラビリティを, (i) 経験的収束率, (ii) データの汚染に対する堅牢性, (iii) 効率的な計算方法という3つの重要な側面から定量化する。
論文 参考訳(メタデータ) (2022-10-17T15:04:51Z) - Distribution Regression with Sliced Wasserstein Kernels [45.916342378789174]
分布回帰のための最初のOTに基づく推定器を提案する。
このような表現に基づくカーネルリッジ回帰推定器の理論的性質について検討する。
論文 参考訳(メタデータ) (2022-02-08T15:21:56Z) - Density Ratio Estimation via Infinitesimal Classification [85.08255198145304]
そこで我々は, DRE-inftyを提案する。 DRE-inftyは, 密度比推定(DRE)を, より簡単なサブプロブレムに還元する手法である。
モンテカルロ法にインスパイアされ、中間ブリッジ分布の無限連続体を介して2つの分布の間を滑らかに補間する。
提案手法は,複雑な高次元データセット上での相互情報推定やエネルギーベースモデリングなどの下流タスクにおいて良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-22T06:26:29Z) - Projected Statistical Methods for Distributional Data on the Real Line
with the Wasserstein Metric [0.0]
本研究では,実線上の確率分布のデータセットに関する統計解析を行うための,新規な予測手法を提案する。
特に主成分分析(PCA)と回帰に重点を置いています。
モデルのいくつかの理論的性質が研究され、一貫性が証明される。
論文 参考訳(メタデータ) (2021-01-22T10:24:49Z) - Two-sample Test using Projected Wasserstein Distance [18.46110328123008]
統計学と機械学習の基本的な問題である2サンプルテストのための予測されたワッサースタイン距離を開発する。
重要な貢献は、投影された確率分布の間のワッサーシュタイン距離を最大化する低次元線型写像を見つけるために最適射影を結合することである。
論文 参考訳(メタデータ) (2020-10-22T18:08:58Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。