論文の概要: Geometric Sparse Coding in Wasserstein Space
- arxiv url: http://arxiv.org/abs/2210.12135v1
- Date: Fri, 21 Oct 2022 17:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:02:28.663344
- Title: Geometric Sparse Coding in Wasserstein Space
- Title(参考訳): ワッサースタイン空間における幾何スパース符号化
- Authors: Marshall Mueller, Shuchin Aeron, James M. Murphy, Abiy Tasissa
- Abstract要約: ワッサーシュタイン辞書学習は、ワッサーシュタイン中心の組合せとして観測された分布を生成する確率分布の集合を学習するための教師なしのアプローチである。
本稿では、近傍の辞書要素のみを用いてデータポイントの表現を促進するWasserstein空間の幾何学的にスパースな正規化器を提案する。
- 参考スコア(独自算出の注目度): 14.880505350054927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wasserstein dictionary learning is an unsupervised approach to learning a
collection of probability distributions that generate observed distributions as
Wasserstein barycentric combinations. Existing methods for Wasserstein
dictionary learning optimize an objective that seeks a dictionary with
sufficient representation capacity via barycentric interpolation to approximate
the observed training data, but without imposing additional structural
properties on the coefficients associated to the dictionary. This leads to
dictionaries that densely represent the observed data, which makes
interpretation of the coefficients challenging and may also lead to poor
empirical performance when using the learned coefficients in downstream tasks.
In contrast and motivated by sparse dictionary learning in Euclidean spaces, we
propose a geometrically sparse regularizer for Wasserstein space that promotes
representations of a data point using only nearby dictionary elements. We show
this approach leads to sparse representations in Wasserstein space and
addresses the problem of non-uniqueness of barycentric representation.
Moreover, when data is generated as Wasserstein barycenters of fixed
distributions, this regularizer facilitates the recovery of the generating
distributions in cases that are ill-posed for unregularized Wasserstein
dictionary learning. Through experimentation on synthetic and real data, we
show that our geometrically regularized approach yields sparser and more
interpretable dictionaries in Wasserstein space, which perform better in
downstream applications.
- Abstract(参考訳): wasserstein dictionary learningは、waserstein barycentric combinationとして観測された分布を生成する確率分布の集合を学習するための教師なしのアプローチである。
既存のwasserstein辞書学習の方法は、観察されたトレーニングデータを近似するために、バリセントリック補間によって十分な表現能力を持つ辞書を求める目的を最適化するが、辞書に関連する係数に付加的な構造的性質を課さない。
これは、観測されたデータを密に表現し、係数の解釈を困難にし、下流タスクで学習された係数を使用する際の経験的性能を低下させる可能性がある。
ユークリッド空間におけるスパース辞書学習によるモチベーションと対照的に、近傍の辞書要素のみを用いてデータポイントの表現を促進するワッサーシュタイン空間の幾何学的スパース正規化器を提案する。
このアプローチは、wasserstein空間におけるスパース表現につながり、バーリセントリック表現の非特異性の問題に対処する。
さらに、データが固定分布のwasserstein重心として生成される場合、非正規化wasserstein辞書学習に不用意な場合に、この正規化子により生成分布の回復が容易になる。
合成および実データを用いた実験により,我々の幾何学的正規化アプローチは,下流のアプリケーションにおいて優れた性能を発揮するwasserstein空間におけるスパルサーおよびより解釈可能な辞書をもたらすことを示した。
関連論文リスト
- Spectral Clustering for Discrete Distributions [22.450518079181542]
伝統的に、離散分布(D2C)のクラスタリングは、Wasserstein Barycenter法を用いてアプローチされてきた。
本研究では, スペクトルクラスタリングと分布親和性尺度を組み合わせることで, バリセンタ法よりも精度が高く, 効率的であることを示す。
クラスタリング分布における手法の成功を理論的に保証する。
論文 参考訳(メタデータ) (2024-01-25T03:17:03Z) - Wasserstein Dictionaries of Persistence Diagrams [7.320365821066744]
本稿では, 対応する最小化問題の効率的な解法として, マルチスケール勾配勾配降下法を提案する。
コントリビューションの効用を2つのアプリケーションで示します。
少数の原子で定義されたワッサーシュタイン辞書に基づく次元還元フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-28T13:58:14Z) - Wasserstein $K$-means for clustering probability distributions [16.153709556346417]
ユークリッド空間では、セントロイドと距離に基づくK$平均の定式化は同値である。
現代の機械学習アプリケーションでは、データは確率分布として発生し、測度値のデータを扱う自然な一般化は最適な輸送距離を使用する。
SDP緩和ワッサースタイン$K$-平均は、クラスターが2ドルワッサースタイン計量の下で十分に分離されているため、正確な回復を達成することができることを示す。
論文 参考訳(メタデータ) (2022-09-14T23:43:16Z) - Nonlinear Sufficient Dimension Reduction for
Distribution-on-Distribution Regression [9.086237593805173]
本稿では,予測値と応答値の両方が分布データである場合に,非線形に十分な次元を減少させる新しい手法を提案する。
我々の重要なステップは、計量空間上に普遍カーネル(cc-ユニバーサル)を構築することである。
論文 参考訳(メタデータ) (2022-07-11T04:11:36Z) - Wasserstein Iterative Networks for Barycenter Estimation [80.23810439485078]
生成モデルを用いて連続測度のワッサーシュタイン2バリセンターを近似するアルゴリズムを提案する。
有名人の顔のデータセットに基づいて、バリセンタアルゴリズムの定量的評価に使用できるAve, celeba!データセットを構築した。
論文 参考訳(メタデータ) (2022-01-28T16:59:47Z) - Continuous Wasserstein-2 Barycenter Estimation without Minimax
Optimization [94.18714844247766]
ワッサーシュタイン・バリセンターは、最適輸送に基づく確率測度の重み付き平均の幾何学的概念を提供する。
本稿では,Wasserstein-2 バリセンタのサンプルアクセスを演算するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-02T21:01:13Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - Wasserstein Exponential Kernels [13.136143245702915]
正規化ワッサーシュタイン距離によって定義される指数核の利用について検討する。
我々は、ワッサーシュタイン二乗指数核が、小さなトレーニングセットの形状に対してより小さな分類誤差をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-05T17:31:56Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z) - Disentangled Representation Learning with Wasserstein Total Correlation [90.44329632061076]
本稿では,変分オートエンコーダとワッサースタインオートエンコーダの設定に総相関を導入し,非絡み付き潜在表現を学習する。
批評家は、ワッサーシュタインの総相関項を推定する主な目的と共に、敵対的に訓練される。
提案手法は, 再建能力の犠牲が小さく, 絡み合いに匹敵する性能を有することを示す。
論文 参考訳(メタデータ) (2019-12-30T05:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。