論文の概要: Wasserstein-based Kernel Principal Component Analysis for Clustering Applications
- arxiv url: http://arxiv.org/abs/2503.14357v2
- Date: Tue, 14 Oct 2025 12:15:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:31.934864
- Title: Wasserstein-based Kernel Principal Component Analysis for Clustering Applications
- Title(参考訳): クラスタリングのためのWasserstein-based Kernel principal Component Analysis
- Authors: Alfredo Oneto, Blazhe Gjorgiev, Giovanni Sansavini,
- Abstract要約: 本稿では,カーネルとワッサーシュタイン距離を組み合わせ,分散データをクラスタリングするための教師なしフレームワークを提案する。
このフレームワークはベクトルデータと分散データの両方に対応でき、様々な分野のアプリケーションを可能にする。
- 参考スコア(独自算出の注目度): 2.141079906482723
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many data clustering applications must handle objects that cannot be represented as vectors. In this context, the bag-of-vectors representation describes complex objects through discrete distributions, for which the Wasserstein distance provides a well-conditioned dissimilarity measure. Kernel methods extend this by embedding distance information into feature spaces that facilitate analysis. However, an unsupervised framework that combines kernels with Wasserstein distances for clustering distributional data is still lacking. We address this gap by introducing a computationally tractable framework that integrates Wasserstein metrics with kernel methods for clustering. The framework can accommodate both vectorial and distributional data, enabling applications in various domains. It comprises three components: (i) an efficient approximation of pairwise Wasserstein distances using multiple reference distributions; (ii) shifted positive definite kernel functions based on Wasserstein distances, combined with kernel principal component analysis for feature mapping; and (iii) scalable, distance-agnostic validity indices for clustering evaluation and kernel parameter optimization. Experiments on power distribution graphs and real-world time series demonstrate the effectiveness and efficiency of the proposed framework.
- Abstract(参考訳): 多くのデータクラスタリングアプリケーションは、ベクトルとして表現できないオブジェクトを扱う必要があります。
この文脈において、ベクトルの袋表現は、ワッサーシュタイン距離がよく条件付けられた相似性測度を提供する離散分布を通して複素対象を記述する。
カーネル法は、解析を容易にする特徴空間に距離情報を埋め込むことによってこれを拡張する。
しかし、カーネルとワッサーシュタイン距離を組み合わせて分散データをクラスタ化するアン教師なしのフレームワークは、いまだに不足している。
我々は、Wassersteinメトリクスとクラスタリングのカーネルメソッドを統合する、計算的に抽出可能なフレームワークを導入することで、このギャップに対処する。
このフレームワークはベクトルデータと分散データの両方に対応でき、様々な分野のアプリケーションを可能にする。
構成成分は3つ。
(i)複数基準分布を用いたペアワイズワッサーシュタイン距離の効率的な近似
(ii) ワッサーシュタイン距離に基づく正定値カーネル関数と特徴写像のためのカーネル主成分解析を併用すること。
3)クラスタリング評価とカーネルパラメータ最適化のための拡張性,距離に依存しない妥当性指標。
配電グラフと実世界の時系列実験により,提案手法の有効性と有効性を示した。
関連論文リスト
- Faithful Density-Peaks Clustering via Matrix Computations on MPI Parallelization System [7.594123537718585]
密度ピーククラスタリング(DP)は任意の形状のクラスタを検出し、非ユークリッド空間データをクラスタリングする能力を持つ。
本稿では,2種類のベクトル状距離行列と逆前ノードファイリングポリシを併用した忠実かつ並列なDP法を提案する。
本手法は,コミュニティ検出などの非ユークリッドデータをクラスタリングすると同時に,大規模ユークリッドデータをクラスタリングする場合の精度において,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2024-06-18T06:05:45Z) - Spectral Clustering for Discrete Distributions [22.450518079181542]
伝統的に、離散分布(D2C)のクラスタリングは、Wasserstein Barycenter法を用いてアプローチされてきた。
本研究では, スペクトルクラスタリングと分布親和性尺度を組み合わせることで, バリセンタ法よりも精度が高く, 効率的であることを示す。
クラスタリング分布における手法の成功を理論的に保証する。
論文 参考訳(メタデータ) (2024-01-25T03:17:03Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - Wasserstein $K$-means for clustering probability distributions [16.153709556346417]
ユークリッド空間では、セントロイドと距離に基づくK$平均の定式化は同値である。
現代の機械学習アプリケーションでは、データは確率分布として発生し、測度値のデータを扱う自然な一般化は最適な輸送距離を使用する。
SDP緩和ワッサースタイン$K$-平均は、クラスターが2ドルワッサースタイン計量の下で十分に分離されているため、正確な回復を達成することができることを示す。
論文 参考訳(メタデータ) (2022-09-14T23:43:16Z) - Learning non-Gaussian graphical models via Hessian scores and triangular
transport [6.308539010172309]
連続分布と非ガウス分布のマルコフ構造を学習するアルゴリズムを提案する。
このアルゴリズムは三角トランスポートマップによって誘導される決定論的結合を用いて密度を推定し、グラフのスパース性を明らかにするために地図内のスパース構造を反復的に活用する。
論文 参考訳(メタデータ) (2021-01-08T16:42:42Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Graph Neural Networks with Composite Kernels [60.81504431653264]
カーネル重み付けの観点からノード集約を再解釈する。
本稿では,アグリゲーション方式における特徴類似性を考慮したフレームワークを提案する。
特徴空間における特徴類似性をエンコードするために,元の隣り合うカーネルと学習可能なカーネルの合成として特徴集約を提案する。
論文 参考訳(メタデータ) (2020-05-16T04:44:29Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - Wasserstein Exponential Kernels [13.136143245702915]
正規化ワッサーシュタイン距離によって定義される指数核の利用について検討する。
我々は、ワッサーシュタイン二乗指数核が、小さなトレーニングセットの形状に対してより小さな分類誤差をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-05T17:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。