論文の概要: Interpolating between Clustering and Dimensionality Reduction with
Gromov-Wasserstein
- arxiv url: http://arxiv.org/abs/2310.03398v1
- Date: Thu, 5 Oct 2023 09:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:54:24.210258
- Title: Interpolating between Clustering and Dimensionality Reduction with
Gromov-Wasserstein
- Title(参考訳): gromov-wassersteinによるクラスタリングと次元縮小の補間
- Authors: Hugues Van Assel, C\'edric Vincent-Cuaz, Titouan Vayer, R\'emi
Flamary, Nicolas Courty
- Abstract要約: 入力と埋め込みサンプルの対応性は、半緩和されたGromov-Wasserstein最適輸送問題によって計算される。
埋め込みの次元が制約されない場合、OTプランが競合するハードクラスタリングを提供することを示す。
- 参考スコア(独自算出の注目度): 13.656958543737211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a versatile adaptation of existing dimensionality reduction (DR)
objectives, enabling the simultaneous reduction of both sample and feature
sizes. Correspondances between input and embedding samples are computed through
a semi-relaxed Gromov-Wasserstein optimal transport (OT) problem. When the
embedding sample size matches that of the input, our model recovers classical
popular DR models. When the embedding's dimensionality is unconstrained, we
show that the OT plan delivers a competitive hard clustering. We emphasize the
importance of intermediate stages that blend DR and clustering for summarizing
real data and apply our method to visualize datasets of images.
- Abstract(参考訳): 本稿では,既存の次元還元(DR)目標を多目的に適応させ,サンプルと特徴の同時縮小を可能にする。
入力と埋め込みサンプルの対応は、半相対型gromov-wasserstein optimal transport (ot)問題によって計算される。
埋め込みサンプルサイズが入力の値と一致する場合、我々のモデルは古典的なDRモデルを復元する。
組込みの次元が拘束されない場合、otプランが競合的なハードクラスタリングをもたらすことを示す。
本稿では,実データを要約するためにdrとクラスタリングをブレンドする中間段階の重要性を強調し,画像のデータセットの可視化に本手法を適用する。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Revisiting data augmentation for subspace clustering [21.737226432466496]
サブスペースクラスタリング(Subspace clustering)は、複数の低次元のサブスペースを囲むデータサンプルの集合をクラスタリングする古典的な問題である。
我々は,各部分空間内のデータ分布が自己表現モデルの成功に重要な役割を果たしていると主張している。
教師なし設定と半教師なし設定の2つのサブスペースクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T08:13:08Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。